JPH07152787A - Information access system and recording medium - Google Patents

Information access system and recording medium

Info

Publication number
JPH07152787A
JPH07152787A JP6001840A JP184094A JPH07152787A JP H07152787 A JPH07152787 A JP H07152787A JP 6001840 A JP6001840 A JP 6001840A JP 184094 A JP184094 A JP 184094A JP H07152787 A JPH07152787 A JP H07152787A
Authority
JP
Japan
Prior art keywords
information
voice
unit
access system
publication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6001840A
Other languages
Japanese (ja)
Inventor
Masao Watari
雅男 渡
Makoto Akaha
誠 赤羽
Tetsuya Kagami
徹也 加賀美
Kazuo Ishii
和夫 石井
Yusuke Iwahashi
祐輔 岩橋
Yasuhiko Kato
靖彦 加藤
Hiroaki Ogawa
浩明 小川
Masanori Omote
雅則 表
Kazuo Watanabe
一夫 渡辺
Katsuki Minamino
活樹 南野
Koji Asano
康治 浅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP6001840A priority Critical patent/JPH07152787A/en
Publication of JPH07152787A publication Critical patent/JPH07152787A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To improve the operability of a system and to set the system to be convenient even for a physically handicapped user by permitting a center system to transmit phonetic symbol information to a terminal and the terminal to receive phonetic symbol information. CONSTITUTION:A book data base 5 stores phonetic symbol information including vocal sound information and rhythm information. The center system 1 transmits phonetic symbol information stored in the book data base 5 to the terminal 2, and the terminal 2 receives the transmitted phonetic symbol information. Thus, phonetic symbol information stored in the book data base 5 can be supplied to a user with a synthetic sound by synthesizing sound based on the phonetic symbol information. Thus, the operability of the system is improved and the physically handicapped user can easily use the system.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、例えば新聞や雑誌、書
籍などの刊行物に関する情報や、音楽情報、旅行情報、
住宅情報などを記憶しているデータベースを有するセン
ターシステムに、ターミナルからアクセスする場合に用
いて好適な情報アクセスシステムに関する。
BACKGROUND OF THE INVENTION The present invention relates to information about publications such as newspapers, magazines, books, music information, travel information,
The present invention relates to an information access system suitable for use in accessing a center system having a database storing house information and the like from a terminal.

【0002】[0002]

【従来の技術】従来、センターシステムのデータベース
に、ユーザが自宅などからアクセスすることのできる情
報アクセスシステムとしては、例えば住宅の賃貸情報や
売買情報などからなる住宅情報のファクシミリサービス
システムなどがある。このシステムにおいては、センタ
ーシステムのデータベースに、住宅情報誌に記載された
住宅情報の詳細が記憶されており、ユーザは、例えば電
話回線を介してセンターシステムにアクセスし、所望す
る住宅情報の情報番号を、プッシュボタンを操作するな
どして入力することによって、所望する電話番号のファ
クシミリから、所望する住宅情報の詳細を得ることがで
きるようになされている。
2. Description of the Related Art Conventionally, as an information access system that allows a user to access a database of a center system from home or the like, there is, for example, a house information facsimile service system including house rental information and sales information. In this system, the details of the house information described in the house information magazine are stored in the database of the center system, and the user accesses the center system via, for example, a telephone line, and the information number of the desired house information. By operating the push button or the like, the details of the desired housing information can be obtained from the facsimile of the desired telephone number.

【0003】また、情報アクセスシステムとしては、例
えば銀行などの預金者が、電話で(電話回線を介して)
銀行のセンターシステムにアクセスし、自身の口座番号
を、プッシュボタンを操作するなどして入力することに
よって、残高照会などを行うことができるシステムもあ
る。
As an information access system, for example, a depositor such as a bank uses a telephone (via a telephone line).
There is also a system in which the balance inquiry can be performed by accessing the center system of the bank and inputting the own account number by operating a push button or the like.

【0004】さらには、例えば発行年月日や、著者、出
版社、キーワードなどを入力することによって、所望す
る図書を検索することができるようになされている情報
アクセスシステムなどもある。
Further, there is also an information access system in which a desired book can be searched by inputting the date of publication, the author, the publisher, the keyword, etc., for example.

【0005】[0005]

【発明が解決しようとする課題】ところで、以上のよう
な情報アクセスシステムにおいては、ターミナルを操作
することによって、即ち電話機やファクシミリのプッシ
ュボタンを操作したり、あるいはキーボードを操作する
ことによって所望する情報を得ることができるようにな
されている。
In the information access system as described above, desired information is operated by operating a terminal, that is, operating push buttons of a telephone or a facsimile or operating a keyboard. You are able to get.

【0006】しかしながら、プッシュボタンやキーボー
ドの操作は、身体に障害を持つユーザ、特に視覚に障害
を有するユーザや、手足を自由に動かすことのできない
ユーザにとっては困難であった。
However, the operation of the push buttons and the keyboard has been difficult for users with physical disabilities, especially for visually impaired users and users who cannot freely move their limbs.

【0007】本発明は、このような状況に鑑みてなされ
たものであり、システムの操作性を向上させ、身体に障
害を持つユーザにとっても使いやすいシステムを提供す
ることができるようにするものである。
The present invention has been made in view of such a situation, and is to improve the operability of the system and to provide a system that is easy to use even for a user with a physical disability. is there.

【0008】[0008]

【課題を解決するための手段】請求項1に記載の情報ア
クセスシステムは、情報を記憶した、例えば図書データ
ベース5などのデータベースを有するセンターシステム
と、センターシステム1と通信回線によって接続され、
図書データベース5の情報にアクセスするターミナル2
とからなる情報アクセスシステムにおいて、図書データ
ベース5が、音韻情報と韻律情報を含む発音記号情報を
少なくとも記憶しており、センターシステム1が、図書
データベース5に記憶された発音記号情報を、ターミナ
ル2に送信し、ターミナル2が、センターシステム1か
ら送信された発音記号情報を受信することを特徴とす
る。
An information access system according to claim 1 is connected with a center system having a database, such as a book database 5, which stores information, and the center system 1 by a communication line.
Terminal 2 to access information in the book database 5
In the information access system consisting of, the book database 5 stores at least phonetic symbol information including phonological information and prosody information, and the center system 1 transfers the phonetic symbol information stored in the book database 5 to the terminal 2. It is characterized in that the terminal 2 receives the phonetic symbol information transmitted from the center system 1.

【0009】請求項2に記載の情報アクセスシステム
は、ターミナル2が、発音記号情報から音声を合成する
音声合成手段としての音声合成装置2−6を備えること
を特徴とする。
According to another aspect of the information access system of the present invention, the terminal 2 comprises a voice synthesizing device 2-6 as a voice synthesizing means for synthesizing a voice from phonetic symbol information.

【0010】請求項3に記載の情報アクセスシステム
は、発音記号情報が、刊行物に関するものであることを
特徴とする。
An information access system according to a third aspect is characterized in that the phonetic symbol information relates to a publication.

【0011】請求項4に記載の情報アクセスシステム
は、ターミナル2が、所望する刊行物のキーワードを入
力する入力手段としてのマイク2−21、キーボード2
−3、ボタン部2−4、またはジョグシャトル部2−5
をさらに備え、マイク2−21、キーボード2−3、ボ
タン部2−4、またはジョグシャトル部2−5より出力
されるキーワードを、センターシステム1に送信し、セ
ンターシステム1が、ターミナル2から送信されたキー
ワードに対応する刊行物に関する発音記号情報を、図書
データベース5から検索する検索手段としての検索部3
−6をさらに備え、検索部3−6の検索結果を、ターミ
ナル2に送信することを特徴とする。
In the information access system according to the fourth aspect, the terminal 2 is a microphone 2-21 as an input means for inputting a keyword of a desired publication, and a keyboard 2
-3, button section 2-4, or jog shuttle section 2-5
Further, the keyword output from the microphone 2-21, the keyboard 2-3, the button section 2-4, or the jog shuttle section 2-5 is transmitted to the center system 1, and the center system 1 transmits from the terminal 2. Search unit 3 as a search means for searching phonetic symbol information on a publication corresponding to the selected keyword from the book database 5.
-6 is further provided, and the search result of the search unit 3-6 is transmitted to the terminal 2.

【0012】請求項5に記載の情報アクセスシステム
は、センターシステム1が、検索部3−6の検索結果で
ある刊行物に関する発音記号情報のうち、その概要に関
するものを、ターミナル2に送信することを特徴とす
る。
In the information access system according to claim 5, the center system 1 transmits, to the terminal 2, the phonetic symbol information relating to the publication, which is the search result of the search unit 3-6, regarding the outline thereof. Is characterized by.

【0013】請求項6に記載の情報アクセスシステム
は、マイク2−21には、所望する刊行物のキーワード
が、音声によって入力され、センターシステム1が、マ
イク2−21に入力された音声を認識する音声認識手段
としての認識部3−4をさらに備え、検索部3−6が、
認識部3−4の認識結果に基づいて、刊行物に関する発
音記号情報を、図書データベース5から検索することを
特徴とする。
In the information access system according to the sixth aspect, the keyword of the desired publication is input to the microphone 2-21 by voice, and the center system 1 recognizes the voice input to the microphone 2-21. Further, a recognition unit 3-4 as a voice recognition means for
It is characterized in that the phonetic symbol information regarding the publication is searched from the book database 5 based on the recognition result of the recognition unit 3-4.

【0014】請求項7に記載の情報アクセスシステム
は、認識部3−4が、マイク2−21に、複数のキーワ
ードが、音声によって入力された場合、その複数のキー
ワードそれぞれの音声認識結果の組み合わせがあり得る
か否かを判定し、その判定結果に基づいて、複数のキー
ワードそれぞれの音声認識結果を出力することを特徴と
する。
In the information access system according to claim 7, when the recognition unit 3-4 inputs a plurality of keywords into the microphone 2-21 by voice, a combination of voice recognition results of the plurality of keywords is combined. It is characterized in that it determines whether or not there is a possibility, and outputs the speech recognition result of each of the plurality of keywords based on the determination result.

【0015】請求項8に記載の情報アクセスシステム
は、入力手段が、キーボード、ボタン、ジョグダイヤ
ル、またはシャトルリングでなることを特徴とする。
The information access system according to claim 8 is characterized in that the input means is a keyboard, a button, a jog dial, or a shuttle ring.

【0016】請求項9に記載の情報アクセスシステム
は、ターミナル2が、発音記号情報を、例えば磁気ディ
スクや磁気テープ、光ディスク、光磁気ディスクなどの
記録媒体に記録する記録手段としての情報記録再生装置
2−12をさらに備えることを特徴とする。
In the information access system according to claim 9, the terminal 2 is an information recording / reproducing apparatus as recording means for recording phonetic symbol information on a recording medium such as a magnetic disk, a magnetic tape, an optical disk or a magneto-optical disk. 2-12 is further provided.

【0017】請求項10に記載の情報アクセスシステム
は、ターミナル2が、記録媒体に記録された発音記号情
報を再生する再生手段としての情報記録再生装置2−1
2をさらに備えることを特徴とする。
In the information access system according to the tenth aspect, the terminal 2 is an information recording / reproducing apparatus 2-1 as a reproducing means for reproducing the phonetic symbol information recorded on the recording medium.
2 is further provided.

【0018】請求項11に記載の情報アクセスシステム
は、ターミナル2が、音声合成装置2−6より出力され
る合成音の所定の位置にマークを付加するマーク付加手
段としてのプログラムの処理ステップS2−10をさら
に備え、音声合成装置2−6が、マークが付加された位
置から、合成音を再合成して出力することを特徴とす
る。
In the information access system according to the eleventh aspect of the present invention, the processing step S2- of the program as the mark addition means for the terminal 2 to add the mark to the predetermined position of the synthesized sound output from the voice synthesizer 2-6. The speech synthesizer 2-6 is further provided with 10, and is characterized in that the synthesized speech is resynthesized and outputted from the position where the mark is added.

【0019】請求項12に記載の情報アクセスシステム
は、センターシステム1と、センターシステム1と通信
回線によって接続されたターミナル2とからなる情報ア
クセスシステムにおいて、ターミナル2が、音声を入力
する音声入力手段としてのマイク2−21と、マイク2
−21に入力された音声を音響分析する音響分析手段と
しての分析部2−23とを備え、分析部2−23の音響
分析結果を、センターシステム1に送信し、センターシ
ステム1が、ターミナル2から送信された分析部2−2
3の音響分析結果に基づいて、音声認識を行うセンター
側音声認識手段としての認識部3−4と、認識部3−4
の音声認識結果に対応して、所定の処理を行うセンター
側制御手段としてのシステム制御部3−3とを備えるこ
とを特徴とする。
The information access system according to claim 12 is an information access system comprising a center system 1 and a terminal 2 connected to the center system 1 by a communication line, wherein the terminal 2 inputs a voice input means. 2-21 and microphone 2 as
And an analysis unit 2-23 as an acoustic analysis unit that acoustically analyzes the voice input to -21. The acoustic analysis result of the analysis unit 2-23 is transmitted to the center system 1, and the center system 1 transmits the result to the terminal 2. Analysis section 2-2 sent from
Based on the acoustic analysis result of No. 3, the recognition unit 3-4 as the center side voice recognition means for performing voice recognition, and the recognition unit 3-4.
And a system control unit 3-3 as a center side control unit that performs a predetermined process in accordance with the voice recognition result.

【0020】請求項13に記載の情報アクセスシステム
は、システム制御部3−3が、認識部3−4の音声認識
結果を、ターミナル2に送信することを特徴とする。
The information access system according to a thirteenth aspect is characterized in that the system control section 3-3 transmits the voice recognition result of the recognition section 3-4 to the terminal 2.

【0021】請求項14に記載の情報アクセスシステム
は、認識部3−4が、ディクテーションによって音声認
識を行い、ターミナル2が、システム制御部3−3から
送信された認識部3−4の音声認識結果のうち、誤認識
された部分を修正する音声認識結果修正手段としての音
声認識装置2−2、キーボード2−3、ボタン部2−
4、またはジョグシャトル部2−5をさらに備え、音声
認識装置2−2、キーボード2−3、ボタン部2−4、
またはジョグシャトル部2−5による修正結果を、セン
ターシステム1に送信することを特徴とする。
In the information access system according to claim 14, the recognition unit 3-4 performs voice recognition by dictation, and the terminal 2 recognizes the voice of the recognition unit 3-4 transmitted from the system control unit 3-3. Of the results, a voice recognition device 2-2 as a voice recognition result correction means for correcting the erroneously recognized part, a keyboard 2-3, a button section 2-
4 or a jog shuttle unit 2-5 is further provided, and a voice recognition device 2-2, a keyboard 2-3, a button unit 2-4,
Alternatively, the correction result by the jog shuttle unit 2-5 is transmitted to the center system 1.

【0022】請求項15に記載の情報アクセスシステム
は、音声認識結果修正手段が、ジョグダイヤルまたはシ
ャトルリングでなることを特徴とする。
An information access system according to a fifteenth aspect is characterized in that the voice recognition result correction means is a jog dial or a shuttle ring.

【0023】請求項16に記載の情報アクセスシステム
は、認識部3−4が、ディクテーションによって音声認
識を行い、システム制御部3−3から送信された認識部
3−4の音声認識結果が誤っている場合、マイク2−2
1には、音声が再入力され、認識部3−4が、マイク2
−21に再入力された音声を、誤った音声認識結果をふ
まえて、再度音声認識することを特徴とする。
In the information access system according to the sixteenth aspect, the recognition unit 3-4 performs voice recognition by dictation, and the voice recognition result of the recognition unit 3-4 transmitted from the system control unit 3-3 is incorrect. If so, microphone 2-2
1, the voice is re-input, and the recognition unit 3-4 causes the microphone 2 to
It is characterized in that the voice re-inputted to -21 is again voice-recognized based on the incorrect voice recognition result.

【0024】請求項17に記載の情報アクセスシステム
は、ターミナル2が、システム制御部3−3から送信さ
れた認識部3−4の音声認識結果に対応する音声を合成
する音声合成手段としての音声合成装置2−6をさらに
備えることを特徴とする。
In the information access system according to the seventeenth aspect, the terminal 2 is a voice as a voice synthesizing means for synthesizing a voice corresponding to the voice recognition result of the recognition unit 3-4 transmitted from the system control unit 3-3. It is characterized by further comprising a synthesizer 2-6.

【0025】請求項18に記載の情報アクセスシステム
は、ターミナル2が、分析部2−23の音響分析結果に
基づいて、音声認識を行うターミナル側音声認識手段と
しての認識部2−24と、認識部2−24の音声認識結
果に対応して、所定の処理を行うターミナル側制御手段
としての中央制御装置2−1とをさらに備えることを特
徴とする。
In the information access system according to claim 18, the terminal 2 recognizes, based on the acoustic analysis result of the analysis section 2-23, a recognition section 2-24 as a terminal side voice recognition means, and recognition. It is characterized by further comprising a central control device 2-1 as a terminal side control means for performing a predetermined process in response to the voice recognition result of the section 2-24.

【0026】請求項19に記載の情報アクセスシステム
は、センターシステム1が、刊行物に関する情報を記憶
しているデータベースとしての図書データベース5をさ
らに備え、システム制御部3−3が、認識部3−4の音
声認識結果に対応して、刊行物に関する情報を、図書デ
ータベース5から検索し、ターミナル2に送信すること
を特徴とする。
In the information access system according to the nineteenth aspect, the center system 1 further includes a book database 5 as a database storing information about publications, and the system control unit 3-3 and the recognition unit 3-. Information about publications is searched from the book database 5 and transmitted to the terminal 2 in accordance with the voice recognition result of No. 4.

【0027】請求項20に記載の情報アクセスシステム
は、ターミナル2が、システム制御部3−3によって送
信された刊行物に関する情報に対応する音声を合成する
音声合成手段としての音声合成装置2−6をさらに備え
ることを特徴とする。
[0027] In the information access system according to the twentieth aspect, the terminal 2 synthesizes the voice corresponding to the information on the publication transmitted by the system control unit 3-3, as a voice synthesizing device 2-6. Is further provided.

【0028】請求項21に記載の情報アクセスシステム
は、ターミナル2が、音声認識の対象となる語彙の範囲
を、センターシステム1に送信し、認識部3−4が、タ
ーミナル2から送信された語彙の範囲で、音声認識を行
うことを特徴とする。
In the information access system according to the twenty-first aspect, the terminal 2 transmits the range of the vocabulary to be subjected to the voice recognition to the center system 1, and the recognition unit 3-4 transmits the vocabulary transmitted from the terminal 2. The feature is that voice recognition is performed in the range of.

【0029】請求項22に記載の情報アクセスシステム
は、ターミナル2が、分析部2−23の音響分析結果を
圧縮して、センターシステム1に送信することを特徴と
する。
The information access system according to a twenty-second aspect is characterized in that the terminal 2 compresses the acoustic analysis result of the analysis section 2-23 and transmits it to the center system 1.

【0030】請求項23に記載の情報アクセスシステム
は、ターミナル2が、システム制御部3−3によって送
信された刊行物に関する情報を出力する点字ディスプレ
イとしてのディスプレイ2−7または点字プリンタとし
てのプリンタ2−8をさらに備えることを特徴とする。
In the information access system according to the twenty-third aspect, the terminal 2 outputs the information about the publication transmitted by the system control unit 3-3 to the display 2-7 as a braille display or the printer 2 as a braille printer. -8 is further provided.

【0031】請求項24に記載の情報アクセスシステム
は、音声が、単語単位または音節単位で発話されたもの
であることを特徴とする。
An information access system according to a twenty-fourth aspect is characterized in that the voice is uttered in word units or syllable units.

【0032】請求項25に記載の情報アクセスシステム
は、ターミナル2が、音声合成装置2−6により合成さ
れた合成音を、例えば磁気テープや、磁気ディスク、光
ディスク、光磁気ディスクなどの記録媒体に記録する記
録手段としての音声記録再生装置2−13をさらに備え
ることを特徴とする。
In the information access system according to the twenty-fifth aspect, the terminal 2 outputs the synthesized sound synthesized by the voice synthesizer 2-6 to a recording medium such as a magnetic tape, a magnetic disk, an optical disk or a magneto-optical disk. The audio recording / reproducing apparatus 2-13 as recording means for recording is further provided.

【0033】請求項26に記載の情報アクセスシステム
は、ターミナル2が、音声合成装置2−6が合成して出
力する合成音を制御する合成音制御手段としての音声認
識装置2−2、キーボード2−3、ボタン部2−4、ま
たはジョグシャトル部2−5をさらに備えることを特徴
とする。
In the information access system according to the twenty-sixth aspect of the present invention, the terminal 2 uses the voice recognition device 2-2 as the synthetic voice control means for controlling the synthetic voice which the voice synthesizer 2-6 synthesizes and outputs, and the keyboard 2. -3, a button portion 2-4, or a jog shuttle portion 2-5 is further provided.

【0034】請求項27に記載の情報アクセスシステム
は、音声認識装置2−2、キーボード2−3、ボタン部
2−4、またはジョグシャトル部2−5が、合成音の声
質を制御することを特徴とする。請求項28に記載の情
報アクセスシステムは、音声認識装置2−2、キーボー
ド2−3、ボタン部2−4、またはジョグシャトル部2
−5が、合成音の発話速度を制御することを特徴とす
る。
In the information access system according to the twenty-seventh aspect, the voice recognition device 2-2, the keyboard 2-3, the button section 2-4, or the jog shuttle section 2-5 controls the voice quality of the synthesized voice. Characterize. The information access system according to claim 28 is the voice recognition device 2-2, the keyboard 2-3, the button unit 2-4, or the jog shuttle unit 2.
-5 controls the speech rate of the synthetic sound.

【0035】請求項29に記載の情報アクセスシステム
は、音声認識装置2−2、キーボード2−3、ボタン部
2−4、またはジョグシャトル部2−5が、合成音の声
の高さを制御することを特徴とする。
In the information access system according to claim 29, the voice recognition device 2-2, the keyboard 2-3, the button part 2-4, or the jog shuttle part 2-5 controls the pitch of the synthesized voice. It is characterized by doing.

【0036】請求項30に記載の情報アクセスシステム
は、合成音制御手段が、ジョグダイヤルまたはシャトル
リングでなることを特徴とする。
An information access system according to a thirtieth aspect is characterized in that the synthesized voice control means is a jog dial or a shuttle ring.

【0037】請求項31に記載の情報アクセスシステム
は、ターミナル2が、記録媒体に記録された合成音を再
生する再生手段としての音声記録再生装置2−13をさ
らに備えることを特徴とする。
An information access system according to a thirty-first aspect is characterized in that the terminal 2 further comprises an audio recording / reproducing device 2-13 as a reproducing means for reproducing the synthetic sound recorded on the recording medium.

【0038】請求項32に記載の情報アクセスシステム
は、音声記録再生装置2−13が、合成音を逆再生する
ことを特徴とする。
An information access system according to a thirty-second aspect is characterized in that the voice recording / reproducing apparatus 2-13 reversely reproduces the synthetic sound.

【0039】請求項33に記載の情報アクセスシステム
は、音声合成装置2−6が、合成音を、所定の聴覚特性
に対応して補正する特性補正手段としての難聴者用補正
部2−64または難聴者用周波数補正部2−66を備え
ることを特徴とする。
In the information access system according to a thirty-third aspect, the voice synthesizing device 2-6 corrects the synthesized sound in accordance with a predetermined auditory characteristic, as a characteristic correcting means, for the hearing-impaired person. It is characterized by comprising a frequency correction unit 2-66 for the deaf.

【0040】請求項34に記載の情報アクセスシステム
は、所定の聴覚特性が、変更可能であることを特徴とす
る。
An information access system according to a thirty-fourth aspect is characterized in that a predetermined auditory characteristic can be changed.

【0041】請求項35に記載の情報アクセスシステム
は、難聴者用補正部2−64または難聴者用周波数補正
部2−66が、フィルタでなることを特徴とする。
The information access system according to the thirty-fifth aspect is characterized in that the correction unit 2-64 for the hearing impaired or the frequency correction unit 2-66 for the deaf is a filter.

【0042】請求項36に記載の記録媒体は、音韻情報
および韻律情報を含む発音記号情報が記録されているこ
とを特徴とする。
A recording medium according to a thirty-sixth aspect is characterized in that phonetic symbol information including phoneme information and prosody information is recorded.

【0043】請求項37に記載の情報アクセスシステム
は、センターシステム1が、刊行物に関する情報から発
音記号情報を作成し、図書データベース5に記憶させる
オーサリングシステム4をさらに備えることを特徴とす
る。
An information access system according to a thirty-seventh aspect is characterized in that the center system 1 further comprises an authoring system 4 which creates phonetic symbol information from information on publications and stores it in the book database 5.

【0044】請求項38に記載の情報アクセスシステム
は、オーサリングシステム4が、発音記号情報を編集す
る編集手段としての発音記号列編集部4−5を備えるこ
とを特徴とする。
The information access system according to a thirty-eighth aspect is characterized in that the authoring system 4 comprises a phonetic symbol string editing unit 4-5 as an editing means for editing phonetic symbol information.

【0045】請求項39に記載の情報アクセスシステム
は、オーサリングシステム4が、発音記号情報から音声
を合成する音声合成手段としての規則合成部4−77を
備えることを特徴とする。
The information access system according to a thirty-ninth aspect is characterized in that the authoring system 4 includes a rule synthesizing section 4-77 as a voice synthesizing means for synthesizing a voice from phonetic symbol information.

【0046】請求項40に記載の情報アクセスシステム
は、オーサリングシステム4が、刊行物のテキストデー
タを解析し、その解析結果に基づいて、発音記号情報を
生成する解析手段としてのテキスト解析部4−3を備え
ることを特徴とする。
In the information access system according to claim 40, the authoring system 4 analyzes the text data of the publication and, based on the analysis result, generates the phonetic symbol information. 3 is provided.

【0047】請求項41に記載の情報アクセスシステム
は、オーサリングシステム4が、テキスト解析部4−3
の解析結果に、刊行物のテキストデータにおける単語の
読みの誤りがあった場合には、その単語の読みの誤りを
訂正する読み誤り訂正手段としての単語の読み訂正部4
−71をさらに備えることを特徴とする。
In the information access system according to the forty-first aspect, the authoring system 4 includes the text analysis unit 4-3.
If the analysis result of 1) includes a reading error of a word in the text data of the publication, the word reading correction unit 4 as a reading error correction unit that corrects the reading error of the word.
-71 is further provided.

【0048】請求項42に記載の情報アクセスシステム
は、オーサリングシステム4が、テキスト解析部4−3
の解析結果に、刊行物のテキストデータにおける母音の
無声化の誤りがあった場合には、その母音の無声化の誤
りを訂正する無声化誤り訂正手段としての音韻の無声化
/有声化訂正部4−73をさらに備えることを特徴とす
る。
In the information access system according to claim 42, the authoring system 4 includes the text analysis unit 4-3.
If the vowel devoicing error in the text data of the publication is found in the analysis result of, the phonological unvoicing / voicing correction unit as a voicing error correction means for correcting the vowel devoicing error. 4-73 is further provided.

【0049】請求項43に記載の情報アクセスシステム
は、オーサリングシステム4が、テキスト解析部4−3
の解析結果に、刊行物のテキストデータにおける単語の
アクセントの誤りがあった場合には、その単語のアクセ
ントの誤りを訂正するアクセント誤り訂正手段としての
アクセント訂正部4−75をさらに備えることを特徴と
する。
In the information access system according to the forty-third aspect, the authoring system 4 includes the text analysis section 4-3.
When there is an error in the accent of a word in the text data of the publication in the analysis result of 1., an accent correction unit 4-75 is further provided as an accent error correction unit for correcting the error in the accent of the word. And

【0050】請求項44に記載の情報アクセスシステム
は、オーサリングシステム4が、テキスト解析部4−3
の解析結果に、刊行物のテキストデータに挿入されるポ
ーズの位置の誤りがあった場合には、そのポーズの位置
の誤りを訂正するポーズ位置誤り訂正手段としてのポー
ズ訂正部4−74をさらに備えることを特徴とする。
In the information access system according to the forty-fourth aspect, the authoring system 4 includes the text analysis unit 4-3.
If there is an error in the position of the pose inserted in the text data of the publication in the analysis result of, the pose correction unit 4-74 as a pose position error correction means for correcting the error in the position of the pose is further added. It is characterized by being provided.

【0051】請求項45に記載の情報アクセスシステム
は、オーサリングシステム4が、テキスト解析部4−3
の解析結果に、刊行物のテキストデータにおけるフレー
ズの誤りがあった場合には、そのフレーズの誤りを訂正
するフレーズ誤り訂正手段としてのフレーズ訂正部4−
76をさらに備えることを特徴とする。
In the information access system according to the forty-fifth aspect, the authoring system 4 includes the text analysis unit 4-3.
If there is an error in the phrase in the text data of the publication in the analysis result of 1., the phrase correction unit 4-as a phrase error correction means for correcting the error in the phrase.
76 is further provided.

【0052】請求項46に記載の情報アクセスシステム
は、オーサリングシステム4が、テキスト解析部4−3
の解析結果に、刊行物のテキストデータにおける母音の
長音化の誤りがあった場合には、その母音の長音化の誤
りを訂正する長音化誤り訂正手段としての母音の長音化
訂正部4−72をさらに備えることを特徴とする。
In the information access system according to the forty-sixth aspect, the authoring system 4 includes the text analysis unit 4-3.
If there is an error in vowel lengthening in the text data of the publication, the vowel lengthening correction unit 4-72 as a lengthening error correction unit that corrects the vowel lengthening error Is further provided.

【0053】請求項47に記載の情報アクセスシステム
は、オーサリングシステム4が、音声を入力する音声入
力手段としての音声分析部4−78と、音声分析部4−
78に入力された音声の韻律情報を抽出する抽出手段と
しての韻律情報解析部4−79と、韻律情報解析部4−
79により抽出された音声の韻律情報に基づいて、テキ
スト解析部4−3の解析結果の誤りを訂正する訂正手段
としての編集機能部4−70とをさらに備えることを特
徴とする。
In the information access system according to claim 47, the authoring system 4 has a voice analysis unit 4-78 as a voice input means for inputting voice and a voice analysis unit 4-.
The prosody information analysis unit 4-79 and the prosody information analysis unit 4- as extraction means for extracting the prosody information of the voice input to 78.
It further comprises an editing function unit 4-70 as a correction means for correcting an error in the analysis result of the text analysis unit 4-3 based on the prosody information of the voice extracted by 79.

【0054】請求項48に記載の情報アクセスシステム
は、オーサリングシステム4が、刊行物から文字を読み
取り、テキストデータを生成する文字読み取り手段とし
てのOCR(光学式文字読み取り装置)4−12をさら
に備えることを特徴とする。
In the information access system according to the forty-eighth aspect, the authoring system 4 further comprises an OCR (optical character reading device) 4-12 as a character reading means for reading a character from a publication and generating text data. It is characterized by

【0055】請求項49に記載の情報アクセスシステム
は、オーサリングシステム4が、OCR4−12の出力
から音声を合成する音声合成手段としての規則合成部4
−77と、OCR4−12による刊行物からの文字の読
み取りの誤りを、規則合成部4−77より出力される合
成音に基づいて訂正する訂正手段としての編集機能部4
−70とをさらに備えることを特徴とする。
In the information access system according to a forty-ninth aspect, the authoring system 4 synthesizes a voice from the output of the OCR 4-12 by the rule synthesizing section 4 as a voice synthesizing means.
-77 and an error in reading characters from a publication by the OCR 4-12 are corrected based on the synthesized sound output from the rule synthesis unit 4-77.
-70 is further provided.

【0056】請求項50に記載の情報アクセスシステム
は、オーサリングシステム4が、刊行物のグラフィック
データを、それを説明するテキストデータに変換し、テ
キスト解析部4−3が、グラフィックデータを説明する
テキストデータをさらに解析することを特徴とする。
In the information access system according to claim 50, the authoring system 4 converts the graphic data of the publication into text data which describes the graphic data, and the text analysis unit 4-3, the text which describes the graphic data. Characterized by further analysis of the data.

【0057】請求項51に記載の情報アクセスシステム
は、刊行物のテキストデータが、刊行物の記載事項の概
要に関するものを含むことを特徴とする。
The information access system according to a fifty-first aspect is characterized in that the text data of the publication includes information about an outline of the description items of the publication.

【0058】請求項52に記載の情報アクセスシステム
は、オーサリングシステム4が、刊行物の記載事項の概
要を、刊行物のテキストデータとして、テキスト解析部
4−3に入力する概要入力手段としてのキーボード4−
7をさらに備えることを特徴とする。
In the information access system according to claim 52, the authoring system 4 uses the keyboard as a summary input means for inputting the summary of matters described in the publication as text data of the publication to the text analysis unit 4-3. 4-
7 is further provided.

【0059】請求項53に記載の情報アクセスシステム
は、センターシステム1が、刊行物を早読みするための
早読み情報を作成する早読み情報作成手段としての早読
み・本文検索情報作成部4−4をさらに備え、図書デー
タベース5には、早読み情報が、刊行物に関する発音記
号情報とともに記憶され、音声合成装置2−6が、早読
み情報に基づいて、刊行物を早読みする合成音を出力す
ることを特徴とする。
In the information access system according to claim 53, the center system 1 prepares the quick-reading information for quick-reading the publication, and the quick-reading / text search information creating section 4- as the quick-reading information creating means. 4, the book database 5 stores the fast-reading information together with the phonetic symbol information about the publication, and the speech synthesizer 2-6 produces a synthetic sound for quick-reading the publication based on the fast-reading information. It is characterized by outputting.

【0060】請求項54に記載の情報アクセスシステム
は、早読み情報が、刊行物から抽出されたキーワードで
なることを特徴とする。
The information access system according to claim 54 is characterized in that the fast-reading information is a keyword extracted from a publication.

【0061】請求項55に記載の情報アクセスシステム
は、早読み情報が、刊行物の目次情報でなることを特徴
とする。
The information access system according to the forty-fifth aspect is characterized in that the quick-reading information is the table of contents information of the publication.

【0062】請求項56に記載の情報アクセスシステム
は、センターシステム1が、刊行物の目次情報を作成す
る目次作成手段としてのキーボード4−7をさらに備え
ることを特徴とする。
The information access system according to claim 56 is characterized in that the center system 1 further comprises a keyboard 4-7 as a table of contents creating means for creating table of contents information of the publication.

【0063】請求項57に記載の情報アクセスシステム
は、キーワードが、刊行物の属性を表す属性データであ
り、図書データベース5には、属性データどうしの対応
関係並びに属性データと刊行物との対応関係を表す関係
表が記憶され、検索部3−6が、関係表を参照して検索
を行うことを特徴とする。
In the information access system according to claim 57, the keyword is attribute data representing the attributes of the publication, and the book database 5 has a correspondence relationship between the attribute data and a correspondence relationship between the attribute data and the publication. Is stored, and the search unit 3-6 searches with reference to the relationship table.

【0064】請求項58に記載の情報アクセスシステム
は、刊行物または属性データに、それを識別するための
ユニークな刊行物識別番号または属性識別番号がそれぞ
れ付され、関係表には、刊行物識別番号および属性識別
番号によって対応関係が記述されることを特徴とする。
In the information access system according to claim 58, the publication or attribute data is provided with a unique publication identification number or attribute identification number for identifying the publication or attribute data. It is characterized in that the correspondence is described by the number and the attribute identification number.

【0065】請求項59に記載の情報アクセスシステム
は、センターシステム1が、過去に検索された刊行物識
別番号または属性識別番号を記憶する過去検索情報記憶
手段としての検索用メモリ3−42をさらに備え、検索
部3−6が、最初に検索用メモリ3−42を参照して検
索を行うことを特徴とする。
In the information access system according to claim 59, the center system 1 further includes a search memory 3-42 as a past search information storage means for storing a publication identification number or an attribute identification number retrieved in the past. The search unit 3-6 is characterized by first performing a search by referring to the search memory 3-42.

【0066】請求項60に記載の情報アクセスシステム
は、センターシステム1が、検索範囲を記憶する検索範
囲記憶手段としての個人データベース3−44をさらに
備え、検索部3−6が、個人データベース3−44に記
憶された検索範囲内において検索を行うことを特徴とす
る。
In the information access system according to claim 60, the center system 1 further comprises a personal database 3-44 as a search range storing means for storing the search range, and the search section 3-6 comprises a personal database 3-44. It is characterized in that a search is performed within the search range stored in 44.

【0067】請求項61に記載の情報アクセスシステム
は、センターシステム1が、検索部3−6によって刊行
物に関する発音記号情報が検索された頻度を記憶する検
索頻度記憶手段としての図書利用度表3−43を備え、
検索部3−6が、図書利用度表3−43を参照し、頻度
の高い刊行物に関する発音記号情報のグループから順次
検索を行うことを特徴とする。
In the information access system according to claim 61, the book utilization table 3 as a retrieval frequency storing means for the center system 1 to store the frequency with which the phonetic symbol information regarding the publication is retrieved by the retrieval unit 3-6. With -43,
It is characterized in that the retrieval unit 3-6 refers to the book usage degree table 3-43 and sequentially retrieves from the group of phonetic symbol information relating to frequently published publications.

【0068】請求項62に記載の情報アクセスシステム
は、属性データが、音声認識されたものであり、検索部
3−6が、音声認識結果の尤度の高い属性データに対応
する刊行物に関する発音記号情報から順次検索を行うこ
とを特徴とする。
In the information access system according to the forty-sixth aspect, the attribute data is voice-recognized, and the search unit 3-6 produces the pronunciation of a publication corresponding to the attribute data having a high likelihood of the voice recognition result. The feature is that the search is sequentially performed from the symbol information.

【0069】請求項63に記載の情報アクセスシステム
は、入力手段が、キーワードのうち、先頭から所定の文
字数までを出力するキーワード出力手段としてのディス
プレイ2−7と、ディスプレイ2−7からのキーワード
の出力を制御する出力制御手段としてのシャトルリング
2−51と、ディスプレイ2−7から出力されるキーワ
ードのうちの所望するものを選択する選択手段としての
確定ボタン2−38とを備えることを特徴とする。
[0069] In the information access system according to claim 63, the input means is a display 2-7 as a keyword output means for outputting up to a predetermined number of characters among the keywords, and a keyword from the display 2-7. A shuttle ring 2-51 as an output control means for controlling the output, and a confirm button 2-38 as a selection means for selecting a desired one of the keywords output from the display 2-7 are provided. To do.

【0070】請求項64に記載の情報アクセスシステム
は、属性データが、刊行物のタイトル、出版社名、著者
名、発行日、ページ数、または分野であることを特徴と
する。
An information access system according to a sixty-fourth aspect is characterized in that the attribute data is a title of a publication, a publisher name, an author name, a publication date, the number of pages, or a field.

【0071】請求項65に記載の情報アクセスシステム
は、ターミナル2が、緊急警戒に関する緊急放送を受信
する放送受信手段としての放送受信装置2−10と、緊
急警戒を知らせる報知手段としてのディスプレイ2−7
とをさらに備えることを特徴とする。
In the information access system according to a sixty-fifth aspect, the terminal 2 has a broadcast receiving device 2-10 as a broadcast receiving means for receiving an emergency broadcast regarding emergency alert, and a display 2 as a notifying means for notifying the emergency alert. 7
And is further provided.

【0072】請求項66に記載の情報アクセスシステム
は、センターシステム1とターミナル2とが、無線通信
を行うことを特徴とする。
The information access system according to the sixty-sixth aspect is characterized in that the center system 1 and the terminal 2 perform wireless communication.

【0073】請求項67に記載の情報アクセスシステム
は、ターミナル2が、電池を電源として動作することを
特徴とする。
An information access system according to a sixty-seventh aspect is characterized in that the terminal 2 operates using a battery as a power source.

【0074】請求項68に記載の情報アクセスシステム
は、センターシステム1が、他のセンターシステムとネ
ットワークを介して接続されており、他のセンターシス
テムとの情報のやりとりを制御するネットワーク制御手
段としてのネットワーク制御部6をさらに備えることを
特徴とする。
In the information access system according to claim 68, the center system 1 is connected to another center system via a network, and serves as a network control means for controlling the exchange of information with the other center system. The network control unit 6 is further provided.

【0075】請求項69に記載の情報アクセスシステム
は、センターシステム1が、複数のターミナルと接続さ
れることを特徴とする
The information access system according to claim 69 is characterized in that the center system 1 is connected to a plurality of terminals.

【0076】[0076]

【作用】本発明の情報アクセスシステムにおいては、図
書データベース5が、音韻情報と韻律情報を含む発音記
号情報を少なくとも記憶しており、センターシステム1
が、図書データベース5に記憶された発音記号情報を、
ターミナル2に送信し、ターミナル2が、センターシス
テム1から送信された発音記号情報を受信する。従っ
て、発音記号情報に基づいて音声合成を行うことによ
り、合成音によって、図書データベース5に記憶された
情報を、使用者に提供することができるようになる。ま
た、この場合、発音記号情報が送受信されるので、音声
そのものが送受信される場合に比較して、送受信するデ
ータ量が少なくて済み、通信費を低減することができ
る。
In the information access system of the present invention, the book database 5 stores at least phonetic symbol information including phonological information and prosody information, and the center system 1
The phonetic symbol information stored in the book database 5,
The phonetic symbol information transmitted from the center system 1 is transmitted to the terminal 2, and the terminal 2 receives the phonetic symbol information transmitted from the center system 1. Therefore, by performing the voice synthesis based on the phonetic symbol information, the information stored in the book database 5 can be provided to the user by the synthesized voice. Further, in this case, since the phonetic symbol information is transmitted / received, the amount of data to be transmitted / received is smaller than that in the case where voice itself is transmitted / received, and the communication cost can be reduced.

【0077】さらに、本発明の情報アクセスシステムに
おいては、ターミナル2が、マイク2−21、キーボー
ド2−3、ボタン部2−4、またはジョグシャトル部2
−5に入力されたキーワードを、センターシステム1に
送信する。そして、センターシステム1が、ターミナル
2から送信されたキーワードに対応する刊行物に関する
発音記号情報を、図書データベース5から検索し、その
検索結果を、ターミナル2に送信する。従って、検索結
果としての発音記号情報に基づいて音声合成を行うこと
により、合成音によって、検索された情報を、使用者に
提供することができるようになる。
Further, in the information access system of the present invention, the terminal 2 is the microphone 2-21, the keyboard 2-3, the button section 2-4, or the jog shuttle section 2.
The keyword entered in -5 is transmitted to the center system 1. Then, the center system 1 searches the phonetic symbol information regarding the publication corresponding to the keyword transmitted from the terminal 2 from the book database 5, and transmits the retrieval result to the terminal 2. Therefore, by performing voice synthesis based on the phonetic symbol information as the search result, it becomes possible to provide the user with the searched information by the synthesized voice.

【0078】また、本発明の情報アクセスシステムにお
いては、マイク2−21には、所望する刊行物のキーワ
ードが、音声によって入力される。そして、センターシ
ステム1では、マイク2−21に入力された音声が認識
され、その認識結果に基づいて、刊行物に関する発音記
号情報が、図書データベース5から検索される。従っ
て、キーボードなどを操作することなく、音声によって
キーワードを入力するだけで、所望する情報を得ること
ができる。
Further, in the information access system of the present invention, the keyword of the desired publication is input by voice to the microphone 2-21. Then, in the center system 1, the voice input to the microphone 2-21 is recognized, and the phonetic symbol information regarding the publication is searched from the book database 5 based on the recognition result. Therefore, desired information can be obtained only by inputting a keyword by voice without operating a keyboard or the like.

【0079】さらに、本発明の情報アクセスシステムに
おいては、マイク2−21に、複数のキーワードが、音
声によって入力された場合、認識部3−4が、その複数
のキーワードそれぞれの音声認識結果の組み合わせがあ
り得るか否かを判定し、その判定結果に基づいて、複数
のキーワードそれぞれの音声認識結果を出力する。従っ
て、誤認識率を低減することができる。
Further, in the information access system of the present invention, when a plurality of keywords are input by voice to the microphone 2-21, the recognition unit 3-4 causes the recognition unit 3-4 to combine the voice recognition results of the plurality of keywords. It is determined whether or not there is a possibility, and the voice recognition result of each of the plurality of keywords is output based on the determination result. Therefore, the false recognition rate can be reduced.

【0080】また、本発明の情報アクセスシステムにお
いては、音声合成装置2−6より出力される合成音の所
定の位置にマークが付加され、音声合成装置2−6によ
って、マークが付加された位置から、合成音が再合成さ
れて出力される。従って、所望する部分の合成音を即座
に得ることができる。
Further, in the information access system of the present invention, a mark is added to a predetermined position of the synthesized sound output from the voice synthesizer 2-6, and the position where the mark is added by the voice synthesizer 2-6. From, the synthesized sound is re-synthesized and output. Therefore, the synthesized sound of the desired portion can be immediately obtained.

【0081】本発明の情報アクセスシステムにおいて
は、ターミナル2で、マイク2−21に入力された音声
が音響分析され、その音響分析結果が、センターシステ
ム1に送信される。そして、センターシステム1で、タ
ーミナル2から送信された音響分析結果に基づいて、音
声認識が行われ、その音声認識結果に対応して、所定の
処理が行われる。従って、音声信号そのものをセンター
システム1に送信する場合に比較して、音声の劣化を防
止し、通信量を削減することができる。さらに、この場
合、ターミナル2側には、大規模な音声認識装置は必要
ないので、ターミナル2を小型に構成することができ
る。
In the information access system of the present invention, the voice input to the microphone 2-21 is acoustically analyzed at the terminal 2, and the acoustic analysis result is transmitted to the center system 1. Then, in the center system 1, voice recognition is performed based on the acoustic analysis result transmitted from the terminal 2, and predetermined processing is performed corresponding to the voice recognition result. Therefore, as compared with the case where the audio signal itself is transmitted to the center system 1, the deterioration of the audio can be prevented and the communication amount can be reduced. Further, in this case, since a large-scale voice recognition device is not required on the terminal 2 side, the terminal 2 can be made compact.

【0082】また、本発明の情報アクセスシステムにお
いては、システム制御部3−3が、認識部3−4の音声
認識結果を、ターミナル2に送信する。従って、ターミ
ナル2側に音声認識装置を設けなくても、音声によるタ
ーミナル2の動作制御を行うことができるようになる。
Further, in the information access system of the present invention, the system control section 3-3 transmits the voice recognition result of the recognition section 3-4 to the terminal 2. Therefore, the operation control of the terminal 2 by voice can be performed without providing the voice recognition device on the terminal 2 side.

【0083】さらに、本発明の情報アクセスシステムに
おいては、音声認識結果が誤っている場合、マイク2−
21には、音声が再入力され、その音声が、誤った音声
認識結果をふまえて、再度音声認識される。従って、同
一の音声に、再度誤認識されることが防止される。
Furthermore, in the information access system of the present invention, when the voice recognition result is incorrect, the microphone 2-
The voice is re-input to 21 and the voice is recognized again based on the incorrect voice recognition result. Therefore, the same voice is prevented from being erroneously recognized again.

【0084】また、本発明の情報アクセスシステムにお
いては、システム制御部3−3からターミナル2に送信
された認識部3−4の音声認識結果に対応する音声が合
成される。従って、目が不自由な使用者でも、音声認識
結果を確認することができる。
Further, in the information access system of the present invention, the voice corresponding to the voice recognition result of the recognition unit 3-4 transmitted from the system control unit 3-3 to the terminal 2 is synthesized. Therefore, even a visually impaired user can check the voice recognition result.

【0085】さらに、本発明の情報アクセスシステムに
おいては、システム制御部3−3が、認識部3−4の音
声認識結果に対応して、刊行物に関する情報を、図書デ
ータベース5から検索し、ターミナル2に送信する。従
って、キーボードなどの操作をすることなく、音声によ
って、所望する情報を得ることができる。
Further, in the information access system of the present invention, the system control unit 3-3 searches the book database 5 for the information on the publication corresponding to the voice recognition result of the recognition unit 3-4, and then the terminal Send to 2. Therefore, desired information can be obtained by voice without operating a keyboard or the like.

【0086】また、本発明の情報アクセスシステムにお
いては、ターミナル2で、システム制御部3−3によっ
て送信された刊行物に関する情報に対応する音声が合成
される。従って、目が不自由な使用者でも、刊行物の内
容を確認することができる。
In the information access system of the present invention, the terminal 2 synthesizes the voice corresponding to the information about the publication transmitted by the system control unit 3-3. Therefore, even the visually impaired user can confirm the contents of the publication.

【0087】さらに、本発明の情報アクセスシステムに
おいては、音声合成装置2−6が、合成音を、所定の聴
覚特性に対応して補正する。従って、耳の不自由な使用
者に対して、聞き易い合成音を提供することができる。
Further, in the information access system of the present invention, the voice synthesizer 2-6 corrects the synthesized voice in accordance with a predetermined auditory characteristic. Therefore, it is possible to provide a synthesized sound that is easy to hear to a deaf user.

【0088】本発明の記録媒体においては、音韻情報お
よび韻律情報を含む発音記号情報が記録されている。従
って、容易に合成音を得ることができる。
In the recording medium of the present invention, phonetic symbol information including phonological information and prosody information is recorded. Therefore, the synthesized sound can be easily obtained.

【0089】本発明の情報アクセスシステムにおいて
は、オーサリングシステム4が、刊行物に関する情報か
ら発音記号情報を作成し、図書データベース5に記憶さ
せる。従って、発音記号情報から合成音を生成するよう
にすることにより、音声によって、刊行物の情報を提供
することができるようになる。
In the information access system of the present invention, the authoring system 4 creates phonetic symbol information from information on publications and stores it in the book database 5. Therefore, by generating the synthetic sound from the phonetic symbol information, it becomes possible to provide the information of the publication by voice.

【0090】さらに、本発明の情報アクセスシステムに
おいては、規則合成部4−77が、発音記号情報から音
声を合成するので、オーサリングシステム4で作成した
発音記号情報を確認することができる。
Further, in the information access system of the present invention, the rule synthesizing unit 4-77 synthesizes the voice from the phonetic symbol information, so that the phonetic symbol information created by the authoring system 4 can be confirmed.

【0091】また、本発明の情報アクセスシステムにお
いては、音声分析部4−78に入力された音声の韻律情
報を抽出し、この韻律情報に基づいて、テキスト解析部
4−3の解析結果の誤りを訂正する。従って、キーボー
ドなどの操作をすることなく、音声によって、解析結果
の誤りを訂正することができる。
Further, in the information access system of the present invention, the prosody information of the voice input to the voice analysis unit 4-78 is extracted, and the error of the analysis result of the text analysis unit 4-3 is based on this prosody information. To correct. Therefore, the error in the analysis result can be corrected by voice without operating the keyboard or the like.

【0092】さらに、本発明の情報アクセスシステムに
おいては、早読み・本文検索情報作成部4−4によっ
て、刊行物を早読みするための早読み情報が作成され、
図書データベース5には、早読み情報が、刊行物に関す
る発音記号情報とともに記憶される。そして、音声合成
装置2−6では、早読み情報に基づいて、刊行物を早読
みする合成音が出力される。従って、刊行物の内容を、
迅速に把握することができるようになる。
Further, in the information access system of the present invention, the quick reading / text search information creating unit 4-4 creates quick reading information for quick reading of the publication.
The book database 5 stores fast-reading information together with phonetic symbol information about publications. Then, the voice synthesizer 2-6 outputs a synthetic sound for early reading of the publication based on the fast reading information. Therefore, the content of the publication
You will be able to grasp quickly.

【0093】本発明の情報アクセスシステムにおいて
は、キーワードが、刊行物の属性を表す属性データであ
り、図書データベース5には、属性データどうしの対応
関係並びに属性データと刊行物との対応関係を表す関係
表が記憶され、検索部3−6が、関係表を参照して検索
を行う。従って、迅速に検索を行うことができる。
In the information access system of the present invention, the keywords are attribute data representing attributes of publications, and the book database 5 represents correspondence between attribute data and correspondence between attribute data and publications. The relationship table is stored, and the search unit 3-6 searches by referring to the relationship table. Therefore, the search can be performed quickly.

【0094】また、本発明の情報アクセスシステムにお
いては、刊行物または属性データに、それを識別するた
めのユニークな刊行物識別番号または属性識別番号がそ
れぞれ付され、関係表には、刊行物識別番号および属性
識別番号によって対応関係が記述される。従って、さら
に迅速に検索を行うことができる。
In the information access system of the present invention, the publication or attribute data is provided with a unique publication identification number or attribute identification number for identifying the publication or attribute data, and the relational table shows the publication identification number. The correspondence is described by the number and the attribute identification number. Therefore, the search can be performed more quickly.

【0095】さらに、本発明の情報アクセスシステムに
おいては、検索用メモリ3−42に、過去に検索された
刊行物識別番号または属性識別番号が記憶され、検索部
3−6が、最初に検索用メモリ3−42を参照して検索
を行う。従って、過去に検索したものを、再度検索する
場合には、即座に検索結果を得ることができる。
Further, in the information access system of the present invention, the search memory 3-42 stores the publication identification number or the attribute identification number retrieved in the past, and the retrieval unit 3-6 first retrieves it. A search is performed by referring to the memory 3-42. Therefore, when a search that was performed in the past is searched again, the search result can be immediately obtained.

【0096】また、本発明の情報アクセスシステムにお
いては、個人データベース3−44に、検索範囲が記憶
され、検索部3−6が、個人データベース3−44に記
憶された検索範囲内において検索を行う。従って、迅速
に検索を行うことができる。
Further, in the information access system of the present invention, the search range is stored in the personal database 3-44, and the search unit 3-6 searches within the search range stored in the personal database 3-44. . Therefore, the search can be performed quickly.

【0097】さらに、本発明の情報アクセスシステムに
おいては、図書利用度表3−43に、検索部3−6によ
って刊行物に関する発音記号情報が検索された頻度が記
憶され、検索部3−6が、図書利用度表3−43を参照
し、頻度の高い刊行物に関する発音記号情報のグループ
から順次検索を行う。従って、過去に検索された回数の
多い刊行物に関する情報を、即座に検索することができ
る。
Further, in the information access system of the present invention, the frequency of retrieval of phonetic symbol information relating to the publication by the retrieval unit 3-6 is stored in the book utilization degree table 3-43, and the retrieval unit 3-6 stores the frequency. , The book utilization table 3-43 is referred to, and the phonetic symbol information related to the frequently used publications is searched in sequence. Therefore, it is possible to immediately search for information about publications that have been searched frequently in the past.

【0098】本発明の情報アクセスシステムにおいて
は、ディスプレイ2−7に、キーワードのうち、先頭か
ら所定の文字数までが、シャトルリング2−51によっ
て制御されながら出力される。そして、ディスプレイ2
−7に出力されたキーワードのうちの所望するものが、
確定ボタン2−38によって選択される。従って、所望
するキーワードを、容易に選択することができる。
In the information access system of the present invention, the keywords up to a predetermined number of characters among the keywords are output to the display 2-7 while being controlled by the shuttle ring 2-51. And display 2
Of the keywords output to -7, the desired one is
It is selected by the confirm button 2-38. Therefore, the desired keyword can be easily selected.

【0099】本発明の情報アクセスシステムにおいて
は、センターシステム1が、他のセンターシステムとネ
ットワークを介して接続されており、ネットワーク制御
部6によって、他のセンターシステムとの情報のやりと
りが制御される。従って、複数のセンターシステム間
で、情報の共有化を図ることができるようになる。
In the information access system of the present invention, the center system 1 is connected to another center system via a network, and the network control unit 6 controls the exchange of information with the other center system. . Therefore, it becomes possible to share information among a plurality of center systems.

【0100】[0100]

【実施例】以下、図面を参照して本発明の実施例につい
て説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0101】図1は、本発明の情報アクセスシステムの
一実施例の構成を示すブロック図である。この情報アク
セスシステムは、センターシステム1およびそれと、例
えばPSTNやISDNなどの電話回線などで接続さ
れ、センターシステム1と通信可能なターミナル2とか
ら構成されている。
FIG. 1 is a block diagram showing the configuration of an embodiment of the information access system of the present invention. This information access system is composed of a center system 1 and a terminal 2 which is connected to the center system 1 by a telephone line such as PSTN or ISDN and which can communicate with the center system 1.

【0102】なお、センターシステム1とターミナル2
とは、無線で通信を行うようにすることができる。ま
た、図1においては、センターシステム1には、1つの
ターミナル2だけが接続されているが、センターシステ
ム1には複数のターミナルを接続することができる。さ
らに、ターミナル2は、コンセントからの電源をとるだ
けでなく、電池を電源として動作することができるよう
になされており、これにより、自宅などだけでなく、外
出先でも使用することができるようになされている。
The center system 1 and the terminal 2
And can communicate wirelessly. Further, in FIG. 1, only one terminal 2 is connected to the center system 1, but a plurality of terminals can be connected to the center system 1. Furthermore, the terminal 2 is designed not only to be powered by an outlet but also to be operated by using a battery as a power source, so that it can be used not only at home but also on the go. Has been done.

【0103】ターミナル2は、センターシステム1の音
声入力型データベース検索・送出システム3をインター
フェイスとして、例えば図書館情報、新聞情報、雑誌情
報、新刊情報などの刊行物の情報が記憶された図書デー
タベース5にアクセスし、所望する情報を得ることがで
きるようになされている。なお、図書データベース5に
は、刊行物の情報として、そのテキストデータなどの
他、その音韻情報および韻律情報からなる発音記号情報
が記憶されており、ターミナル2では、これらの情報を
受信し、刊行物のテキストデータの表示、印刷の他、発
音記号情報から合成音を生成し、これにより刊行物を朗
読した音声を得ることができるようになされている。
The terminal 2 uses the voice input type database retrieval / transmission system 3 of the center system 1 as an interface to a book database 5 in which information on publications such as library information, newspaper information, magazine information and new publication information is stored. You can access it and get the information you want. Note that the book database 5 stores phonetic symbol information including phonological information and prosodic information in addition to the text data as publication information, and the terminal 2 receives this information and publishes it. In addition to displaying and printing the text data of an object, a synthesized sound is generated from phonetic symbol information, and a voice reading a publication is thereby obtained.

【0104】センターシステム1は、音声入力型データ
ベース検索・送出システム3、オーサリングシステム
4、図書データベース5、およびネットワーク制御部6
から構成されている。オーサリングシステム4は、刊行
物の情報を、図書データベース5に記憶させる、刊行物
の情報のデータベース化や、図書データベース5に記憶
された情報を編集することができるようになされてい
る。ネットワーク制御部6は、センターシステム1と他
のセンターシステムとの通信を制御し、これによりセン
ターシステム1の図書データベース5と、他のセンター
システムにおけるデータベースとの共有化を図ることが
できるようになされている。
The center system 1 includes a voice input database search / transmission system 3, an authoring system 4, a book database 5, and a network control unit 6.
It consists of The authoring system 4 is configured to store the information of the publication in the book database 5, create a database of the information of the publication, and edit the information stored in the book database 5. The network control unit 6 controls the communication between the center system 1 and other center systems, thereby making it possible to share the library database 5 of the center system 1 with the databases of other center systems. ing.

【0105】以下、各ブロックの詳細について説明す
る。
Details of each block will be described below.

【0106】まず、図2は、ネットワーク制御部6の詳
細構成を示している。ネットワーク制御部6は、図書デ
ータベース5とのデータのやりとりを制御するデータベ
ース制御部6−1、ネットワーク制御部6の動作制御を
行うCPU6−2、他のセンターシステムとのデータの
やりとりを制御する通信制御部6−3、および図書デー
タベース5に記憶された刊行物に付けられたユニークな
番号としての図書ID(詳細は、後述する)を記憶して
いる図書IDデータベース6−4から構成される。
First, FIG. 2 shows a detailed configuration of the network control unit 6. The network control unit 6 controls a database control unit 6-1 that controls data exchange with the book database 5, a CPU 6-2 that controls operation of the network control unit 6, and communication that controls data exchange with another center system. The control unit 6-3 and a book ID database 6-4 storing a book ID (details will be described later) as a unique number assigned to a publication stored in the book database 5 are included.

【0107】いま、例えば図3に示すように、センター
システム1が、他のセンターシステム1−1乃至1−7
とリング状に接続されてネットワークを構成している場
合を考える。この場合、CPU6−2は、センターシス
テム1の図書データベース5と、他のセンターシステム
1−1乃至1−7におけるデータベースとの共有化を図
るため、例えば図4のフローチャートに示す処理を、所
定の期間ごと(例えば、1週間ごと)に行う。
Now, for example, as shown in FIG. 3, the center system 1 is replaced with other center systems 1-1 to 1-7.
Consider a case where a network is configured by connecting in a ring shape with. In this case, the CPU 6-2 performs a predetermined process, for example, the process shown in the flowchart of FIG. 4 in order to share the book database 5 of the center system 1 with the databases of the other center systems 1-1 to 1-7. It is performed every period (for example, every one week).

【0108】即ち、まずステップS1−1において、図
書データベース5に記憶された刊行物に付けられた図書
IDが、データベース制御部6−1を介して読み出さ
れ、図書IDデータベース6−4に記憶された図書ID
と比較される。そして、ステップS1−2に進み、図書
IDデータベース6−4に記憶された図書IDと、図書
データベース5に記憶された刊行物に付けられた図書I
Dとが一致するか否かが判定される。ステップS1−2
において、図書IDデータベース6−4に記憶された図
書IDと、図書データベース5に記憶された刊行物に付
けられた図書IDとが一致すると判定された場合、ステ
ップS1−3乃至S1−5をスキップして、ステップS
1−6に進む。
That is, first, in step S1-1, the book ID attached to the publication stored in the book database 5 is read out via the database control unit 6-1 and stored in the book ID database 6-4. Book ID
Compared to. Then, the process proceeds to step S1-2, the book ID stored in the book ID database 6-4 and the book I attached to the publication stored in the book database 5.
It is determined whether or not D matches. Step S1-2
If it is determined that the book ID stored in the book ID database 6-4 and the book ID attached to the publication stored in the book database 5 match each other, skip steps S1-3 to S1-5. And step S
Go to 1-6.

【0109】また、ステップS1−2において、図書I
Dデータベース6−4に記憶された図書IDと、図書デ
ータベース5に記憶された刊行物に付けられた図書ID
とが一致しないと判定された場合、即ち、例えばオーサ
リングシステム4(図1)によって、新たに刊行物の情
報がデータベース化され、この情報が、図書データベー
ス5に追加して記憶された場合、ステップS1−3に進
み、図書データベース5に追加記憶された刊行物(以
下、追加刊行物という)の図書IDが、図書IDデータ
ベース6−4に追加記憶される。
In step S1-2, the book I
The book ID stored in the D database 6-4 and the book ID attached to the publication stored in the book database 5
If it is determined that does not match, that is, if the information of the publication is newly made into a database by the authoring system 4 (FIG. 1) and this information is additionally stored in the book database 5, the step Proceeding to S1-3, the book ID of the publication (hereinafter referred to as additional publication) additionally stored in the book database 5 is additionally stored in the book ID database 6-4.

【0110】そして、ステップS1−4に進み、後のセ
ンターシステム(ここでは、センターシステム1に対
し、例えば時計回り方向に隣接するセンターシステム1
−1(図3)を意味する)が、データの受信が可能な状
態か否かが、通信制御部6−3を介して確認(判定)さ
れる。ステップS1−4において、後のセンターシステ
ム(センターシステム1−1)が、データの受信が可能
な状態でないと判定された場合、ステップS1−4に戻
る。また、ステップS1−4において、後のセンターシ
ステムが、データの受信が可能な状態であると判定され
た場合、ステップS1−5に進み、追加刊行物の情報
が、通信制御部6−3を介して後のセンターシステムに
送信され、ステップS1−6に進む。
Then, the process proceeds to step S1-4, and the subsequent center system (here, the center system 1 adjacent to the center system 1 in the clockwise direction, for example, is used.
-1 (meaning FIG. 3) is checked (determined) via the communication control unit 6-3 as to whether or not data reception is possible. When it is determined in step S1-4 that the subsequent center system (center system 1-1) is not in a data receivable state, the process returns to step S1-4. If it is determined in step S1-4 that the subsequent center system is in a state where data can be received, the process proceeds to step S1-5, and the information of the additional publication is stored in the communication control unit 6-3. To the subsequent center system, and the process proceeds to step S1-6.

【0111】ステップS1−6においては、前のセンタ
ーシステム(ここでは、センターシステム1に対し、例
えば反時計回り方向に隣接するセンターシステム1−7
(図3)を意味する)からのデータの受信が可能な状態
にされ、ステップS1−7に進み、前のセンターシステ
ム(センターシステム1−7)から、データが送信され
たか否かが判定される。
In step S1-6, the previous center system (here, the center system 1-7 which is adjacent to the center system 1 in the counterclockwise direction, for example) is used.
(Means FIG. 3) is enabled to receive data, the process proceeds to step S1-7, and it is determined whether data has been transmitted from the previous center system (center system 1-7). It

【0112】ステップS1−7において、前のセンター
システムから、データが送信されていないと判定された
場合、ステップS1−7に戻る。また、ステップS1−
7において、前のセンターシステムから、データが送信
されたと判定された場合、ステップS1−8に進み、前
のセンターシステムから送信されたデータが、通信制御
部6−3を介して受信され、そのデータの図書IDと、
図書データベース6−4に記憶されている図書IDとが
比較される。
If it is determined in step S1-7 that the previous center system has not transmitted data, the process returns to step S1-7. Also, step S1-
When it is determined that the data is transmitted from the previous center system in step 7, the process proceeds to step S1-8, the data transmitted from the previous center system is received via the communication control unit 6-3, and The book ID of the data,
The book ID stored in the book database 6-4 is compared.

【0113】そして、その比較の結果、前のセンターシ
ステムからのデータの図書IDのうち、図書データベー
ス6−4に記憶されていないものが、図書IDデータベ
ース6−4に追加書き込みされ、さらにこの追加書き込
みされた図書IDに対応するデータが、データベース制
御部6−1を介して図書データベース5に供給されて記
憶され、処理を終了する。
Then, as a result of the comparison, among the book IDs of the data from the previous center system, those which are not stored in the book database 6-4 are additionally written in the book ID database 6-4, and this addition is made. The data corresponding to the written book ID is supplied to the book database 5 via the database control unit 6-1 and stored therein, and the process ends.

【0114】一方、センターシステム1以外のセンター
システム1−1乃至1−7(図3)では、ステップS1
−6から処理が開始され、ステップS1−8の処理を行
った後、ステップS1−1からS1−5までの処理を順
次行い、処理を終了する。
On the other hand, in the center systems 1-1 to 1-7 (FIG. 3) other than the center system 1, step S1
The process is started from -6, and after the process of step S1-8 is performed, the processes of steps S1-1 to S1-5 are sequentially performed, and the process is ended.

【0115】以上のようにして、図書データベース5に
記憶されたデータ(情報)の更新が、例えば1週間ごと
行われ、これによりデータベースの共有化が図られるよ
うになされている。
As described above, the data (information) stored in the book database 5 is updated, for example, on a weekly basis so that the database can be shared.

【0116】なお、このデータの共有化処理は、追加さ
れた刊行物の情報に対してだけでなく、削除された刊行
物の情報に対しても行うようにすることができる。
The data sharing process can be performed not only on the added publication information but also on the deleted publication information.

【0117】また、更新処理は、センターシステム1に
アクセスする使用者がない、例えば休日の夜間などに行
うことが好ましい。
Further, it is preferable that the updating process is performed at a time when there is no user who accesses the center system 1, for example, at night on a holiday.

【0118】次に、図5は、図1に示したターミナル2
の詳細構成を示している。中央制御装置2−1は、ター
ミナル2を構成する各ブロックを制御する他、音声認識
装置2−2、キーボード2−3、ボタン部2−4、およ
びジョグシャトル部2−5の出力信号に対応して、所定
の処理を行う。音声認識装置2−2は、例えば図6に示
すように、マイク2−21,A/D変換器2−22、分
析部2−23、認識部2−24、およびメモリ2−25
から構成され、中央制御装置2−1の制御にしたがっ
て、マイク2−21から、コマンドその他必要な情報と
して入力された音声を、音響分析し、さらに必要に応じ
て音声認識するようになされている。
Next, FIG. 5 shows the terminal 2 shown in FIG.
The detailed configuration of is shown. The central control device 2-1 controls each block constituting the terminal 2, and also corresponds to the output signals of the voice recognition device 2-2, the keyboard 2-3, the button part 2-4, and the jog shuttle part 2-5. Then, predetermined processing is performed. For example, as shown in FIG. 6, the voice recognition device 2-2 includes a microphone 2-21, an A / D converter 2-22, an analysis unit 2-23, a recognition unit 2-24, and a memory 2-25.
According to the control of the central control unit 2-1, a voice input as a command or other necessary information from the microphone 2-21 is acoustically analyzed, and voice recognition is further performed if necessary. .

【0119】即ち、マイク2−21は、入力された音声
を、電気信号としての音声信号に変換して、A/D変換
器2−22に出力する。A/D変換器2−22は、マイ
ク2−21からの音声信号を、所定のサンプリング周波
数で、A/D変換し、分析部2−23に出力する。分析
部2−23は、A/D変換器2−22からの音声信号を
音響分析し、例えば線形予測係数や、ケプストラム係数
などの音声の特徴パラメータ(音響パラメータ)を抽出
する。さらに、分析部2−23では、中央制御装置2−
1の制御にしたがって、音声信号から抽出された音響パ
ラメータが、センターシステム1に送信されるか、また
は例えばベクトル量子化されて、認識部2−24に供給
される。
That is, the microphone 2-21 converts the input voice into a voice signal as an electric signal and outputs it to the A / D converter 2-22. The A / D converter 2-22 performs A / D conversion on the audio signal from the microphone 2-21 at a predetermined sampling frequency and outputs it to the analysis unit 2-23. The analysis unit 2-23 acoustically analyzes the audio signal from the A / D converter 2-22 and extracts a characteristic parameter (acoustic parameter) of the audio such as a linear prediction coefficient and a cepstrum coefficient. Further, in the analysis unit 2-23, the central control unit 2-
According to the control of No. 1, the acoustic parameter extracted from the audio signal is transmitted to the center system 1, or is subjected to, for example, vector quantization, and is supplied to the recognition unit 2-24.

【0120】なお、センターシステム1に送信された音
響パラメータは、センターシステム1の音声入力型デー
タベース検索・送出システムにおいて、後述するように
して認識される。
The acoustic parameters transmitted to the center system 1 are recognized in the voice input type database search / transmission system of the center system 1 as described later.

【0121】また、中央制御装置2−1は、音響パラメ
ータをセンターシステム1に送信する場合、音響パラメ
ータを圧縮して送信するようにすることができる。この
場合、センターシステム1では、圧縮された音響パラメ
ータが伸張されてから処理される。
Further, when transmitting the acoustic parameters to the center system 1, the central controller 2-1 can compress the acoustic parameters and transmit the compressed acoustic parameters. In this case, in the center system 1, the compressed acoustic parameter is expanded and then processed.

【0122】さらに、中央制御装置2−1は、音響パラ
メータをセンターシステム1に送信して音声認識させる
場合、認識対象とする語彙の範囲を限定する限定情報
を、音響パラメータとともに送信するようにすることが
できるようになされている。この場合、センターシステ
ム1では、限定情報に基づく語彙の範囲で、音声認識が
行われる。
Further, when transmitting the acoustic parameters to the center system 1 for voice recognition, the central control unit 2-1 transmits the limitation information limiting the range of the vocabulary to be recognized together with the acoustic parameters. Is made possible. In this case, the center system 1 performs voice recognition within the range of vocabulary based on the limited information.

【0123】メモリ2−25には、あからじめ学習によ
り得られた、例えば音素単位のモデルおよびその音素の
並びとしての単語の辞書(単語辞書)が記憶されてお
り、認識部2−24では、メモリ2−25に記憶された
モデルから、分析部2−23より出力された音響パラメ
ータ系列が観測される確率が、例えばHMM(Hidden M
arkov Models)法などに基づいて計算されることによ
り、マイク2−21に入力された音声が音素単位で認識
される。
The memory 2-25 stores, for example, a phoneme-based model and a dictionary of words as a sequence of the phonemes (word dictionary) obtained by merging learning, and the recognition unit 2-24. Then, the probability that the acoustic parameter sequence output from the analysis unit 2-23 is observed from the model stored in the memory 2-25 is, for example, HMM (Hidden M
The speech input to the microphone 2-21 is recognized on a phoneme-by-phoneme basis by being calculated based on the arkov Models) method or the like.

【0124】ここで、マイク2−21には、通常、中央
制御装置2−1からの問いかけ(質問)に対し、その返
答としての音声が入力される。従って、中央制御装置2
−1では、マイク2−21に入力される音声を予想する
ことができる。
Here, the microphone 2-21 is normally input with a voice as a response to an inquiry (question) from the central control unit 2-1. Therefore, the central controller 2
At -1, the voice input to the microphone 2-21 can be expected.

【0125】そこで、音声認識時においては、認識対象
とする単語の範囲を制御する認識制御信号が、中央制御
装置2−1から認識部2−24に出力されるようになさ
れており、認識部2−24は、メモリ2−25に記憶さ
れた単語辞書に記述された単語のうちの、認識制御信号
が示す範囲の単語を参照し、音素単位の認識結果の並
び、即ち単語を得て、その尤度とともに、中央制御装置
2−1に出力する。
Therefore, during voice recognition, a recognition control signal for controlling the range of words to be recognized is output from the central control device 2-1 to the recognition unit 2-24. 2-24 refers to a word in the range indicated by the recognition control signal among the words described in the word dictionary stored in the memory 2-25, obtains a sequence of recognition results in phoneme units, that is, obtains a word, The likelihood is output to the central controller 2-1.

【0126】なお、音声認識は、HMM法の以外の音声
認識アルゴリズムにしたがって行うようにすることがで
きる。
The voice recognition can be performed according to a voice recognition algorithm other than the HMM method.

【0127】中央制御装置2−1では、以上のようにし
て音声認識装置2−2から供給される音声認識結果とし
ての単語(または単語列)を、上述した予想される返
答、および単語の尤度に基づいて取捨選択し、最終的に
残ったものがマイク2−21に入力された音声として理
解される。
In the central control device 2-1, the word (or word string) as the voice recognition result supplied from the voice recognition device 2-2 as described above is converted into the above-mentioned expected response and word likelihood. Based on the degree, the sound left after the selection is finally understood as the sound input to the microphone 2-21.

【0128】図5に戻り、キーボード2−3、ボタン部
2−4、およびジョグシャトル部2−5は、コマンドそ
の他必要な情報を入力するときに操作される。ボタン部
2−4とジョグシャトル部2−5は、例えば図7に示す
ように、パネル上に一体に形成されている。
Returning to FIG. 5, the keyboard 2-3, the button section 2-4, and the jog shuttle section 2-5 are operated when a command and other necessary information are input. The button portion 2-4 and the jog shuttle portion 2-5 are integrally formed on the panel, as shown in FIG. 7, for example.

【0129】即ち、ボタン部2−4は、Yes/確定ボ
タン2−31,Noボタン2−32、左ボタン2−3
3、右ボタン2−34、認識方法切換ボタン2−36、
朗読ボタン2−37、確定ボタン2−38、表示ボタン
2−39、設定ボタン2−40、および出力ボタン2−
41などから構成されており、ジョグシャトル部2−5
は、シャトルリング2−51、並びにシャトルリング2
−51内に配置された再生ボタン2−52および停止ボ
タン2−53から構成されている。なお、ジョグシャト
ル部2−5は、シャトルリング2−51をジョグダイヤ
ルに代えて構成することができる。また、ジョグシャト
ル部2−5は、シャトルリング2−51とジョグダイヤ
ルを両方設けて構成しても良い。
That is, the button portion 2-4 is Yes / confirmation button 2-31, No button 2-32, left button 2-3.
3, right button 2-34, recognition method switching button 2-36,
Read button 2-37, confirm button 2-38, display button 2-39, setting button 2-40, and output button 2-
41, etc., the jog shuttle unit 2-5
Is shuttle ring 2-51 and shuttle ring 2
It is composed of a play button 2-52 and a stop button 2-53 arranged in -51. The jog shuttle unit 2-5 can be configured by replacing the shuttle ring 2-51 with a jog dial. Further, the jog shuttle unit 2-5 may be configured by providing both the shuttle ring 2-51 and the jog dial.

【0130】ここで、このターミナル2において、中央
制御装置2−1に対するコマンドその他必要な情報の入
力は、上述したキーボード2−3、ボタン部2−4、お
よびジョグシャトル部2−5の操作によるだけでなく、
上述の音声認識装置2−2(図6)を構成するマイク2
−21から、コマンドその他必要な情報に対応する音声
を入力することによっても行うことができるようになさ
れている。
Here, in the terminal 2, input of commands and other necessary information to the central control unit 2-1 is performed by operating the above-mentioned keyboard 2-3, button section 2-4, and jog shuttle section 2-5. not only,
Microphone 2 constituting the above-mentioned voice recognition device 2-2 (FIG. 6)
It is also possible to do this by inputting a voice corresponding to a command or other necessary information from -21.

【0131】次に、ターミナル2(図5)を構成する音
声合成装置2−6は、例えば図8に示すように構成され
る。朗読情報解析部61には、センターシステム1から
の発音記号情報とともに、刊行物の朗読の仕方に関する
情報(例えば、朗読時の声質や、速さに関する情報)
(以下、朗読情報という)が、中央制御装置2−1を介
して供給される。朗読情報解析部61は、発音記号情報
を、音韻情報と韻律情報に分離し、さらに朗読情報を解
析して、音韻情報および韻律情報とともに、音韻・韻律
情報生成部2−62に出力する。
Next, the speech synthesizer 2-6 constituting the terminal 2 (FIG. 5) is constructed, for example, as shown in FIG. In the reading information analysis unit 61, information about how to read the publication as well as phonetic symbol information from the center system 1 (for example, information about voice quality and speed during reading).
(Hereinafter referred to as reading information) is supplied via the central control device 2-1. The reading information analysis unit 61 separates the phonetic symbol information into phonological information and prosody information, further analyzes the reading information, and outputs the reading information together with the phonological information and the prosody information to the phonological / prosodic information generating unit 2-62.

【0132】音韻・韻律情報生成部2−62では、音韻
情報および韻律情報、並びに朗読情報の解析結果に基づ
いて、音声素片接続部2−65が制御される。なお、こ
の音声合成装置2−6に、発音記号情報ではなく、テキ
ストデータが入力された場合、朗読情報解析部2−61
からは、そのテキストデータがそのまま、音韻・韻律情
報生成部2−62に出力されるようになされており、こ
の場合、音韻・韻律情報生成部2−62は、テキストデ
ータから、音韻情報と、韻律情報を生成するようになさ
れている。
In the phonological / prosodic information generation unit 2-62, the speech unit connection unit 2-65 is controlled based on the analysis result of the phonological information, the prosody information, and the recitation information. When text data, not phonetic symbol information, is input to the speech synthesizer 2-6, the reading information analysis unit 2-61.
From that, the text data is output as it is to the phonological / prosodic information generation unit 2-62. In this case, the phonological / prosodic information generation unit 2-62 outputs the phonological information from the text data, It is designed to generate prosody information.

【0133】一方、音声素片データ記憶部2−63に
は、例えばCVやCV/VCなどの単位で、規則音声合
成に必要な音声素片データ(例えば、ディジタル化され
た波形データ)が記憶されており、この音声素片データ
は、難聴者用補正部2−64を介して、音声素片接続部
2−65によって読み出されるようになされている。
On the other hand, the voice unit data storage unit 2-63 stores voice unit data (eg, digitized waveform data) necessary for regular voice synthesis in units such as CV and CV / VC. This speech unit data is read by the speech unit connecting unit 2-65 via the hearing-impaired person correcting unit 2-64.

【0134】ここで、難聴者用補正部2−64では、D
/A変換部2−67より出力される合成音が、聞き易い
ものになるように、必要に応じて音声素片データのフォ
ルマントが強調されるようになされている。
Here, in the correction unit 2-64 for the hearing impaired, D
The formant of the voice unit data is emphasized as necessary so that the synthesized sound output from the / A converter 2-67 becomes easy to hear.

【0135】音声素片接続部2−65においては、音韻
・韻律情報生成部2−62の制御にしたがって、難聴者
用補正部2−64を介して音声素片データ記憶部2−6
3から、必要な音声素片データが読み出され、この読み
出された音声素片データが、連続した音声波形となるよ
うに接続される。この音声波形(合成音声信号)は、難
聴者用周波数補正部2−66に出力される。難聴者用周
波数補正部2−66は、例えば所定のタップ数の低域ま
たは高域強調用ディジタルフィルタで構成され、音素片
接続部2−65からの合成音声信号を、それが聞き易い
ものになるように、スペクトル強調して、D/A変換部
2−67に出力する。D/A変換部2−67では、難聴
者用周波数補正部2−66からの合成音声信号が、D/
A変換されてアナログ信号とされ、図示せぬ音声出力装
置としての、例えばスピーカから合成音として出力され
る。
In the speech unit connection unit 2-65, the speech unit data storage unit 2-6 is controlled by the phoneme / prosodic information generation unit 2-62 via the deafening person correction unit 2-64.
Necessary speech unit data is read from No. 3, and the read speech unit data is connected so as to form a continuous speech waveform. This voice waveform (synthetic voice signal) is output to the frequency correction unit 2-66 for the hearing impaired. The frequency correction unit 2-66 for the hearing-impaired person is composed of, for example, a low-frequency or high-frequency emphasis digital filter having a predetermined number of taps, and makes the synthesized voice signal from the phoneme unit connection unit 2-65 easy to hear. So that the spectrum is emphasized and output to the D / A conversion unit 2-67. In the D / A conversion unit 2-67, the synthesized voice signal from the frequency correction unit 2-66 for the hearing impaired is
A-converted into an analog signal, which is output as a synthesized sound from a speaker (not shown), for example, a speaker.

【0136】なお、朗読情報としての合成音の声質およ
び発声速度(発話速度)、難聴者用補正部2−64にお
けるフォルマント強調特性、並びに難聴者用周波数補正
部2−66における周波数強調特性は、例えばキーボー
ド2−3や、ボタン部2−4(図7)の右ボタン2−3
3および左ボタン2−34、ジョグシャトル部2−5
(図7)のシャトルリングを操作することにより変化さ
せることができるようになされている。
The voice quality and utterance speed (speech speed) of the synthesized sound as the recitation information, the formant emphasis characteristic in the correction unit 2-64 for the deaf and the frequency emphasis characteristic in the frequency correction unit 2-66 for the deaf are as follows. For example, the keyboard 2-3 or the right button 2-3 of the button section 2-4 (FIG. 7).
3 and left button 2-34, jog shuttle unit 2-5
It can be changed by operating the shuttle ring (FIG. 7).

【0137】また、これらは、音声認識装置2−2から
音声を入力することによっても、変化させることができ
る(例えば、「発声速度を速く」などと発声することに
より合成音の発声速度を速くすることができる)ように
なされている。
Also, these can be changed by inputting a voice from the voice recognition device 2-2 (for example, by uttering "higher utterance speed" or the like, the utterance speed of the synthetic sound can be increased. It can be done).

【0138】図5に戻り、ディスプレイ2−7は、中央
制御装置2−1の制御にしたがって、センターシステム
1から送信されてきた情報を表示したり、使用者に操作
を促す情報(問いかけ(質問))を表示したりする。な
お、このディスプレイ2−7は、点字ディスプレイとす
ることができる。プリンタ2−8は、中央制御装置2−
1の制御にしたがって、センターシステム1から送信さ
れてきた情報などをプリントアウトする。なお、このプ
リンタ2−8は、点字プリンタとすることができる。
Returning to FIG. 5, the display 2-7 displays the information transmitted from the center system 1 under the control of the central control unit 2-1 and the information (question (question (question) )) Is displayed. The display 2-7 can be a braille display. The printer 2-8 is a central control unit 2-
According to the control of No. 1, the information transmitted from the center system 1 is printed out. The printer 2-8 can be a Braille printer.

【0139】通信装置2−9は、センターシステム1と
中央制御装置2−1との間のインターフェイスとして
の、例えばモデムなどでなり、これらの間の通信を制御
する。放送受信装置2−10は、例えばラジオやテレビ
ジョン受像器と同様に構成され、通常は、ラジオ番組
(ラジオ放送)やテレビジョン番組(テレビジョン放
送)を受信して、その受信した番組を、ディスプレイ2
−7またはスピーカから出力するようになされている。
さらに、放送受信装置2ー10は、常時、緊急放送を受
信することができるようになされており、緊急放送を受
信すると、ターミナル2の電源スイッチ(図示せず)が
OFF状態にされていても、その緊急放送の内容を、デ
ィスプレイ2−7に表示させたり、あるいはスピーカか
ら出力させるようになされている。
The communication device 2-9 is, for example, a modem as an interface between the center system 1 and the central control device 2-1 and controls communication between them. The broadcast receiving device 2-10 is configured similarly to, for example, a radio or a television receiver, and normally receives a radio program (radio broadcast) or a television program (television broadcast), and receives the received program, Display 2
-7 or output from a speaker.
Further, the broadcast receiving device 2-10 is adapted to be able to always receive the emergency broadcast, and even if the power switch (not shown) of the terminal 2 is turned off when the emergency broadcast is received. The contents of the emergency broadcast are displayed on the display 2-7 or output from the speaker.

【0140】タイマ回路2−11は、時間を計時するよ
うになされており、中央制御装置2−1に、計時してい
る時間を参照させ、例えば通信料金の安い時間(例え
ば、深夜)に、センターシステム1にアクセスさせて、
日中にアクセスしたときに、図書データベース5(図
1)から検索した情報を受信させることができるように
なされている。
The timer circuit 2-11 is adapted to measure the time, and causes the central control unit 2-1 to refer to the measured time, for example, at a time when the communication charge is low (for example, at midnight). Let's access the center system 1,
The information retrieved from the book database 5 (FIG. 1) can be received when accessed during the day.

【0141】情報記録再生装置2−12は、例えば半導
体メモリ装置や、磁気ディスク装置(フロッピーディス
ク装置、ハードディスク装置)、光磁気ディスク装置
(ミニディスク装置)、光ディスク装置(CD−ROM
装置)などでなり、例えばセンターシステム1から送信
されてきた情報や、その他装置の動作上必要な情報など
を、記録媒体(例えば半導体メモリや、磁気ディスク、
光磁気ディスク、光ディスクなど)に記録する。また、
情報記録再生装置2−12は、中央制御部2−1の制御
にしたがって、記録媒体に記録された情報を再生する。
The information recording / reproducing apparatus 2-12 is, for example, a semiconductor memory device, magnetic disk device (floppy disk device, hard disk device), magneto-optical disk device (mini disk device), optical disk device (CD-ROM).
Device, etc., for example, information transmitted from the center system 1 and other information necessary for the operation of the device are recorded media (for example, semiconductor memory, magnetic disk,
Recording on a magneto-optical disk, optical disk, etc. Also,
The information recording / reproducing device 2-12 reproduces the information recorded on the recording medium according to the control of the central controller 2-1.

【0142】音声記録再生装置2−13は、例えばオー
ディオカセットテープレコーダや、ディジタルオーディ
オテープ(DAT)装置、ミニディスク装置などでな
り、音声合成装置2−6で合成された音声(合成音)
を、記録媒体(例えば、カセットテープや、ディジタル
オーディオテープ、ミニディスクなど)に記録する。ま
た、音声記録再生装置2−13は、中央制御部2−1の
制御にしたがって、記録媒体に記録された合成音を再生
または逆再生する。なお、合成音の再生、再生の停止、
または早送り(倍速再生を含む)と巻戻し(逆再生を含
む)は、ジョグシャトル部2−5(図7)の再生ボタン
2−52、停止ボタン2−53、またはシャトルリング
2−51をそれぞれ操作することにより行うことができ
るようになされている。
The voice recording / reproducing device 2-13 is, for example, an audio cassette tape recorder, a digital audio tape (DAT) device, a mini disk device, or the like, and the voice (synthesized sound) synthesized by the voice synthesizer 2-6.
Is recorded on a recording medium (for example, a cassette tape, a digital audio tape, a mini disk, etc.). Further, the audio recording / reproducing device 2-13 reproduces or reversely reproduces the synthetic sound recorded on the recording medium according to the control of the central controller 2-1. It should be noted that playback of the synthetic sound, stop of playback,
Alternatively, for fast forward (including double speed reproduction) and rewinding (including reverse reproduction), press the play button 2-52, stop button 2-53, or shuttle ring 2-51 of the jog shuttle unit 2-5 (FIG. 7), respectively. It can be done by operating.

【0143】次に、情報記録再生装置2−12によっ
て、記録媒体(例えば、センターシステム1から送信さ
れた刊行物の発音記号情報が、情報記録再生装置2−1
2によってあらかじめ記録された記録媒体)に記録され
た刊行物の発音記号情報を再生し、これを用いて音声合
成が行われる場合の動作、即ち刊行物の朗読が行われる
場合の動作について、図9のフローチャートを参照して
説明する。
Next, by the information recording / reproducing apparatus 2-12, the pronunciation symbol information of the publication transmitted from the recording medium (for example, the center system 1 is changed to the information recording / reproducing apparatus 2-1).
FIG. 2 is a diagram showing an operation in the case of reproducing phonetic symbol information of a publication recorded in a recording medium which is recorded in advance by (2) and performing voice synthesis using this, that is, an operation in the case of reading a publication. This will be described with reference to the flowchart of No. 9.

【0144】この場合、まず中央制御装置2−1(図
5)の電源スイッチがON状態にされると、中央制御装
置2−1によってディスプレイ2−7が制御され、これ
により所定のメニュー画面がディスプレイ2−7に表示
されるか、あるいは中央制御装置2−1によって音声合
成装置2−6が制御され、これによりメニュー画面の内
容が、音声合成装置2−6から合成音によって出力され
る。
In this case, first, when the power switch of the central control unit 2-1 (FIG. 5) is turned on, the central control unit 2-1 controls the display 2-7, whereby a predetermined menu screen is displayed. It is displayed on the display 2-7 or the central controller 2-1 controls the voice synthesizer 2-6, whereby the content of the menu screen is output from the voice synthesizer 2-6 as a synthetic voice.

【0145】そして、使用者は、メニューから、刊行物
の朗読を行うものを選択する。この選択は、刊行物の朗
読を行うメニューに対応する音声を、音声認識装置2−
2(図6)のマイク2−21から入力することにより行
うこともできるし、キーボード2−3、ボタン部2−
4、またはジョグシャトル部2−5を操作することによ
り行うこともできる(以下、適宜、音声認識装置2−
2、キーボード2−3、ボタン部2−4、またはジョグ
シャトル部2−5を操作するという)ようになされてい
る。
Then, the user selects, from the menu, one for reading the publication. In this selection, the voice corresponding to the menu for reading the publication is selected by the voice recognition device 2-.
2 (FIG. 6) can be performed by inputting from the microphone 2-21, the keyboard 2-3, the button section 2-
4 or by operating the jog shuttle unit 2-5 (hereinafter, appropriately, the voice recognition device 2-
2, the keyboard 2-3, the button section 2-4, or the jog shuttle section 2-5 is operated).

【0146】なお、キーボード2−3による場合は、刊
行物の朗読を行うメニューに対応する文字をタイプする
か、あるいはディスプレイ2−7に表示された、朗読を
行うメニューに対応する部分を、カーソルキー(図示せ
ず)を操作して選択することによって行う。また、ボタ
ン部2−4(図7)による場合は、ディスプレイ2−7
に表示された刊行物の朗読を行うメニューに対応する部
分を、左ボタン2−33および右ボタン2−34を操作
して選択し、Yes/確定ボタン2−31または確定ボ
タン2−38を操作して確定することによって行う。さ
らに、ジョグシャトル部2−5(図7)による場合は、
ディスプレイ2−7に表示された刊行物の朗読を行うメ
ニューに対応する部分を、シャトルリング2−51を操
作して(右または左に回転させて)選択し、ボタン部2
−4のYes/確定ボタン2−31または確定ボタン2
−38を操作して確定することによって行う。
In the case of using the keyboard 2-3, type the character corresponding to the menu for reading aloud the publication, or move the cursor to the portion corresponding to the menu for reading aloud displayed on the display 2-7. This is done by operating a key (not shown) to make a selection. In the case of using the button section 2-4 (Fig. 7), the display 2-7
The part corresponding to the menu for reading the publication displayed in is selected by operating the left button 2-33 and the right button 2-34, and operating the Yes / confirm button 2-31 or the confirm button 2-38. And then confirm. Furthermore, in the case of using the jog shuttle unit 2-5 (Fig. 7),
The portion corresponding to the menu for reading aloud the publication displayed on the display 2-7 is selected by operating the shuttle ring 2-51 (rotating right or left), and selecting the button portion 2.
-4 Yes / Enter button 2-31 or Enter button 2
This is done by operating -38 to confirm.

【0147】中央制御装置2−1は、以上のようにし
て、刊行物の朗読を行うメニューの選択がなされると、
刊行物の朗読を行う動作モード(以下、朗読モードとい
う)となり、まず図9に示すステップS2−1におい
て、朗読する刊行物(朗読テキスト)の選択処理を行
う。即ち、中央制御装置2−1は、情報記録再生装置2
−12(情報記録再生装置2−12の内蔵する記録媒
体)に発音記号情報が記録されている刊行物のタイトル
を、ディスプレイ2−7に表示させるか、あるいは音声
合成装置2−6から合成音によって出力させる(以下、
ディスプレイ2−7または音声合成装置2−6から出力
させるという)。
The central controller 2-1 selects a menu for reading a publication as described above,
An operation mode for reading a publication (hereinafter referred to as a reading mode) is set. First, in step S2-1 shown in FIG. 9, a publication (reading text) to be read is selected. That is, the central control device 2-1 controls the information recording / reproducing device 2
-12 (the recording medium incorporated in the information recording / reproducing apparatus 2-12), the title of the publication in which the phonetic symbol information is recorded is displayed on the display 2-7, or the synthesized speech is generated from the speech synthesizer 2-6. Output by (below,
It is said to be output from the display 2-7 or the voice synthesizer 2-6).

【0148】使用者は、ディスプレイ2−7または音声
合成装置2−6から出力されたタイトルから、朗読を希
望するものを選択する。このタイトルの選択は、上述し
たメニューの選択における場合と同様に、刊行物のタイ
トルに対応する音声を、音声認識装置2−2のマイク2
−21から入力することにより行うこともできるし、あ
るいはキーボード2−3、ボタン部2−4、またはジョ
グシャトル部2−5を操作することにより行うこともで
きる。
The user selects a title desired to be read aloud from the titles output from the display 2-7 or the voice synthesizer 2-6. As with the case of selecting the menu described above, the selection of this title outputs the voice corresponding to the title of the publication to the microphone 2 of the voice recognition device 2-2.
It can be performed by inputting from -21, or by operating the keyboard 2-3, the button section 2-4, or the jog shuttle section 2-5.

【0149】朗読する刊行物のタイトルが選択される
と、ステップS2−2に進み、朗読形態が選択される。
ここで、朗読形態としては、例えば刊行物の本文の始め
から朗読を行う形態や、前回朗読を中断した部分から朗
読を開始する形態、刊行物の目次だけを朗読する形態な
どがある。
When the title of the publication to be read is selected, the flow proceeds to step S2-2, and the reading form is selected.
Here, examples of the recitation mode include a mode in which recitation is performed from the beginning of the text of the publication, a mode in which recitation is started from a portion in which the recitation is interrupted last time, and a mode in which only the table of contents of the publication is reciteed.

【0150】この朗読形態の選択時においても、ステッ
プS2−1における朗読テキストの選択における場合と
同様にして、朗読形態のメニューがディスプレイ2−7
または音声合成装置2−6から出力される。そして、そ
のうちの所望するものが、使用者によって、音声認識装
置2−2、キーボード2−3、ボタン部2−4、または
ジョグシャトル部2−5が操作されて選択される。
Even when this reading mode is selected, the reading mode menu is displayed on the display 2-7 as in the case of selecting the reading text in step S2-1.
Alternatively, it is output from the voice synthesizer 2-6. Then, a desired one of them is selected by the user operating the voice recognition device 2-2, the keyboard 2-3, the button unit 2-4, or the jog shuttle unit 2-5.

【0151】ステップS2−2の処理後、ステップS2
−3に進み、朗読位置の設定が必要か否かを問いかける
(質問する)質問メニューが、ディスプレイ2−7また
は音声合成装置2−6から出力される。そして、使用者
によって、音声認識装置2−2、キーボード2−3、ボ
タン部2−4、またはジョグシャトル部2−5が操作さ
れ、朗読位置の設定をするか否かが選択される。する
と、音声認識装置2−2、キーボード2−3、ボタン部
2−4、またはジョグシャトル部2−5から、使用者の
操作に対応した選択信号が、中央制御装置2−1に出力
され、中央制御装置2−1では、選択信号に基づいて、
朗読位置の設定が必要か否かが判定される。
After the processing of step S2-2, step S2
-3, a question menu asking (whether to ask) whether or not the reading position needs to be set is output from the display 2-7 or the voice synthesizer 2-6. Then, the user operates the voice recognition device 2-2, the keyboard 2-3, the button section 2-4, or the jog shuttle section 2-5 to select whether or not to set the reading position. Then, the voice recognition device 2-2, the keyboard 2-3, the button part 2-4, or the jog shuttle part 2-5 outputs a selection signal corresponding to the operation of the user to the central control device 2-1. In the central control device 2-1, based on the selection signal,
It is determined whether or not the reading position needs to be set.

【0152】中央制御装置2−1において、朗読位置の
設定が必要でないと判定された場合、ステップS2−4
をスキップして、ステップS2−5に進む。また、中央
制御装置2−1において、朗読位置の設定が必要である
と判定された場合、ステップS2−4に進み、朗読位置
の選択メニューが、ディスプレイ2−7または音声合成
装置2−6から出力される。そして、使用者によって、
音声認識装置2−2、キーボード2−3、ボタン部2−
4、またはジョグシャトル部2−5が操作されて、朗読
位置が選択される。
If the central controller 2-1 determines that the reading position need not be set, step S2-4
And skip to step S2-5. If it is determined in the central controller 2-1 that the reading position needs to be set, the process proceeds to step S2-4, and the reading position selection menu is displayed on the display 2-7 or the voice synthesizer 2-6. Is output. And by the user
Voice recognition device 2-2, keyboard 2-3, button section 2-
4 or the jog shuttle unit 2-5 is operated to select the reading position.

【0153】ここで、このステップS2−4の朗読位置
の選択時においては、朗読を希望する章や段落などを選
択するとともに、その章や段落の始めから朗読を開始し
たり、その始めから数文だけを朗読したり、あらかじめ
設定された早読み(詳細は、後述する)のためのキーワ
ードだけを朗読したり、あるいは使用者が後述するステ
ップS2−10で設定したランダムアクセスポイントの
付近だけを朗読する形態を選択することができるように
なされている。
Here, at the time of selecting the reading position in step S2-4, a chapter or paragraph for which reading is desired is selected, and reading is started from the beginning of the chapter or paragraph, or a number is read from the beginning. Read only sentences, read only keywords for preset fast reading (details will be described later), or read only the vicinity of the random access point set by the user in step S2-10 described later. It is designed so that you can select the form to read.

【0154】その後、ステップS2−5乃至S2−8に
順次進み、音声合成装置2−6が出力する、刊行物を朗
読する合成音の声質と発話速度の選択、音声記録再生装
置2−13で合成音を録音するか否かの選択(録音の必
要性の選択)、合成音の周波数特性の選択(難聴補正の
選択)が行われる。
After that, the process proceeds to steps S2-5 to S2-8 in order to select the voice quality and utterance speed of the synthetic voice for reading the publication output by the voice synthesizing device 2-6, and the voice recording / reproducing device 2-13. Selection of whether or not to record a synthetic sound (selection of necessity of recording) and selection of frequency characteristic of synthetic sound (selection of hearing loss correction) are performed.

【0155】即ち、ステップS2−5乃至S2−8で
は、それぞれの選択メニューが、ディスプレイ2−7ま
たは音声合成装置2−6から出力される。そして、使用
者によって、音声認識装置2−2、キーボード2−3、
ボタン部2−4、またはジョグシャトル部2−5が操作
され、所望する合成音の声質と発話速度、合成音を録音
するか否か、所望する合成音の周波数特性がそれぞれ選
択される。
That is, in steps S2-5 to S2-8, each selection menu is output from the display 2-7 or the voice synthesizer 2-6. Then, depending on the user, the voice recognition device 2-2, the keyboard 2-3,
The button unit 2-4 or the jog shuttle unit 2-5 is operated to select the desired voice quality and speech rate of the synthesized sound, whether or not to record the synthesized sound, and the desired frequency characteristic of the synthesized sound.

【0156】ここで、音声合成装置2−6から合成音の
声質の選択メニューが出力され、音声認識装置2−2が
操作されることにより(音声認識装置2−2(マイク2
−21)に音声が入力されることにより)、低い声質が
選択される場合には、例えば音声合成装置2−6より、
合成音「声の高さは?」が出力され、使用者によって、
音声「低い」が音声認識装置2−2に入力される。
Here, the voice synthesizing device 2-6 outputs a voice quality selection menu of the synthesized voice, and the voice recognizing device 2-2 is operated (the voice recognizing device 2-2 (the microphone 2
If a low voice quality is selected (by inputting voice to -21)), for example, from the voice synthesizer 2-6,
The synthesized voice "What is your pitch?" Is output, and depending on the user,
The voice "low" is input to the voice recognition device 2-2.

【0157】また、音声合成装置2−6から合成音の発
声速度の選択メニューが出力され、音声認識装置2−2
が操作されることにより、低速の発声速度が選択される
場合には、例えば音声合成装置2−6より、合成音「発
声速度は?」が出力され、使用者によって、音声「遅
い」が音声認識装置2−2に入力される。
Further, the voice synthesizing device 2-6 outputs a selection menu of the speaking speed of the synthetic voice, and the voice recognizing device 2-2.
When a low utterance speed is selected by operating, the voice synthesizing device 2-6 outputs a synthesized voice “What is the voice utterance?” And the user outputs the voice “slow”. It is input to the recognition device 2-2.

【0158】さらに、音声合成装置2−6から合成音の
録音を行うか否かの選択メニューが出力され、音声認識
装置2−2が操作されることにより、合成音の録音を行
うことが選択される場合には、例えば音声合成装置2−
6より、合成音「録音しますか?」が出力され、使用者
によって、音声「はい」が音声認識装置2−2に入力さ
れる。
Further, the voice synthesizing device 2-6 outputs a selection menu as to whether or not to record the synthetic voice, and the voice recognizing device 2-2 is operated to select the recording of the synthetic voice. In this case, for example, the voice synthesizer 2-
From 6, the synthesized sound “Do you want to record?” Is output, and the user inputs the voice “Yes” to the voice recognition device 2-2.

【0159】ステップS2−5乃至S2−8の処理後、
ステップS2−9に進み、朗読を開始するように、音声
認識装置2−2、キーボード2−3、ボタン部2−4、
またはジョグシャトル部2−5が操作される。すると、
中央制御装置2−1において、情報記録再生装置2−1
2に記録された刊行物の発音記号情報が読み出され、音
声合成装置2−6に出力される。これにより、音声合成
装置2−6では、上述したようにして、音声合成がなさ
れ、合成音が出力される。即ち、ステップS2−1で選
択された刊行物が、ステップS2−2で選択された朗読
形態で、ステップS2−4で選択された朗読位置から朗
読が行われる。さらに、このとき、音声合成装置2−6
からは、ステップS2−5,S2−6、またはS2−8
でそれぞれ選択された声質、発声速度、または周波数特
性の合成音が出力される。
After the processing of steps S2-5 to S2-8,
In step S2-9, the voice recognition device 2-2, the keyboard 2-3, the button section 2-4, so as to start reading aloud,
Alternatively, the jog shuttle unit 2-5 is operated. Then,
In the central control device 2-1, the information recording / reproducing device 2-1
The phonetic symbol information of the publication recorded in No. 2 is read out and output to the voice synthesizer 2-6. As a result, in the voice synthesizer 2-6, voice synthesis is performed as described above, and a synthetic voice is output. That is, the publication selected in step S2-1 is read in the recitation mode selected in step S2-2 from the recitation position selected in step S2-4. Furthermore, at this time, the speech synthesizer 2-6
From step S2-5, S2-6, or S2-8
The synthesized voice having the selected voice quality, vocalization speed, or frequency characteristic is output.

【0160】なお、この朗読を、音声認識装置2−2を
操作することにより(音声認識装置2−2に音声を入力
することにより)開始させる場合には、例えば音声「朗
読」が音声認識装置2−2に入力される。また、キーボ
ード2−3による場合には、例えば文字列「roudoku」
がタイプされる。さらに、ボタン部2−4による場合に
は、朗読ボタン2−37(図7)が操作される。
When the reading is started by operating the voice recognition device 2-2 (by inputting voice to the voice recognition device 2-2), for example, the voice "reading" is changed to the voice recognition device. 2-2 is input. When using the keyboard 2-3, for example, the character string "roudoku"
Is typed. Further, when the button unit 2-4 is used, the reading button 2-37 (FIG. 7) is operated.

【0161】以上のようにして、朗読が開始されると、
ステップS2−7で朗読の合成音を録音することが選択
されている場合には、音声記録再生装置2−13によ
る、朗読の合成音の録音が開始される。そして、ステッ
プS2−10に進み、必要に応じて、ランダムアクセス
するためのポイントの設定が行われる。このポイントの
設定は、使用者が、例えば再度、合成音を聞くことを希
望する朗読位置で、音声認識装置2−2、キーボード2
−3、またはボタン部2−4(ボタン部2−4の場合
は、そのうちの設定ボタン2−40(図7))が操作さ
れることにより行われる。
When the reading is started as described above,
If it is selected in step S2-7 to record the read-aloud synthetic sound, the voice recording / reproducing device 2-13 starts recording the read-aloud synthetic sound. Then, the process proceeds to step S2-10, and points are set for random access as needed. This point is set at the reading position where the user wants to hear the synthesized sound again, for example, at the voice recognition device 2-2 and the keyboard 2.
-3, or the button section 2-4 (in the case of the button section 2-4, the setting button 2-40 (FIG. 7) among them) is operated.

【0162】このポイント(ランダムアクセスポイン
ト)が設定された朗読位置には、音声認識装置2−2、
キーボード2−3、ボタン部2−4、またはジョグシャ
トル部2−5を操作することにより、即座にアクセスす
ることができるようになされている。
At the reading position where this point (random access point) is set, the voice recognition device 2-2,
By operating the keyboard 2-3, the button section 2-4, or the jog shuttle section 2-5, immediate access can be made.

【0163】その後、ステップS2−11に進み、朗読
を中断するように、音声認識装置2−2、キーボード2
−3、またはボタン部2−4が、使用者によって操作さ
れたか否かが判定される。ステップS2−11におい
て、朗読を中断するように、音声認識装置2−2、キー
ボード2−3、またはボタン部2−4が、使用者によっ
て操作されたと判定された場合、刊行物を朗読する合成
音の出力が停止され、さらに音声記録再生装置2−13
が録音動作している場合には、その動作が停止されて、
ステップS2−2に戻る。
After that, the process advances to step S2-11, and the voice recognition device 2-2 and the keyboard 2 are arranged so as to interrupt the reading.
-3 or the button portion 2-4 is determined by the user. In step S2-11, when it is determined that the voice recognition device 2-2, the keyboard 2-3, or the button unit 2-4 is operated by the user so as to interrupt the reading, the reading of the publication is combined. The sound output is stopped, and the audio recording / reproducing apparatus 2-13
If recording is in progress, the operation is stopped,
It returns to step S2-2.

【0164】即ち、この場合、刊行物を朗読する朗読形
態や、合成音の声質、発声速度などが選択し直される。
That is, in this case, the reading style for reading the publication, the voice quality of the synthesized sound, the speaking speed, and the like are selected again.

【0165】また、ステップS2−11において、朗読
を中断するように、音声認識装置2−2、キーボード2
−3、またはボタン部2−4が、使用者によって操作さ
れていないと判定された場合、ステップS2−12に進
み、朗読を終了するように、音声認識装置2−2、キー
ボード2−3、またはボタン部2−4が、使用者によっ
て操作されたか否かが判定される。
In step S2-11, the voice recognition device 2-2 and the keyboard 2 are arranged so as to interrupt the reading.
-3 or the button unit 2-4 is determined not to be operated by the user, the process proceeds to step S2-12, the voice recognition device 2-2, the keyboard 2-3, so that the reading is finished. Alternatively, it is determined whether the button portion 2-4 has been operated by the user.

【0166】ステップS2−12において、朗読を終了
するように、音声認識装置2−2、キーボード2−3、
またはボタン部2−4が操作されていないと判定された
場合、ステップS2−10に戻る。また、ステップS2
−12において、朗読を終了するように、音声認識装置
2−2、キーボード2−3、またはボタン部2−4が操
作されたと判定された場合、合成音の出力が停止され、
さらに音声記録再生装置2−13が録音動作している場
合には、その動作が停止されて、処理を終了する。
At step S2-12, the voice recognition device 2-2, the keyboard 2-3,
Alternatively, if it is determined that the button section 2-4 is not operated, the process returns to step S2-10. Also, step S2
In -12, when it is determined that the voice recognition device 2-2, the keyboard 2-3, or the button unit 2-4 is operated to end the reading, the output of the synthetic sound is stopped,
Further, when the audio recording / reproducing apparatus 2-13 is in the recording operation, the operation is stopped and the processing is ended.

【0167】次に、情報記録再生装置2−12によっ
て、記録媒体(例えば、センターシステム1から送信さ
れた刊行物のデータ(文字データの他、写真や図などの
イメージデータも含む)が、情報記録再生装置2−12
によってあらかじめ記録された記録媒体)に記録された
刊行物のデータを再生し、これをディスプレイ2−7に
表示する場合の動作について、図10のフローチャート
を参照して説明する。
Next, by the information recording / reproducing apparatus 2-12, the recording medium (for example, the data of the publication transmitted from the center system 1 (including character data, image data such as photographs and drawings)) Recording / reproducing apparatus 2-12
The operation of reproducing the data of the publication recorded on the recording medium which has been recorded in advance and displaying it on the display 2-7 will be described with reference to the flowchart of FIG.

【0168】この場合においても、まず上述した刊行物
の朗読を行う場合と同様にして、中央制御装置2−1
が、刊行物の表示を行う動作モードにされる。そして、
図10に示すステップS2−21において、表示する刊
行物(表示テキスト)の選択処理が行われる。即ち、中
央制御装置2−1は、情報記録再生装置2−12(情報
記録再生装置2−12の内蔵する記録媒体)にデータが
記録されている刊行物のタイトルを、ディスプレイ2−
7または音声合成装置2−6から出力させる。
In this case as well, the central controller 2-1 is first used in the same manner as in the case of reading the above-mentioned publication.
Is put into an operating mode for displaying the publication. And
In step S2-21 shown in FIG. 10, a publication (display text) to be displayed is selected. That is, the central control device 2-1 displays the title of the publication whose data is recorded on the information recording / reproducing device 2-12 (recording medium incorporated in the information recording / reproducing device 2-12) on the display 2-.
7 or the voice synthesizer 2-6.

【0169】すると、ディスプレイ2−7または音声合
成装置2−6から出力されたタイトルから所望するもの
が、使用者によって、音声認識装置2−2、キーボード
2−3、ボタン部2−4、またはジョグシャトル部2−
5が操作されて選択される。
Then, the desired title among the titles output from the display 2-7 or the voice synthesizer 2-6 is selected by the user from the voice recognizer 2-2, the keyboard 2-3, the button section 2-4, or the user. Jog shuttle part 2-
5 is operated and selected.

【0170】表示する刊行物のタイトルが選択される
と、ステップS2−22に進み、表示形態が選択され
る。ここで、表示形態としては、例えば刊行物の本文の
始めから表示を行う形態や、前回表示を中断した部分か
ら表示を開始する形態、刊行物の目次だけを表示する形
態などがある。
When the title of the publication to be displayed is selected, the process proceeds to step S2-22, and the display form is selected. Here, the display form includes, for example, a form in which the display is performed from the beginning of the text of the publication, a form in which the display is started from a portion where the previous display was interrupted, and a form in which only the contents of the publication are displayed.

【0171】この表示形態の選択は、表示形態のメニュ
ーがディスプレイ2−7または音声合成装置2−6から
出力され、このうちの所望するものが、使用者によっ
て、音声認識装置2−2、キーボード2−3、ボタン部
2−4、またはジョグシャトル部2−5が操作されて選
択されることにより行われる。
In the selection of the display form, the menu of the display form is output from the display 2-7 or the voice synthesizing device 2-6, and the desired one is selected by the user from the voice recognizing device 2-2 and the keyboard. This is performed by operating and selecting 2-3, the button section 2-4, or the jog shuttle section 2-5.

【0172】ステップS2−22の処理後、ステップS
2−23に進み、表示位置の設定が必要か否かを問いか
ける(質問する)質問メニューが、ディスプレイ2−7
または音声合成装置2−6から出力される。そして、使
用者によって、音声認識装置2−2、キーボード2−
3、ボタン部2−4、またはジョグシャトル部2−5が
操作され、表示位置の設定をするか否かが選択される。
すると、音声認識装置2−2、キーボード2−3、ボタ
ン部2−4、またはジョグシャトル部2−5から、使用
者の操作に対応した選択信号が、中央制御装置2−1に
出力され、中央制御装置2−1では、選択信号に基づい
て、表示位置の設定が必要か否かが判定される。
After the processing of step S2-22, step S2
Proceed to 2-23, and the question menu that asks (question) whether the display position needs to be set is displayed on the display 2-7.
Alternatively, it is output from the voice synthesizer 2-6. Then, the user recognizes the voice recognition device 2-2 and the keyboard 2-.
3, the button portion 2-4, or the jog shuttle portion 2-5 is operated to select whether or not to set the display position.
Then, the voice recognition device 2-2, the keyboard 2-3, the button part 2-4, or the jog shuttle part 2-5 outputs a selection signal corresponding to the operation of the user to the central control device 2-1. The central controller 2-1 determines whether or not it is necessary to set the display position based on the selection signal.

【0173】中央制御装置2−1において、表示位置の
設定が必要でないと判定された場合、ステップS2−2
4をスキップして、ステップS2−25に進む。また、
中央制御装置2−1において、表示位置の設定が必要で
あると判定された場合、ステップS2−24に進み、表
示位置の選択メニューが、ディスプレイ2−7または音
声合成装置2−6から出力される。そして、使用者によ
って、音声認識装置2−2、キーボード2−3、ボタン
部2−4、またはジョグシャトル部2−5が操作され
て、表示位置が選択される。
If the central controller 2-1 determines that the setting of the display position is not necessary, step S2-2
4 is skipped, and the process proceeds to step S2-25. Also,
When the central controller 2-1 determines that the display position needs to be set, the process proceeds to step S2-24, and the display position selection menu is output from the display 2-7 or the voice synthesizer 2-6. It Then, the user operates the voice recognition device 2-2, the keyboard 2-3, the button section 2-4, or the jog shuttle section 2-5 to select the display position.

【0174】ここで、この表示位置の選択時において
は、上述した朗読位置の選択時と同様に、表示を希望す
る章や段落などを選択するとともに、その章や段落の始
めから表示を開始したり、その始めから数文だけを表示
したり、あらかじめ設定された早読みのためのキーワー
ドだけを表示したり、あるいは使用者が後述するステッ
プS2−26で設定したランダムアクセスポイントの付
近だけを表示する形態を選択することができるようにな
されている。
Here, at the time of selecting this display position, as in the case of selecting the reading position described above, the chapter or paragraph desired to be displayed is selected and the display is started from the beginning of the chapter or paragraph. Or only a few sentences from the beginning, only preset keywords for quick reading, or only the vicinity of the random access point set by the user in step S2-26 described later. You can select the form to do.

【0175】その後、ステップS2−25に進み、表示
を開始するように、音声認識装置2−2、キーボード2
−3、ボタン部2−4、またはジョグシャトル部2−5
が操作される。すると、中央制御装置2−1において、
情報記録再生装置2−12に記録された刊行物のデータ
が読み出され、ディスプレイ2−7に出力されて表示さ
れる。即ち、ステップS2−21で選択された刊行物
が、ステップS2−22で選択された表示形態で、ステ
ップS2−24で選択された表示位置から表示が行われ
る。
After that, the process proceeds to step S2-25, and the voice recognition device 2-2 and the keyboard 2 are operated so as to start the display.
-3, button section 2-4, or jog shuttle section 2-5
Is operated. Then, in the central controller 2-1
The data of the publication recorded in the information recording / reproducing apparatus 2-12 is read out and output to the display 2-7 for display. That is, the publication selected in step S2-21 is displayed in the display form selected in step S2-22 from the display position selected in step S2-24.

【0176】なお、この表示を、音声認識装置2−2を
操作することにより(音声認識装置2−2に音声を入力
することにより)開始させる場合には、例えば音声「表
示」が音声認識装置2−2に入力される。また、キーボ
ード2−3による場合には、例えば文字列「hyouji」が
タイプされる。さらに、ボタン部2−4による場合に
は、表示ボタン2−39(図7)が操作される。
When this display is started by operating the voice recognition device 2-2 (by inputting voice to the voice recognition device 2-2), for example, the voice "display" is displayed by the voice recognition device. 2-2 is input. In the case of using the keyboard 2-3, for example, the character string "hyouji" is typed. Further, in the case of using the button section 2-4, the display button 2-39 (FIG. 7) is operated.

【0177】以上のようにして、表示が開始されると、
使用者は、音声認識装置2−2、キーボード2−3、ボ
タン部2−4、ジョグシャトル部2−5を操作すること
によって、ディスプレイ2−7の表示画面をスクロール
することができるようになる。
When display is started as described above,
The user can scroll the display screen of the display 2-7 by operating the voice recognition device 2-2, the keyboard 2-3, the button section 2-4, and the jog shuttle section 2-5. .

【0178】そして、ステップS2−26に進み、必要
に応じて、ランダムアクセスするためのポイントの設定
が行われる。このランダムアクセスポイントの設定は、
使用者が、上述したようにして表示画面をスクロール
し、例えば再度見ることを希望する表示位置で、音声認
識装置2−2、キーボード2−3、またはボタン部2−
4(ボタン部2−4の場合は、上述したように、設定ボ
タン2−40(図7))を操作することにより行われ
る。
Then, the processing proceeds to step S2-26, and the points for random access are set if necessary. The settings for this random access point are
The user scrolls the display screen as described above and, for example, at the display position at which he / she wants to see it again, the voice recognition device 2-2, the keyboard 2-3, or the button section 2-
4 (in the case of the button section 2-4, as described above, it is performed by operating the setting button 2-40 (FIG. 7)).

【0179】このランダムアクセスポイントが設定され
た表示位置には、音声認識装置2−2、キーボード2−
3、ボタン部2−4、またはジョグシャトル部2−5を
操作することにより、即座にアクセスすることができる
ようになされている。
At the display position where this random access point is set, the voice recognition device 2-2 and the keyboard 2-
By operating 3, the button section 2-4 or the jog shuttle section 2-5, it is possible to access immediately.

【0180】その後、ステップS2−27に進み、表示
を終了するように、音声認識装置2−2、キーボード2
−3、またはボタン部2−4が、使用者によって操作さ
れたか否かが判定される。
After that, the process proceeds to step S2-27, and the voice recognition device 2-2 and the keyboard 2 are operated so as to end the display.
-3 or the button portion 2-4 is determined by the user.

【0181】ステップS2−27において、表示を終了
するように、音声認識装置2−2、キーボード2−3、
またはボタン部2−4が操作されていないと判定された
場合、ステップS2−26に戻る。また、ステップS2
−27において、表示を終了するように、音声認識装置
2−2、キーボード2−3、またはボタン部2−4が操
作されたと判定された場合、ディスプレイ2−7による
表示を停止して、処理を終了する。
At step S2-27, the voice recognition device 2-2, the keyboard 2-3,
Alternatively, if it is determined that the button portion 2-4 is not operated, the process returns to step S2-26. Also, step S2
In -27, when it is determined that the voice recognition device 2-2, the keyboard 2-3, or the button unit 2-4 is operated so as to end the display, the display by the display 2-7 is stopped, and the process is performed. To finish.

【0182】次に、情報記録再生装置2−12によっ
て、記録媒体(例えば、センターシステム1から送信さ
れた刊行物のデータ(文字データの他、写真や図などの
イメージデータも含む)が、情報記録再生装置2−12
によってあらかじめ記録された記録媒体)に記録された
刊行物のデータを再生し、これをプリンタ2−8からプ
リントアウトする場合の動作について、図11のフロー
チャートを参照して説明する。
Next, by the information recording / reproducing apparatus 2-12, the recording medium (for example, the data of the publication transmitted from the center system 1 (including character data, image data such as photographs and drawings) is converted into information). Recording / reproducing apparatus 2-12
The operation of reproducing the data of the publication recorded on the recording medium which has been recorded in advance and printing it out from the printer 2-8 will be described with reference to the flowchart of FIG.

【0183】この場合においても、まず上述した刊行物
の朗読を行う場合と同様にして、中央制御装置2−1
が、刊行物をプリントアウトする動作モードにされる。
そして、図11に示すステップS2−31において、プ
リントアウトする刊行物(出力テキスト)の選択処理が
行われる。即ち、中央制御装置2−1は、情報記録再生
装置2−12(情報記録再生装置2−12の内蔵する記
録媒体)にデータが記録されている刊行物のタイトル
を、ディスプレイ2−7または音声合成装置2−6から
出力させる。
Also in this case, the central controller 2-1 is first used in the same manner as in the case of reading the above-mentioned publication.
Is put into an operating mode to print out the publication.
Then, in step S2-31 shown in FIG. 11, a process of selecting a publication (output text) to be printed out is performed. That is, the central control device 2-1 displays the title of the publication whose data is recorded in the information recording / reproducing device 2-12 (the recording medium incorporated in the information recording / reproducing device 2-12) on the display 2-7 or the audio. Output from the synthesizer 2-6.

【0184】すると、ディスプレイ2−7または音声合
成装置2−6から出力されたタイトルから所望するもの
が、使用者によって、音声認識装置2−2、キーボード
2−3、ボタン部2−4、またはジョグシャトル部2−
5が操作されて選択される。
Then, the desired title among the titles output from the display 2-7 or the voice synthesizing device 2-6 is selected by the user from the voice recognizing device 2-2, the keyboard 2-3, the button section 2-4, or the user. Jog shuttle part 2-
5 is operated and selected.

【0185】プリントアウトする刊行物のタイトルが選
択されると、ステップS2−32に進み、出力形態が選
択される。ここで、出力形態としては、例えば刊行物の
本文の始めからプリントアウトする形態や、前回プリン
トアウトを中断した部分からプリントアウトを開始する
形態、刊行物の目次だけをプリントアウトする形態など
がある。
When the title of the publication to be printed out is selected, the flow advances to step S2-32 to select the output form. Here, the output form includes, for example, a form of printing out from the beginning of the body of the publication, a form of starting printout from the part where the previous printout was interrupted, a form of printing out only the table of contents of the publication, etc. .

【0186】この出力形態の選択は、出力形態のメニュ
ーがディスプレイ2−7または音声合成装置2−6から
出力され、このうちの所望するものが、使用者によっ
て、音声認識装置2−2、キーボード2−3、ボタン部
2−4、またはジョグシャトル部2−5が操作されて選
択されることにより行われる。
In the selection of the output form, the menu of the output form is output from the display 2-7 or the voice synthesizing device 2-6, and a desired one of them is selected by the user from the voice recognizing device 2-2 and the keyboard. This is performed by operating and selecting 2-3, the button section 2-4, or the jog shuttle section 2-5.

【0187】ステップS2−32の処理後、ステップS
2−33に進み、出力位置の設定が必要か否かを問いか
ける(質問する)質問メニューが、ディスプレイ2−7
または音声合成装置2−6から出力される。そして、使
用者によって、音声認識装置2−2、キーボード2−
3、ボタン部2−4、またはジョグシャトル部2−5が
操作され、出力位置の設定をするか否かが選択される。
すると、音声認識装置2−2、キーボード2−3、ボタ
ン部2−4、またはジョグシャトル部2−5から、使用
者の操作に対応した選択信号が、中央制御装置2−1に
出力され、中央制御装置2−1では、選択信号に基づい
て、出力位置の設定が必要か否かが判定される。
After the processing of step S2-32, step S
Proceed to 2-33, the question menu for inquiring (asking question) whether output position setting is necessary is displayed on the display 2-7.
Alternatively, it is output from the voice synthesizer 2-6. Then, the user recognizes the voice recognition device 2-2 and the keyboard 2-.
3, the button portion 2-4, or the jog shuttle portion 2-5 is operated to select whether or not to set the output position.
Then, the voice recognition device 2-2, the keyboard 2-3, the button part 2-4, or the jog shuttle part 2-5 outputs a selection signal corresponding to the operation of the user to the central control device 2-1. The central control device 2-1 determines whether or not it is necessary to set the output position based on the selection signal.

【0188】中央制御装置2−1において、出力位置の
設定が必要でないと判定された場合、ステップS2−3
4をスキップして、ステップS2−35に進む。また、
中央制御装置2−1において、出力位置の設定が必要で
あると判定された場合、ステップS2−34に進み、出
力位置の選択メニューが、ディスプレイ2−7または音
声合成装置2−6から出力される。そして、使用者によ
って、音声認識装置2−2、キーボード2−3、ボタン
部2−4、またはジョグシャトル部2−5が操作され
て、出力位置が選択される。
If the central controller 2-1 determines that the setting of the output position is not necessary, step S2-3
4 is skipped and the process proceeds to step S2-35. Also,
If the central controller 2-1 determines that it is necessary to set the output position, the process proceeds to step S2-34, and the output position selection menu is output from the display 2-7 or the voice synthesizer 2-6. It Then, the user operates the voice recognition device 2-2, the keyboard 2-3, the button section 2-4, or the jog shuttle section 2-5 to select the output position.

【0189】ここで、この出力位置の選択時において
は、上述した朗読位置の選択時と同様に、プリントアウ
トを希望する章や段落などを選択するとともに、その章
や段落の始めからプリントアウトを開始したり、その始
めから数文だけをプリントアウトしたり、あらかじめ設
定された早読みのためのキーワードだけをプリントアウ
トしたり、あるいは使用者が上述した朗読処理(図9)
や表示処理(図10)で設定したランダムアクセスポイ
ントの付近だけをプリントアウトする形態を選択するこ
とができるようになされている。
Here, at the time of selecting this output position, as in the case of selecting the reading position described above, the chapter or paragraph for which printout is desired is selected, and the printout is performed from the beginning of the chapter or paragraph. Start, print only a few sentences from the beginning, print only preset keywords for quick reading, or read aloud by the user (Fig. 9)
It is possible to select a mode in which only the vicinity of the random access point set in the display process (FIG. 10) is printed out.

【0190】その後、ステップS2−35に進み、プリ
ントアウトを開始するように、音声認識装置2−2、キ
ーボード2−3、ボタン部2−4、またはジョグシャト
ル部2−5が操作される。すると、中央制御装置2−1
において、情報記録再生装置2−12に記録された刊行
物のデータが読み出され、プリンタ2−8に出力されプ
リントアウトされる。即ち、ステップS2−31で選択
された刊行物が、ステップS2−32で選択された出力
形態で、ステップS2−24で選択された出力位置から
プリントアウトされる。
After that, the process proceeds to step S2-35, and the voice recognition device 2-2, the keyboard 2-3, the button section 2-4, or the jog shuttle section 2-5 is operated so as to start the printout. Then, the central controller 2-1
At, the data of the publication recorded in the information recording / reproducing apparatus 2-12 is read out, outputted to the printer 2-8 and printed out. That is, the publication selected in step S2-31 is printed out in the output form selected in step S2-32 from the output position selected in step S2-24.

【0191】なお、このプリントアウトを、音声認識装
置2−2を操作することにより(音声認識装置2−2に
音声を入力することにより)開始させる場合には、例え
ば音声「出力」が音声認識装置2−2に入力される。ま
た、キーボード2−3による場合には、例えば文字列
「syutsuryoku」がタイプされる。さらに、ボタン部2
−4による場合には、出力ボタン2−41(図7)が操
作される。
When the printout is started by operating the voice recognition device 2-2 (by inputting voice to the voice recognition device 2-2), for example, the voice "output" is voice recognition. It is input to the device 2-2. In the case of using the keyboard 2-3, for example, the character string "syutsuryoku" is typed. Furthermore, the button part 2
-4, the output button 2-41 (FIG. 7) is operated.

【0192】その後、プリンアウトが終了すると、処理
を終了する。
After that, when the printout is completed, the processing is completed.

【0193】なお、上述の朗読、表示、プリントアウト
は、情報記録再生装置2−12が、記録媒体の着脱可能
なものとなされている場合には、センターシステム1か
ら送信された刊行物の情報を、記録媒体に記録してから
行うのではなく、既に刊行物の情報が記録されている記
録媒体を、情報記録再生装置2−12にセットして行う
ようにすることができる。
The above reading, display, and printout are the information of the publications transmitted from the center system 1 when the information recording / reproducing apparatus 2-12 has a removable recording medium. It is possible to set the recording medium on which the information of the publication has already been recorded in the information recording / reproducing apparatus 2-12, instead of recording the information on the recording medium.

【0194】また、上述したように、中央制御装置2−
1に、タイマ回路2−11が計時している時間を参照さ
せ、例えば通信料金の安い時間(例えば、深夜)に、セ
ンターシステム1にアクセスさせて、過去にアクセスし
たときに、図書データベース5(図1)から検索した刊
行物の情報を受信させる場合においては、あらかじめ朗
読形態や朗読位置、合成音の声質などを選択しておき、
その選択値に基づいて、受信した刊行物を、音声合成装
置2−6によって朗読させ、その朗読の合成音を、音声
記録再生装置2−13によって録音しておくようにする
ことができる。
Further, as described above, the central control unit 2-
1 to refer to the time counted by the timer circuit 2-11, and to access the center system 1 at a time when the communication charge is low (for example, at midnight). When receiving the information of the publication searched from Fig. 1), the reading style, reading position, voice quality of synthesized speech, etc. are selected in advance,
Based on the selected value, the received publication can be read aloud by the voice synthesizer 2-6, and the synthesized voice of the read aloud can be recorded by the voice recording / playback device 2-13.

【0195】この場合、使用者は、例えば翌日などに、
即座に刊行物を朗読した合成音を聞くことができる。
In this case, the user, for example, on the next day,
Immediately listen to the synthetic speech that read the publication.

【0196】次に、このターミナル2においては、音声
記録再生装置2−13が、例えばDAT(ディジタルオ
ーディオテープ)装置などである場合、既に音声が録音
されたDATを、音声記録再生装置2−13により、図
12に示すようにして再生することができるようになさ
れている。
Next, in this terminal 2, when the audio recording / reproducing device 2-13 is, for example, a DAT (digital audio tape) device, the DAT in which audio has already been recorded is recorded in the audio recording / reproducing device 2-13. Thus, it can be reproduced as shown in FIG.

【0197】即ち、まずステップS2−41において、
DATが、音声記録再生装置2−13に装填され、さら
に中央制御装置2−1からの入力(音声記録再生装置2
−13に装備されている操作部(図示せず)が操作され
ることによるコマンドなどの入力ではなく、中央制御装
置2−1からのコマンドの入力)が選択されて、ステッ
プS2−42乃至S2−44のいずれかに進む。
That is, first, in step S2-41,
DAT is loaded into the audio recording / reproducing device 2-13, and further input from the central control device 2-1 (audio recording / reproducing device 2
-13. Command input from the central control device 2-1 is selected instead of inputting a command by operating an operation unit (not shown) equipped in -13, and steps S2-42 to S2 are performed. Go to any one of -44.

【0198】ステップS2−42に進んだ場合には、ボ
タン部2−4(図7)の左ボタン2−34、もしくは右
ボタン2−35、またはジョグシャトル部2−4の再生
ボタン2−52が操作されることにより、中央制御装置
2−1によってDATの再生(逆再生)が開始されるよ
うに、音声記録再生装置2−13が制御される。
When the process proceeds to step S2-42, the left button 2-34 or right button 2-35 of the button section 2-4 (FIG. 7) or the play button 2-52 of the jog shuttle section 2-4. Is operated, the audio recording / reproducing device 2-13 is controlled so that the central control device 2-1 starts the reproduction (reverse reproduction) of the DAT.

【0199】また、ステップS2−43に進んだ場合に
は、音声認識装置2−2に、例えば音声「再生」が入力
されることにより、中央制御装置2−1によってDAT
の再生が開始されるように、音声記録再生装置2−13
が制御される。さらに、ステップS2−44に進んだ場
合には、キーボード2−3により、例えば文字列「sais
ei」がタイプ入力されることにより、中央制御装置2−
1によってDATの再生が開始されるように、音声記録
再生装置2−13が制御される。
If the process proceeds to step S2-43, the voice "reproduction" is input to the voice recognition device 2-2, so that the central controller 2-1 causes the DAT.
Recording / reproducing apparatus 2-13 so that the reproduction of
Is controlled. Further, when the process proceeds to step S2-44, the keyboard 2-3 is used to display the character string "sais
The central control unit 2-
The audio recording / reproducing device 2-13 is controlled so that the reproduction of the DAT is started by 1.

【0200】次に、音声記録再生装置2−13に装填さ
れたDATの早送りまたは巻戻しは、次のようにして行
われる。即ち、まず中央制御装置2−1からの入力が選
択される。そして、音声認識装置2−2に、例えば音声
「早送り」または「巻戻し」が入力された場合には、中
央制御装置2−1によってDATの早送りまたは巻戻し
がそれぞれ行われるように、音声記録再生装置2−13
が制御される。
Next, fast-forwarding or rewinding the DAT loaded in the audio recording / reproducing apparatus 2-13 is performed as follows. That is, first, the input from the central controller 2-1 is selected. Then, when, for example, a voice "fast forward" or "rewind" is input to the voice recognition device 2-2, voice recording is performed so that the central control device 2-1 fast forwards or rewinds the DAT, respectively. Playback device 2-13
Is controlled.

【0201】また、ジョグシャトル部2−5(図7)の
シャトルリング2−51が、右または左に回転操作され
た場合にも、中央制御装置2−1によって、シャトルリ
ング2−51の回転角に応じた速度で、DATの早送り
または巻戻しがそれぞれ行われるように、音声記録再生
装置2−13が制御される。
When the shuttle ring 2-51 of the jog shuttle unit 2-5 (FIG. 7) is rotated right or left, the central controller 2-1 rotates the shuttle ring 2-51. The audio recording / reproducing device 2-13 is controlled so that the fast-forwarding or rewinding of the DAT is performed at a speed according to the angle.

【0202】さらに、キーボード2−3により、例えば
文字列「hayaokuri」または「makimodosi」がタイプ入
力された場合にも、中央制御装置2−1によってDAT
の早送りまたは巻戻しがそれぞれ行われるように、音声
記録再生装置2−13が制御される。
Further, even when the character string "hayaokuri" or "makimodosi" is typed in with the keyboard 2-3, the central controller 2-1 activates the DAT.
The audio recording / reproducing apparatus 2-13 is controlled so that the fast-forwarding or the rewinding of is performed.

【0203】次に、DATの再生、早送り、または巻戻
しの停止は、次のようにして行われる。即ち、まず中央
制御装置2−1からの入力が選択される。そして、音声
認識装置2−2に、例えば音声「停止」が入力された場
合には、中央制御装置2−1によってDATの再生、早
送り、または巻戻しが停止されるように、音声記録再生
装置2−13が制御される。
Next, DAT reproduction, fast-forwarding, or rewinding is stopped in the following manner. That is, first, the input from the central controller 2-1 is selected. Then, when, for example, a voice "stop" is input to the voice recognition device 2-2, the voice recording / reproducing device is configured so that the reproduction, fast-forwarding, or rewinding of the DAT is stopped by the central control device 2-1. 2-13 is controlled.

【0204】また、ボタン部2−4(図7)のNoボタ
ン2−32またはジョグシャトル部2−5(図7)の停
止ボタン2−51が操作された場合にも、中央制御装置
2−1によって、DATの再生、早送り、または巻戻し
が停止されるように、音声記録再生装置2−13が制御
される。
Also, when the No button 2-32 of the button section 2-4 (FIG. 7) or the stop button 2-51 of the jog shuttle section 2-5 (FIG. 7) is operated, the central controller 2- 1 controls the audio recording / reproducing apparatus 2-13 so that the reproduction, fast-forwarding, or rewinding of DAT is stopped.

【0205】さらに、キーボード2−3により、例えば
文字列「teisi」がタイプ入力された場合にも、中央制
御装置2−1によってDATの再生、早送り、または巻
戻しが停止されるように、音声記録再生装置2−13が
制御される。
Furthermore, even if the character string "teisi" is typed in with the keyboard 2-3, the central controller 2-1 stops the DAT reproduction, fast-forwarding or rewinding so as to stop the sound. The recording / reproducing device 2-13 is controlled.

【0206】次に、放送受信装置2−10によるラジオ
番組またはテレビジョン番組の受信は、次のようにして
行われる。即ち、まず中央制御装置2−1からの入力が
選択される。そして、音声認識装置2−2に、例えば音
声「ラジオ」または「テレビ」が入力された場合には、
中央制御装置2−1によって、ラジオ番組またはテレビ
ジョン番組がそれぞれ受信されるように、放送受信装置
2−10が制御される。
Next, the reception of the radio program or the television program by the broadcast receiving device 2-10 is performed as follows. That is, first, the input from the central controller 2-1 is selected. Then, for example, when a voice "radio" or "television" is input to the voice recognition device 2-2,
The central control device 2-1 controls the broadcast receiving device 2-10 so as to receive the radio program or the television program, respectively.

【0207】また、ボタン部2−4(図5)の図示せぬ
ラジオボタンまたはテレビボタンが操作された場合に
も、中央制御装置2−1によって、ラジオ番組またはテ
レビジョン番組がそれぞれ受信されるように、放送受信
装置2−10が制御される。
Also, when a radio button or a television button (not shown) of the button section 2-4 (FIG. 5) is operated, the radio program or the television program is received by the central controller 2-1. Thus, the broadcast receiving device 2-10 is controlled.

【0208】さらに、キーボード2−3により、例え
ば、文字列「radio」または「tv」がタイプ入力された
場合にも、中央制御装置2−1によって、ラジオ番組ま
たはテレビジョン番組が、それぞれ受信されるように、
放送受信装置2−10が制御される。
Further, even when the character string "radio" or "tv" is typed in through the keyboard 2-3, the central control unit 2-1 receives the radio program or the television program, respectively. So that
The broadcast receiving device 2-10 is controlled.

【0209】放送受信装置2−10でラジオ番組が受信
された場合には、その音声がスピーカより出力される。
また、放送受信装置2−10でテレビジョン番組が受信
された場合には、その画像がディスプレイ2−7に表示
されるとともに、その音声がスピーカより出力される。
When the broadcast receiving apparatus 2-10 receives a radio program, its sound is output from the speaker.
Further, when the television program is received by the broadcast receiving device 2-10, the image is displayed on the display 2-7 and the sound is output from the speaker.

【0210】なお、放送受信装置2−10に受信させる
ラジオ番組またはテレビジョン番組のチャンネルは、ジ
ョグシャトル部2−5のシャトルリング2−51などを
操作することにより選択することができるようになされ
ている。
The channel of the radio program or the television program to be received by the broadcast receiving device 2-10 can be selected by operating the shuttle ring 2-51 of the jog shuttle section 2-5. ing.

【0211】また、放送受信装置2−10によるラジオ
番組またはテレビジョン番組の受信の停止は、上述した
DATの再生、早送り、または巻戻しを停止される場合
と同様にして行うことができるようになされている。
Further, the reception of the radio program or the television program by the broadcast receiving device 2-10 can be stopped in the same manner as the case where the reproduction, the fast forward or the rewind of the DAT described above is stopped. Has been done.

【0212】以上のように、このターミナル2は、キー
ボード2−3による操作だけでなく、音声入力や、ボタ
ン部2−4またはジョグシャトル部2−5の操作により
動作制御することができるようになされているととも
に、音声と表示との両方で、情報の出力を行うことがで
きるようになされているので、身体に障害を持つ使用者
であっても、容易に使用することができる。
As described above, the operation of the terminal 2 can be controlled not only by the operation of the keyboard 2-3 but also by the voice input and the operation of the button section 2-4 or the jog shuttle section 2-5. In addition to being performed, information can be output by both voice and display, so that even a user with a physical disability can easily use it.

【0213】次に、図13は、図1に示したセンターシ
ステム1の音声入力型データベース検索・送出システム
3の詳細構成を示すブロック図である。通信制御部3−
1には、ターミナル2と接続されている通信回線(上述
したように、本実施例では、電話回線)が接続される。
そして、通信制御部3−1は、所定の通信規格に基づい
て、ターミナル2との情報の送受信制御を行うようにな
されている。さらに、通信制御部3−1には、複数の通
信回線、即ち複数のターミナルを接続することができる
ようになされており、この場合、通信制御部3−1は、
複数のトランザクションを、例えば時分割法により並列
的に処理する。
Next, FIG. 13 is a block diagram showing a detailed structure of the voice input type database retrieval / transmission system 3 of the center system 1 shown in FIG. Communication control unit 3-
A communication line (a telephone line in this embodiment as described above) connected to the terminal 2 is connected to the terminal 1.
Then, the communication control section 3-1 is configured to perform transmission / reception control of information with the terminal 2 based on a predetermined communication standard. Further, a plurality of communication lines, that is, a plurality of terminals can be connected to the communication control section 3-1. In this case, the communication control section 3-1
A plurality of transactions are processed in parallel by a time division method, for example.

【0214】なお、複数のトランザクションを処理する
にあたっては、上述したように時分割で行う他、図13
に示す音声入力型データベース検索・送出システム3を
複数設けるようにしても良い。
Note that, in processing a plurality of transactions, in addition to the time sharing as described above, FIG.
It is also possible to provide a plurality of voice input type database retrieval / transmission systems 3 shown in FIG.

【0215】さらに、通信制御部3−1は、受信したデ
ータから、ターミナル2の端末属性(ハードウェアの仕
様(例えば、ターミナル2が、音声合成装置を備えてい
るとか、視覚障害者専用の端末であるとかなど))を識
別し、ターミナル2に情報(信号)を送信する場合に
は、その情報を、端末属性に対応したフォーマットに変
換して送信するようになされている。
Further, the communication control unit 3-1 determines from the received data that the terminal attributes of the terminal 2 (specification of hardware (for example, the terminal 2 is equipped with a voice synthesizer, the terminal dedicated to the visually impaired). When transmitting the information (signal) to the terminal 2, the information is converted into a format corresponding to the terminal attribute and transmitted.

【0216】なお、通信制御部3−1には、上述したよ
うな端末属性に対応したフォーマット変換処理を行わせ
ず、ターミナル2に、このフォーマット変換処理を行わ
せるようにしても良い。
The communication control section 3-1 may be configured to allow the terminal 2 to perform the format conversion process without performing the format conversion process corresponding to the terminal attribute as described above.

【0217】以下、説明を簡単にするために、1つのタ
ーミナル2が、通信制御部3−1に接続されているもの
として説明する。
Hereinafter, for simplification of explanation, it is assumed that one terminal 2 is connected to the communication control section 3-1.

【0218】まず、通信制御部3−1は、データを受信
すると、そのデータが音声そのもののデータか、または
それ以外のデータ(例えば、音声の音響パラメータや、
コマンドその他など。以下、音声外データという)かを
判定し、その判定信号をシステム制御部3−3に出力す
る。
First, when the communication control unit 3-1 receives the data, the data is the data of the voice itself or other data (for example, the acoustic parameter of the voice,
Command etc. (Hereinafter, referred to as non-voice data), and the determination signal is output to the system control unit 3-3.

【0219】システム制御部3−3は、通信制御部3−
1から判定信号を受信すると、その判定信号に基づい
て、スイッチ3−2の切換制御を行う。即ち、判定信号
が、受信されたデータが音声そのもののデータであるこ
とを示すものであった場合、システム制御部3−3は、
スイッチ3−2に、端子イ側を選択させる。また、判定
信号が、受信されたデータが音声外データであることを
示すものであった場合、システム制御部3−3は、スイ
ッチ3−2に、端子ア側を選択させる。
The system control section 3-3 has a communication control section 3-
When the determination signal is received from 1, the switch control of the switch 3-2 is performed based on the determination signal. That is, when the determination signal indicates that the received data is the data of the voice itself, the system control unit 3-3
The switch 3-2 is caused to select the terminal a side. If the determination signal indicates that the received data is non-voice data, the system control unit 3-3 causes the switch 3-2 to select the terminal A side.

【0220】通信制御部3−1では、そこに接続されて
いる通信回線が、上述したように、電話回線であるた
め、誤って電話機から電話がかかってきて、音声そのも
のが受信される場合がある。この場合、通信制御部3−
1からは、受信されたデータが音声そのものであること
を示す判定信号が、システム制御部3−3に出力され、
これにより、システム制御部3−3では、スイッチ3−
2が端子イ側に切り換えられる。さらに、この場合、シ
ステム制御部3−3は、スイッチ3−9を端子b側に切
り換え、これにより、音声合成部3−7が、スイッチ3
−9および3−2を介して通信制御部3−1と接続され
る。
In the communication control section 3-1, since the communication line connected thereto is a telephone line as described above, there is a case where a telephone call is accidentally made from the telephone and the voice itself is received. is there. In this case, the communication control unit 3-
From 1, a determination signal indicating that the received data is voice itself is output to the system control unit 3-3,
As a result, in the system control unit 3-3, the switch 3-
2 is switched to the terminal a side. Furthermore, in this case, the system control unit 3-3 switches the switch 3-9 to the terminal b side, whereby the voice synthesis unit 3-7 causes the switch 3-9 to operate.
It is connected to the communication control unit 3-1 via -9 and 3-2.

【0221】音声合成部3−7は、スイッチ3−9が端
子b側に切り換えられると、システム制御部3−3に制
御されて、音声合成用データベース3−8にあらかじめ
記憶されている音声合成用データを読み出し、その音声
合成用データに基づいて、例えば電話番号が誤っている
ことなどを内容とする合成音を生成するようになされて
いる。
When the switch 3-9 is switched to the terminal b side, the voice synthesizing unit 3-7 is controlled by the system control unit 3-3 and stored in the voice synthesizing database 3-8 in advance. For example, the voice data is read out, and based on the voice synthesis data, a synthetic voice having contents such as an incorrect telephone number is generated.

【0222】この合成音は、スイッチ3−9および3−
2、並びに通信制御部3−1を介して電話がかかってき
た電話機に送信され、これにより電話をかけてきた相手
に、電話番号が誤っていることを知らせるようになされ
ている。
This synthesized sound is generated by switches 3-9 and 3-
2, and is transmitted to the called telephone via the communication control unit 3-1 so that the other party who is calling is notified that the telephone number is incorrect.

【0223】一方、ターミナル2など、センターシステ
ム1に本来接続されるべき端末からのデータ、即ち音声
外データが受信された場合、上述したように、スイッチ
3−2は、端子ア側に切り換えられ、これにより音声外
データは、通信制御部3−1およびスイッチ3−2を介
してシステム制御部3−3で受信される。
On the other hand, when the data from the terminal which should be originally connected to the center system 1 such as the terminal 2, that is, the non-voice data is received, the switch 3-2 is switched to the terminal A side as described above. As a result, the non-voice data is received by the system control unit 3-3 via the communication control unit 3-1 and the switch 3-2.

【0224】ここで、システム制御部3−3では、通信
制御部3−1から、受信データが音声外データであるこ
とを示す判定信号を受信した場合であっても、ターミナ
ル2からの要求によって、スイッチ3−2を端子イ側に
切り換えることができるようになされている。この場
合、システム制御部3−3は、スイッチ3−2を端子イ
側に切り換えるとともに、スイッチ3−9を端子a側に
切り換えるようになされており、これにより端子aに接
続されている、オペレータが操作する端末(図示せず)
と、ターミナル2とが通信することができるようになさ
れている。
Here, in the system control unit 3-3, even if the determination signal indicating that the received data is the non-voice data is received from the communication control unit 3-1, it is requested by the terminal 2. , The switch 3-2 can be switched to the terminal a side. In this case, the system control unit 3-3 switches the switch 3-2 to the terminal a side and the switch 3-9 to the terminal a side, whereby the operator connected to the terminal a. Terminal operated by (not shown)
And the terminal 2 can communicate with each other.

【0225】この場合、ターミナル2の使用者は、オペ
レータに対し、例えば直接音声で問い合わせを行うこと
ができ、これにより、例えばターミナル2の操作方法が
不慣れな初心者や、使用者の不測の事態に対処すること
ができるようになされている。
In this case, the user of the terminal 2 can directly inquire the operator, for example, by voice, and thus, for example, a beginner who is unfamiliar with the operation method of the terminal 2 or an unexpected situation of the user. Being able to deal with.

【0226】なお、以上の他、システム制御部3−3
が、通信制御部3−1を介してターミナル2と通信を行
うことができない場合など、センターシステム1に不測
の事態が発生した場合には、スイッチ3−2または3−
9がそれぞれ端子イまたはa側に切り換えられ、これに
よりターミナル2の使用者と、オペレータとが、例えば
音声で、直接通信することができるようになされてい
る。
In addition to the above, the system control unit 3-3
However, when an unexpected situation occurs in the center system 1, such as when communication with the terminal 2 cannot be performed via the communication control unit 3-1, the switch 3-2 or 3-
9 is switched to the terminal a or a side, respectively, so that the user of the terminal 2 and the operator can directly communicate with each other, for example, by voice.

【0227】システム制御部3−3は、端子ア側を選択
しているスイッチ3−2を介して、音声外データを受信
した場合には、この音声外データに対応して、所定の処
理を行うようになされている。
When the non-voice data is received via the switch 3-2 which selects the terminal A side, the system control section 3-3 executes a predetermined process corresponding to the non-voice data. Is supposed to do.

【0228】即ち、音声外データが、例えば音声認識を
行うべき音響パラメータおよびその音声認識を行うこと
を指示するコマンドであった場合には、システム制御部
3−3は、この音響パラメータを認識部3−4に供給す
るとともに、音声認識処理を行うように認識部3−4を
制御する。また、音声外データが、例えば図書データベ
ース5(図1)から、刊行物のデータを検索すべきコマ
ンドその他の情報であった場合には、検索部3−6にそ
の刊行物のデータを検索させるとともに、検索結果を、
スイッチ3−2および通信制御部3−1を介してターミ
ナル2に送信する。
That is, when the non-speech data is, for example, an acoustic parameter for which speech recognition is to be performed and a command for instructing that speech recognition, the system control unit 3-3 recognizes this acoustic parameter. The recognition unit 3-4 is controlled so as to perform a voice recognition process while supplying the recognition unit 3-4. If the non-voice data is, for example, a command or other information for retrieving publication data from the book database 5 (FIG. 1), the retrieval unit 3-6 retrieves the publication data. Along with the search results,
It transmits to the terminal 2 via the switch 3-2 and the communication control unit 3-1.

【0229】ここで、本実施例においては、上述したよ
うに、ターミナル2の中央制御装置2−1(分析部2−
23)から音響パラメータが、センターシステム1に送
信されるようになされている。従って、この場合、音声
そのものが通信回線を介して送信される場合に比較し
て、信号劣化を低減することができ、さらに通信量を削
減することができる。
Here, in the present embodiment, as described above, the central controller 2-1 (analyzer 2-
The acoustic parameters from 23) are transmitted to the center system 1. Therefore, in this case, the signal deterioration can be reduced and the communication amount can be further reduced, as compared with the case where the voice itself is transmitted through the communication line.

【0230】また、この音響パラメータを用いて音声認
識が行われるが、この場合、通信回線を介して送信され
てきた音声そのものを認識する場合に比較して、認識性
能を向上させることができる(本実施例では、通信回線
として電話回線を仮定しており、例えば通信回線がPS
TNであり、このPSTNを介して音声が送信されてき
た場合には、音声が、ほぼ3.4kHzまでの範囲に帯
域制限されてしまうため)。
Further, voice recognition is performed using this acoustic parameter. In this case, the recognition performance can be improved as compared with the case of recognizing the voice itself transmitted through the communication line ( In this embodiment, a telephone line is assumed as the communication line, and for example, the communication line is PS.
TN, and when voice is transmitted via this PSTN, the voice is band-limited to a range up to approximately 3.4 kHz).

【0231】なお、ターミナル2を小型に構成するため
に、例えば音声認識装置2−2(図5)を設けずに、タ
ーミナル2が構成される場合に対応するため、音声その
ものが、ターミナル2から送信されてきた場合でも、認
識部3−4においては、その音声認識を行うようにする
ことができる。
In order to configure the terminal 2 in a small size, for example, the case where the terminal 2 is configured without providing the voice recognition device 2-2 (FIG. 5) corresponds to the voice itself from the terminal 2. Even if it is transmitted, the recognition unit 3-4 can perform the voice recognition.

【0232】認識部3−4は、システム制御部3−3の
制御にしたがって、同じくシステム制御部3−3より出
力される音響パラメータを用いて、音声認識処理を行
う。即ち、認識部3−4は、例えばあらかじめ作成して
おいたコードブックを用いて、システム制御部3−3か
らの音響パラメータをベクトル量子化するとともに、認
識用データベース3−5に記憶された、例えば離散型H
MM法に基づき作成された音素単位のモデルを、同じく
認識用データベース3−5に記憶された単語辞書に記述
されている単語にしたがって接続する。そして、この接
続モデルが、ベクトル量子化された音響パラメータ列を
出力する確率を計算し、この確率に基づいた認識結果を
出力する。
The recognition unit 3-4 performs a voice recognition process under the control of the system control unit 3-3, using the acoustic parameters similarly output from the system control unit 3-3. That is, the recognizing unit 3-4 vector-quantizes the acoustic parameter from the system control unit 3-3 using, for example, a code book created in advance, and stores the acoustic parameter in the recognizing database 3-5. For example, discrete H
The phoneme-based models created based on the MM method are connected in accordance with the words described in the word dictionary also stored in the recognition database 3-5. Then, this connection model calculates the probability of outputting the vector-quantized acoustic parameter sequence, and outputs the recognition result based on this probability.

【0233】なお、音声認識アルゴリズムは、離散型H
MM法に限られるものではなく、例えば連続混合HMM
法や、ニューラルネットワークを使用した方法などあら
ゆる方法を用いるようにすることができる。
Note that the speech recognition algorithm is a discrete H
The method is not limited to the MM method, for example, a continuous mixed HMM.
Any method such as a method or a method using a neural network can be used.

【0234】また、認識部3−4は、上述のような単語
認識により音声を認識する他、ディクテーションにより
音声認識を行うことができるようにもなされている(詳
細は、後述する)。
The recognizing unit 3-4 is also designed to be capable of recognizing speech by word recognition as described above and speech recognition by dictation (details will be described later).

【0235】さらに、この認識部3−4は、ターミナル
2に設けられた音声認識装置2−2に比較して、認識語
彙範囲が広く、且つ認識精度が高いものに構成されてい
る。
Further, the recognition unit 3-4 is configured to have a wider recognition vocabulary range and higher recognition accuracy than the voice recognition device 2-2 provided in the terminal 2.

【0236】次に、図14のフローチャートを参照し
て、その動作について説明する。まず、ステップS3−
1において、ターミナル2(図1)とセンターシステム
1との回線接続が行われる。これは、ターミナル2側か
ら、利用者IDや暗証番号が送信され、センターシステ
ム1でその確認が行われるなどの、遠隔ターミナルが、
センターシステムに接続される場合の一般的な接続手順
にしたがって行われる。
Next, the operation will be described with reference to the flowchart in FIG. First, step S3-
1, the line connection between the terminal 2 (FIG. 1) and the center system 1 is established. This is because the terminal 2 side sends the user ID and the personal identification number, and the center system 1 confirms the information.
Follow the general connection procedure when connecting to the center system.

【0237】回線接続がなされると、ステップS3−2
において、センターシステム1が提供可能なサービスの
メニューが、ターミナル2に対し送信され、ステップS
3−3に進み、このサービスメニューのうち、所望する
ものがターミナル2の使用者により選択される。即ち、
上述したように、ターミナル2において、サービスメニ
ューがディスプレイ2−7または音声合成装置2−6か
ら出力され、そのうちの所望するものが、音声認識装置
2−2、キーボード2−3、ボタン部2−4、またはジ
ョグシャトル部2−5が使用者により操作されることに
よって選択される。
When the line connection is made, step S3-2
In step S, the menu of services that can be provided by the center system 1 is transmitted to the terminal 2, and step S
Proceeding to 3-3, the user of the terminal 2 selects the desired one from the service menu. That is,
As described above, in the terminal 2, the service menu is output from the display 2-7 or the voice synthesizer 2-6, and a desired one of them is the voice recognizer 2-2, the keyboard 2-3, the button section 2-. 4 or the jog shuttle unit 2-5 is selected by being operated by the user.

【0238】なお、サービスメニューの出力(列挙)
は、ターミナル2やセンターシステム1にあらかじめ設
定された所定の情報にしたがって省略することができ
る。即ち、例えば使用者が、サービスの内容をあらかじ
め知っていれば、サービスメニューの出力を省略するこ
とができる。また、使用者が、センターシステム1が提
供するサービスのうち、所定のサービスしか利用しない
場合には、サービスメニューの出力、並びに後述するス
テップS3−3およびS3−4の処理を省略し、ステッ
プS3−1の処理後、即座に所定のサービスを提供する
ようにすることができる。
Output of service menu (enumeration)
Can be omitted according to the predetermined information preset in the terminal 2 or the center system 1. That is, for example, if the user knows the content of the service in advance, the output of the service menu can be omitted. Further, when the user uses only a predetermined service among the services provided by the center system 1, the output of the service menu and the processes of steps S3-3 and S3-4 described later are omitted, and step S3 is performed. It is possible to provide a predetermined service immediately after the processing of -1.

【0239】サービスメニューの選択がなされると、ス
テップS3−3において、選択したサービスメニューを
示す選択信号(コマンド)が、ターミナル2からセンタ
ーシステム1に送信される。そして、ステップS3−4
に進み、センターシステム1(システム制御部3−3)
で、選択信号(コマンド)が、いかなるサービスメニュ
ーを示すものであるか判定され、その判定結果に基づい
て、ステップS3−5乃至S3−8のいずれかに進む。
When the service menu is selected, a selection signal (command) indicating the selected service menu is transmitted from the terminal 2 to the center system 1 in step S3-3. And step S3-4
Go to the center system 1 (system control unit 3-3)
Then, it is determined what service menu the selection signal (command) indicates, and the process proceeds to any of steps S3-5 to S3-8 based on the determination result.

【0240】ステップS3−5では、システム制御部3
−3において、新聞サービスに関するプログラムが起動
され、新聞に関するサービスが提供される。また、ステ
ップS3−6では、システム制御部3−3において、雑
誌サービスに関するプログラムが起動され、雑誌に関す
るサービスが提供される。さらに、ステップS3−7で
は、システム制御部3−3において、図書検索に関する
プログラムが起動され、図書検索に関するサービスが提
供される。また、ステップS3−8では、システム制御
部3−3において、新刊サービスに関するプログラムが
起動され、新刊に関するサービスが提供される。
At step S3-5, the system controller 3
In -3, a program related to newspaper service is started and a service related to newspaper is provided. In step S3-6, the system control unit 3-3 activates the program related to the magazine service to provide the service related to the magazine. Further, in step S3-7, the system control unit 3-3 activates the program related to the book search and provides the service related to the book search. In step S3-8, the system control unit 3-3 activates the program related to the new publication service and provides the service related to the new publication.

【0241】以上のようにして、各サービスを提供する
プログラムが起動されると、システム制御部3−3で
は、その後にターミナル2から送信されてくるコマンド
が受信される。そして、図15のフローチャートに示す
ように、まずステップS3−11において、受信したコ
マンドが解析され、その解析結果に基づいて、ステップ
S3−12乃至S3−14のいずれかに進む。
As described above, when the program for providing each service is activated, the system control section 3-3 receives the command subsequently transmitted from the terminal 2. Then, as shown in the flowchart of FIG. 15, first, in step S3-11, the received command is analyzed, and based on the analysis result, the process proceeds to one of steps S3-12 to S3-14.

【0242】ステップS3−12では、システム制御部
3−3によって、認識部3−4における単語認識または
音韻認識(ディクテーションによる音声認識)の制御処
理が行われる。また、ステップS3−13では、システ
ム制御部3−3によって、検索部3−6における、図書
データベース5からの情報検索の制御処理が行われる。
さらに、ステップS3−14では、システム制御部3−
3によって、ターミナル2が要求するデータの転送制御
処理が行われる。
In step S3-12, the system control unit 3-3 controls the recognition unit 3-4 for word recognition or phoneme recognition (voice recognition by dictation). Further, in step S3-13, the system control unit 3-3 performs the control process of the information retrieval from the book database 5 in the retrieval unit 3-6.
Furthermore, in step S3-14, the system control unit 3-
3, the transfer control processing of the data requested by the terminal 2 is performed.

【0243】次に、図13に示した認識部3−4の詳細
について説明する。図16は、認識部3−4および認識
用データベース3−5の詳細構成を示すブロック図であ
る。認識用データベース3−5は、モデルおよび単語辞
書が、所定のカテゴリによって、語彙グループ1,2,
・・・,Nのように、N個のグループに分類されて記憶
されている。
Next, the details of the recognition unit 3-4 shown in FIG. 13 will be described. FIG. 16 is a block diagram showing detailed configurations of the recognition unit 3-4 and the recognition database 3-5. In the recognition database 3-5, the model and the word dictionary are classified into predetermined vocabulary groups 1, 2,
..., N, and the data are classified and stored in N groups.

【0244】ここで、カテゴリとは、単語が、刊行物の
タイトルや、著者、出版社、発行年月日、分類などの刊
行物の属性を意味するものであるとか、システム制御部
3−3に対するコマンドを意味するものであるとかな
ど、いわば単語を分類する単位を意味する。認識用デー
タベース3−5には、モデルおよび単語辞書が、刊行物
のタイトルや、著者、出版社、発行年月日、分類などの
刊行物の属性を示すものや、コマンドを示すものなどに
グループ分けされて記憶されている。
Here, the category means that the word means the title of the publication, the attribute of the publication such as the author, the publisher, the date of publication, the classification, or the system control unit 3-3. It means a unit for classifying words, so to speak. In the recognition database 3-5, models and word dictionaries are grouped into those that show publication titles, attributes of publications such as author, publisher, publication date, and classification, and those that show commands. It is stored separately.

【0245】認識部3−4は、認識方式選択部3−1
1、単語認識部3−12、ディクテーション部3−1
3、および属性リスト作成部3−14から構成される。
選択認識部3−11には、システム制御部3−3から、
音響パラメータとともに制御信号が供給されるようにな
されており、そこでは、制御信号にしたがって、その制
御信号とともに、音響パラメータが、単語認識部3−1
2およびディクテーション部3−13のうちのいずれか
一方に出力されるようになされている。
The recognition unit 3-4 includes a recognition method selection unit 3-1.
1, word recognition unit 3-12, dictation unit 3-1
3 and an attribute list creation unit 3-14.
From the system control unit 3-3 to the selection recognition unit 3-11,
A control signal is supplied together with the acoustic parameter, in which the acoustic parameter is transmitted along with the control signal in accordance with the control signal.
2 and the dictation unit 3-13.

【0246】単語認識部3−12は、図17に示すよう
に、認識用データベース3−5から、選択対象語彙選択
器3−22によって読み出されるモデルおよび単語辞書
を参照して、音声認識(単語認識)を行う単語認識器3
−21、認識用データベース3−5から、語彙グループ
1乃至Nのうちのいずれかを選択し、選択した語彙グル
ープに属するモデルおよび単語辞書を読み出す選択対象
語彙選択器3−22、および認識方式選択部3−11
(図16)からの制御信号に基づいて、単語認識器3−
21と認識対象語彙選択器3−22を制御する単語認識
制御器3−23から構成され、図18に示すフローチャ
ートにしたがって動作する。
As shown in FIG. 17, the word recognition unit 3-12 refers to the model and the word dictionary read by the selection target vocabulary selector 3-22 from the recognition database 3-5 to perform voice recognition (word recognition). Word recognizer 3 for recognition
-21, a selection target vocabulary selector 3-22 for selecting one of the vocabulary groups 1 to N from the recognition database 3-5 and reading out a model and a word dictionary belonging to the selected vocabulary group, and a recognition method selection Part 3-11
Based on the control signal from (FIG. 16), the word recognizer 3-
21 and a word recognition controller 3-23 for controlling the recognition target vocabulary selector 3-22, and operates according to the flowchart shown in FIG.

【0247】即ち、単語認識部3−12では、まずステ
ップS3−21において、単語認識制御器3−23によ
って、認識方式選択部3−11(システム制御部3−
3)からの制御信号が受信されたか否かが判定される。
ステップS3−21において、制御信号が受信されてい
ないと判定された場合、ステップS3−21に戻る。
That is, in the word recognition section 3-12, first, in step S3-21, the word recognition controller 3-23 causes the recognition method selection section 3-11 (system control section 3-12).
It is determined whether the control signal from 3) is received.
When it is determined in step S3-21 that the control signal is not received, the process returns to step S3-21.

【0248】また、ステップS3−21において、制御
信号が受信されたと判定された場合、ステップS3−2
2に進み、単語認識制御器3−23によって、その制御
信号が、認識用データベース3−5の語彙グループ1乃
至Nのうちのいずれかを選択する(以下、カテゴリを選
択するという)ことを示すものか否かが判定される。
If it is determined in step S3-21 that the control signal is received, then step S3-2
2, the word recognition controller 3-23 indicates that the control signal selects any one of the vocabulary groups 1 to N of the recognition database 3-5 (hereinafter referred to as selecting a category). It is determined whether or not it is a thing.

【0249】ここで、システム制御部3−3からカテゴ
リを示す制御信号が出力されることについては、後述す
る。
The output of the control signal indicating the category from the system control section 3-3 will be described later.

【0250】ステップS3−22において、制御信号
が、カテゴリを選択することを示すものであると判定さ
れた場合、ステップS3−23に進み、単語認識制御器
3−23によって認識対象語彙選択器3−23が制御さ
れ、これにより認識対象語彙選択器3−23によって、
制御信号が示すカテゴリ(語彙グループ1乃至Nのいず
れか)に属するモデルおよび単語辞書が読み出されて、
処理を終了する。
If it is determined in step S3-22 that the control signal indicates selection of a category, the process advances to step S3-23, and the word recognition controller 3-23 causes the recognition target vocabulary selector 3 to be selected. -23 is controlled, whereby the recognition target vocabulary selector 3-23 causes
A model and a word dictionary belonging to the category (any of vocabulary groups 1 to N) indicated by the control signal are read out,
The process ends.

【0251】一方、ステップS3−22において、制御
信号が、カテゴリを選択することを示すものでないと判
定された場合、ステップS3−24に進み、その制御信
号が、単語認識器3−21に認識処理を指示するものか
否かが判定される。ステップS3−24において、制御
信号が、単語認識器3−21に認識処理を指示するもの
でないと判定された場合、ステップS3−25に進み、
制御信号が解読できないことを示すエラー信号が認識結
果として、単語認識制御器3−23から、属性リスト作
成部3−14(図16)を介してシステム制御部3−3
に出力され、処理を終了する。
On the other hand, when it is determined in step S3-22 that the control signal does not indicate that the category is selected, the process proceeds to step S3-24, and the control signal is recognized by the word recognizer 3-21. It is determined whether or not the processing is instructed. When it is determined in step S3-24 that the control signal does not instruct the word recognizer 3-21 to perform the recognition process, the process proceeds to step S3-25.
An error signal indicating that the control signal cannot be decoded is obtained as a recognition result from the word recognition controller 3-23 via the attribute list creation unit 3-14 (FIG. 16) and the system control unit 3-3.
Is output to and the processing ends.

【0252】また、ステップS3−24において、制御
信号が、単語認識器3−21に認識処理を指示するもの
であると判定された場合、ステップS3−26に進み、
単語認識器3−21によって、認識用データベース3−
5から、選択対象語彙選択器3−22によって読み出さ
れたモデルおよび単語辞書が参照され、認識方式選択部
3−11(図16)から供給される音響パラメータを用
いて、離散HMM法に基づいて音声認識処理が行われる
(例えばビタビアルゴリズムによって、音素単位のモデ
ルを連結したモデル(単語モデル)から、音響パラメー
タ系列が観測される確率の計算が行われる)。
If it is determined in step S3-24 that the control signal instructs the word recognizer 3-21 to perform the recognition process, the process proceeds to step S3-26.
The recognition database 3-by the word recognizer 3-21.
5, the model and the word dictionary read by the selection target vocabulary selector 3-22 are referred to, and the acoustic parameters supplied from the recognition method selection unit 3-11 (FIG. 16) are used to perform the discrete HMM method. Speech recognition processing is performed (for example, the Viterbi algorithm calculates the probability that an acoustic parameter sequence is observed from a model (word model) in which phoneme-based models are connected).

【0253】そして、その結果得られた単語とその確率
(以下、スコアという)が、認識結果として出力され、
処理を終了する。
The word obtained as a result and its probability (hereinafter referred to as score) are output as the recognition result,
The process ends.

【0254】次に、図19は、図16に示したディクテ
ーション部3−13の詳細構成を示している。ディクテ
ーション型認識部3−31は、認識方式選択部3−11
より供給された音響パラメータを用いて、バイグラム
(bigram)などで継れたHMM音韻モデルをビタビビー
ムサーチしたり、あるいはテンプレートマッチングを連
続して行うことにより、音声認識(ディクテーション)
を行い、その結果(ディクテーション結果)を出力す
る。
Next, FIG. 19 shows the detailed structure of the dictation unit 3-13 shown in FIG. The dictation type recognition unit 3-31 is a recognition method selection unit 3-11.
Voice recognition (dictation) is performed by performing Viterbi beam search for an HMM phoneme model continued by a bigram or the like using the supplied acoustic parameters or performing template matching continuously.
And output the result (dictation result).

【0255】なお、ディクテーション型認識部3−31
は、ディクテーション条件記憶部3−32に記憶され
る、後述するディクテーション条件、および認識結果記
憶部3−33に記憶される過去のディクテーション結果
をふまえて(必要に応じて参考にして)、音声認識を行
うようになされている。
Incidentally, the dictation type recognition unit 3-31
Is a speech recognition based on the dictation conditions (to be described later) stored in the dictation condition storage unit 3-32 and the past dictation results stored in the recognition result storage unit 3-33 (referred to as necessary). Is designed to do.

【0256】ディクテーション条件記憶部3−22は、
後述するようにして、ターミナル2の使用者から指摘さ
れたディクテーション結果の修正条件(ディクテーショ
ン条件)を記憶する。
The dictation condition storage unit 3-22 is
As will be described later, the correction condition (dictation condition) of the dictation result pointed out by the user of the terminal 2 is stored.

【0257】ここで、修正条件(ディクテーション条
件)とは、ある入力音声(音響パラメータ)に対し、例
えば1文字目が「あ」であるディクテーション結果を出
力した場合に、このディクテーション結果がターミナル
2に送信され、ターミナル2の使用者によって、ディク
テーション結果の1文字目が誤っていると指摘されたと
すると、再度、その入力音声のディクテーションを行う
ときに、1文字目を「あ」にしないようにする条件(制
約)を意味する。
Here, the correction condition (dictation condition) is, for example, when a dictation result in which the first character is “A” is output with respect to a certain input voice (acoustic parameter), the dictation result is output to the terminal 2. If it is transmitted and the user of the terminal 2 points out that the first character of the dictation result is incorrect, do not make the first character "A" when dictating the input voice again. Means a condition (constraint).

【0258】なお、この修正条件(ディクテーション条
件)は、ターミナル2の使用者によって、ディクテーシ
ョン結果の誤りが指摘された場合に、システム制御部3
−3から制御信号として供給されるようになされてい
る。
The correction condition (dictation condition) is used when the user of the terminal 2 points out an error in the dictation result.
-3 is supplied as a control signal.

【0259】認識結果記憶部3−33では、ディクテー
ション型認識部3−31において、ある入力音声に対す
るディクテーションが、最初に行われる直前に、その記
憶内容がクリアされ、その後、ディクテーション型認識
部3−31から出力されるディクテーション結果を記憶
するようになされている。この認識結果記憶部3−33
に、過去のディクテーション結果が記憶されている場合
には、ディクテーション型認識部3−31では、その過
去のディクテーション結果と結果が同一とならないよう
に、即ち同一音声に対し、同じように誤ったディクテー
ション結果を出力しないようにディクテーションを行う
ようになされている。
In the recognition result storage unit 3-33, the dictation type recognition unit 3-31 clears the stored contents immediately before the dictation for a certain input voice is performed for the first time, and then the dictation type recognition unit 3-33. The dictation result output from 31 is stored. This recognition result storage unit 3-33
If the past dictation result is stored in the dictation type recognition unit 3-31, the dictation type recognition unit 3-31 does not make the result the same as the past dictation result, that is, the same erroneous dictation for the same voice. Dictation is performed so that the result is not output.

【0260】次に、ディクテーション部3−13および
それを制御するときのシステム制御部3−3(図13)
の動作について説明する。システム制御部3−3では、
まず図20のフローチャートに示すステップS3−31
において、ディクテーション条件記憶部3−32の記憶
内容(ディクテーション条件)をクリアするように、デ
ィクテーション部3−13(図19)に制御信号が出力
され、ステップS3−32に進み、ターミナル2からの
音響パラメータが受信され、ステップS3−33に進
む。ステップS3−33では、ターミナル2からの音響
パラメータとともに、その音響パラメータを用いて音声
認識を行うことを指示する制御信号が、ディクテーショ
ン部3−13に出力される。
Next, the dictation unit 3-13 and the system control unit 3-3 for controlling it (FIG. 13).
The operation of will be described. In the system control unit 3-3,
First, step S3-31 shown in the flowchart of FIG.
In step 3, a control signal is output to the dictation unit 3-13 (FIG. 19) so as to clear the stored contents (dictation condition) of the dictation condition storage unit 3-32, the process proceeds to step S3-32, and the sound from the terminal 2 is output. The parameter is received, and the process proceeds to step S3-33. In step S3-33, a control signal for instructing voice recognition using the acoustic parameter is output to the dictation unit 3-13 together with the acoustic parameter from the terminal 2.

【0261】その後、ディクテーション部3−13から
ディクテーション結果(音声認識結果)が送信されてく
ると、ステップS3−34に進み、そのディクテーショ
ン結果が正しいか否かが判定される。ここで、この判定
は、次のようにして行われる。即ち、まずディクテーシ
ョン結果が、ターミナル2に送信され、ターミナル2に
おいて、ディスプレイ2−7または音声合成装置2−6
から出力される。ターミナル2の使用者によっては、こ
のディクテーション結果が正しいか、または誤っている
かが指摘され(音声認識装置2−2、キーボード2−
3、ボタン部2−4、またはジョグシャトル部2−5が
操作されることにより指摘され)、これにより、ターミ
ナル2からは、ディクテーション結果が正しいか否かを
知らせる判定信号が送信される。システム制御部3−3
では、この判定信号に基づいて、ディクテーション結果
が正しいか否かが判定される。
After that, when the dictation result (voice recognition result) is transmitted from the dictation unit 3-13, the process proceeds to step S3-34, and it is determined whether or not the dictation result is correct. Here, this determination is performed as follows. That is, first, the dictation result is transmitted to the terminal 2, and the display 2-7 or the voice synthesizer 2-6 is displayed at the terminal 2.
Is output from. Depending on the user of the terminal 2, it is pointed out whether this dictation result is correct or incorrect (speech recognition device 2-2, keyboard 2-
3, which is pointed out by operating the button section 2-4 or the jog shuttle section 2-5), whereby the terminal 2 transmits a determination signal indicating whether or not the dictation result is correct. System control unit 3-3
Then, based on this determination signal, it is determined whether or not the dictation result is correct.

【0262】ステップS3−34において、ディクテー
ション結果が正しくない、即ち誤っていると判定された
場合、ステップS3−36に進み、ターミナル2に対
し、再度、同一音声を発声するか、またはディクテーシ
ョン結果のうち誤っている部分または正しい部分を指摘
する(ディクテーション条件を入力する)ように、メッ
セージが送信される。
If it is determined in step S3-34 that the dictation result is incorrect, that is, it is incorrect, the process proceeds to step S3-36, and the same voice is uttered again to the terminal 2 or the dictation result is confirmed. A message is sent to point out what is wrong or correct (enter dictation conditions).

【0263】従って、この後、使用者によって、音声認
識装置2−2、キーボード2−3、ボタン部2−4、ま
たはジョグシャトル部2−5が操作され、これによりタ
ーミナル2からは、今回ディクテーションを行った音声
と同一音声の音響パラメータか、あるいはディクテーシ
ョン条件が送信されてくることになる。
Therefore, after this, the user operates the voice recognition device 2-2, the keyboard 2-3, the button section 2-4, or the jog shuttle section 2-5, whereby the dictation this time from the terminal 2. The acoustic parameter of the same voice as that of the voice or the dictation condition is transmitted.

【0264】なお、この場合、ターミナル2からは、音
響パラメータまたはディクテーション条件の他、後述す
るようにして、ディクテーション結果を、正しいものに
修正したものが送信されてくるときがあり、システム制
御部3−3は、修正された、正しいディクテーション結
果を受信した場合には、ステップS3−37以下の処理
を中断し、処理を終了する。
In this case, in addition to the acoustic parameter or dictation condition, the dictation result corrected to the correct one may be transmitted from the terminal 2 as described later, and the system control unit 3 -3, when the corrected correct dictation result is received, interrupts the processing from step S3-37 and ends the processing.

【0265】ステップS3−36の処理後、ステップS
3−37に進み、ターミナル2から送信されてきた信号
が、音響パラメータであるか否かが判定される。ステッ
プS3−37において、ターミナル2から送信されてき
た信号が、音響パラメータであると判定された場合、ス
テップS3−33に戻り、ターミナル2からの音響パラ
メータとともに、その音響パラメータを用いて音声認識
を行うことを指示する制御信号が、再びディクテーショ
ン部3−13に出力され、以下ステップS3−34以降
の処理を繰り返す。
After the processing of step S3-36, step S
Proceeding to 3-37, it is determined whether or not the signal transmitted from the terminal 2 is an acoustic parameter. When it is determined in step S3-37 that the signal transmitted from the terminal 2 is an acoustic parameter, the process returns to step S3-33 to perform speech recognition using the acoustic parameter from the terminal 2 and the acoustic parameter. The control signal instructing to perform is output to the dictation unit 3-13 again, and the processing from step S3-34 onward is repeated.

【0266】また、ステップS3−37において、ター
ミナル2から送信されてきた信号が、音響パラメータで
ない、即ちディクテーション条件であると判定された場
合、ステップS3−38に進み、このディクテーション
条件が、制御信号としてディクテーション部3−13に
出力され、ステップS3−33に戻る。
If it is determined in step S3-37 that the signal transmitted from the terminal 2 is not the acoustic parameter, that is, the dictation condition, the process proceeds to step S3-38, and the dictation condition is the control signal. Is output to the dictation unit 3-13, and the process returns to step S3-33.

【0267】一方、ステップS3−34において、ディ
クテーション結果が正しいと判定された場合、ステップ
S3−35に進み、ディクテーション結果を、後述する
属性リスト作成部3−14(図16)に出力させること
を指示する制御信号が、ディクテーション部3−13に
出力され、処理を終了する。
On the other hand, if it is determined in step S3-34 that the dictation result is correct, the flow advances to step S3-35 to output the dictation result to the attribute list creation unit 3-14 (FIG. 16) described later. The instructed control signal is output to the dictation unit 3-13, and the process ends.

【0268】次に、ディクテーション部3−13は、以
上のようなシステム制御部3−3の制御にしたがって、
図21のフローチャートに示すように動作する。即ち、
ディクテーション部3−13(図19)では、ステップ
S3−41において、ディクテーション型認識部3−3
1によって、システム制御部3−3からの制御信号を受
信したか否かが判定される。
Next, the dictation unit 3-13 follows the control of the system control unit 3-3 as described above.
It operates as shown in the flowchart of FIG. That is,
In step S3-41, the dictation unit 3-13 (FIG. 19) recognizes the dictation type recognition unit 3-3.
1 determines whether or not the control signal from the system control unit 3-3 is received.

【0269】ステップS3−41において、制御信号を
受信していないと判定された場合、ステップS3−41
に戻る。また、ステップS3−41において、制御信号
を受信したと判定された場合、ステップS3−42に進
み、ディクテーション型認識部3−31によって、その
制御信号が、ディクテーション条件記憶部3−32の記
憶内容のクリアを指示する(初期化要求を示す)ものか
否かが判定される。ステップS3−42において、受信
した制御信号が、初期化要求を示すものであると判定さ
れた場合、ステップS3−43に進み、ディクテーショ
ン条件記憶部3−32の記憶内容がクリアされ、処理を
終了する。なお、ステップS3−43において、ディク
テーション条件記憶部3−32の記憶内容がクリアされ
るときには、同時に、認識結果記憶部3−33の記憶内
容もクリアされるようになされている。
If it is determined in step S3-41 that the control signal has not been received, step S3-41
Return to. If it is determined in step S3-41 that the control signal is received, the process proceeds to step S3-42, and the control signal is stored in the dictation condition storage unit 3-32 by the dictation type recognition unit 3-31. Is instructed to clear (indicating an initialization request). When it is determined in step S3-42 that the received control signal indicates an initialization request, the process proceeds to step S3-43, the storage contents of the dictation condition storage unit 3-32 are cleared, and the process ends. To do. In step S3-43, when the stored contents of the dictation condition storage unit 3-32 are cleared, the stored contents of the recognition result storage unit 3-33 are also cleared at the same time.

【0270】一方、ステップS3−42において、受信
した制御信号が、初期化要求を示すものでないと判定さ
れた場合、ステップS3−44に進み、その制御信号
が、ディクテーション条件(ディクテーション訂正条
件)であるか否かが判定される。ステップS3−44に
おいて、制御信号が、ディクテーション条件であると判
定された場合、ステップS3−50に進み、このディク
テーション条件が、ディクテーション型認識部3−31
からディクテーション条件記憶部3−32に出力されて
記憶される。
On the other hand, when it is determined in step S3-42 that the received control signal does not indicate the initialization request, the process proceeds to step S3-44, and the control signal is under the dictation condition (dictation correction condition). It is determined whether or not there is. When it is determined in step S3-44 that the control signal is the dictation condition, the process proceeds to step S3-50, and the dictation condition is the dictation type recognition unit 3-31.
Is output from the dictation condition storage unit 3-32 and stored therein.

【0271】ここで、制御信号がディクテーション条件
である場合には、既にディクテーション型認識部3−3
1において、ある音声に対するディクテーションが少な
くとも1度行われていることになる。
Here, if the control signal is a dictation condition, the dictation type recognition unit 3-3 has already been used.
In No. 1, dictation for a certain voice is performed at least once.

【0272】そこで、ディクテーション条件である制御
信号が受信された場合には、そのディクテーション条件
の記憶後、ステップS3−51に進み、ディクテーショ
ン型認識部3−31によって、ディクテーション条件記
憶部3−32に記憶されたディクテーション条件が参照
され、同一の音声に対するディクテーションが再度行わ
れる。そして、ディクテーション型認識部3−31より
ディクテーション結果が出力されると、ステップS3−
48に進む。
Therefore, when the control signal which is the dictation condition is received, the dictation condition is stored in the dictation condition storage unit 3-32 by the dictation type recognition unit 3-31 after storing the dictation condition. The stored dictation condition is referred to, and dictation on the same voice is performed again. Then, when the dictation result is output from the dictation type recognition unit 3-31, step S3-
Proceed to 48.

【0273】一方、ステップS3−44において、制御
信号が、ディクテーション条件でないと判定された場
合、ステップS3−45に進み、その制御信号が、音声
認識を指示するコマンドであるか否かが判定される。ス
テップS3−45において、制御信号が、音声認識を指
示するコマンドであると判定された場合、ステップS3
−47に進み、ディクテーション型認識部3−31によ
って、その制御信号とともに、システム制御部3−3よ
り供給される音響パラメータを用いて、ディクテーショ
ンが行われる。
On the other hand, if it is determined in step S3-44 that the control signal is not in the dictation condition, the flow advances to step S3-45 to determine whether or not the control signal is a command instructing voice recognition. It When it is determined in step S3-45 that the control signal is a command instructing voice recognition, step S3
Proceeding to -47, the dictation type recognition unit 3-31 performs dictation using the control signal and the acoustic parameter supplied from the system control unit 3-3.

【0274】その後、ディクテーション型認識部3−3
1よりディクテーション結果が出力されると、ステップ
S3−48に進み、ディクテーション結果が、認識結果
記憶部3−33に記憶され、ステップS3−49に進
む。ステップS3−49では、いま認識結果記憶部3−
33に記憶されたディクテーション結果が、システム制
御部3−3(図13)に出力され、処理を終了する。
After that, the dictation type recognition unit 3-3
When the dictation result is output from 1, the process proceeds to step S3-48, the dictation result is stored in the recognition result storage unit 3-33, and the process proceeds to step S3-49. In step S3-49, the recognition result storage unit 3-
The dictation result stored in 33 is output to the system control unit 3-3 (FIG. 13), and the process ends.

【0275】一方、ステップS3−45において、制御
信号が、音声認識を指示するコマンドでないと判定され
た場合、ステップS3−46に進み、認識結果記憶部3
−33に記憶されている最新のディクテーション結果
が、最終的なディクテーション結果(正しいディクテー
ション結果)として属性リスト作成部3−46に出力さ
れ、処理を終了する。
On the other hand, if it is determined in step S3-45 that the control signal is not the command for instructing voice recognition, the process proceeds to step S3-46, and the recognition result storage section 3
The latest dictation result stored in −33 is output to the attribute list creation unit 3-46 as the final dictation result (correct dictation result), and the process ends.

【0276】図16に戻り、属性リスト作成部3−14
は、単語認識部3−12またはディクテーション部3−
13から出力された認識結果(単語およびその尤度)
を、システム制御部3−3より制御信号として供給され
るカテゴリと組み合わせ(以下、この組み合わせを属性
リストという)、システム制御部3−3に、最終的な音
声認識結果として出力する。
Returning to FIG. 16, the attribute list creating section 3-14.
Is a word recognition unit 3-12 or a dictation unit 3-12.
Recognition result output from 13 (word and its likelihood)
Is combined with a category supplied as a control signal from the system control unit 3-3 (hereinafter, this combination is referred to as an attribute list), and is output to the system control unit 3-3 as a final voice recognition result.

【0277】以後、システム制御部3−3では、認識部
3−4より出力された音声認識結果としての属性リスト
が参照され、所定の処理が行われる。
Thereafter, the system control unit 3-3 refers to the attribute list as the voice recognition result output from the recognition unit 3-4, and performs a predetermined process.

【0278】ここで、システム制御部3−3が、認識部
3−4(単語認識部3−12またはディクテーション部
3−13)に音声認識させる音声(音響パラメータ)
は、ほとんどの場合、システム制御部3−3からの問い
かけ(質問)に対して、ターミナル2から送信されてき
た返答としての音声であり、従って、システム制御部3
−3では、認識部3−4に音声認識させる音声(単語)
の属するカテゴリを予想することができる。
Here, the system control unit 3-3 causes the recognition unit 3-4 (word recognition unit 3-12 or dictation unit 3-13) to recognize the voice (acoustic parameter).
In most cases is a voice as a reply transmitted from the terminal 2 in response to an inquiry (question) from the system control unit 3-3. Therefore, the system control unit 3
-3, a voice (word) to be recognized by the recognition unit 3-4
You can predict the category to which you belong.

【0279】そこで、システム制御部3−3は、認識部
3−4に音声認識させるときに、認識対象である音声が
属するカテゴリ(上述したように、音声が、刊行物のタ
イトルや著者であるとか、コマンドであるとかなど)
を、制御信号として認識部3−4に出力するようにされ
ている。
Therefore, when the recognition unit 3-4 performs voice recognition, the system control unit 3-3 belongs to the category to which the voice to be recognized belongs (as described above, the voice is the title of the publication or the author. Or command etc.)
Is output to the recognition unit 3-4 as a control signal.

【0280】なお、単語認識部3−12からは、音声認
識結果として単語とその尤度が出力されるので、属性リ
スト作成部3−14では、その音声認識結果の中から、
例えば所定の閾値以上の尤度の単語を検出し、その検出
結果(単語およびその尤度)と、システム制御部3−3
から制御信号として供給されたカテゴリとを、例えば
(カテゴリ,(単語、尤度),(単語、尤度),・・
・,(単語、尤度))のようなフォーマットの属性リス
トにして出力するようになされている。但し、単語は、
例えばその尤度の高い順に配置されるようになされてい
る。また、単語認識部3−12においては、尤度は、そ
の値が、例えば0乃至1の範囲に正規化されて出力され
るようになされており、値が大きいほど尤度が高いもの
とされる。
Since the word recognition unit 3-12 outputs the word and its likelihood as the voice recognition result, the attribute list creating unit 3-14 selects from the voice recognition result as follows.
For example, a word having a likelihood equal to or higher than a predetermined threshold is detected, the detection result (word and its likelihood), and the system control unit 3-3.
From the category supplied as a control signal from (eg, category, (word, likelihood), (word, likelihood), ...
., (Word, likelihood)) is output as an attribute list in a format such as. However, the word is
For example, they are arranged in descending order of likelihood. In the word recognition unit 3-12, the likelihood is normalized such that its value is output in the range of 0 to 1, for example, and the larger the value, the higher the likelihood. It

【0281】さらに、ディクテーション部3−13から
は、音声認識結果として1つの単語(文字列)が出力さ
れるので、属性リスト作成部3−14では、その単語
(文字列)と、システム制御部3−3から制御信号とし
て供給されたカテゴリとを、例えば(カテゴリ,(単
語、尤度))のようなフォーマットの属性リストにして
出力するようになされている。但し、この場合、尤度
は、最も大きな値である1とされる。
Furthermore, since one word (character string) is output from the dictation unit 3-13 as a voice recognition result, the attribute list creating unit 3-14 uses the word (character string) and the system control unit. The category supplied as a control signal from 3-3 is output as an attribute list in a format such as (category, (word, likelihood)). However, in this case, the likelihood is 1 which is the largest value.

【0282】次に、上述した図20のステップS3−3
6において、ターミナル2に対し、再度、同一音声を発
声するか、またはディクテーション結果のうち誤ってい
る部分または正しい部分を指摘する(ディクテーション
条件を入力する)ように、メッセージが送信された後、
例えばターミナル2の使用者によってボタン部2−4お
よびジョグシャトル部2−5が操作されて、ディクテー
ション結果の修正が行われる場合のターミナル2(中央
制御装置2−1)(図5)の動作について、図22のフ
ローチャートを参照して説明する。
Next, step S3-3 of FIG. 20 described above.
At 6, after a message is sent to the terminal 2 again to say the same voice or to point out the incorrect or correct part of the dictation result (enter the dictation condition),
For example, the operation of the terminal 2 (central control unit 2-1) (FIG. 5) when the user of the terminal 2 operates the button section 2-4 and the jog shuttle section 2-5 to correct the dictation result. 22 will be described with reference to the flowchart of FIG.

【0283】まず、上述したように、図20のステップ
S3−34で、ディクテーション結果が正しいか否かが
判定されるときに、ディクテーション結果が、ターミナ
ル2に送信されるので、ターミナル2(中央制御装置2
−1)(図5)では、ステップS3−61において、そ
のディクテーション結果がディスプレイ2−7に表示さ
れ、ステップS3−62に進み、ジョグシャトル部7
(図7)のシャトルリング2−51が、使用者によって
右に回転操作されたか否かが判定される。
First, as described above, when it is determined in step S3-34 in FIG. 20 whether or not the dictation result is correct, the dictation result is transmitted to the terminal 2, so the terminal 2 (central control Device 2
-1) (FIG. 5), the dictation result is displayed on the display 2-7 in step S3-61, the process proceeds to step S3-62, and the jog shuttle unit 7 is operated.
It is determined whether the shuttle ring 2-51 (Fig. 7) has been rotated rightward by the user.

【0284】ステップS3−62において、シャトルリ
ング2−51が、使用者によって右に回転操作されたと
判定された場合、ステップS3−63に進み、後述する
変更対象文字があるときには、シャトルリング2−51
の回転角に応じた速度で、その変更対象文字が、辞書式
順序で(あ、い、う、え、お、か、き、・・・の順序で
(あいうえお順で))表示し直され、ステップS3−6
2に戻る。
If it is determined in step S3-62 that the shuttle ring 2-51 has been rotated rightward by the user, the process proceeds to step S3-63, and if there is a character to be changed, which will be described later, the shuttle ring 2-51. 51
The characters to be changed are re-displayed in lexicographical order (A, I, U, E, O, K, K, ... (in order of AIUEO)) at a speed according to the rotation angle of. , Step S3-6
Return to 2.

【0285】ここで、ターミナル2において、使用者
が、例えば「あさひしんぶん」と発声したときに、「あ
さいさんぶん」という誤ったディクテーション結果が受
信され、これがディスプレイ2−7に表示されたときの
様子を、図23(a)に示す。
[0285] Here, when the user utters "Asahi Shinbun", for example, in Terminal 2, an erroneous dictation result of "Asaisanbun" is received, and this is displayed on the display 2-7. The situation is shown in FIG.

【0286】変更対象文字とは、図23(a)に示すよ
うに、確定領域の直後にある1文字、即ちバーカーソル
の直前にある1文字を意味し、確定領域とは、ディスプ
レイ2−7に表示されたディクテーション結果としての
文字列「あさいしんぶん」のうち、修正を要しないとさ
れた文字の領域を意味し、文字列の先頭から、バーカー
ソルが位置する位置から2文字分前の文字までが確定領
域とされるようになされている。
As shown in FIG. 23A, the character to be changed means one character immediately after the fixed area, that is, one character immediately before the bar cursor, and the fixed area means the display 2-7. Of the character string "Asaishinbun" as the dictation result displayed in, it means the area of the character that does not require modification, and the character two characters before the position where the bar cursor is located from the beginning of the character string. Up to are defined areas.

【0287】ターミナル2においては、ボタン部2−4
(図7)の左ボタン2−33または右ボタン2−34が
1回操作されると、バーカーソルが1文字分だけ左また
は右に移動し、これにより確定領域の文字数を1文字だ
けそれぞれ減少または増加させるとともに、変更対象文
字を、いま変更対象文字となっている文字のそれぞれ左
または右の文字にすることができるようになされてい
る。なお、バーカーソルが、ディクテーション結果とし
ての文字列「あさいしんぶん」の先頭の文字の前にある
場合には、変更対象文字も確定領域も存在しない。
In the terminal 2, the button section 2-4
When the left button 2-33 or the right button 2-34 in (Fig. 7) is operated once, the bar cursor moves one character to the left or right, thereby decreasing the number of characters in the defined area by one character. Alternatively, the number of characters to be changed can be set to be the character to the left or right of the character that is currently being changed. If the bar cursor is before the first character of the character string “Asaishinbun” as the dictation result, there is neither a change target character nor a fixed area.

【0288】さらに、ターミナル2では、ボタン部2−
4(図7)のYes/確定ボタン2−31または確定ボ
タン2−38が操作されると、そのときディスプレイ2
−7に表示されている文字列が、ディクテーション結果
の修正結果(正しいディクテーション結果)として、セ
ンターシステム1(システム制御部3−3)に送信され
るようになされている。
[0288] Further, in the terminal 2, the button section 2-
4 (FIG. 7) Yes / confirm button 2-31 or confirm button 2-38 is operated, the display 2 at that time
The character string displayed at -7 is transmitted to the center system 1 (system control unit 3-3) as the correction result of the dictation result (correct dictation result).

【0289】また、ターミナル2においては、ジョグシ
ャトル部7(図7)のシャトルリング2−51が、右ま
たは左に回転されると、いま変更対象文字となっている
文字が、辞書式順序または辞書式順序の逆順(あいうえ
お順の逆順)でそれぞれ表示し直されるようになされて
いる。
When the shuttle ring 2-51 of the jog shuttle unit 7 (FIG. 7) is rotated right or left in the terminal 2, the character to be changed is displayed in the lexicographic order or It is designed to be displayed again in reverse lexicographic order (reverse order of AIUEO).

【0290】具体的には、例えば図23(a)に示すよ
うに、文字列「あさいしんぶん」のうち、先頭から3文
字目の「い」が変更対象文字となっている場合、シャト
ルリング2−51が、右または左に回転されると、この
変更対象文字「い」が、「う」→「え」→「お」→・・
・、または「あ」→「ん」→「わ」→・・・のように表
示し直される(変更される)。
Specifically, as shown in FIG. 23A, for example, in the character string "Asaishinbun", if the third character "i" from the beginning is the character to be changed, the shuttle ring 2 When −51 is rotated to the right or left, the change target character “i” is changed to “u” → “e” → “o” → ...
・ Or, it is redisplayed (changed) like "A" → "N" → "Wa" → ....

【0291】図22に戻り、ステップS3−62におい
て、シャトルリング2−51が、使用者によって右に回
転操作されていないと判定された場合、ステップS3−
64に進み、シャトルリング2−51が、使用者によっ
て左に回転操作されたか否かが判定される。ステップS
3−64において、シャトルリング2−51が、左に回
転操作されたと判定された場合、ステップS3−65に
進み、変更対象文字があるときには、シャトルリング2
−51の回転角に応じた速度で、変更対象文字が、辞書
式順序の逆順で表示し直され、ステップS3−62に戻
る。
Returning to FIG. 22, when it is determined in step S3-62 that the shuttle ring 2-51 is not rotated right by the user, step S3-.
Proceeding to 64, it is determined whether the shuttle ring 2-51 has been rotated left by the user. Step S
In 3-64, when it is determined that the shuttle ring 2-51 has been rotated leftward, the process proceeds to step S3-65, and when there is a character to be changed, the shuttle ring 2
The character to be changed is displayed again in the reverse order of the lexicographical order at a speed corresponding to the rotation angle of -51, and the process returns to step S3-62.

【0292】また、ステップS3−64において、シャ
トルリング2−51が、使用者によって左に回転操作さ
れていないと判定された場合、ステップS3−66に進
み、ボタン部(図7)の右ボタン2−34が、使用者に
よって操作されたか否かが判定される。ステップS3−
66において、右ボタン2−34が操作されたと判定さ
れた場合、ステップS3−67に進み、確定領域(図2
3(a))が、1文字分だけ右に広げられるとともに、
バーカーソルおよび変更対象文字が1文字分だけ右に移
動され、ステップS3−62に戻る。
If it is determined at step S3-64 that the shuttle ring 2-51 has not been rotated left by the user, then the processing advances to step S3-66, at which the right button of the button portion (FIG. 7) is pressed. It is determined whether 2-34 has been operated by the user. Step S3-
When it is determined in 66 that the right button 2-34 has been operated, the process proceeds to step S3-67, and the confirmation area (see FIG.
3 (a)) is spread one character to the right,
The bar cursor and the character to be changed are moved to the right by one character, and the process returns to step S3-62.

【0293】一方、ステップS3−66において、右ボ
タン2−34が操作されていないと判定された場合、ス
テップS3−68に進み、ボタン部(図7)の左ボタン
2−33が、使用者によって操作されたか否かが判定さ
れる。ステップS3−68において、左ボタン2−33
が操作されたと判定された場合、ステップS3−69に
進み、確定領域(図23(a))が、1文字分だけ左に
狭められるとともに、バーカーソルおよび変更対象文字
が1文字分だけ左に移動され、ステップS3−62に戻
る。
On the other hand, if it is determined in step S3-66 that the right button 2-34 has not been operated, then the flow proceeds to step S3-68, where the left button 2-33 of the button section (FIG. 7) is the user. It is determined whether or not it has been operated by. In step S3-68, left button 2-33
If it is determined that is operated, the process proceeds to step S3-69, the confirmed area (FIG. 23A) is narrowed to the left by one character, and the bar cursor and the character to be changed are moved to the left by one character. It is moved and returns to step S3-62.

【0294】また、ステップS3−68において、左ボ
タン2−33が操作されていないと判定された場合、ス
テップS3−70に進み、ボタン部2−4(図7)のY
es/確定ボタン2−31または確定ボタン2−38
が、使用者によって操作されたか否かが判定される。ス
テップS3−70において、Yes/確定ボタン2−3
1または確定ボタン2−38が操作されていないと判定
された場合、ステップS3−71に進み、入力が無視さ
れて、ステップS3−62に戻る。
If it is determined in step S3-68 that the left button 2-33 has not been operated, the flow advances to step S3-70 to move the Y button on the button section 2-4 (FIG. 7).
es / confirm button 2-31 or confirm button 2-38
Is determined by the user. In Step S3-70, Yes / Enter button 2-3
If it is determined that the 1 or the confirm button 2-38 is not operated, the process proceeds to step S3-71, the input is ignored, and the process returns to step S3-62.

【0295】一方、ステップS3−70において、Ye
s/確定ボタン2−31または確定ボタン2−38が操
作されたと判定された場合、ステップS3−72に進
み、いまディスプレイ2−7に表示されている文字列
が、ディクテーション結果の修正結果(正しいディクテ
ーション結果)として、センターシステム1(システム
制御部3−3)に送信され、処理を終了する。
On the other hand, in step S3-70, Ye
When it is determined that the s / confirm button 2-31 or the confirm button 2-38 has been operated, the process proceeds to step S3-72, and the character string currently displayed on the display 2-7 is the correction result of the dictation result (correct. The dictation result) is transmitted to the center system 1 (system control unit 3-3), and the process ends.

【0296】なお、変更対象文字列の修正は、ジョグシ
ャトル部2−5の操作によるだけでなく、音声認識部2
−2(図5)に音声を入力することによって、中央制御
装置2−1に行わせるようにすることができる。但し、
この場合、発話内容全体の言い直しと混同する恐れがあ
るので、再発話の文字数が数文字(例えば1文字か2文
字)であるときに限り、音声入力による変更文字列の修
正をすることができるようにする。
It should be noted that the correction of the character string to be changed is not limited to the operation of the jog shuttle unit 2-5, but also the voice recognition unit 2
-2 (FIG. 5) can be caused to be performed by the central control unit 2-1 by inputting a voice. However,
In this case, it may be confused with the rewording of the entire utterance content, and therefore it is possible to correct the changed character string by voice input only when the number of characters in the re-speech is several characters (for example, one or two characters). It can be so.

【0297】さらに、ディクテーション結果およびその
修正途中の文字列は、図23(a)に示したように、デ
ィスプレイ2−7に表示するのではなく、音声合成装置
2−6から合成音として出力させるようにすることがで
きる。この場合、音声合成装置2−6からは、図23
(b)に示すように、変更対象文字の前後に、例えばポ
ーズが挿入されるようになされており、これにより目の
不自由な使用者でも、変更対象文字を識別して修正する
ことができるようになされている。
Further, the dictation result and the character string in the middle of correction thereof are not displayed on the display 2-7 as shown in FIG. 23A, but are output from the voice synthesizing device 2-6 as a synthetic sound. You can In this case, from the speech synthesizer 2-6, FIG.
As shown in (b), for example, a pose is inserted before and after the character to be changed, so that even a visually impaired user can identify and correct the character to be changed. It is done like this.

【0298】次に、ターミナル2からセンターシステム
1にアクセスした使用者により、ターミナル2(図5)
の音声認識装置2−2に音声が入力されることによっ
て、上述した図14のフローチャートのステップS3−
7における図書検索サービスが選択され、センターシス
テム1で図書検索が行われる場合のシステム制御部3−
3の動作について、図24および図25のフローチャー
トを参照して説明する。
Next, the user who accesses the center system 1 from the terminal 2 operates the terminal 2 (FIG. 5).
When the voice is input to the voice recognition device 2-2 of FIG.
7. The system control unit 3 when the book search service in 7 is selected and the book search is performed in the center system 1.
The operation of No. 3 will be described with reference to the flowcharts of FIGS. 24 and 25.

【0299】この場合、まず上述した図14のステップ
S3−3で、使用者により、図書検索サービスを選択す
るための音声としての、例えば「検索」が発声され、こ
れが音声認識装置2−2(分析部2−23(図6))で
分析されて、音声「検索」に対応する音響パラメータ
が、ターミナル2からセンターシステム2に送信されて
くる。
In this case, first, in step S3-3 of FIG. 14 described above, the user utters, for example, "search" as a voice for selecting the book search service, which is the voice recognition device 2-2 ( The acoustic parameter corresponding to the voice “search” is analyzed by the analysis unit 2-23 (FIG. 6) and transmitted from the terminal 2 to the center system 2.

【0300】すると、ステップS3−81において、シ
ステム制御部3−3(図13)により、ターミナル2か
ら音響パラメータを受信したか否かが判定される。ステ
ップS3−81において、音響パラメータを受信してい
ないと判定された場合、ステップS3−81に戻る。ま
た、ステップS3−81において、音響パラメータを受
信したと判定された場合、ステップS3−82に進み、
システム制御部3−3から認識部3−4に、ターミナル
2からの音響パラメータと、音声認識処理を行うように
指示する制御信号とが供給される。
Then, in step S3-81, the system control unit 3-3 (FIG. 13) determines whether or not an acoustic parameter has been received from the terminal 2. When it is determined in step S3-81 that the acoustic parameter has not been received, the process returns to step S3-81. If it is determined in step S3-81 that the acoustic parameter has been received, the process proceeds to step S3-82,
The system controller 3-3 supplies the recognition unit 3-4 with acoustic parameters from the terminal 2 and a control signal for instructing the voice recognition process.

【0301】ここで、認識部3−4(図16)を構成す
る単語認識部3−12およびディクテーション部3−1
3のうちのいずれで音声認識を行うかは、基本的には、
ターミナル2におけるボタン部(図7)の認識方式切換
スイッチ2−36の状態により決定されるようになされ
ている。認識方式切換スイッチ2−36は、例えばLE
D2−35を備えており、このLED2−35は、切換
スイッチ2−36が操作されるごとに、点灯と消灯を繰
り返すようになされている。
Here, the word recognition unit 3-12 and the dictation unit 3-1 which form the recognition unit 3-4 (FIG. 16).
Which of the three is used for voice recognition is basically
It is determined by the state of the recognition method changeover switch 2-36 of the button section (FIG. 7) in the terminal 2. The recognition method changeover switch 2-36 is, for example, LE.
The LED 2-35 is provided with a D2-35, and the LED 2-35 is repeatedly turned on and off each time the changeover switch 2-36 is operated.

【0302】そして、切換スイッチ2−36のLED2
−35が、例えば点灯しているときには、単語認識部3
−12で音声認識を行うように指示する制御信号が、ま
たLED2−35が、例えば消灯しているときには、デ
ィクテーション部3−13で音声認識を行うように指示
する制御信号が、それぞれターミナル2からセンターシ
ステム1に送信されるようになされている。
The LED 2 of the changeover switch 2-36
When -35 is lit, for example, the word recognition unit 3
A control signal for instructing voice recognition at -12, and a control signal for instructing voice recognition at the dictation unit 3-13 when the LED 2-35 is off, for example, are output from the terminal 2. It is transmitted to the center system 1.

【0303】なお、ターミナル2から送信されてきた音
響パラメータに対応する音声が、コマンドに対応するも
の(コマンドのカテゴリに属するもの)である場合に
は、切換スイッチ2−36の状態に関わらず(LED2
−35が点灯しているか、消灯しているかに関わら
ず)、システム制御部3−3は、単語認識部3−12に
音声認識処理を行わせるようになされている(システム
制御部3−3は、上述したように、認識部3−4に音声
認識させる音声(単語)の属するカテゴリを予想するこ
とができるため)。
If the voice corresponding to the acoustic parameter transmitted from the terminal 2 corresponds to the command (belongs to the category of the command), regardless of the state of the changeover switch 2-36 ( LED2
Regardless of whether -35 is on or off, the system control unit 3-3 causes the word recognition unit 3-12 to perform a voice recognition process (system control unit 3-3). As described above, the category to which the voice (word) to be recognized by the recognition unit 3-4 belongs can be predicted).

【0304】従って、ステップS3−82においては、
システム制御部3−3で、認識部3−4(図16)の単
語認識部3−12に、ターミナル2からの音響パラメー
タを用いた音声認識をさせる制御が行われ、これにより
単語認識部3−12では、音声認識処理が行われる。
Therefore, in step S3-82,
The system control unit 3-3 controls the word recognition unit 3-12 of the recognition unit 3-4 (FIG. 16) to perform voice recognition using the acoustic parameter from the terminal 2, whereby the word recognition unit 3-3. At -12, voice recognition processing is performed.

【0305】そして、ステップS3−83に進み、シス
テム制御部3−3によって、認識部3−4(単語認識部
3−12)からの音声認識結果(この場合、上述した属
性リスト)が受信されたか否かが判定される。ステップ
S3−83において、音声認識結果を受信していないと
判定された場合、ステップS3−83に戻る。また、ス
テップS3−83において、音声認識結果を受信したと
判定された場合、ステップS3−84に進み、システム
制御部3−3によって、その音声認識結果(この場合
は、例えば尤度の最も高い音声認識結果(単語))が単
語「検索」であるか否かが判定される。ステップS3−
84において、音声認識結果が単語「検索」でないと判
定された場合、ステップS3−85に進み、システム制
御部3−3で、その音声認識結果に対応した処理が行わ
れ、処理を終了する。
Then, in step S3-83, the system control section 3-3 receives the voice recognition result (in this case, the above-mentioned attribute list) from the recognition section 3-4 (word recognition section 3-12). Whether or not it is determined. When it is determined in step S3-83 that the voice recognition result has not been received, the process returns to step S3-83. When it is determined in step S3-83 that the voice recognition result is received, the process proceeds to step S3-84, and the system control unit 3-3 causes the voice recognition result (in this case, for example, the highest likelihood). It is determined whether the voice recognition result (word) is the word "search". Step S3-
When it is determined in 84 that the voice recognition result is not the word "search", the process proceeds to step S3-85, the system control unit 3-3 performs a process corresponding to the voice recognition result, and the process ends.

【0306】一方、ステップS3−84において、音声
認識結果が単語「検索」であると判定された場合、ステ
ップS3−86に進み、以下、図書検索サービスに関す
る処理が行われる(システム制御部3−3の動作モード
が検索モードとなる)。
On the other hand, when it is determined in step S3-84 that the voice recognition result is the word "search", the process proceeds to step S3-86, and thereafter, the process related to the book search service is performed (system control unit 3- 3 is the search mode).

【0307】即ち、ステップS3−86では、検索を行
うためのキーワードを得るため、刊行物の属性名(カテ
ゴリ名)(上述したように、刊行物のタイトルや著者
名、出版社など)が、ターミナル2に出力される。
That is, in step S3-86, the attribute name (category name) of the publication (as described above, the title of the publication, the author's name, the publisher, etc.) is obtained in order to obtain the keyword for performing the search. Output to terminal 2.

【0308】これにより、ターミナル2では、ディスプ
レイ2−7または音声合成装置2−6から、刊行物の属
性名が出力される。具体的には、例えば「タイトルは
?」や「著者は?」、「出版社は?」などのように、使
用者にキーワードの入力を促すように、刊行物の属性名
が出力される。
As a result, at the terminal 2, the attribute name of the publication is output from the display 2-7 or the voice synthesizer 2-6. Specifically, the attribute name of the publication is output so as to prompt the user to input the keyword, such as "What is the title?", "What is the author?", "What is the publisher?".

【0309】その後、使用者が、音声認識装置2−2、
キーボード2−3、ボタン部2−4、またはジョグシャ
トル部2−5を操作して、キーワードを入力すると、タ
ーミナル2からそのキーワードが送信される。なお、こ
こでは、上述したように、音声認識装置2−2に音声が
入力された場合、即ち音声によってキーワードが発声さ
れ、その音響パラメータが、ターミナル2から送信され
てくる場合を考える。
Then, the user recognizes the voice recognition device 2-2,
When a keyword is input by operating the keyboard 2-3, the button section 2-4, or the jog shuttle section 2-5, the keyword is transmitted from the terminal 2. Here, as described above, consider the case where a voice is input to the voice recognition device 2-2, that is, a keyword is uttered by the voice and the acoustic parameter thereof is transmitted from the terminal 2.

【0310】システム制御部3−3では、ターミナル2
からのキーワードに対応する音響パラメータを受信する
と、ステップS3−87に進み、ターミナル2の使用者
に要求すべきキーワードが、まだあるか否かが判定され
る。ステップS3−87において、ターミナル2の使用
者に要求すべきキーワードがまだあると判定された場
合、ステップS3−86に戻り、ターミナル2の使用者
に要求すべきキーワードの属するカテゴリの刊行物の属
性名が出力される。
In the system control section 3-3, the terminal 2
When the acoustic parameter corresponding to the keyword from is received, the process proceeds to step S3-87, and it is determined whether or not there are still keywords to be requested to the user of the terminal 2. If it is determined in step S3-87 that there are still keywords to be requested to the user of the terminal 2, the process returns to step S3-86, and attributes of the publications of the category to which the keyword to be requested to the user of the terminal 2 belongs. First name is output.

【0311】ここで、使用者は、ディスプレイ2−7ま
たは音声合成装置2−6から出力された刊行物の属性名
(例えば、著者名など)が不明な場合には、例えば「ス
キップ」と発声することにより、不明なキーワードの入
力を行わなくても済むようになされている。
Here, if the user does not know the attribute name (for example, author name) of the publication output from the display 2-7 or the voice synthesizer 2-6, he or she speaks, for example, "skip". By doing so, it is not necessary to input an unknown keyword.

【0312】また、ステップS3−87において、ター
ミナル2の使用者に要求すべきキーワードがないと判定
された場合、ステップS3−88に進み、ターミナル2
から送信されてくるキーワードに対応する音響パラメー
タが、認識部3−4に順次出力され、認識部3−4に、
その音響パラメータを用いた音声認識処理を順次行わせ
る制御が行われる。これにより、認識部3−4では、音
声認識処理が行われ、音声認識結果が、上述したような
属性リストの形で出力される。
If it is determined in step S3-87 that there are no keywords to be requested to the user of the terminal 2, the process proceeds to step S3-88 and the terminal 2 is operated.
The acoustic parameters corresponding to the keywords transmitted from are sequentially output to the recognition unit 3-4, and the recognition unit 3-4
Control is performed to sequentially perform the voice recognition processing using the acoustic parameters. Thereby, the recognition unit 3-4 performs the voice recognition process and outputs the voice recognition result in the form of the attribute list as described above.

【0313】なお、この場合、認識部3−4に音声認識
させる音声は、コマンドに対応するものではないので、
ターミナル2におけるボタン部(図7)の認識方式切換
スイッチ2−36の状態に対応して、単語認識部3−1
2またはディクテーション部3−13で音声認識が行わ
れるが、以下では、カテゴリごとにモデルおよび単語辞
書が記憶されている認識用データベース3−5(図16
および図17)を使用する単語認識部3−12で、基本
的に音声認識が行われるものとして説明する。
In this case, the voice to be recognized by the recognition unit 3-4 does not correspond to the command.
The word recognition unit 3-1 corresponding to the state of the recognition method changeover switch 2-36 of the button unit (FIG. 7) in the terminal 2
2 or the dictation unit 3-13 performs voice recognition. In the following, a recognition database 3-5 in which models and word dictionaries are stored for each category (see FIG. 16).
Also, the word recognition unit 3-12 using FIG. 17) basically performs voice recognition.

【0314】ステップS3−88の処理後、ステップS
3−89に進み、ターミナル2から受信したキーワード
すべての音声認識結果(属性リスト)を、認識部3−4
から受信したか否かが判定される。ステップS3−89
において、ターミナル2から受信したキーワードすべて
の音声認識結果を、認識部3−4から受信していないと
判定された場合、ステップS3−89に戻る。また、ス
テップS3−89において、ターミナル2から受信した
キーワードすべての音声認識結果を、認識部3−4から
受信したと判定された場合、ステップS3−90に進
み、ターミナル2から受信したキーワードが複数ある場
合には、各キーワードに対応する音声認識結果(属性リ
スト)が、検索部3−6(図13)に出力される。
After the processing in step S3-88, step S
3-89, the recognition unit 3-4 receives the voice recognition results (attribute list) of all the keywords received from the terminal 2.
It is determined whether it is received from. Step S3-89
If it is determined that the speech recognition results of all the keywords received from the terminal 2 have not been received from the recognition unit 3-4, the process returns to step S3-89. If it is determined in step S3-89 that the speech recognition results of all the keywords received from the terminal 2 have been received from the recognition unit 3-4, the process proceeds to step S3-90, and a plurality of keywords received from the terminal 2 are detected. In some cases, the voice recognition result (attribute list) corresponding to each keyword is output to the search unit 3-6 (FIG. 13).

【0315】なお、音声認識結果が、上述した「スキッ
プ」であった場合には、これは、音声認識結果の数には
カウントされないようになされている。そして、この音
声認識結果「スキップ」は、検索部3−6に出力されな
いようになされている。
When the voice recognition result is the above-mentioned "skip", this is not counted in the number of voice recognition results. The voice recognition result “skip” is not output to the search unit 3-6.

【0316】ステップS3−90では、検索部3−6に
音声認識結果(属性リスト)が出力された後、さらに検
索部3−6に、複数のキーワード(音声認識結果)を、
あり得る組み合わせにまとめさせる制御が行われる。
In step S3-90, after the voice recognition result (attribute list) is output to the search unit 3-6, a plurality of keywords (voice recognition result) are further input to the search unit 3-6.
Control is performed to bring the possible combinations together.

【0317】これにより、検索部3−6では、システム
制御部3−3(システム制御部3−3を介して認識部3
−4)から出力された複数のキーワード(音声認識結
果)が、あり得る組み合わせにまとめられる。
As a result, in the search unit 3-6, the system control unit 3-3 (the recognition unit 3 via the system control unit 3-3
-4) A plurality of keywords (voice recognition results) output from (4) are collected into possible combinations.

【0318】即ち、音声認識が、認識部3−4(図1
6)の単語認識部3−12で行われた場合、上述したよ
うに、所定の値の尤度以上の単語(認識結果)が出力さ
れる。例えば、ターミナル2から複数のキーワードとし
て、刊行物の属性「タイトル」および「著者」に対応す
る音響パラメータが送信された場合、属性「タイトル」
に対し、尤度の高い順に、音声認識結果「線形代数とそ
の応用」、「我輩は猫である」、・・・が得られるとと
もに、属性「著者」に対し、尤度の高い順に、音声認識
結果「芥川龍之介」、「国木田独歩」、・・・が得られ
たときには、属性「タイトル」と「著者」それぞれにお
いて、最も尤度の高い音声認識結果「線形代数とその応
用」と「芥川龍之介」の組み合わせ(「芥川龍之介」が
書いた「線形代数とその応用」という刊行物)はありえ
ない。
That is, the voice recognition is performed by the recognition unit 3-4 (see FIG. 1).
In the case of 6) in the word recognition unit 3-12, as described above, a word (recognition result) having a likelihood equal to or higher than a predetermined value is output. For example, when acoustic parameters corresponding to the attributes “title” and “author” of a publication are transmitted from the terminal 2 as a plurality of keywords, the attribute “title” is transmitted.
On the other hand, the speech recognition results “linear algebra and its application”, “I am a cat”, and so on are obtained in descending order of likelihood, and the speech is ranked in descending order of likelihood for the attribute “author”. When the recognition results “Ryunosuke Akutagawa”, “Dokuho Kunikida”, etc. are obtained, the speech recognition results “linear algebra and its application” with the highest likelihood are obtained for the attributes “title” and “author”, respectively. There cannot be a combination of "Ryunosuke Akutagawa" (the publication "Ryunosuke Akutagawa" written "Linear Algebra and its Applications").

【0319】そこで、検索部3−6では、システム制御
部3−3からの音声認識結果が、その尤度とともに、後
述する図書データベース5に記憶された図書データ関係
表(図27)に基づいて、あり得る組み合わせ、即ち属
性「タイトル」において2番目に尤度の高い音声認識結
果「我輩は猫である」と、属性「著者」において最も尤
度の高い音声認識結果「芥川龍之介」の組み合わせ
(「我輩は猫である」,「芥川龍之介」)にまとめられ
て、システム制御部3−3に出力されるようになされて
いる。
Then, in the retrieval unit 3-6, the result of the voice recognition from the system control unit 3-3 and its likelihood are based on the book data relation table (FIG. 27) stored in the book database 5 described later. , A possible combination, that is, a combination of the voice recognition result “I am a cat” having the second highest likelihood in the attribute “title” and the voice recognition result “Ryunosuke Akutagawa” having the highest likelihood in the attribute “author” ( "I am a cat", "Ryunosuke Akutagawa") and are output to the system control unit 3-3.

【0320】なお、この場合、音声認識結果「我輩は猫
である」または「芥川龍之介」それぞれの尤度を、例え
ば加算した値が、この組み合わせの尤度とされる。
In this case, a value obtained by adding the likelihoods of the speech recognition results "I am a cat" or "Ryunosuke Akutagawa", for example, is taken as the likelihood of this combination.

【0321】さらに、検索部3−6においては、システ
ム制御部3−3からの音声認識結果に、上述した組み合
わせ以外にも、あり得る組み合わせがあれば、それをま
とめて、システム制御部3−3に出力するようになされ
ている。
Further, in the search unit 3-6, if there are other possible combinations in the voice recognition result from the system control unit 3-3 other than the above-mentioned combinations, the system control unit 3- It is designed to output to 3.

【0322】また、音声認識が、認識部3−4(図1
6)のディクテーション部3−13で行われた場合、上
述したように、最終的には正しい音声認識結果が得られ
るので、この場合には、検索部3−6においては、シス
テム制御部3−3からの複数のキーワードに対する音声
認識結果の組み合わせがあり得るか否かだけ確認され
る。
Also, the voice recognition is performed by the recognition unit 3-4 (see FIG.
When the dictation unit 3-13 of 6) is performed, as described above, the correct voice recognition result is finally obtained. In this case, therefore, the search unit 3-6, the system control unit 3- It is only confirmed whether there is a possible combination of voice recognition results for a plurality of keywords from 3.

【0323】以上のようにして、検索部3−6におい
て、音声認識結果があり得る組み合わせにまとめられる
と、その組み合わせ結果は、システム制御部3−3に供
給され、ステップS3−91に進む。
As described above, when the search unit 3-6 collects the voice recognition results into possible combinations, the combination results are supplied to the system control unit 3-3, and the process proceeds to step S3-91.

【0324】なお、複数のキーワードそれぞれの音声認
識結果のあり得る組み合わせが存在しない場合には、そ
の旨を示すメッセージがターミナル2に送信され、処理
を終了する。また、ターミナル2から受信したキーワー
ドが1つだけの場合には、ステップS3−90の処理は
行われずにスキップされ、ステップS3−91に進む。
If there is no possible combination of the voice recognition results of each of the plurality of keywords, a message to that effect is transmitted to the terminal 2 and the process is terminated. If there is only one keyword received from the terminal 2, the process of step S3-90 is skipped and the process proceeds to step S3-91.

【0325】ステップS3−91では、音声認識結果の
組み合わせ(ターミナル2から1つだけキーワードが受
信された場合の音声認識結果も含む)のうち、その組み
合わせの尤度が最も高いものが、ターミナル2に送信さ
れる。
In step S3-91, among the combinations of the voice recognition results (including the voice recognition result when only one keyword is received from the terminal 2), the one having the highest likelihood of the combination is the terminal 2 Sent to.

【0326】これにより、ターミナル2では、センター
システム1(システム制御部3−3)からの音声認識結
果の組み合わせが、ディスプレイ2−7または音声合成
装置2−6から出力される。
As a result, in the terminal 2, the combination of the voice recognition results from the center system 1 (system control unit 3-3) is output from the display 2-7 or the voice synthesizer 2-6.

【0327】そして、図25に示すステップS3−92
に進み、さらにシステム制御部3−3から、いま送信し
た音声認識結果の組み合わせが正しいか否かを問いかけ
る(質問する)メッセージが送出され、これによりター
ミナル2では、このメッセージが、ディスプレイ2−7
または音声合成装置2−6から出力される。
Then, step S3-92 shown in FIG.
Then, the system control unit 3-3 outputs a message asking (inquiring) whether or not the combination of the voice recognition results just transmitted is correct, which causes the message to be displayed on the display 2-7 at the terminal 2.
Alternatively, it is output from the voice synthesizer 2-6.

【0328】さらに、ステップS3−92では、送信し
た音声認識結果の組み合わせが正しいか否かが判定され
る。ここで、この判定は、次のようにして行われる。
Furthermore, in step S3-92, it is determined whether or not the combination of the transmitted voice recognition results is correct. Here, this determination is performed as follows.

【0329】即ち、使用者は、ディスプレイ2−7また
は音声合成装置2−6から出力された音声認識結果の組
み合わせが正しければ、例えばターミナル2におけるボ
タン部2ー4(図7)のYes/確定ボタン2−31を
操作し、またこの音声認識結果の組み合わせが誤ってい
れば、例えばターミナル2におけるボタン部2−4(図
7)のNoボタン2−32を操作する。これにより、こ
の操作に対応する操作信号が、ターミナル2より送信さ
れるので、システム制御部3−3では、この操作信号に
基づいて、音声認識結果の組み合わせが正しいか否かの
判定が行われる。
That is, if the combination of the voice recognition results output from the display 2-7 or the voice synthesizer 2-6 is correct, the user, for example, Yes / confirms the button 2-4 (FIG. 7) in the terminal 2. If the button 2-31 is operated and the combination of the voice recognition results is incorrect, the No button 2-32 of the button section 2-4 (FIG. 7) of the terminal 2 is operated, for example. As a result, an operation signal corresponding to this operation is transmitted from the terminal 2, so that the system control unit 3-3 determines whether or not the combination of voice recognition results is correct based on this operation signal. .

【0330】ステップS3−92において、音声認識結
果の組み合わせが正しくないと判定された場合、即ちタ
ーミナル2側で、使用者によりNoボタン2−32(図
7)が操作された場合、ステップS3−93に進み、前
回送信した音声認識結果の組み合わせの次に尤度の高い
組み合わせが、ターミナル2に送信され、ステップS3
−92に戻る。これにより、ターミナル2では、いま出
力されている音声認識結果の組み合わせの次に尤度の高
い組み合わせが、ディスプレイ2−7または音声合成装
置2−6から出力されることになる。
If it is determined in step S3-92 that the combination of voice recognition results is not correct, that is, if the user operates the No button 2-32 (FIG. 7) on the terminal 2 side, step S3- Proceeding to 93, the combination having the next highest likelihood after the combination of the voice recognition results transmitted last time is transmitted to the terminal 2, and step S3
Return to -92. As a result, in the terminal 2, the combination having the highest likelihood next to the combination of the voice recognition results being output now is output from the display 2-7 or the voice synthesizer 2-6.

【0331】なお、ステップS3−92において、音声
認識結果の組み合せが正しくないと判定された場合は、
ステップS3−93の処理を行うのではなく、例えばタ
ーミナル2におけるボタン部2−4(図7)の切換スイ
ッチ2−36を操作して、センターシステム1における
認識部3−4(図16)のディクテーション部3−13
でディクテーションによる音声認識を行わせるように
し、図22および図23で説明したようにして、誤った
音声認識結果を、使用者に正しく修正させるようにして
も良い。
If it is determined in step S3-92 that the combination of voice recognition results is not correct,
Instead of performing the process of step S3-93, for example, the changeover switch 2-36 of the button unit 2-4 (FIG. 7) in the terminal 2 is operated to activate the recognition unit 3-4 (FIG. 16) in the center system 1. Dictation section 3-13
The voice recognition may be performed by the dictation, and the user may correct the incorrect voice recognition result as described in FIGS. 22 and 23.

【0332】一方、ステップS3−92において、音声
認識結果の組み合わせが正しいと判定された場合、即ち
ターミナル2側で、使用者によりYes/確定ボタン2
−31(図7)が操作された場合、ステップS3−94
に進み、正しいと判定された音声認識結果、即ちキーワ
ードの組み合わせが、その組み合わせに該当する刊行物
の情報を検索させることを示す制御信号とともに、検索
部3−6(図13)に出力される。これにより、検索部
3−6では、システム制御部3−3から供給されたキー
ワードの組み合わせに該当する刊行物の情報が検索さ
れ、その検索結果が、システム制御部3−3に出力され
ることになる。
On the other hand, when it is determined in step S3-92 that the combination of the voice recognition results is correct, that is, on the terminal 2 side, the Yes / confirm button 2 is pressed by the user.
When -31 (Fig. 7) is operated, step S3-94
Then, the voice recognition result determined to be correct, that is, the keyword combination is output to the search unit 3-6 (FIG. 13) together with the control signal indicating that the information of the publication corresponding to the combination is searched. . As a result, the search unit 3-6 searches for information on publications corresponding to the combination of keywords supplied from the system control unit 3-3, and the search result is output to the system control unit 3-3. become.

【0333】システム制御部3−3では、ステップ3−
94でキーワードの組み合わせと、制御信号とを検索部
3−6に出力した後、ステップS3−95に進み、検索
部3−6から検索結果を受信したか否かが判定される。
ステップS3−95において、検索部3−6から検索結
果を受信していないと判定された場合、ステップS3−
95に戻る。また、ステップS3−95において、検索
部3−6から検索結果を受信したと判定された場合、ス
テップS3−96に進み、検索の結果得られた刊行物の
件数(検索件数)が、ターミナル2に送信される。
In the system control section 3-3, step 3-
After outputting the keyword combination and the control signal to the search unit 3-6 at 94, the process proceeds to step S3-95, and it is determined whether the search result is received from the search unit 3-6.
When it is determined in step S3-95 that the search result has not been received from the search unit 3-6, step S3-
Return to 95. When it is determined in step S3-95 that the search result is received from the search unit 3-6, the process proceeds to step S3-96, and the number of publications (search number) obtained as a result of the search is the terminal 2 Sent to.

【0334】すると、ターミナル2では、検索件数が、
ディスプレイ2−7または音声合成装置2−6から出力
され、これにより使用者が、何件の刊行物が検索された
かを知ることができるようになされている。なお、この
とき、ターミナル2におけるボタン部2−4のNoボタ
ン2−32を操作することにより、以下の処理を中止し
て、検索モードから抜けることができるようになされて
いる。
Then, at the terminal 2, the number of searches is
It is output from the display 2-7 or the voice synthesizer 2-6 so that the user can know how many publications have been searched. At this time, by operating the No button 2-32 of the button section 2-4 in the terminal 2, the following processing can be stopped and the search mode can be exited.

【0335】システム制御部3−3では、検索件数をタ
ーミナル2に出力した後、ステップS3−97に進み、
検索件数が0件であったか否かが判定される。ステップ
S3−97において、検索件数が0件であったと判定さ
れた場合、図24のステップS3−86に戻り、これに
よりセンターシステム1は、新たなキーワードにより検
索を行うことができる状態とされる。
The system control unit 3-3 outputs the number of retrievals to the terminal 2, and then proceeds to step S3-97,
It is determined whether or not the number of searches is 0. If it is determined in step S3-97 that the number of searches is 0, the process returns to step S3-86 in FIG. 24, whereby the center system 1 is brought into a state in which a search can be performed using a new keyword. .

【0336】また、ステップS3−97において、検索
件数が0件でなかったと判定された場合、即ち検索され
た刊行物が1つ以上ある場合、ステップS3−98に進
み、新たなキーワードを追加して、検索された刊行物を
絞り込むか否かを問い合わせる(質問する)メッセージ
(例えば「絞り込みますか?」など)が、ターミナル2
に出力され、ステップS3−99に進み、検索された刊
行物の絞り込みを行うか否かが判定される。ここで、こ
の判定は、次のようにして行われる。
If it is determined in step S3-97 that the number of searches is not 0, that is, if there is one or more publications searched, the process proceeds to step S3-98 to add a new keyword. Then, a message (inquiry) asking whether to narrow down the searched publications (for example, "Do you want to narrow down?") Is displayed in Terminal 2.
Is output to step S3-99, and it is determined whether or not to narrow down the retrieved publications. Here, this determination is performed as follows.

【0337】即ち、上述したように、ステップS3−9
8で、絞り込みを行うか否かを問い合わせるメッセージ
が、ターミナル2に送信され、ターミナル2において、
ディスプレイ2−7または音声合成装置2−6から出力
される。そして、ターミナル2の使用者は、絞り込みを
行うか否かに対応して、音声認識装置2−2、キーボー
ド2−3、ボタン部2−4、またはジョグシャトル部2
−5を操作する。
That is, as described above, step S3-9
At 8, a message inquiring whether or not to narrow down is transmitted to the terminal 2, and at the terminal 2,
It is output from the display 2-7 or the voice synthesizer 2-6. Then, the user of the terminal 2 responds to whether or not to perform the narrowing down, depending on whether or not the narrowing down is performed, the voice recognition device 2-2, the keyboard 2-3, the button portion 2-4, or the jog shuttle portion 2
Operate -5.

【0338】具体的には、絞り込みを行う場合には、音
声認識装置2−2に、例えば音声「はい」が入力された
り、ボタン部2−4(図7)のYes/確定ボタン2−
31が操作される。また、絞り込みを行わない場合に
は、音声認識装置2−2に、例えば音声「いいえ」が入
力されたり、ボタン部2−4(図7)のNoボタン2−
32が操作される。
Specifically, in the case of narrowing down, for example, a voice "Yes" is input to the voice recognition device 2-2, or a Yes / confirm button 2-of the button portion 2-4 (FIG. 7).
31 is operated. Further, when the narrowing down is not performed, for example, a voice “No” is input to the voice recognition device 2-2, or the No button 2-of the button unit 2-4 (FIG. 7).
32 is operated.

【0339】これにより、ターミナル2からは、音声認
識装置2−2、キーボード2−3、ボタン部2−4、ま
たはジョグシャトル部2−5の操作に対応して、絞り込
みを行うか否かを示す操作信号が送信される。システム
制御部3−3では、ステップS3−99において、この
操作信号に基づいて、検索された刊行物の絞り込みを行
うか否かが判定される。
As a result, whether or not to narrow down from the terminal 2 in response to the operation of the voice recognition device 2-2, the keyboard 2-3, the button section 2-4, or the jog shuttle section 2-5. The operation signal shown is transmitted. In step S3-99, the system control unit 3-3 determines whether or not to narrow down the retrieved publications based on the operation signal.

【0340】ステップS3−99において、絞り込みを
行うと判定された場合、図24のステップ3−86に戻
り、上述したようにして、新たなキーワードが追加され
て、ステップS3−86以下の処理が再び行われる。
If it is determined in step S3-99 that narrowing-down is to be performed, the process returns to step 3-86 in FIG. 24, a new keyword is added as described above, and the processing in steps S3-86 and thereafter is executed. Will be done again.

【0341】一方、ステップS3−99において、絞り
込みを行わないと判定された場合、ステップS3−10
0に進み、検索された刊行物の情報のうち、その内容の
概要に関する情報が、ターミナル2に送信され、ステッ
プS3−101に進む。ステップS3−101では、必
要に応じて、検索された刊行物の情報のうち、その本文
に関する情報が、ターミナル2に送信され、処理を終了
する。
On the other hand, when it is determined in step S3-99 that the narrowing-down is not performed, step S3-10
In step 0, information regarding the outline of the contents of the retrieved publication information is transmitted to the terminal 2, and the process proceeds to step S3-101. In step S3-101, of the information on the retrieved publications, information about the text thereof is transmitted to the terminal 2 as necessary, and the processing ends.

【0342】以上のようにして、ターミナル2に送信さ
れた情報は、ターミナル2(図5)において、例えば上
述したように、情報記録再生装置2−12によって記録
される。
The information transmitted to the terminal 2 as described above is recorded by the information recording / reproducing apparatus 2-12 in the terminal 2 (FIG. 5), for example, as described above.

【0343】なお、センターシステム1では、ターミナ
ル2側において、音声認識装置2−2に対し、例えば音
声「終了」を入力することにより、検索処理の途中であ
っても、処理を中断するようになされている。さらに、
何らかの原因により回線が切断された場合なども、処理
を中断して、他のターミナルからの新たなアクセスを受
け付けることのできる状態に戻るようになされている。
In the center system 1, by inputting, for example, the voice "end" to the voice recognition device 2-2 on the terminal 2 side, the process is interrupted even during the search process. Has been done. further,
Even when the line is disconnected for some reason, the processing is interrupted and the state is returned to a state in which new access from another terminal can be accepted.

【0344】また、図24のステップS3−86および
S3−87で、キーワードを入力する場合においては、
例えばあらかじめ入力することがわかっているキーワー
ドは、省略することができるようになされている。即
ち、例えば基本的に毎日発行される新聞の所望する記事
を検索する場合などは、キーワードとして、発行年月日
は、必ず当日を入力することになる。このような場合、
ターミナル2またはセンターシステム1に、発行年月日
は当日を入力するというような情報をセットアップして
おき、このキーワード、つまり発行年月日の入力は、省
略するようにすることができる。
When a keyword is input in steps S3-86 and S3-87 of FIG. 24,
For example, keywords that are known to be input in advance can be omitted. That is, basically, for example, when searching for a desired article in a newspaper that is issued daily, the date of issue must always be entered as the keyword. In such cases,
In the terminal 2 or the center system 1, it is possible to set up information such that the date of issue is the current day, and this keyword, that is, the date of issue can be omitted.

【0345】さらに、以上においては、ターミナル2
(図5)から、音声によってキーワードなどを入力する
ようにしたが、キーボード2−3やジョクシャトル部2
−5(ジョクシャトル部2−5を操作する場合について
は、後述する)などを操作することによりキーワードを
入力するようにすることもできる。
Furthermore, in the above, the terminal 2
From Fig. 5, the keywords etc. were input by voice, but the keyboard 2-3 and the joc shuttle unit 2 were used.
It is also possible to input a keyword by operating -5 (when operating the jog shuttle unit 2-5, it will be described later).

【0346】次に、図26は、図13に示した音声入力
型データベース検索・送出システム3における検索部3
−6の詳細構成を示している。検索部3−6は、検索制
御部3−41、検索用メモリ3−42、図書利用度表3
−43、および個人データベース3−44から構成さ
れ、システム制御部3−3によって制御される検索制御
部3−41が、必要に応じて、検索用メモリ3−42、
図書利用度表3−43、または個人データベース3−4
4の記憶内容を参照し、またはこれらに情報を書き込み
ながら図書データベース5に記憶された刊行物の情報を
検索するようになされている。
Next, FIG. 26 shows the search unit 3 in the voice input type database search / transmission system 3 shown in FIG.
6 shows a detailed configuration of -6. The search unit 3-6 includes a search control unit 3-41, a search memory 3-42, and a book usage table 3
-43 and a personal database 3-44, and the search control unit 3-41 controlled by the system control unit 3-3, if necessary, a search memory 3-42,
Book Usage Table 3-43 or Personal Database 3-4
4 is referred to, or information of publications stored in the book database 5 is searched while writing information in them.

【0347】検索用メモリ3−42には、例えば図書デ
ータベース5の検索にあたって必要な情報や、図書デー
タベース5からの検索結果(検索の途中結果)、使用者
ごとの検索情報(例えば、どの使用者の検索の途中結果
か識別できるように、検索の途中結果に付加される使用
者ID)などが記憶される。
In the search memory 3-42, for example, information necessary for searching the book database 5, search results from the book database 5 (interim results of the search), search information for each user (for example, which user The user ID) etc. added to the interim result of the search are stored so that the interim result of the search can be identified.

【0348】図書利用度表3−43には、刊行物の検索
回数(検索頻度)に応じて、その刊行物を分類した情報
や、検索に使用される(広義の)キーワード(カテゴ
リ)(刊行物の属性)の利用回数に応じて、キーワード
(カテゴリ)(刊行物の属性)を分類した情報が記憶さ
れる。
In the book usage table 3-43, information that classifies publications according to the number of searches (search frequency) of publications, and keywords (category) (publishing) used in the search (publication) are listed. Information in which keywords (categories) (attributes of publications) are classified according to the number of times the attribute of a product is used is stored.

【0349】個人用データベース3−44には、使用者
の個人的な情報(例えば、雑誌を定期購読するなどの情
報)や、使用者の過去の利用状況などの使用者個人ごと
の検索に関する情報が記憶される。
The personal database 3-44 contains personal information of the user (for example, information such as periodical subscription to magazines) and information relating to searches by the user such as the past usage status of the user. Is memorized.

【0350】次に、検索部3−6が図書データベース5
に記憶されている刊行物の情報を間作するときの動作に
ついて説明するが、その前段階の準備として、図書デー
タベース5の構成について説明する。
Next, the retrieval unit 3-6 makes the book database 5
The operation of interleaving the information of the publications stored in will be described. The structure of the book database 5 will be described as a preparation for the interstage.

【0351】図27は、図書データベース5に記憶され
る刊行物の情報を模式的に示している。同図に示すよう
に、図書データベース5には、大きく分けて、図書デー
タ、属性データ、および図書データ関係表が記憶されて
いる。
FIG. 27 schematically shows information on publications stored in the book database 5. As shown in the figure, the book database 5 roughly stores book data, attribute data, and a book data relation table.

【0352】図書データは、刊行物の本文のデータおよ
びその概要(アブストラクト)のデータから構成され
る。本文のデータまたはアブストラクトのデータには、
刊行物ごとにユニークな番号としての本文IDまたはア
ブストラクトIDが、それぞれ付加されている。なお、
例えばある刊行物の本文のデータの本文IDと、その刊
行物のアブストラクトのデータのアブストラクトIDと
が、同一である必要はない。
The book data is composed of the data of the main text of the publication and the data of its outline (abstract). In the text data or abstract data,
A body ID or an abstract ID as a unique number is added to each publication. In addition,
For example, the body ID of the data of the body of a certain publication and the abstract ID of the data of the abstract of the publication do not have to be the same.

【0353】属性データは、例えば刊行物のタイトル、
著者名、出版社、キーワード(ここでいうキーワード
は、検索の際に入力するキーワード(広義のキーワー
ド)に含まれるもので、例えば刊行物に記載されている
特定単語などを意味する狭義のキーワード)、分野(例
えば、文学書であるとか、数学書であるとかなど)、発
行年月日、ページ数などの刊行物の属性(カテゴリ)を
表すデータから構成され、それぞれには、ユニークな番
号としての属性ID(タイトルID、著者名ID、出版
社ID、キーワードID、分野ID、発行年月日ID、
ページ数IDなど)が付加されている。なお、この属性
IDも、刊行物ごとに同一である必要はない(同一の刊
行物のタイトル、著者名、出版社、キーワード、分野、
発行年月日、ページ数それぞれのIDが同一である必要
はない)。
Attribute data is, for example, the title of a publication,
Author name, publisher, keyword (Keyword here is included in the keyword (broadly defined keyword) input at the time of search, for example, a narrowly defined keyword that means a specific word etc. described in the publication) , Fields (eg, literary books, mathematical books, etc.), date of publication, number of pages, and other attributes (categories) of the publication, each of which has a unique number. Attribute IDs (title ID, author ID, publisher ID, keyword ID, field ID, issue date ID,
The page number ID, etc.) is added. The attribute ID does not have to be the same for each publication (title, author name, publisher, keyword, field, etc. of the same publication).
The issue date and the number of pages do not have to be the same.)

【0354】図書データ関係表は、図書ID関係表およ
び図書データネットワーク表から構成されている。図書
ID関係表には、各図書を構成する本文のデータ、アブ
ストラクトのデータ、またはタイトルや著者名などの属
性データそれぞれの本文ID、アブストラクトID、ま
たは属性IDの対応関係が記憶されており、各図書に
は、ユニークな番号としての図書IDが付加されてい
る。
The book data relationship table is composed of a book ID relationship table and a book data network table. The book ID relation table stores the correspondence between the body data, abstract data, or attribute data such as title or author name of each book, which is the body ID, abstract ID, or attribute ID of each book. A book ID as a unique number is added to the book.

【0355】ここで、図書とは、刊行物ごとの本文のデ
ータ、アブストラクトのデータ、および属性データの集
合を意味する。従って、図書IDは、刊行物を識別する
番号ということができる。
Here, the book means a set of text data, abstract data, and attribute data for each publication. Therefore, the book ID can be said to be a number that identifies the publication.

【0356】図書ID関係表を参照することにより、刊
行物の図書IDから、その刊行物の本文のデータ、アブ
ストラクトのデータ、または属性データそれぞれの本文
ID、アブストラクトID、または属性IDを得ること
ができ、これによりその刊行物の本文のデータ、アブス
トラクトのデータ、または属性データを得ることができ
る。
By referring to the book ID relation table, the body ID, the abstract ID, or the attribute ID of each of the body text data, abstract data, or attribute data of the publication can be obtained from the book ID of the publication. It is possible to obtain the text data of the publication, the abstract data, or the attribute data.

【0357】次に、図書データネットワーク表には、図
書ID、本文ID、アブストラクトID、および属性I
Dの対応関係が記憶されている。即ち、図書ID、本文
ID、アブストラクトID、および属性IDのつながり
をネットワーク表現したものが記憶されている。
Next, in the book data network table, the book ID, the body ID, the abstract ID, and the attribute I
The correspondence relationship of D is stored. That is, a network representation of the connection of the book ID, the body ID, the abstract ID, and the attribute ID is stored.

【0358】図書データネットワーク表によれば、図書
ID関係表と同様に、例えばある図書IDの図書を構成
する本文のデータ、アブストラクトのデータ、または属
性データそれぞれの本文ID、アブストラクトID、ま
たは属性IDを得ることができる他、例えばある著者名
IDの著者が書いた刊行物(図書)の図書IDや、その
著者が書いた刊行物の出版社の出版社IDなどを得た
り、ある分野IDの分野に属する刊行物(図書)の図書
IDや、その分野に著書を持つ著者の著者名IDなどを
得ることができる。
According to the book data network table, similar to the book ID relation table, for example, body data, abstract data, or attribute data of a body of a book having a certain book ID, abstract ID, or attribute ID, respectively. Other than that, for example, the book ID of a publication (book) written by an author with a certain author name ID, the publisher ID of the publisher of the publication written by the author, or the field ID It is possible to obtain a book ID of a publication (book) belonging to a field, an author name ID of an author who has a book in the field, and the like.

【0359】次に、図書データおよび属性データのデー
タ形式について、図28を参照して説明する。まず、同
図に示すように、図書データのうちの、例えば本文のデ
ータは、刊行物に記載された文章そのもののデータ(以
下、本文文章データという)と、その他必要なデータと
しての図書付加データから構成される。
Next, the data formats of the book data and the attribute data will be described with reference to FIG. First, as shown in the figure, of the book data, for example, the text data is the data of the text itself described in the publication (hereinafter referred to as text text data) and the additional data of the book as other necessary data. Composed of.

【0360】この本文のデータを構成する図書付加デー
タは、刊行物の目次の情報、文章を表示または合成音に
よって出力する場合に必要な制御用情報、文章中に記載
された写真や図、グラフなどの画像情報、およびターミ
ナル2で文章の朗読や表示が行われる際に、その朗読や
表示を効果的にするための音楽や動物の鳴き声、楽器
音、効果音などの効果情報から構成されている。
The book additional data that composes the data of this text is the information on the table of contents of the publication, the control information necessary for displaying the text or outputting the text with synthetic sounds, the photographs, figures and graphs described in the text. It is composed of image information such as, and effect information such as music and animal calls, musical instrument sounds, and sound effects to make the reading and display effective when the sentence is read and displayed on the terminal 2. There is.

【0361】ここで、文章を表示する場合に必要な制御
用情報とは、例えば1行を何文字にするとか、どこで改
行するとかなどの情報である。また、文章を合成音で出
力する場合に必要な制御用情報とは、合成音の抑揚を制
御したり、発声速度を制御したりするためなどの情報で
ある。
Here, the control information necessary for displaying a sentence is, for example, information such as how many characters are used in one line and where a line feed is made. Further, the control information necessary when outputting a sentence as a synthetic sound is information for controlling the intonation of the synthetic sound, controlling the utterance speed, and the like.

【0362】なお、図書付加データは、上述したよう
に、本文のデータに含ませる他、アブストラクトのデー
タに含ませるようにすることができる。即ち、本文のデ
ータを、本文文章データのみで構成し、アブストラクト
のデータを、刊行物の概要に関する文章のデータ(以
下、概要文データという)と図書付加データとから構成
するようにすることができる。また、図書付加データ
は、その一部を本文のデータに含ませ、残りをアブスト
ラクトのデータに含ませるようにすることもできる。
As described above, the book-added data can be included in the text data as well as in the abstract data. That is, the text data can be composed only of text text data, and the abstract data can be composed of text data (hereinafter referred to as synopsis text data) relating to the outline of the publication and additional data to the book. . In addition, part of the book additional data may be included in the text data, and the rest may be included in the abstract data.

【0363】本文のデータのうちの本文文章データ、ア
ブストラクトのデータのうちの概要文データ、図書付加
データのうちの目次の情報、および属性データ(著者
名、タイトル、出版社、(狭義の)キーワード、分野、
発行日(発行年月日)、ページ数、・・・)は、発音記
号情報、テキストデータ、かな文字、点字用のかな文
字、および音声信号、並びにこれらの符号化したデータ
および圧縮したデータのデータ形式のうち、少なくとも
発音記号情報を含むのデータ形式で、図書データベース
5に記憶されている。
Body text data in the body data, summary sentence data in the abstract data, table of contents information in the book additional data, and attribute data (author name, title, publisher, (in a narrow sense) keyword) , Field,
The date of issue (issue date), number of pages, ...) indicates phonetic symbol information, text data, kana characters, kana characters for braille, and voice signals, as well as encoded data and compressed data of these. Among the data formats, the data format including at least phonetic symbol information is stored in the book database 5.

【0364】また、図書付加データのうちの制御用情報
は、制御用データ(例えば、制御コードでなるデータ)
のデータ形式で、図書データベース5に記憶されてい
る。さらに、図書付加データのうちの写真や図、グラフ
などの画像情報は、画像データのデータ形式、またはそ
れを圧縮もしくは符号化したデータ形式で、図書データ
ベース5に記憶されている。また、図書付加データのう
ちの音楽や動物の鳴き声、楽器音、効果音などの効果情
報は、音データ(例えば、波形データなど)のデータ形
式、またはそれを圧縮もしくは符号化したデータ形式
で、図書データベース5に記憶されている。
Further, the control information in the book additional data is control data (for example, data consisting of control code).
The data format is stored in the book database 5. Further, image information such as photographs, drawings, and graphs in the book additional data is stored in the book database 5 in the data format of the image data or the data format in which the data is compressed or encoded. Further, the effect information such as music and animal calls, instrument sounds, and sound effects in the book additional data is in the data format of sound data (for example, waveform data), or a data format in which it is compressed or encoded. It is stored in the book database 5.

【0365】各データ形式で図書データベース5に記憶
されている、上述したデータには、自身のデータ形式を
示す識別符号が付加されており、これによりデータが、
いかなるデータ形式であるのかを識別することができる
ようになされている。
An identification code indicating its own data format is added to the above-mentioned data stored in the book database 5 in each data format.
It is made possible to identify what kind of data format it is.

【0366】次に、図29のフローチャートを参照し
て、検索部3−6を構成する検索制御部3−41の動作
について説明する。まず、検索制御部3−41では、ス
テップS3−111において、システム制御部3−3か
ら、図書IDが入力されたか否かが判定される。
Next, the operation of the search control unit 3-41 constituting the search unit 3-6 will be described with reference to the flowchart in FIG. First, in the search control unit 3-41, in step S3-111, it is determined whether or not the book ID is input from the system control unit 3-3.

【0367】ステップS3−41において、図書IDが
入力されたと判定された場合、ステップS3−112に
進み、図書データベース5に記憶された図書データ関係
表のうちの図書ID関係表が参照され、入力された図書
IDが付された図書の図書データ(本文のデータまたは
アブストラクトのデータ)、またはタイトルや著者名な
どの刊行物の属性データが、所定の検索すべき項目にし
たがって、図書データベース5から検索され、ステップ
S3−113に進む。ステップS3−113では、ステ
ップS3−112での検索結果が、システム制御部3−
3に送信され、処理を終了する。
If it is determined in step S3-41 that the book ID has been input, the flow advances to step S3-112 to refer to the book ID relationship table of the book data relationship tables stored in the book database 5 and enter it. The book data (text data or abstract data) of the book with the specified book ID, or the attribute data of the publication such as title and author name is searched from the book database 5 according to predetermined search items. Then, the process proceeds to step S3-113. In step S3-113, the search result in step S3-112 is the system control unit 3-
3 is transmitted, and the processing is ended.

【0368】一方、ステップS3−111において、シ
ステム制御部3−3から、図書IDが入力されていない
と判定された場合、ステップS3−114に進み、図2
4のステップS3−90で説明したようにして、システ
ム制御部3−3から、認識部3−4の音声認識結果であ
る属性リストが入力されたか否かが判定される。
On the other hand, when it is determined in step S3-111 that the book ID is not input from the system control section 3-3, the process proceeds to step S3-114, and the process shown in FIG.
As described in step S3-90 of 4, the system control unit 3-3 determines whether the attribute list which is the voice recognition result of the recognition unit 3-4 is input.

【0369】ここで、属性リストの例を、図30(a)
に示す。図30(a)は、図24のステップS3−86
において、例えばキーワード(属性名)(カテゴリ)
「出版社は?」と問われた(質問された)場合に、ター
ミナル2の使用者から発せられた音声の認識結果として
の属性リストを示している。属性リスト中、左側に記載
されているP,Q,R,・・・は、認識結果として得ら
れた単語であり、その左側に記載されている数字0.
7,0.2,0.01,0.01,・・・は、単語の尤
度を示している。
An example of the attribute list is shown in FIG.
Shown in. FIG. 30A shows step S3-86 of FIG.
In, for example, keyword (attribute name) (category)
The attribute list is shown as a recognition result of the voice uttered by the user of the terminal 2 when the question "Is the publisher?" Is asked (asked). In the attribute list, P, Q, R, ... Described on the left side are words obtained as a recognition result, and the numbers 0.
7, 0.2, 0.01, 0.01, ... Show the likelihood of words.

【0370】ステップS3−114において、属性リス
トが入力されていないと判定された場合、即ち属性リス
トでもなく、図書IDでもない情報が入力された場合、
ステップS3−115に進み、入力エラーであるとさ
れ、ステップS3−116に進む。ステップS3−11
6では、エラー信号がシステム制御部3−3(図13)
に出力され、処理を終了する。
If it is determined in step S3-114 that the attribute list is not input, that is, if the information that is neither the attribute list nor the book ID is input,
The process proceeds to step S3-115, it is determined that there is an input error, and the process proceeds to step S3-116. Step S3-11
In 6, the error signal is the system control unit 3-3 (FIG. 13).
Is output to and the processing ends.

【0371】また、ステップS3−114において、属
性リストが入力されたと判定された場合、ステップS3
−117に進み、複数の属性リストが入力されたか否か
が判定される。ステップS3−117において、複数の
属性リストが入力されていないと判定された場合、ステ
ップS3−118をスキップして、ステップS3−11
9に進む。
If it is determined in step S3-114 that the attribute list has been input, step S3.
Proceeding to -117, it is determined whether or not a plurality of attribute lists have been input. When it is determined in step S3-117 that a plurality of attribute lists are not input, step S3-118 is skipped and step S3-11 is performed.
Proceed to 9.

【0372】一方、ステップS3−117において、複
数の属性リストが入力されたと判定された場合、ステッ
プS3−118に進み、入力された複数の属性リスト
が、例えば図30(b)に示すようなテーブル型の属性
リストにまとめられる。
On the other hand, if it is determined in step S3-117 that a plurality of attribute lists have been input, then the flow proceeds to step S3-118, and the input plurality of attribute lists are as shown in FIG. 30 (b), for example. It is summarized in a table type attribute list.

【0373】即ち、ステップS3−118では、図書デ
ータベース5に記憶された図書データ関係表(図27)
が参照され、図24のステップS3−90で説明したよ
うに、複数の属性リスト、つまり複数の音声認識結果と
してのキーワードを、あり得る組み合わせにまとめる処
理が行われる。
That is, in step S3-118, the book data relation table stored in the book database 5 (FIG. 27).
24, the plurality of attribute lists, that is, the plurality of keywords as the voice recognition results are combined into a possible combination as described in step S3-90 in FIG.

【0374】図30(a)においては、音声認識結果と
しての出版社名「P」、タイトル「X」、著者名「A」
の組み合わせが、キーワードの組み合わせとしてあり得
る組み合わせの中で、その尤度(組み合わせの尤度)が
最も高いものとされている。また、音声認識結果として
の出版社名「P」、タイトル「X」、著者名「B」の組
み合わせが、キーワードの組み合わせとしてあり得る組
み合わせの中で、その尤度(組み合わせの尤度)が2番
目に高いものとされている。
In FIG. 30A, the publisher name "P", title "X", author name "A" as the voice recognition result.
The combination (1) has the highest likelihood (likelihood of the combination) among the combinations that can be the combinations of the keywords. Further, the combination of the publisher name “P”, the title “X”, and the author name “B” as the voice recognition result has a likelihood (likelihood of combination) of 2 among possible combinations of keywords. It is considered the second highest.

【0375】ステップS3−118において、複数の属
性リストをまとめる処理が行われた後、その処理結果、
即ち図30(b)に示すようなテーブル型の属性リスト
がシステム制御部3−3に送信され、ステップS3−1
19に進み、システム制御部3−3の指示を待って、図
書IDの検索が行われる。
[0375] In step S3-118, after the processing of collecting a plurality of attribute lists is performed, the processing result,
That is, a table type attribute list as shown in FIG. 30B is transmitted to the system control unit 3-3, and step S3-1
In step 19, the book ID is searched after waiting for the instruction from the system control unit 3-3.

【0376】即ち、ステップS3−119では、システ
ム制御部3−3から、検索を行うように指示する制御信
号と、検索のためのキーワード(例えば、図30(b)
に示したテーブル型の属性リストにおける組み合わせの
尤度の最も高い組み合わせを構成する出版社「P」、タ
イトル「X」、および著者名「A」など)とが受信され
ると、図書データベース5に記憶されている図書データ
関係表(図27)が参照され、受信したキーワードのI
D(属性ID)と対応付けられている図書IDの検索が
行われる。
That is, in step S3-119, the system control unit 3-3 issues a control signal for instructing a search and a keyword for the search (for example, FIG. 30 (b)).
When the publisher “P”, the title “X”, the author name “A”, etc., which constitute the combination with the highest likelihood of combination in the table-type attribute list shown in FIG. The stored book data relationship table (FIG. 27) is referred to, and the received keyword I
The book ID associated with D (attribute ID) is searched.

【0377】なお、このとき検索制御部3−41は、必
要に応じて、検索用メモリ3−42、図書利用度表3−
43、または個人データベース3−44の記憶内容をふ
まえて検索を行う。
At this time, the search control unit 3-41, if necessary, the search memory 3-42 and the book usage rate table 3-42.
43 or the stored contents of the personal database 3-44 are searched.

【0378】即ち、まず検索制御部3−41(図26)
では、図14のステップS3−1でターミナル2から送
信されてきた利用者IDが確認され、その後さらに新規
検索か、または継続検索(例えば、図25のステップS
3−99で絞り込みを行うと判定されて、再度検索が行
われる場合の検索)かが確認される。
That is, first, the search control unit 3-41 (FIG. 26).
Then, the user ID transmitted from the terminal 2 is confirmed in step S3-1 of FIG. 14, and then a new search or continuous search (for example, step S of FIG. 25) is performed.
In 3-99, it is determined that the search is to be performed, and it is confirmed whether or not the search is performed again.

【0379】継続検索である場合には、検索用メモリ3
−42(図26)に記憶されている、確認した利用者I
Dが付加されている検索の途中結果が読み出され、その
途中結果のみを対象にして、検索が行われる。
If it is a continuous search, the search memory 3
Confirmed user I stored in -42 (Fig. 26)
An intermediate result of the search to which D is added is read, and the search is performed only on the intermediate result.

【0380】新規検索である場合には、検索用メモリ3
−42の記憶内容を参照せずに、検索が行われる。
If it is a new search, the search memory 3
The search is performed without referring to the stored contents of -42.

【0381】また、新規検索、継続検索に関わらず、個
人データベース3−44(図26)に記憶されている、
例えば新聞だけの検索を行うとか、数学書だけの検索を
行うとかなどの使用者ごとに、あらかじめ設定された情
報(以下、個人情報という)が、利用者IDに対応して
読み出され、この個人情報に基づいて、検索対象を限定
して、検索が行われる。
Further, regardless of new search or continuous search, it is stored in the personal database 3-44 (FIG. 26).
For example, information set in advance for each user (for example, searching only newspapers or searching only mathematical books) (hereinafter referred to as personal information) is read in correspondence with the user ID. The search is performed by limiting the search target based on the personal information.

【0382】さらに、図書利用度表3−43(図26)
に記憶されている、刊行物の検索回数(検索頻度)に応
じて、その刊行物を分類した情報などが読み出され、検
索回数が多い方に分類された刊行物に限定して、順次検
索が行われる。これにより、検索の高速化を図ることが
できる。
Furthermore, the book utilization table 3-43 (FIG. 26)
Depending on the search frequency (search frequency) of the publications stored in, the information classified by the publications is read out, and the search is limited to the publications with the highest search frequency and sequentially searched. Is done. This makes it possible to speed up the search.

【0383】なお、検索中において、検索制御部3−4
1は、検索用メモリ3−42、図書利用度表3−43、
または個人データベース3−44に記憶させるべき情報
が生じた場合には、その情報を、検索用メモリ3−4
2、図書利用度表3−43、または個人データベース3
−44にそれぞれ記憶させる。
During the search, the search control unit 3-4
1 is a search memory 3-42, a book usage rate table 3-43,
Alternatively, when the information to be stored in the personal database 3-44 is generated, the information is stored in the search memory 3-4.
2, book usage table 3-43, or personal database 3
Each is stored in -44.

【0384】さらに、ステップS3−119において
は、図書データベース5から検索された図書ID、即ち
図書が、m個(冊)以上になったか否かを判定しなが
ら、検索が行われる。そして、検索された図書が、m個
以上になったと判定された場合、即ち検索された図書が
非常に多い場合、その時点で検索が中断され、ステップ
S3−120に進む。
Further, in step S3-119, the search is performed while determining whether or not the number of book IDs retrieved from the book database 5, that is, the number of books (books) is m or more. Then, when it is determined that the number of searched books is m or more, that is, when the number of searched books is very large, the search is interrupted at that point, and the process proceeds to step S3-120.

【0385】即ち、システム制御部3−3から受信した
キーワードのID(属性ID)と対応付けられている図
書IDの図書の件数が非常に多い場合には、その検索に
非常に時間がかかり、システムが故障していると使用者
に勘違いさせるおそれがあるので、検索処理を途中で中
断するようになされている。
That is, when the number of books having the book ID associated with the keyword ID (attribute ID) received from the system control unit 3-3 is very large, the search takes a very long time, If the system is out of order, it may mislead the user, so the search process is interrupted midway.

【0386】ステップS3−119において、システム
制御部3−3から受信したキーワードのID、即ち属性
IDと対応付けられている図書IDの検索が終了する
か、またはその検索が中断されると、ステップS3ー1
20に進み、検索の結果得られた図書IDが、その件数
(図書の冊数)とともに、システム制御部3−3に送信
される。この場合、ステップS3−119で、検索処理
が途中で中断されているときには、検索処理を途中で中
断したことを知らせる情報も、システム制御部3−3に
送信される。
In step S3-119, when the search for the keyword ID received from the system control unit 3-3, that is, the book ID associated with the attribute ID is completed or the search is interrupted, the step S3-1
In step 20, the book ID obtained as a result of the search is transmitted to the system control unit 3-3 together with the number of books (the number of books in the book). In this case, in step S3-119, when the search process is interrupted midway, the information notifying that the search process was interrupted midway is also transmitted to the system control unit 3-3.

【0387】その後、ステップS3−121に進み、上
述した継続検索に備えて、検索結果が、図14のステッ
プS3−1でターミナル2から送信されてきた利用者I
Dと対応付けられ、検索用メモリ3−42(図26)に
転送されて記憶され、処理を終了する。
[0387] Then, proceeding to step S3-121, in preparation for the above-described continuous search, the search result is sent to the user I who has been sent from the terminal 2 at step S3-1 in Fig. 14.
It is associated with D, transferred to and stored in the search memory 3-42 (FIG. 26), and the process ends.

【0388】なお、上述した、ステップS3−118に
おける複数の属性リスト、即ち複数のキーワードをあり
得る組み合わせにまとめる処理は、検索部3−6(検索
制御部3−41)に行わせるのではなく、認識部3−4
に、図書データベース5(図27)に記憶された図書デ
ータ関係表を参照させて行わせるようにしても良い。こ
の場合、認識部3−4からは、図30(b)に示したテ
ーブル型の属性リストが、音声認識結果として、システ
ム制御部3−3に出力されるようになり、その結果、シ
ステム制御部3−3で検索制御が行われる際には、検索
部3−6に、このテーブル型の属性リストが入力される
ようになる。
It should be noted that the above-described processing of collecting a plurality of attribute lists in step S3-118, that is, a plurality of keywords into possible combinations is not performed by the search unit 3-6 (search control unit 3-41). , Recognition unit 3-4
May be performed by referring to the book data relation table stored in the book database 5 (FIG. 27). In this case, the recognition unit 3-4 outputs the table-type attribute list shown in FIG. 30B to the system control unit 3-3 as a voice recognition result, and as a result, the system control is performed. When the search control is performed by the unit 3-3, the table-type attribute list is input to the search unit 3-6.

【0389】検索部3−6では、以上のようにしてテー
ブル型の属性リストが入力された場合には、その尤度
(組み合わせの尤度)が最も高いものからn番目までの
キーワードの組み合わせそれぞれに該当する図書ID
を、一度に検索するようにすることができる。従って、
この場合、システム制御部3−3に出力される検索結果
は、ある1組のキーワードの組み合わせに該当する図書
IDではなく、音声認識結果の尤度の高いn組のキーワ
ードの組み合わせそれぞれに該当する図書IDとなる。
In the search unit 3-6, when the table type attribute list is input as described above, the combinations of the keywords from the highest likelihood (likelihood of combination) to the nth keyword Book ID corresponding to
Can be searched at once. Therefore,
In this case, the search result output to the system control unit 3-3 corresponds not to the book ID corresponding to a certain combination of keywords, but to each of the n combinations of keywords having a high likelihood of the voice recognition result. It becomes the book ID.

【0390】次に、図14のステップS3−5において
新聞サービスが提供される場合の動作について、図31
のフローチャートを参照して説明する。なお、図31に
おいて、各ステップの左上に付してあるTまたはHは、
そのステップの処理が、ターミナル2の処理またはセン
ターシステム1の処理であることを、それぞれ意味す
る。
Next, referring to FIG. 31, the operation when the newspaper service is provided in step S3-5 of FIG.
This will be described with reference to the flowchart in FIG. In addition, in FIG. 31, T or H attached to the upper left of each step is
It means that the process of that step is the process of the terminal 2 or the process of the center system 1, respectively.

【0391】まず最初に、ステップS3−131におい
て、ターミナル2(図1)が立ち上げられ(電源スイッ
チがON状態にされるなど)、ステップS3−132に
進み、図14のステップS3−1で説明したようにし
て、センターシステム1との回線接続が行われ(利用者
IDの入力など)、ステップS3−133に進む。ステ
ップS3−133においては、ターミナル2の使用者に
よって、新聞サービスが提供されるように(センターシ
ステム1で、新聞サービスのプログラムが実行されるよ
うに)、音声認識装置2−2、キーボード2−3、ボタ
ン部2−4、またはジョグシャトル部2−5(図5)が
操作され、ステップS3−134に進み、ターミナル2
から、新聞サービスを選択したことを示す選択信号と、
利用者IDとがセンターシステム1に送信される。
First, in step S3-131, the terminal 2 (FIG. 1) is started up (the power switch is turned on, etc.), the flow proceeds to step S3-132, and in step S3-1 of FIG. As described above, line connection with the center system 1 is performed (input of user ID, etc.), and the process proceeds to step S3-133. In step S3-133, the user of the terminal 2 provides the newspaper service (the center system 1 executes the newspaper service program), the voice recognition device 2-2, the keyboard 2-. 3, the button portion 2-4, or the jog shuttle portion 2-5 (FIG. 5) is operated, the process proceeds to step S3-134, and the terminal 2
From the selection signal indicating that the newspaper service was selected,
The user ID is transmitted to the center system 1.

【0392】センターシステム1では、ステップS3−
134でターミナル2から送信された選択信号と利用者
IDが受信されると、システム制御部3−3(図13)
によって、新聞サービスに関するプログラムが起動さ
れ、これにより受信された利用者IDおよび新聞に限定
して検索を行うために属性データ「新聞」が、検索部3
−6に送信される。
In the center system 1, step S3-
When the selection signal and the user ID transmitted from the terminal 2 are received at 134, the system control unit 3-3 (FIG. 13)
Causes a program relating to the newspaper service to be started, and the attribute data “newspaper” is retrieved by the retrieval unit 3 in order to retrieve only the user ID and the newspaper received thereby.
-6 is sent.

【0393】すると、ステップS3−135において、
検索部3−6で、システム制御部3−3から送信された
利用者IDに対して、定期購読の設定がなされているか
否かが確認される。即ち、検索部3−6(図26)にお
いて、検索制御部3−41により、個人データベース3
−44が参照される。
Then, in step S3-135,
The search unit 3-6 confirms whether the user ID transmitted from the system control unit 3-3 is set for regular subscription. That is, in the search unit 3-6 (FIG. 26), the search control unit 3-41 causes the personal database 3
Reference is made to -44.

【0394】そして、ステップS3−136において、
システム制御部3−3から送信された利用者IDに対し
て、定期購読の設定がなされているか否かが判定され
る。ステップS3−136において、システム制御部3
−3から送信された利用者IDに対して、定期購読の設
定がなされていると判定された場合、ステップS3−1
38に進み、定期購読するとあらかじめ設定がされてい
る図書IDと、タイトルや発行年月日などの属性データ
(以下、定期購読に関する設定情報という)が、個人デ
ータベース3−44から検索されて、ターミナル2に送
信され、ステップS3−139に進む。
Then, in steps S3-136,
It is determined whether or not the subscription has been set for the user ID transmitted from the system control unit 3-3. In step S3-136, the system control unit 3
-3, if it is determined that the subscription is set for the user ID transmitted from S-3, step S3-1
Proceeding to step 38, the book ID and preset attribute data (hereinafter referred to as the setting information regarding the subscription) such as the title and the date of issue when the subscription is set are searched from the personal database 3-44, and the terminal is searched. 2 is transmitted, and the process proceeds to step S3-139.

【0395】ステップS3−139において、ターミナ
ル2で、ステップS3−138でセンターシステム1か
ら送信されてきた定期購読に関する設定情報が受信さ
れ、ターミナル2では、定期購読が設定されている図書
(新聞)の必要なデータの転送を希望するか否かが、使
用者に対して確認される。すると、使用者によって、定
期購読が設定されている図書の必要なデータを転送する
か否かに対応して、音声認識装置2−2、キーボード2
−3、ボタン部2−4、またはジョグシャトル部2−5
(図5)が操作され、ステップS3−140に進み、デ
ータを転送するように、音声認識装置2−2、キーボー
ド2−3、ボタン部2−4、またはジョグシャトル部2
−5が操作されたか否かが判定される。
In step S3-139, the terminal 2 receives the setting information relating to the regular subscription transmitted from the center system 1 in step S3-138, and the terminal 2 receives the book (newspaper) to which the regular subscription is set. The user is asked whether he / she wants to transfer the necessary data. Then, depending on whether or not the user transfers necessary data of the book for which the subscription is set, the voice recognition device 2-2 and the keyboard 2
-3, button section 2-4, or jog shuttle section 2-5
(FIG. 5) is operated, the process proceeds to step S3-140, and the voice recognition device 2-2, the keyboard 2-3, the button unit 2-4, or the jog shuttle unit 2 is transferred so as to transfer the data.
It is determined whether -5 has been operated.

【0396】ステップS3−140において、データを
転送するように、音声認識装置2−2、キーボード2−
3、ボタン部2−4、またはジョグシャトル部2−5が
操作されていないと判定された場合、ステップS3−1
43に進む。
In step S3-140, the voice recognition device 2-2 and the keyboard 2- are used to transfer the data.
If it is determined that 3, the button portion 2-4, or the jog shuttle portion 2-5 is not operated, step S3-1
Proceed to 43.

【0397】また、ステップS3−140において、デ
ータを転送するように、音声認識装置2−2、キーボー
ド2−3、ボタン部2−4、またはジョグシャトル部2
−5の操作がなされたと判定された場合、ステップS3
−141に進み、ターミナル2から、転送を希望する図
書の図書IDおよびデータ項目が、センターシステム1
に送信される。
Further, in step S3-140, the voice recognition device 2-2, the keyboard 2-3, the button section 2-4, or the jog shuttle section 2 is transferred so as to transfer the data.
If it is determined that the operation of -5 has been performed, step S3
-141, and from the terminal 2, the book ID and the data item of the book desired to be transferred are the center system 1
Sent to.

【0398】そして、センターシステム1で、ターミナ
ル2から送信された、転送を希望する図書の図書IDお
よびデータ項目が受信されると、ステップS3−142
において、検索部3−6で、ターミナル2から受信した
図書IDとデータ項目に対応して、図書データベース5
から、転送すべきデータが検索され、ターミナル2に送
信されて、処理を終了する。
When the center system 1 receives the book ID and the data item of the book desired to be transferred, which is transmitted from the terminal 2, step S3-142.
In the search section 3-6, in the book database 5 corresponding to the book ID and the data item received from the terminal 2.
Then, the data to be transferred is searched for, transmitted to the terminal 2, and the processing ends.

【0399】一方、ステップS3−136において、シ
ステム制御部3−3から送信された利用者IDに対し
て、定期購読の設定がなされていないと判定された場
合、ステップS3−137に進み、検索部3−6からシ
ステム制御部3−3に、定期購読の設定がなされていな
いことを知らせる情報が送信され、ステップS3−14
3に進む。
On the other hand, if it is determined in step S3-136 that the user ID transmitted from the system control unit 3-3 is not set for the regular subscription, the process proceeds to step S3-137 to perform a search. Information notifying that the subscription is not set is transmitted from the section 3-6 to the system control section 3-3, and step S3-14 is performed.
Go to 3.

【0400】ステップS3−143では、ターミナル2
の動作モードが検索モードとされ、これによりターミナ
ル2においては、検索モードの動作(詳細は、後述す
る)を行う。そして、ステップS3−144に進み、セ
ンターシステム1で、ステップS3−143におけるタ
ーミナル2の検索モードの動作に対応して、検索処理お
よびデータの転送処理(詳細は、後述する)が行われ、
処理を終了する。
In step S3-143, the terminal 2
The operation mode is set to the search mode, so that the terminal 2 operates in the search mode (details will be described later). Then, proceeding to step S3-144, the center system 1 performs a search process and a data transfer process (details will be described later) corresponding to the operation of the search mode of the terminal 2 at step S3-143.
The process ends.

【0401】次に、ステップS3−143におけるター
ミナル2の動作およびステップS3−144におけるセ
ンターシステム1の動作について、図32のフローチャ
ートを参照して詳述する。なお、図32においても、図
31における場合と同様に、各ステップの処理が、ター
ミナル2の処理またはセンターシステム1の処理である
ことをそれぞれ示すTまたはHを、各ステップの左上に
付してある。
Next, the operation of the terminal 2 in step S3-143 and the operation of the center system 1 in step S3-144 will be described in detail with reference to the flowchart in FIG. Note that, also in FIG. 32, as in the case of FIG. 31, T or H indicating that the processing of each step is the processing of the terminal 2 or the processing of the center system 1 is added to the upper left of each step. is there.

【0402】まずターミナル2は、ステップS3−15
1において、音声認識装置2−2、キーボード2−3、
ボタン部2−4、またはジョグシャトル部2−5が操作
されることにより、使用者によって、属性データのカテ
ゴリ(例えば「タイトル」や「出版社名」など)の選択
が行われるのを待ち、所定の時間(t秒)経過しても、
カテゴリの選択が行われない場合には、カテゴリの選択
を促すメッセージを、ディスプレイ2−7または音声合
成装置2−6から出力する。
First, in the terminal 2, step S3-15.
1, a voice recognition device 2-2, a keyboard 2-3,
By operating the button section 2-4 or the jog shuttle section 2-5, the user waits until the user selects a category of attribute data (for example, “title” or “publisher name”). Even if a predetermined time (t seconds) has elapsed,
If no category is selected, a message prompting the user to select a category is output from the display 2-7 or the voice synthesizer 2-6.

【0403】そして、ターミナル2では、カテゴリの選
択を促すメッセージを、ディスプレイ2−7または音声
合成装置2−6から、複数回出力しても、使用者によっ
てカテゴリの選択が行われない場合には、処理を終了し
ても良いか否かを質問する質問メッセージが、ディスプ
レイ2−7または音声合成装置2−6から出力される。
In terminal 2, if the user does not select a category even if a message prompting the user to select a category is output from display 2-7 or voice synthesizer 2-6 multiple times. A question message asking whether or not to end the process is output from the display 2-7 or the voice synthesizer 2-6.

【0404】その後、ターミナル2は、質問メッセージ
を複数回、ディスプレイ2−7または音声合成装置2−
6から出力しても、使用者からの応答がないか、または
処理を終了するように、音声認識装置2−2、キーボー
ド2−3、ボタン部2−4、またはジョグシャトル部2
−5が操作された場合には、センターシステム1との回
線を切断し、処理を終了する。
After that, the terminal 2 displays the question message a plurality of times on the display 2-7 or the voice synthesizer 2-.
Even if the data is output from 6, the voice recognition device 2-2, the keyboard 2-3, the button unit 2-4, or the jog shuttle unit 2 may be set so that there is no response from the user or the processing is terminated.
When -5 is operated, the line with the center system 1 is disconnected, and the process ends.

【0405】一方、ステップS3−151において、カ
テゴリの選択が行われた場合、ステップS3−152に
進み、ターミナル2は、選択されたカテゴリに対する属
性データ(例えば、カテゴリ「発行日」が選択された場
合には、「○月×日」という日付)が、使用者によっ
て、音声認識装置2−2、キーボード2−3、ボタン部
2−4、またはジョグシャトル部2−5が操作されるこ
とにより入力されるのを待つ。そして、上述したステッ
プS3−151における場合と同様にして、属性データ
の入力がない場合には、処理を終了する。
On the other hand, when the category is selected in step S3-151, the process proceeds to step S3-152, and the terminal 2 selects the attribute data (for example, the category "issue date") for the selected category. In this case, the date "○ month x day" is set by the user operating the voice recognition device 2-2, the keyboard 2-3, the button unit 2-4, or the jog shuttle unit 2-5. Wait for input. Then, similar to the case in step S3-151 described above, when the attribute data is not input, the processing ends.

【0406】ステップS3−152において、属性デー
タの入力があった場合、ステップS3−153に進み、
ターミナル2から、利用者IDと、入力された属性デー
タとが、その属性データに該当する図書の検索を指示す
る検索指示信号(データ転送命令)とともに、センター
システム1に送信される。
If attribute data is input in step S3-152, the flow advances to step S3-153,
The user ID and the inputted attribute data are transmitted from the terminal 2 to the center system 1 together with a search instruction signal (data transfer instruction) for instructing a search for a book corresponding to the attribute data.

【0407】センターシステム1では、ターミナル2か
らの利用者IDと属性データとが受信され、ステップS
3−154において、属性データから、上述した属性リ
スト(テーブル型属性リストを含む)(図30)が作成
され、ステップS3−155に進む。なお、ターミナル
2において、属性データが、音声認識装置2−2以外
の、キーボード2−3、ボタン部2−4、またはジョグ
シャトル部2−5が操作されて入力された場合には、属
性リストにおける尤度は、例えば最も高い値としての1
とされる。
In the center system 1, the user ID and the attribute data from the terminal 2 are received, and step S
In 3-154, the above-mentioned attribute list (including the table-type attribute list) (FIG. 30) is created from the attribute data, and the flow proceeds to step S3-155. In the terminal 2, when the attribute data is input by operating the keyboard 2-3, the button unit 2-4, or the jog shuttle unit 2-5 other than the voice recognition device 2-2, the attribute list is displayed. The likelihood at is, for example, 1 as the highest value.
It is said that

【0408】ステップS3−155では、センターシス
テム1(図13)の検索部3−6によって、ステップS
3−154で作成された属性リストに基づいて、上述し
たように検索が行われる。なお、ターミナル2から送信
されてきた属性データが、図書IDである場合には、ス
テップS3−154の処理はスキップされ、ステップS
3−155では、その図書IDに対応するデータが、図
書データベース5から検索される。
[0408] In step S3-155, the search unit 3-6 of the center system 1 (Fig. 13) executes step S3.
The search is performed as described above based on the attribute list created in 3-154. If the attribute data transmitted from the terminal 2 is the book ID, the process of step S3-154 is skipped and step S3-154 is skipped.
In 3-155, the data corresponding to the book ID is retrieved from the book database 5.

【0409】そして、検索部3−6による検索が終了す
ると、ステップS3−156に進み、検索部3−6の検
索結果に関する情報(例えば、検索件数や検索された図
書の図書IDなど)が、システム制御部3−3および通
信制御部3−1を介して、ターミナル2に送信される。
[0409] When the search by the search unit 3-6 is completed, the flow advances to step S3-156, and the information related to the search results of the search unit 3-6 (for example, the number of searches and the book ID of the searched book) is It is transmitted to the terminal 2 via the system control unit 3-3 and the communication control unit 3-1.

【0410】ターミナル2では、ステップS3−157
において、センターシステム1から送信されてきた、検
索結果の件数が、ディスプレイ2−7または音声合成装
置2−6から出力され、さらに検索結果の絞り込みを行
うか否かを質問する質問メッセージ「絞り込みを行いま
すか?」が、ディスプレイ2−7または音声合成装置2
−6から出力される。
At Terminal 2, step S3-157.
In, the number of search results transmitted from the center system 1 is output from the display 2-7 or the voice synthesizer 2-6, and a question message "whether to narrow down the search results" is displayed. Do you want to do? ", Display 2-7 or voice synthesizer 2
It is output from -6.

【0411】そして、ステップS3−158において、
絞り込みを行うように、使用者によって音声認識装置2
−2、キーボード2−3、ボタン部2−4、またはジョ
グシャトル部2−5が操作されたか否かが判定される。
ステップSS3−158において、絞り込みを行うよう
に、音声認識装置2−2、キーボード2−3、ボタン部
2−4、またはジョグシャトル部2−5が操作されたと
判定された場合、ステップS3−151に戻り、再びス
テップS3−151からの処理を繰り返す。
Then, in step S3-158,
The voice recognition device 2 is selected by the user so as to narrow down.
-2, the keyboard 2-3, the button portion 2-4, or the jog shuttle portion 2-5 is determined.
When it is determined in step SS3-158 that the voice recognition device 2-2, the keyboard 2-3, the button portion 2-4, or the jog shuttle portion 2-5 is operated so as to perform the narrowing down, step S3-151. Then, the process from step S3-151 is repeated again.

【0412】また、ステップS3−158において、絞
り込みを行わないように、音声認識装置2−2、キーボ
ード2−3、ボタン部2−4、またはジョグシャトル部
2−5が操作されたと判定された場合、ステップS3−
159に進み、ターミナル2へ転送すべきデータを選択
するように、ディスプレイ2−7または音声合成装置2
−6から、メッセージが出力され、ステップS3−16
0に進む。
In step S3-158, it is determined that the voice recognition device 2-2, the keyboard 2-3, the button section 2-4, or the jog shuttle section 2-5 is operated so as not to perform the narrowing down. In this case, step S3-
Proceed to step 159 to select the data to be transferred to terminal 2, display 2-7 or voice synthesizer 2
A message is output from -6, and step S3-16
Go to 0.

【0413】ステップS3−160においては、使用者
によって音声認識装置2−2、キーボード2−3、ボタ
ン部2−4、またはジョグシャトル部2−5が操作され
ることにより、転送すべきデータが選択されたか否かが
判定される。ステップS3−160において、データが
選択されなかったと判定された場合、ステップS3−1
61およびS3−162をスキップして処理を終了す
る。
In step S3-160, the user operates the voice recognition device 2-2, the keyboard 2-3, the button section 2-4, or the jog shuttle section 2-5 so that the data to be transferred is obtained. It is determined whether or not it is selected. If it is determined in step S3-160 that no data has been selected, step S3-1.
61 and S3-162 are skipped, and the process ends.

【0414】また、ステップS3−160において、デ
ータが選択されたと判定された場合、ステップS3−1
61に進み、ステップS3−160で選択されたデータ
を転送するように、センターシステム1に対し、データ
転送命令が、そのデータに対応する図書IDとともに送
信され、ステップS3−162に進む。
If it is determined in step S3-160 that data has been selected, step S3-1.
In step 61, the data transfer command is transmitted to the center system 1 together with the book ID corresponding to the data so as to transfer the data selected in step S3-160, and the process advances to step S3-162.

【0415】ステップS3−162では、センターシス
テム1において、ターミナル2からのデータ転送命令お
よび図書IDが受信され、その図書IDに対応付けられ
たデータが、図書データベース5から読み出され、ター
ミナル2に転送されて、処理を終了する。
In step S3-162, the center system 1 receives the data transfer command and the book ID from the terminal 2, and the data associated with the book ID is read from the book database 5 and sent to the terminal 2. The data is transferred and the process ends.

【0416】ところで、ターミナル2においては、ジョ
グシャトル部2−5(図7)を操作することにより、あ
らかじめ登録された種々の属性データ(ここでは、イン
デックスという)が、ディスプレイ2−7または音声合
成装置2−6から出力されるようなされており、これに
より上述した検索を行う場合、容易に希望するインデッ
クスを見つけることができるようになされている。
By the way, in the terminal 2, by operating the jog shuttle unit 2-5 (FIG. 7), various pre-registered attribute data (herein referred to as an index) is displayed 2-7 or voice synthesized. It is output from the device 2-6 so that the desired index can be easily found when performing the above-mentioned search.

【0417】以下、図33のフローチャートを参照し
て、ジョグシャトル部2−5(図7)が操作されること
により、あらかじめ登録された種々のインデックスが、
ディスプレイ2−7または音声合成装置2−6から出力
される場合の動作について説明する。
Hereinafter, with reference to the flowchart of FIG. 33, by operating the jog shuttle unit 2-5 (FIG. 7), various indexes registered in advance are displayed.
The operation when output from the display 2-7 or the voice synthesizer 2-6 will be described.

【0418】なお、ジョグシャトル部2−5(図7)の
シャトルリング2−51は、右または左方向それぞれ
に、例えば最大で目盛り6まで回転操作することができ
るようになされているものとする。
The shuttle ring 2-51 of the jog shuttle unit 2-5 (FIG. 7) can be rotated rightward or leftward, for example, up to the scale 6 at maximum. .

【0419】まず最初に、ステップS2−51におい
て、シャトルリング2−51が右に回転され、ステップ
S2−52に進み、ステップS2−51で右に回転され
たシャトルリング2−51が、所定の時間t秒だけ、最
大目盛り(右回転方向の最大目盛り)6で固定されたか
否かが判定される。ステップS2−52において、シャ
トルリング2−51が、所定の時間t秒だけ、最大目盛
り6で固定されなかったと判定された場合、ステップS
2−66に進む。
First, in step S2-51, the shuttle ring 2-51 is rotated to the right, the process proceeds to step S2-52, and the shuttle ring 2-51 rotated to the right in step S2-51 is rotated to the predetermined position. It is determined whether the maximum scale (maximum scale in the clockwise rotation direction) 6 is fixed for the time t seconds. If it is determined in step S2-52 that the shuttle ring 2-51 has not been fixed on the maximum scale 6 for the predetermined time t seconds, step S2-52.
Go to 2-66.

【0420】また、ステップS2−52において、シャ
トルリング2−51が、所定の時間t秒だけ、最大目盛
り6で固定されたと判定された場合、ステップS2−5
3に進み、シャトルリング2−51が、まだ最大目盛り
6で固定されているか否かが判定される。ステップS2
−53において、シャトルリング2−51が、最大目盛
り6で固定されていると判定された場合、ステップS2
−54に進み、あらかじめ登録されているインデックス
の、例えば先頭の文字だけが、辞書式順序(あいうえお
順)で、所定の数N個おきに、ディスプレイ2−7また
は音声合成装置2−6から出力される。
If it is determined in step S2-52 that the shuttle ring 2-51 has been fixed at the maximum scale 6 for the predetermined time t seconds, step S2-5.
3 and it is determined whether the shuttle ring 2-51 is still fixed on the maximum scale 6. Step S2
If it is determined in -53 that the shuttle ring 2-51 is fixed at the maximum scale 6, step S2
Proceeding to -54, only the first character of the index registered in advance is output from the display 2-7 or the speech synthesizer 2-6 in the lexicographical order (Aiueo order) at a predetermined number N. To be done.

【0421】即ち、例えばNが5で、インデックスとし
て、その先頭の文字が、「あ」のものが5つ、「い」の
ものが6、「う」のものが1つ、「え」のものが4つ、
それぞれあらかじめ登録されていた場合には、「あ、
い、い、え」のように、ディスプレイ2−7または音声
合成装置2−6から出力される。
That is, for example, when N is 5, the first character of the index is "a", five "i", six "u", and one "e". Four things,
If each is registered in advance, "Ah,
It is output from the display 2-7 or the voice synthesizer 2-6.

【0422】一方、ステップS2−53において、シャ
トルリング2−51が、目盛り6で固定されていないと
判定された場合、ステップS2−55に進み、シャトル
リング2−51が、目盛り5で固定されているか否かが
判定される。ステップS2−55において、シャトルリ
ング2−51が、目盛り5で固定されていると判定され
た場合、ステップS2−56に進み、あらかじめ登録さ
れているインデックスの、例えば先頭の文字だけが、辞
書式順序で、所定の数n(但し、n<N)個おきに、デ
ィスプレイ2−7または音声合成装置2−6から出力さ
れるようになる。
On the other hand, if it is determined in step S2-53 that the shuttle ring 2-51 is not fixed by the scale 6, the process proceeds to step S2-55, and the shuttle ring 2-51 is fixed by the scale 5. Is determined. If it is determined in step S2-55 that the shuttle ring 2-51 is fixed on the scale 5, the process proceeds to step S2-56, and only the first character of the index registered in advance is lexicographically. In order, every predetermined number n (where n <N), the display 2-7 or the voice synthesizer 2-6 outputs the data.

【0423】また、ステップS2−55において、シャ
トルリング2−51が、目盛り5で固定されていないと
判定された場合、ステップS2−57に進み、シャトル
リング2−51が、目盛り4で固定されているか否かが
判定される。ステップS2−57において、シャトルリ
ング2−51が、目盛り4で固定されていると判定され
た場合、ステップS2−58に進み、あらかじめ登録さ
れているインデックスの、例えば先頭から2文字目まで
が、辞書式順序で、所定の数M個おきに、ディスプレイ
2−7または音声合成装置2−6から出力されるように
なる。
If it is determined in step S2-55 that the shuttle ring 2-51 is not fixed on the scale 5, the process proceeds to step S2-57, and the shuttle ring 2-51 is fixed on the scale 4. Is determined. When it is determined in step S2-57 that the shuttle ring 2-51 is fixed on the scale 4, the process proceeds to step S2-58, and the index registered in advance, for example, from the beginning to the second character, In the lexicographic order, every predetermined number M, the display 2-7 or the voice synthesizer 2-6 outputs.

【0424】一方、ステップS2−57において、シャ
トルリング2−51が、目盛り4で固定されていないと
判定された場合、ステップS2−59に進み、シャトル
リング2−51が、目盛り3で固定されているか否かが
判定される。ステップS2−59において、シャトルリ
ング2−51が、目盛り3で固定されていると判定され
た場合、ステップS2−60に進み、あらかじめ登録さ
れているインデックスの、例えば先頭から2文字目まで
が、辞書式順序で、所定の数m(但し、m<M)個おき
に、ディスプレイ2−7または音声合成装置2−6から
出力されるようになる。
On the other hand, if it is determined in step S2-57 that the shuttle ring 2-51 is not fixed to the scale 4, the flow proceeds to step S2-59, where the shuttle ring 2-51 is fixed to the scale 3. Is determined. If it is determined in step S2-59 that the shuttle ring 2-51 is fixed on the scale 3, the process proceeds to step S2-60, and, for example, from the beginning to the second character of the index registered in advance, In the lexicographical order, every predetermined number m (where m <M), the data is output from the display 2-7 or the voice synthesizer 2-6.

【0425】また、ステップS2−59において、シャ
トルリング2−51が、目盛り3で固定されていないと
判定された場合、ステップS2−61に進み、シャトル
リング2−51が、目盛り2で固定されているか否かが
判定される。ステップS2−61において、シャトルリ
ング2−51が、目盛り2で固定されていると判定され
た場合、ステップS2−62に進み、あらかじめ登録さ
れているインデックスの、例えば先頭から3文字目まで
が、辞書式順序で、所定の数L個おきに、ディスプレイ
2−7または音声合成装置2−6から出力されるように
なる。
If it is determined in step S2-59 that the shuttle ring 2-51 is not fixed on the scale 3, the process proceeds to step S2-61, and the shuttle ring 2-51 is fixed on the scale 2. Is determined. When it is determined in step S2-61 that the shuttle ring 2-51 is fixed on the scale 2, the process proceeds to step S2-62, and the index registered in advance, for example, from the beginning to the third character, Every predetermined number L of words are output in the lexicographic order from the display 2-7 or the voice synthesizer 2-6.

【0426】一方、ステップS2−61において、シャ
トルリング2−51が、目盛り2で固定されていないと
判定された場合、ステップS2−63に進み、シャトル
リング2−51が、目盛り1で固定されているか否かが
判定される。ステップS2−63において、シャトルリ
ング2−51が、目盛り1で固定されていると判定され
た場合、ステップS2−64に進み、あらかじめ登録さ
れているインデックスの、例えば先頭から3文字目まで
が、辞書式順序で、所定の数l(但し、l<L)個おき
に、ディスプレイ2−7または音声合成装置2−6から
出力されるようになる。
On the other hand, if it is determined in step S2-61 that the shuttle ring 2-51 is not fixed to the scale 2, the flow proceeds to step S2-63, and the shuttle ring 2-51 is fixed to the scale 1. Is determined. When it is determined in step S2-63 that the shuttle ring 2-51 is fixed on the scale 1, the process proceeds to step S2-64, and the index registered in advance, for example, from the beginning to the third character, Every predetermined number l (where l <L) in the lexicographic order, the data is output from the display 2-7 or the voice synthesizer 2-6.

【0427】また、ステップS2−63において、シャ
トルリング2−51が、目盛り1で固定されていないと
判定された場合、ステップS2−65に進み、シャトル
リング2−51が、目盛り0で固定されているか否かが
判定される。ステップS2−65において、シャトルリ
ング2−51が、目盛り0で固定されていないと判定さ
れた場合、ステップS2−53に戻り、ステップS2−
53からの処理を繰り返す。
If it is determined in step S2-63 that the shuttle ring 2-51 is not fixed at the scale 1, the flow proceeds to step S2-65, and the shuttle ring 2-51 is fixed at the scale 0. Is determined. When it is determined in step S2-65 that the shuttle ring 2-51 is not fixed at the scale 0, the process returns to step S2-53 and step S2-
The processing from 53 is repeated.

【0428】一方、ステップS2−65において、シャ
トルリング2−51が、目盛り0で固定されていると判
定された場合、即ちステップS2−51で右に回転され
たシャトルリング2−51から、例えば手が離されるな
どして、シャトルリング2−51が、目盛り0の位置に
戻った場合、ステップS2−66に進み、あらかじめ登
録されているインデックスが、例えば辞書式順序で、デ
ィスプレイ2−7または音声合成装置2−6から出力さ
れるようになる。
On the other hand, if it is determined in step S2-65 that the shuttle ring 2-51 is fixed at the scale 0, that is, from the shuttle ring 2-51 rotated right in step S2-51, for example, When the shuttle ring 2-51 returns to the position of the scale 0 due to the release of the hand or the like, the process proceeds to step S2-66, and the indexes registered in advance are displayed in the dictionary 2-7 or the display 2-7. It is output from the voice synthesizer 2-6.

【0429】その後、ステップS2−67において、シ
ャトルリング2−51が、左に回転されると、ステップ
S2−68に進み、ディスプレイ2−7または音声合成
装置2−6からのインデックスの出力が停止され、処理
を終了する。
[0429] Then, in step S2-67, when the shuttle ring 2-51 is rotated left, the process proceeds to step S2-68, and the output of the index from the display 2-7 or the voice synthesizer 2-6 is stopped. Then, the processing ends.

【0430】そして、例えばボタン部2−4(図7)の
確定ボタン2−38などが操作されると、いまディスプ
レイ2−7または音声合成装置2−6から出力されてい
るインデックスが、選択されたインデックスとして確定
される。
Then, for example, when the enter button 2-38 of the button section 2-4 (FIG. 7) is operated, the index currently output from the display 2-7 or the voice synthesizer 2-6 is selected. It is confirmed as an index.

【0431】なお、ステップS2−51で、シャトルリ
ング2−51が左に回転されることにより、ステップS
2−54,S2−56,S2−58,S2−60,S2
−62,S2−64、およびS2−66におけるインデ
ックスの出力は、辞書式順序の逆順で行われるようにな
る。また、この場合、ステップS2−67でシャトルリ
ング2−51が右に回転されることにより、ステップS
2−68において、インデックスの出力が停止されるよ
うになる。
It should be noted that, in step S2-51, the shuttle ring 2-51 is rotated counterclockwise so that step S2-51
2-54, S2-56, S2-58, S2-60, S2
The outputs of the indexes at -62, S2-64, and S2-66 are performed in the reverse order of the lexicographical order. Further, in this case, the shuttle ring 2-51 is rotated to the right in step S2-67, so that step S
At 2-68, the output of the index is stopped.

【0432】次に、図1の図書データベース5に記憶さ
せる、音声合成に用いられる発音記号情報を作成、編集
するオーサリングシステム4について説明する。
Next, the authoring system 4 for creating and editing phonetic symbol information used for voice synthesis, which is stored in the book database 5 of FIG. 1, will be described.

【0433】通常、漢字かな混じり文のデータを用いて
音声合成を行う場合、単語(特に、漢字)の読みの誤
り、アクセント付与の誤り、ポーズの位置および長さの
誤り、並びにフレーズの韻律付与の誤りを、まったくな
くすことは困難であり、また漢字かな混じり文のデータ
を作成する場合に、OCR(光学式文字読み取り装置)
などを使用したときにも、少なからず文字の読み取り誤
りが発生する。さらに、刊行物から、漢字かな混じり文
を、手入力で作成した場合にも、入力誤りが発生する。
Normally, when performing voice synthesis using data of a mixture of kanji and kana, the reading error of words (especially kanji), the error of accent addition, the error of position and length of pause, and the prosody addition of phrase. It is difficult to eliminate all the errors in the above, and when creating data of kanji and kana mixed sentences, OCR (optical character reader)
Even when using, etc., the reading error of the character occurs not a little. Further, when a kanji / kana mixed sentence is manually created from a publication, an input error occurs.

【0434】また、刊行物には、文章の他、写真、図
表、数式などが、通常は記載されており、ターミナル2
(図5)の音声合成装置2−6で、上述した朗読を行う
場合には、これらの写真、図表、数式なども文章化(テ
キスト化)しておく必要がある。
[0434] In addition, in addition to sentences, photographs, charts, mathematical formulas, etc. are usually described in the publications.
When the above-mentioned reading is performed by the speech synthesizer 2-6 (Fig. 5), it is necessary to convert these photographs, charts, mathematical formulas, etc. into text (text).

【0435】さらに、音声合成装置2−6で行われる、
朗読の合成音の出力処理は、シーケンシャルな処理なの
で、そのアクセス性を向上させるには、刊行物の概要や
キーワードだけが出力されるような、いわば早読み、さ
らには使用者が希望する部分の朗読が即座に行われるよ
うに、キーワードや目次による検索を行うことができる
ことが必要である。
[0435] Further, the speech synthesizer 2-6 performs
Since the output process of the synthetic voice of reading aloud is a sequential process, in order to improve its accessibility, it is possible to read the summary of the publication and keywords only, so to speak, so to speak, and even the part desired by the user. It is necessary to be able to search by keyword or table of contents so that reading can be done immediately.

【0436】従って、この早読みや検索を行うための情
報を作成し、刊行物のデータに含ませる必要がある。
Therefore, it is necessary to create the information for performing this quick reading and searching and to include it in the data of the publication.

【0437】そこで、オーサリングシステム4では、刊
行物から、音韻情報と韻律情報とからなる、音声合成に
適したデータとしての発音記号情報を作成し、その誤り
訂正をすることができるようになされている。さらに、
オーサリングシステム4は、刊行物に記載された写真、
図表、数式など(以下、画像情報という)を文章化(テ
キスト化)して、発音記号情報に変換し、また早読みや
検索を行うための情報(以下、それぞれ早読み情報、検
索情報という)を作成することができるようになされて
いる。
Therefore, in the authoring system 4, phonetic symbol information as data suitable for speech synthesis, which is composed of phonological information and prosodic information, can be created from the publication and the error can be corrected. There is. further,
The authoring system 4 is a photograph described in the publication,
Information for converting diagrams and mathematical expressions (hereinafter referred to as image information) into text (converted to text), phonetic symbol information, and for quick reading and searching (hereinafter referred to as quick reading information and search information, respectively) Has been made to be able to create.

【0438】図34に、オーサリングシステム4の詳細
構成を示す。テキスト入力部4−1では、種々の形式で
入力される刊行物の情報が、漢字かな混じり文のテキス
トデータに変換され、テキスト編集部4−2に出力され
る。テキスト編集部4−2では、漢字かな混じり文のテ
キストデータが、必要に応じて編集され、テキスト解析
部4−3に出力される。テキスト解析部4−3は、テキ
ストデータを自然言語処理することにより解析し、音韻
情報としての、例えば読みと、韻律情報としての、例え
ばアクセント、フレーズ、ポーズ、パワー、および発声
時間などとからなる発音記号情報を生成する。
FIG. 34 shows the detailed structure of the authoring system 4. The text input unit 4-1 converts the information about the publication, which is input in various formats, into text data of a kanji / kana mixed sentence and outputs the text data to the text editing unit 4-2. The text editing section 4-2 edits the text data of the kanji / kana mixed sentence as needed and outputs it to the text analysis section 4-3. The text analysis unit 4-3 analyzes the text data by natural language processing, and includes, for example, reading as phonological information and accents, phrases, pauses, powers, vocalization times, etc. as prosodic information. Generate phonetic symbol information.

【0439】発音記号列編集部4−5では、テキスト解
析部4−3から出力される発音記号情報(発音記号列デ
ータ)の、単語の読みの誤り、母音の無声化、無声子音
の有声化の不適切な部分(誤り)、アクセント付与の誤
り、ポーズの位置や長さの設定誤り、フレーズの韻律付
与の誤りなどが訂正され、これにより正確な合成音を合
成することができる発音記号情報とされ、図書データベ
ース5に供給されて記憶される。
In the phonetic symbol string editing unit 4-5, in the phonetic symbol information (phonetic symbol string data) output from the text analysis unit 4-3, word reading error, vowel devoicing, unvoiced consonant voiced. Incorrect parts (errors), accenting errors, pose position and length setting errors, phrase prosody addition errors, etc. have been corrected, and by this, phonetic symbol information that can synthesize an accurate synthesized voice. And is supplied to and stored in the book database 5.

【0440】早読み・本文検索情報作成部4−4は、テ
キスト入力部4−1に入力される刊行物の情報のうち、
文章以外の情報、即ち画像情報をテキスト化し、このテ
キストデータを、テキスト編集部4−2を介して、テキ
スト解析部4−3に出力する。さらに、早読み・本文検
索情報作成部4−4は、テキスト解析部4−3の解析結
果に基づいて、上述した早読み情報および検索情報を作
成する。早読み情報は、テキスト編集部4−2を介し
て、テキスト解析部3−3に出力され、そこで、発音記
号情報に変換される。また、検索情報は、制御用情報と
して、図書データベース5に出力されて記憶される。
The fast-reading / text-search-information creating unit 4-4 selects from among the information on the publications input to the text input unit 4-1.
Information other than text, that is, image information is converted into text, and this text data is output to the text analysis unit 4-3 via the text editing unit 4-2. Further, the fast-reading / text search information creation unit 4-4 creates the above-described fast-reading information and search information based on the analysis result of the text analysis unit 4-3. The fast-reading information is output to the text analysis unit 3-3 via the text editing unit 4-2, and converted into phonetic symbol information there. Further, the search information is output and stored in the book database 5 as control information.

【0441】ディスプレイ4−6は、オーサリングシス
テム4を構成する各ブロックから出力される情報(デー
タ)を表示する。キーボード4−7は、オーサリングシ
ステム4を構成する各ブロックに、コマンドや必要な情
報を与えるときに操作される。
The display 4-6 displays the information (data) output from each block constituting the authoring system 4. The keyboard 4-7 is operated when giving a command or necessary information to each block constituting the authoring system 4.

【0442】次に、図35は、図34のテキスト入力部
4−1の詳細構成を示している。テキスト入力部4−1
は、電子化テキストメディア入力部4−11,OCR4
−12、および通信回線4−13から構成される。電子
化テキストメディア入力部4−11には、出版社や新聞
社などで編集、制作された書籍、新聞、雑誌などの刊行
物のうち、電子出版化されているもののデータ(以下、
電子出版情報という)が、磁気テープや磁気ディスク、
光磁気ディスク、光ディスクなどの可搬型の記録媒体、
または通信回線を介して入力される。
Next, FIG. 35 shows the detailed structure of the text input unit 4-1 shown in FIG. Text input section 4-1
Is an electronic text media input unit 4-11, OCR4
-12 and a communication line 4-13. The electronic text media input unit 4-11 stores data of electronic publications among publications such as books, newspapers and magazines edited and produced by publishers and newspaper publishers (hereinafter,
Electronic publication information), magnetic tape or magnetic disk,
A portable recording medium such as a magneto-optical disc or an optical disc,
Alternatively, it is input via a communication line.

【0443】そして、電子化テキストメディア入力部4
−11では、電子出版情報から、刊行物の目次、概要、
見出し、本文などの文字データを、テキストデータとし
て抽出して出力する。また、電子化テキストメディア入
力部4−11は、電子出版情報から、刊行物の画像情報
を抽出し、ディスプレイ4−6(図34)に出力して表
示させる。
The electronic text media input unit 4
-11, from the electronic publication information, the table of contents, summary of the publication,
Character data such as headings and texts are extracted and output as text data. Further, the computerized text media input unit 4-11 extracts the image information of the publication from the electronic publication information and outputs it to the display 4-6 (FIG. 34) for display.

【0444】さらに、電子化テキストメディア入力部4
−11においては、電子出版情報が、TEXなどの文書
処理システムで処理されたものである場合や、ポストス
クリプト(PostScript)などのページ記述言語、より高
度な文書の構造を記述することができるSGML(Stan
dard Generalized Markup Language:汎用マークアップ
言語規約)などのようなもので表現されている場合に
は、その記述情報も抽出され、テキスト編集部4−2
(図34)およびテキスト解析部4−3を介して、早読
み・本文検索情報作成部4−4に供給されるようになさ
れている。
Furthermore, the electronic text media input unit 4
-11, SGML that can describe electronic publication information when it is processed by a document processing system such as TEX, a page description language such as PostScript, and a more advanced document structure. (Stan
dard Generalized Markup Language), the description information is also extracted, and the text editing unit 4-2 is also extracted.
(FIG. 34) and the text analysis unit 4-3, and is supplied to the quick reading / text search information creating unit 4-4.

【0445】OCR4−12では、既に紙メディアで出
版された刊行物(電子化されずに出版されている刊行
物)が、光学的に読み取られ、テキストデータとされて
出力される。通信回線4−13には、パソコン通信サー
ビスやデータベースサービスなどの情報提供サービス会
社からの刊行物のテキストデータが入力される。
In the OCR 4-12, a publication already published in a paper medium (a publication published without being digitized) is optically read and output as text data. Text data of a publication from an information providing service company such as a personal computer communication service or a database service is input to the communication line 4-13.

【0446】次に、図36は、図34のテキスト解析部
4−3の詳細構成を示している。テキスト解析部4−3
は、いわゆるテキスト音声合成方式の言語処理部に相当
し、漢字かな混じり文のテキストデータから、発音記号
情報を構成する音韻情報と韻律情報と抽出する。
Next, FIG. 36 shows the detailed structure of the text analysis unit 4-3 shown in FIG. Text analysis unit 4-3
Corresponds to a language processing unit of a so-called text-to-speech synthesis system, and extracts phonological information and prosodic information that constitute phonetic symbol information from text data of a kanji-kana mixed sentence.

【0447】テキスト解析部4−3には、テキスト編集
部4−2を介してテキスト入力部4−1または早読み・
本文検索情報作成部4−4からデータが入力されるよう
になされている。このデータは、文書構造抽出部4−3
1に入力される。
The text analysis section 4-3 has a text input section 4-1 or a quick reading / reading section via the text editing section 4-2.
Data is input from the text search information creation unit 4-4. This data is the document structure extraction unit 4-3.
Input to 1.

【0448】文書構造抽出部4−31では、入力された
データから、刊行物の目次、概要、および画像情報が抽
出され、制御情報抽出用テキスト解析部4−37に出力
される。
The document structure extraction unit 4-31 extracts the table of contents, outline, and image information of the publication from the input data and outputs it to the control information extraction text analysis unit 4-37.

【0449】この場合、入力されたデータが、TEXや
SGMLなどで記述されているときには、刊行物の目
次、概要、および画像情報を、容易に抽出することがで
きる。即ち、例えばTEXなどの文書処理システムで作
成されたデータは、図表や式などが所定のフォーマット
で表現されているので、このフォーマットに基づいて抽
出することができる。この場合、図表や式などを、その
内容を意味するテキストデータに変換することも、所定
の規則にしたがって、容易に行うことができる。
In this case, when the input data is described in TEX or SGML, the table of contents, outline and image information of the publication can be easily extracted. That is, data created by a document processing system such as TEX, for example, can be extracted based on this format, because charts and expressions are expressed in a predetermined format. In this case, it is possible to easily convert a chart, an expression, or the like into text data that means the contents according to a predetermined rule.

【0450】さらに、文書構造抽出部4−31では、入
力されたデータから、漢字かな混じり文のテキストデー
タが抽出され、形態素解析部4−32に出力される。
Further, the document structure extraction unit 4-31 extracts the text data of the kanji / kana mixed sentence from the input data and outputs it to the morpheme analysis unit 4-32.

【0451】形態素解析部4−32では、辞書4−33
にあらかじめ記憶されている単語情報や文法規則が参照
され、テキストデータが、形態素解析されることによ
り、単語に分解され、さらにその品詞が判定されて、制
御情報抽出用テキスト解析部4−37および発音記号列
生成用テキスト解析部4−34に出力される。
The morphological analysis unit 4-32 uses the dictionary 4-33.
The word information and grammatical rules stored in advance are referred to, the text data is morphologically analyzed to be decomposed into words, and the part of speech is determined, and the control information extracting text analysis unit 4-37 and It is output to the phonetic symbol string generation text analysis unit 4-34.

【0452】即ち、例えば図37(a)に示すようなテ
キストデータが入力された場合、形態素解析部4−32
からは、図37(b)に示すような単語とその品詞が、
形態素解析結果として出力される。
That is, for example, when the text data as shown in FIG. 37 (a) is input, the morpheme analysis unit 4-32
From, the word and its part of speech as shown in FIG.
It is output as a morphological analysis result.

【0453】発音記号列生成用テキスト解析部4−34
では、まず読み情報設定部4−35において、単語の読
みの付与、母音の長音化、母音の無声化、および無声子
音の有声化などが、辞書4−33を参照しながら行われ
る。
Phonetic symbol string generation text analysis unit 4-34
Then, first, in the reading information setting unit 4-35, addition of a word reading, vowel lengthening, vowel devoicing, unvoiced consonant voicing, and the like are performed with reference to the dictionary 4-33.

【0454】そして、韻律情報設定部4−36におい
て、文節の同定および文節間の関係の抽出などが行わ
れ、さらに韻律情報として文のフレーズ情報、アクセン
ト位置、音素パワー、音素継続時間、およびポーズの位
置や長さなどが、辞書4−33を参照しながら決定され
る。
Then, the prosodic information setting unit 4-36 identifies the clauses and extracts the relation between the clauses, and further, as prosodic information, the phrase information of the sentence, the accent position, the phoneme power, the phoneme duration, and the pause. The position, length, etc. are determined with reference to the dictionary 4-33.

【0455】ここで、図37に、読み情報設定部4−3
5および韻律情報設定部4−36のより詳細な構成を示
す。同図に示すように、読み情報設定部4−35は、発
音付与部4−51より構成され、また韻律情報設定部4
−36は、単語アクセント設定部4−61、文節の同定
部4−62、文節間情報抽出部4−63、ポーズ設定部
4−64、フレーズ情報設定部4−65、およびアクセ
ント情報設定部4−66より構成される。
Here, in FIG. 37, the reading information setting section 4-3.
5 and a more detailed configuration of the prosody information setting unit 4-36. As shown in the figure, the reading information setting unit 4-35 includes a pronunciation giving unit 4-51, and the prosody information setting unit 4-5.
Reference numeral -36 is a word accent setting unit 4-61, a phrase identifying unit 4-62, an inter-phrase information extracting unit 4-63, a pose setting unit 4-64, a phrase information setting unit 4-65, and an accent information setting unit 4. -66.

【0456】発音付与部4−51は、辞書4−33(図
36)を参照し、形態素解析部4−32からの単語に読
み(発音)を付加して、さらに母音の長音化などの処理
を施し、韻律情報設定部4−36の単語アクセント設定
部4−61に出力する。単語アクセント設定部4−61
では、辞書4−33(図36)に記憶されている情報
(単語アクセントの情報)が参照され、発音付与部4−
51から出力された単語の読みの、基本的なアクセント
(単語が、それ一つだけで発声される場合のアクセン
ト)が決定される。
The pronunciation imparting unit 4-51 refers to the dictionary 4-33 (FIG. 36), adds a reading (pronunciation) to the word from the morphological analysis unit 4-32, and further performs processing such as vowel lengthening. Is output to the word accent setting unit 4-61 of the prosody information setting unit 4-36. Word accent setting unit 4-61
Then, the information (word accent information) stored in the dictionary 4-33 (FIG. 36) is referred to, and the pronunciation imparting unit 4-
The basic accent (accent when a word is uttered by itself) of the reading of the word output from 51 is determined.

【0457】図37(b)の形態素解析結果に、読みと
基本的なアクセントが付加された結果を、図37(c)
に示す。なお、図37(c)において、読みはローマ字
で示してある。また、記号「’」、「@」、「$」、
「X」、「Q」は、アクセントの位置、無声化、促音、
撥音、鼻濁音をそれぞれ意味する。例えば、図37
(c)の最上行の、先頭から2番目のカッコ(本人 普
通名詞 HO’XNIX)は、単語「本人」の品詞が
「普通名詞」で、読みが「HO’XNIX」(ほんに
ん)であり、そのアクセントが「HO」(ほ)にあるこ
とを示している。
The result obtained by adding reading and basic accents to the morphological analysis result of FIG. 37 (b) is shown in FIG. 37 (c).
Shown in. In addition, in FIG. 37 (c), the readings are shown in Roman letters. Also, the symbols "'", "@", "$",
"X" and "Q" are accent positions, devoicing, consonants,
Means sound repellency and nasal drip. For example, in FIG.
In the second parenthesis in the top line of (c) (the person's ordinary noun HO'XNIX), the part of speech of the word "person" is "ordinary noun", and the reading is "HO'XNIX" (genuine). Yes, it indicates that the accent is in “HO”.

【0458】読みと基本的なアクセントの付加結果(図
37(c))は、アクセント情報設定部4−66に出力
される。
The reading and basic accent addition results (FIG. 37 (c)) are output to the accent information setting unit 4-66.

【0459】図38に戻り、韻律情報設定部4−36の
文節の同定部4−62には、読み情報設定部4−35を
介して形態素解析結果(図37(b))が入力される。
文節の同定部4−62では、形態素解析結果(図37
(b))から文節が同定される。即ち、単語が、その品
詞に基づいて接続され、これにより図37(a)に示す
テキストデータの文節が、図37(d)に示すように同
定される。
Returning to FIG. 38, the morphological analysis result (FIG. 37 (b)) is input to the phrase identifying unit 4-62 of the prosody information setting unit 4-36 via the reading information setting unit 4-35. .
In the phrase identifying unit 4-62, the morphological analysis result (see FIG.
The paragraph is identified from (b)). That is, the words are connected based on their part of speech, whereby the clause of the text data shown in FIG. 37 (a) is identified as shown in FIG. 37 (d).

【0460】この文節の同定結果は、文節間情報抽出部
4−63に出力され、そこで、文節間の関係に基づい
て、例えば図37(e)に示すように、文節がまとめら
れ(図37(e)においては、まとめられた文節をカッ
コ()でくくって示している)、ポーズ設定部4−64
に出力される。ポーズ設定部4−64では、文節の間に
挿入されるポーズの位置および長さが設定される。即
ち、ポーズが挿入される可能性があるのは、図37
(e)に示すカッコの外側の位置のうちの閉じカッコの
直後なので、ポーズ設定部4−64は、例えばモーラ数
などに基づいて、ポーズの位置が決定される。
The bunsetsu identification result is output to the bunsetsu inter-segment information extraction unit 4-63, where the bunsetsu is grouped based on the relation between the bunsetsus, for example, as shown in FIG. In (e), the collected clauses are shown in parentheses ()), the pose setting unit 4-64
Is output to. The pose setting unit 4-64 sets the position and length of the pose inserted between the clauses. That is, there is a possibility that a pose is inserted in FIG.
Immediately after the closing bracket among the positions outside the bracket shown in (e), the pose setting unit 4-64 determines the position of the pose based on, for example, the number of mora.

【0461】文節がまとめられたテキストデータ(図3
7(e))に対し、ポーズの設定が行われて得られた結
果を、図37(f)に示す。なお、図37(f)では、
ポーズをスラッシュ「/」で表している。
Text data in which phrases are collected (see FIG. 3)
FIG. 37 (f) shows the result obtained by setting the pose for 7 (e)). Note that in FIG. 37 (f),
Pose is represented by slash "/".

【0462】ポーズの設定が行われたテキストデータ
(図37(f))は、フレーズ情報設定部4−65に出
力される。フレーズ情報設定部4−65では、テキスト
データの文節間の関係から、文の構造が求められ、この
文の構造に基づいて、文中のフレーズ(フレーズ情報)
が設定される。なお、フレーズ情報は、音声合成の際
に、例えばピッチパターンなどを決めるのに用いられ
る。
The text data for which the pose has been set (FIG. 37 (f)) is output to the phrase information setting section 4-65. In the phrase information setting unit 4-65, the structure of the sentence is obtained from the relation between the clauses of the text data, and the phrase (phrase information) in the sentence is calculated based on the structure of the sentence.
Is set. The phrase information is used for deciding a pitch pattern, for example, during voice synthesis.

【0463】フレーズが設定されたテキストデータは、
アクセント情報設定部4−66に出力される。アクセン
ト情報設定部4−66では、単語アクセント設定部4−
61の出力(図37(c))、およびフレーズ情報設定
部4−65の出力から、図37(g)に示すような発音
記号情報(発音記号列)が生成され、発音記号列編集部
4−5(図34)を介して図書データベース5に出力さ
れる。ここで、図37(g)においては、ポーズを「P
AU」で示してある。
The text data in which the phrase is set is
It is output to the accent information setting unit 4-66. In the accent information setting unit 4-66, the word accent setting unit 4-66.
The phonetic symbol information (phonetic symbol string) as shown in FIG. 37 (g) is generated from the output of 61 (FIG. 37 (c)) and the output of the phrase information setting unit 4-65. -5 (FIG. 34) is output to the book database 5. Here, in FIG. 37 (g), the pose is "P
AU ".

【0464】なお、このときフレーズ情報設定部4−6
5は、フレーズや複合した語のアクセント移動規則に基
づいて、フレーズ中のアクセントの位置も決定する。即
ち、単語どうしが接続されて文となると、その文中で単
語が発話される場合と、その単語が独立で発話される場
合とで、単語のアクセントの位置が変化する場合がある
ので、アクセント情報設定部4−66では、このアクセ
ント位置の変化に対応する、いわば補正が行われる。
At this time, the phrase information setting section 4-6
5 also determines the position of the accent in the phrase based on the accent movement rule of the phrase and the compound word. That is, when words are connected to form a sentence, the position of the accent of the word may change depending on whether the word is uttered in the sentence or when the word is uttered independently. In the setting unit 4-66, so to speak, a correction corresponding to the change in the accent position is performed.

【0465】図36に戻り、テキスト解析部4−3の制
御情報抽出用テキスト解析部4−37は、目次情報抽出
部4−38、アブストラクト情報抽出部4−39、図表
・式の読み情報抽出部4−40、および本文検索用キー
ワード情報抽出部4−41から構成される。目次情報抽
出部4−38、アブストラクト情報抽出部4−39、ま
たは図表・式の読み情報抽出部4−40では、文書構造
抽出部4−31の出力から、刊行物の目次、概要、また
は画像情報が、それぞれ抽出される。
Returning to FIG. 36, the control information extracting text analyzing unit 4-37 of the text analyzing unit 4-3 includes a table of contents information extracting unit 4-38, an abstract information extracting unit 4-39, and reading information of figures and formulas. It is composed of a section 4-40 and a keyword information extraction section 4-41 for body text search. The table-of-contents information extraction unit 4-38, the abstract information extraction unit 4-39, or the figure / form reading information extraction unit 4-40 uses the output of the document structure extraction unit 4-31 to extract the table of contents, summary, or images of the publications. Information is extracted respectively.

【0466】なお、文書構造抽出部4−31に入力され
たデータが、TEXで記述されている場合には、目次情
報抽出部4−38または図表・式の読み情報抽出部4−
40において、TEXの記述に基づき、目次の構造化さ
れた制御用の情報または画像情報の構造化された制御用
の情報が、それぞれ抽出される。
When the data input to the document structure extraction unit 4-31 is described in TEX, the table of contents information extraction unit 4-38 or the figure / formula reading information extraction unit 4-38.
At 40, the structured control information of the table of contents or the structured control information of the image information is extracted based on the description of TEX, respectively.

【0467】本文検索用キーワード情報抽出部4−41
では、形態素解析部4−32の出力、即ちテキストデー
タを構成する単語とその品詞から、各品詞ごとの単語の
出現頻度が集計され、その集計値に基づき、刊行物のキ
ーワードが抽出(決定)される。
Keyword information extraction unit for text search 4-41
Then, the appearance frequency of the word for each part of speech is aggregated from the output of the morpheme analysis unit 4-32, that is, the words forming the text data and its part of speech, and the keyword of the publication is extracted (determined) based on the aggregate value. To be done.

【0468】具体的には、キーワードとして、例えば名
詞、固有名詞、自立語で出現頻度の高い語が抽出され、
抽出された単語に、キーワードであることを示す情報が
付加される。なお、これ以外のものをキーワードとする
ようにしても良い。
Specifically, as keywords, for example, nouns, proper nouns, and independent words with high frequency of occurrence are extracted.
Information indicating a keyword is added to the extracted word. Note that keywords other than these may be used as keywords.

【0469】制御用情報抽出用テキスト解析部4−37
では、以上のようにして、目次情報抽出部4−38、ア
ブストラクト情報抽出部4−39、図表・式の読み情報
抽出部4−40、または本文検索用キーワード情報抽出
部4−41によって、刊行物の目次、概要、画像情報、
またはキーワードが、それぞれ抽出されるが、刊行物の
データを表示するディスプレイ4−6の表示を見なが
ら、必要に応じて、キーボード4−7(図34)を操作
して、目次、概要、画像情報、またはキーワードを入力
するようにすることもできる。
Control Information Extraction Text Analysis Unit 4-37
Then, as described above, publication is performed by the table-of-contents information extraction unit 4-38, the abstract information extraction unit 4-39, the figure / formula reading information extraction unit 4-40, or the text search keyword information extraction unit 4-41. Table of contents, overview, image information,
Alternatively, keywords are extracted respectively, but operating the keyboard 4-7 (FIG. 34) as necessary while watching the display on the display 4-6 displaying the data of the publication, the table of contents, the outline, the image. You can also enter information or keywords.

【0470】制御用情報抽出用テキスト解析部4−37
で抽出された目次、概要、画像情報、およびキーワード
は、早読み・本文検索情報作成部4−4に出力される。
Control Information Extraction Text Analysis Unit 4-37
The table of contents, the outline, the image information, and the keywords extracted in (4) are output to the quick reading / text search information creating unit 4-4.

【0471】図39は、図34に示した早読み・本文検
索情報作成部4−4の詳細構成を示している。早読み・
本文検索情報作成部4−4は、目次作成部4−21、ア
ブストラクト作成部4−22、図表・写真・数式の読み
作成部4−23、および本文検索用キーワード作成部4
−24で構成されている。
FIG. 39 shows the detailed structure of the fast-reading / text search information creating section 4-4 shown in FIG. Quick reading
The text search information creation unit 4-4 includes a table of contents creation unit 4-21, an abstract creation unit 4-22, a figure / photograph / mathematical phonetic reading creation unit 4-23, and a text search keyword creation unit 4
-24.

【0472】目次作成部4−21、アブストラクト作成
部4−22、図表・写真・数式の読み作成部4−23、
または本文検索用キーワード作成部4−24では、テキ
スト解析部3−4(図36)の制御用情報抽出用テキス
ト解析部4−37より出力された目次、概要、画像情
報、またはキーワードが、所定のフォーマットにそれぞ
れ変換され、制御用情報として、図書データベース5に
出力されるとともに、それぞれの内容を説明するテキス
トデータに変換され、テキスト編集部4−2を介して、
テキスト解析部4−3に出力される。これにより目次、
概要、画像情報、またはキーワードそれぞれの内容を説
明するテキストデータは、発音記号情報に変換されて、
図書データベース5に記憶されることになる。
A table of contents creating section 4-21, an abstract creating section 4-22, a figure / photograph / mathematical reading creating section 4-23,
Alternatively, in the text search keyword creation unit 4-24, the table of contents, the outline, the image information, or the keyword output from the control information extraction text analysis unit 4-37 of the text analysis unit 3-4 (FIG. 36) is predetermined. Is converted into each of the formats, is output to the book database 5 as control information, and is converted into text data that describes each content, and is converted via the text editing unit 4-2.
It is output to the text analysis unit 4-3. This gives a table of contents,
Text data that explains the content of each of the outline, image information, or keywords is converted into phonetic symbol information,
It will be stored in the book database 5.

【0473】なお、早読み・本文検索情報作成部4−4
においても、テキスト解析部4−3(図36)の制御情
報抽出用テキスト解析部4−37における場合と同様
に、必要に応じて、例えば目次、概要、画像情報、また
はキーワードを抽出、作成することができない刊行物な
どに対しては、ディスプレイ4−6の表示を見ながら、
キーボード4−7(図34)を操作して、目次、概要、
画像情報、またはキーワードに対応するテキストデー
タ、制御用情報を作成するようにすることができる。
[0473] Note that the quick reading / text search information creating unit 4-4
In the same manner as in the control information extracting text analyzing unit 4-37 of the text analyzing unit 4-3 (FIG. 36), for example, a table of contents, an outline, image information, or a keyword is extracted and created as necessary. For publications that can not be done, look at the display 4-6,
Operate the keyboard 4-7 (Fig. 34) to display the table of contents, overview,
Image information, text data corresponding to a keyword, or control information can be created.

【0474】以上のようにして作成された目次によれ
ば、ターミナル2(図1)で目次の表示や朗読が行われ
る場合に、その目次のある部分を指定することによっ
て、指定された部分からの、刊行物の表示や朗読を行う
ようにすることができるようになる。また、概要(アブ
ストラクト)の表示や朗読を行うことによって、その刊
行物の内容を理解することができるようになる。さら
に、キーワードによれば、キーワードだけを表示や朗読
することによって、刊行物の内容の概略を知ることがで
きるようになる。また、キーワードを指定することによ
って、そのキーワードからの、刊行物の表示や朗読を行
うようにすることができるようになる。
According to the table of contents created as described above, when the table of contents is displayed or read aloud in Terminal 2 (FIG. 1), by designating a part with the table of contents, You will be able to display and read publications. In addition, the contents of the publication can be understood by displaying the summary and reading. Furthermore, according to the keyword, it is possible to know the outline of the content of the publication by displaying or reading the keyword only. Further, by designating a keyword, it becomes possible to display or read a publication from the keyword.

【0475】次に、図40は、図34の発音記号列編集
部4−5の詳細構成を示している。発音記号列編集部4
−5では、キーボード4−7を操作することにより、編
集機能部4−70において、テキスト解析部4−3から
出力される発音記号情報(発音記号列データ)の誤りを
訂正することができるようになされている。テキスト解
析部4−3から出力された発音記号情報や、編集機能部
4−70から出力される、誤りの訂正が行われた発音記
号情報は、ディスプレイ4−6に表示されるようになさ
れており、キーボード4−7の操作は、このディスプレ
イ4−6の表示を見て行われる。
Next, FIG. 40 shows the detailed structure of the phonetic symbol string editing unit 4-5 shown in FIG. Phonetic symbol string editor 4
In -5, by operating the keyboard 4-7, the editing function unit 4-70 can correct the error in the phonetic symbol information (phonetic symbol string data) output from the text analysis unit 4-3. Has been done. The phonetic symbol information output from the text analysis unit 4-3 and the phonetic symbol information output from the editing function unit 4-70 in which an error has been corrected are displayed on the display 4-6. The operation of the keyboard 4-7 is performed by observing the display on the display 4-6.

【0476】即ち、例えば単語の読みの誤り(例えば、
形態素の抽出誤りや、固有名詞の読みの誤り、同形異読
語の読みの誤りなど)などの訂正は、ディスプレイ4−
6の表示を見ながら、正しい読みをキーボード4−7を
操作して、編集機能部4−70に入力することにより行
われる。
That is, for example, a word reading error (for example,
Correction of morpheme extraction error, proper noun reading error, homomorphic different reading error, etc.) can be made by the display 4-
The correct reading is performed by operating the keyboard 4-7 and inputting to the editing function unit 4-70 while watching the display of 6.

【0477】なお、テキスト解析部4−3では、テキス
トデータの解析結果を一つに絞り込むことができないと
きは、即ち解析結果が曖昧なときには、解析結果が曖昧
であることを示す情報が、解析結果とともに出力される
ようになされており、この情報は、ディスプレイ4−6
に表示され、これによりオーサリングシステム4の操作
者(キーボード4−7のオペレータ)に注意を促すよう
になされている。
When the analysis result of the text data cannot be narrowed down to one, that is, when the analysis result is ambiguous, the text analysis unit 4-3 analyzes the information indicating that the analysis result is ambiguous. It is designed to be output together with the result, and this information is displayed on the display 4-6.
Is displayed on the screen, so that the operator of the authoring system 4 (the operator of the keyboard 4-7) is alerted.

【0478】さらに、テキスト解析部4−3から出力さ
れた発音記号情報や、編集機能部4−70で誤りの訂正
が行われた発音記号情報は、規則合成部4−77に出力
され、そこで、規則合成され合成音として出力されるよ
うになされている。キーボード4−7の操作は、この合
成音を聞きながらも行われる。
Further, the phonetic symbol information output from the text analysis unit 4-3 and the phonetic symbol information whose error has been corrected by the editing function unit 4-70 are output to the rule synthesizing unit 4-77, where they are output. , Is regularly synthesized and output as a synthesized sound. The operation of the keyboard 4-7 is performed while listening to the synthesized sound.

【0479】即ち、母音の無声化や有声子音[h]の有
声化の誤りの訂正は、規則合成部4−77から出力され
る合成音を聞き、不自然な部分を直すことにより行われ
る。
That is, the vowel devoicing and voiced consonant [h] voicing errors are corrected by listening to the synthetic sound output from the rule synthesizing unit 4-77 and correcting the unnatural portion.

【0480】また、音韻情報は、キーボード4−7か
ら、正しいものを容易に入力することができるが、アク
セントの位置やフレーズなどは、実際に発話してみない
と、正しいものがわかりにくい。そこで、発音記号列編
集部4−5では、編集機能部4−70における発音記号
情報(発音記号列データ)の誤りの訂正が、音声によっ
ても行うことができるようになされている。
The correct phoneme information can be easily entered from the keyboard 4-7, but it is difficult to understand the correct accent position and phrase without actually speaking. Therefore, in the phonetic symbol string editing unit 4-5, the error of the phonetic symbol information (phonetic symbol string data) in the editing function unit 4-70 can be corrected by voice.

【0481】即ち、発声された音声が、音響分析部4−
78で音響分析され、その分析結果が、韻律情報解析部
4−79に出力される。韻律情報解析部4−79では、
音響分析結果から、韻律情報が生成され、編集機能部4
−70(ポーズ訂正部4−74、アクセント訂正部4−
75、およびフレーズ訂正部4−76)に出力される。
編集機能部4−70では、誤ったポーズ、アクセント、
またはフレーズが、韻律情報解析部4−79からの韻律
情報に、例えば置き換えられることにより訂正される。
That is, the uttered voice is the acoustic analysis unit 4-
Acoustic analysis is performed at 78, and the analysis result is output to the prosody information analysis unit 4-79. In the prosody information analysis unit 4-79,
Prosody information is generated from the acoustic analysis result, and the editing function unit 4
-70 (pose correction unit 4-74, accent correction unit 4-74
75 and the phrase correction unit 4-76).
In the editing function unit 4-70, the wrong pose, accent,
Alternatively, the phrase is corrected, for example, by replacing it with the prosody information from the prosody information analysis unit 4-79.

【0482】具体的には、規則合成部4−77から出力
される合成音を聞くことによって、ポーズ、アクセン
ト、またはフレーズの不自然な部分が発見され、その部
分が、オーサリングシステム4の操作者により正しく発
声される。正しく発声された音声は、音響分析部4−7
8で音響分析される。そして、韻律情報解析部4−79
において、音響分析結果から、ピッチパターンが求めら
れ、そのピッチパターン(ピッチ周波数パターン)から
フレーズ成分やアクセント成分などが抽出される。編集
機能部4−70では、このフレーズ成分やアクセント成
分などによって、ポーズ、アクセント、またはフレーズ
の不自然な部分が訂正される。
Specifically, by listening to the synthesized sound output from the rule synthesizing unit 4-77, an unnatural portion of the pose, accent, or phrase is found, and that portion is detected by the operator of the authoring system 4. Correctly spoken by. The correctly uttered voice is the acoustic analysis unit 4-7.
Acoustic analysis at 8. Then, the prosody information analysis unit 4-79
At, a pitch pattern is obtained from the acoustic analysis result, and a phrase component, an accent component, etc. are extracted from the pitch pattern (pitch frequency pattern). The editing function unit 4-70 corrects a pose, an accent, or an unnatural part of a phrase by the phrase component or the accent component.

【0483】編集機能部4−70は、単語の読み訂正部
4−71、母音の長音化訂正部4−72、音韻の無声化
/有声化訂正部4−73、ポーズ訂正部4−74、アク
セント訂正部4−75、およびフレーズ訂正部4−76
から構成され、ぞれぞれでは、キーボード4−7の操作
や、音声分析部4−78に入力される音声に対応して、
単語(漢字やアルファベット、数字、略称など)の読
み、母音の長音化、音韻の無声化や無声化、ポーズ、ア
クセント、フレーズが訂正される。
The editing function unit 4-70 includes a word reading correction unit 4-71, a vowel lengthening correction unit 4-72, a phoneme devoicing / voicedness correction unit 4-73, and a pause correction unit 4-74. Accent correction unit 4-75 and phrase correction unit 4-76
Each of them corresponds to the operation of the keyboard 4-7 and the voice input to the voice analysis unit 4-78.
Corrects reading of words (kanji, alphabets, numbers, abbreviations, etc.), vowel lengthening, phonological devoicing and devoicing, pauses, accents, and phrases.

【0484】次に、図41乃至図48を参照して、編集
機能部4−70で行われる発音記号情報の訂正につい
て、さらに説明する。テキスト解析部4−3からの発音
記号情報は、ディスプレイ4−6において、例えば図4
1に示すように表示される。なお、図中、カッコ内は、
漢字の読みを示し、スラッシュ「/」は、アクセントを
示している。また、ハイフン「−」は、母音の長音化を
示している。
Next, referring to FIGS. 41 to 48, correction of phonetic symbol information performed by the editing function unit 4-70 will be further described. The phonetic symbol information from the text analysis unit 4-3 is displayed on the display 4-6, for example, as shown in FIG.
It is displayed as shown in 1. In the figure, the numbers in parentheses are
The kanji reading is shown, and the slash "/" shows the accent. The hyphen "-" indicates that the vowel becomes longer.

【0485】図41において、影を付してある「今日
(こ/んにち)」は、テキスト解析部4−3での解析結
果が曖昧であったこと、即ち漢字「今日」の読みが「こ
んにち」か「きょう」か不明であったことを示してい
る。
In FIG. 41, the shaded "today" means that the analysis result in the text analysis unit 4-3 was ambiguous, that is, the kanji "today" was read. It indicates that it was unknown whether "Hello" or "Today".

【0486】この場合、キーボード4−6を操作して、
「きょう」と入力すると、単語の読み訂正部4−71
で、図42(a)に示すように、「(こ/んにち)」が
「(きょう)」に訂正される。さらに、この場合、母音
の長音化訂正部4−72またはアクセント訂正部4−7
5で、「(きょう)」の長音またはアクセントの訂正が
それぞれ行われ、これにより図42(b)に示すよう
に、「(きょう)」が「(きょ/−)」に訂正される。
In this case, by operating the keyboard 4-6,
If you enter "today", the word reading correction unit 4-71
Then, as shown in FIG. 42 (a), "(ko / nichi)" is corrected to "(kyo)". Further, in this case, the vowel lengthening correction unit 4-72 or the accent correction unit 4-7.
In 5, the long sound or the accent of "(kyo)" is corrected, and thereby, "(kyo)" is corrected to "(kyo /-)" as shown in FIG. 42 (b).

【0487】また、図41に示したテキスト解析部4−
3からの発音記号情報においては、固有名詞「羽田」の
読みが、「はた」ではなく「はねだ」に誤っている。こ
の場合には、キーボード4−6を操作することにより、
「羽田(はねだ)」の部分が指示され、正しい読み「は
た」が入力されて訂正される。なお、訂正の対象となる
部分は、図42(b)に示すように、ディスプレイ4−
6において、影を付して表示されるようになされてい
る。
Also, the text analysis unit 4-shown in FIG.
In the phonetic symbol information from No. 3, the proper noun "Haneda" is read incorrectly as "Haneda" instead of "Hata." In this case, by operating the keyboard 4-6,
The "Haneda" portion is designated, and the correct reading "Hata" is input and corrected. The portion to be corrected is displayed on the display 4- as shown in FIG.
In FIG. 6, the image is displayed with a shadow.

【0488】さらに、図43は、図42(b)の発音記
号情報のうちの「米国」の読み「べいこく」における母
音の長音化の誤りが、母音の長音化訂正部4−72で訂
正され、「べ−こく」とされた様子を示している。
Furthermore, in FIG. 43, the vowel lengthening error in the vowel lengthening correction unit 4-72 indicates that the vowel lengthening error in the reading "beikoku" of "US" in the phonetic symbol information of FIG. It is shown as corrected and "become".

【0489】また、図44は、図43の発音記号情報の
うちの「した」において、「し」の母音([shi]の
うちの[i])は、通常、無声化するので、この無声化
の訂正が、音韻の無声化/有声化訂正部4−73で行わ
れた様子を示している。なお、図中、@は、無声化を示
す記号で、無声化する部分の直前に記述される。
In FIG. 44, the vowel of “shi” ([i] in [shi]) in the phonetic symbol information of FIG. 43 is usually unvoiced. It shows that the voicing correction is performed by the phoneme devoicing / voicing correction unit 4-73. In the figure, @ is a symbol indicating unvoiced, and is described immediately before the part to be unvoiced.

【0490】さらに、図45は、図44の発音記号情報
のうちの「飛行機(ひこ/−き)で」の直後には、ポー
ズを挿入した方が自然な合成音となるので、ポーズ訂正
機能部4−74において、そこにポーズが挿入された様
子を示している。なお、図中、|x|は、ポーズを示す
記号で、ポーズを挿入する位置に記述される。また、x
は、ポーズの長さに対応した数値が入れられる。
Further, in FIG. 45, a pose is inserted just after "By airplane (Hiko / -ki)" in the phonetic symbol information of FIG. Part 4-74 shows the pose being inserted there. In the figure, | x | is a symbol indicating a pose and is described at the position where the pose is inserted. Also, x
Is a number that corresponds to the length of the pose.

【0491】図46は、アクセント訂正部4−75にお
いて、図45の発音記号情報のうち、アクセントのない
(0型のアクセントの)「羽田」の読み「(はた)」
が、「は」の部分にアクセントが付されて、「(は/
た)」と訂正された(1型のアクセントに訂正された)
様子を示している。
46, in the accent correction unit 4-75, the reading "(hata)" of "Haneda" without accent (0 type accent) in the phonetic symbol information of FIG.
However, the "ha" part is accented, and "(ha /
Was corrected "(corrected to type 1 accent)
It shows the situation.

【0492】また、図47は、フレーズ訂正部4−76
において、自然な韻律パターンの合成音を得ることがで
きるように、図46の発音記号情報が、3つのフレーズ
のまとまりにされた様子を示している。なお、図
中、[、または]は、それぞれ1フレーズの始まりまた
は終わりを示す記号で、1フレーズの始まりまたは終わ
りの部分に挿入される。
Further, FIG. 47 shows the phrase correction section 4-76.
In FIG. 46, the phonetic symbol information of FIG. 46 is shown as a set of three phrases so that a synthesized sound having a natural prosody pattern can be obtained. In the figure, [or or] is a symbol indicating the beginning or end of one phrase, and is inserted at the beginning or end of one phrase.

【0493】以上のようにして、図41に示した発音記
号情報は、図48に示すような、誤りのない発音記号情
報に訂正され、図書データベース5(図34)に出力さ
れて記憶される。
As described above, the phonetic symbol information shown in FIG. 41 is corrected to the phonetic symbol information having no error as shown in FIG. 48, and is output and stored in the book database 5 (FIG. 34). .

【0494】以上のように、この情報アクセスシステム
によれば、ターミナル2(図5)において、音声認識装
置2−2、キーボード2−3、ボタン部2−4、または
ジョグシャトル部2−5の操作によって、コマンドその
他必要な情報の入力を行うことができ、さらに情報が、
音声合成装置2−6またはディスプレイ2−7から出力
されるので、身体に障害を持つ使用者でも、容易に取り
扱うことができる。
As described above, according to this information access system, in the terminal 2 (FIG. 5), the voice recognition device 2-2, the keyboard 2-3, the button section 2-4, or the jog shuttle section 2-5 is used. By operation, you can input commands and other necessary information.
Since it is output from the voice synthesizer 2-6 or the display 2-7, even a user with a physical disability can easily handle it.

【0495】また、センターシステム1からは、刊行物
の発音記号情報を得ることができるので、視覚に障害を
持つ使用者に対して、刊行物の朗読サービスを、容易に
提供することができる。
Further, since the phonetic symbol information of the publication can be obtained from the center system 1, the reading service of the publication can be easily provided to the visually impaired user.

【0496】[0496]

【発明の効果】請求項1に記載の情報アクセスシステム
によれば、データベースが、音韻情報と韻律情報を含む
発音記号情報を少なくとも記憶しており、センターシス
テムが、データベースに記憶された発音記号情報を、タ
ーミナルに送信し、ターミナルが、センターシステムか
ら送信された発音記号情報を受信する。従って、発音記
号情報に基づいて音声合成を行うことにより、合成音に
よって、データベースに記憶された情報を、使用者に提
供することができるようになる。また、この場合、発音
記号情報が送受信されるので、音声そのものが送受信さ
れる場合に比較して、送受信するデータ量が少なくて済
み、通信費を低減することができる。
According to the information access system of the first aspect, the database stores at least phonetic symbol information including phonological information and prosody information, and the center system stores the phonetic symbol information stored in the database. Is transmitted to the terminal, and the terminal receives the phonetic symbol information transmitted from the center system. Therefore, by performing the voice synthesis based on the phonetic symbol information, the information stored in the database can be provided to the user by the synthesized voice. Further, in this case, since the phonetic symbol information is transmitted / received, the amount of data to be transmitted / received is smaller than that in the case where voice itself is transmitted / received, and the communication cost can be reduced.

【0497】請求項4に記載の情報アクセスシステムに
よれば、ターミナルが、入力手段より出力されるキーワ
ードを、センターシステムに送信する。そして、センタ
ーシステムが、ターミナルから送信されたキーワードに
対応する刊行物に関する発音記号情報を、データベース
から検索し、その検索結果を、ターミナルに送信する。
従って、検索結果としての発音記号情報に基づいて音声
合成を行うことにより、合成音によって、検索された情
報を、使用者に提供することができるようになる。
According to the information access system of claim 4, the terminal sends the keyword output from the input means to the center system. Then, the center system searches the database for phonetic symbol information regarding the publication corresponding to the keyword transmitted from the terminal, and transmits the search result to the terminal.
Therefore, by performing voice synthesis based on the phonetic symbol information as the search result, it becomes possible to provide the user with the searched information by the synthesized voice.

【0498】請求項6に記載の情報アクセスシステムに
よれば、入力手段には、所望する刊行物のキーワード
が、音声によって入力され、センターシステムが、入力
手段に入力された音声を認識し、その認識結果に基づい
て、刊行物に関する発音記号情報を、データベースから
検索する。従って、キーボードなどを操作することな
く、音声によってキーワードを入力するだけで、所望す
る情報を得ることができる。
According to the information access system of claim 6, the keyword of the desired publication is input to the input means by voice, the center system recognizes the voice input to the input means, and the The database is searched for phonetic symbol information based on the recognition result. Therefore, desired information can be obtained only by inputting a keyword by voice without operating a keyboard or the like.

【0499】請求項7に記載の情報アクセスシステムに
よれば、入力手段に、複数のキーワードが、音声によっ
て入力された場合、音声認識手段が、その複数のキーワ
ードそれぞれの音声認識結果の組み合わせがあり得るか
否かを判定し、その判定結果に基づいて、複数のキーワ
ードそれぞれの音声認識結果を出力する。従って、誤認
識率を低減することができる。
According to the information access system of claim 7, when a plurality of keywords are input to the input means by voice, the voice recognition means has a combination of voice recognition results of the plurality of keywords. It is determined whether or not to obtain, and the voice recognition result of each of the plurality of keywords is output based on the determination result. Therefore, the false recognition rate can be reduced.

【0500】請求項11に記載の情報アクセスシステム
によれば、音声合成手段より出力される合成音の所定の
位置にマークを付加する。そして、音声合成手段が、マ
ークが付加された位置から、合成音を再合成して出力す
る。従って、所望する部分の合成音を即座に得ることが
できる。
According to the information access system of the eleventh aspect, a mark is added to a predetermined position of the synthetic sound output from the voice synthesizing means. Then, the voice synthesizing unit re-synthesizes the synthetic voice from the position where the mark is added and outputs the synthesized voice. Therefore, the synthesized sound of the desired portion can be immediately obtained.

【0501】請求項12に記載の情報アクセスシステム
によれば、ターミナルで、音声入力手段に入力された音
声が音響分析され、その音響分析結果が、センターシス
テムに送信される。そして、センターシステムで、ター
ミナルから送信された音響分析結果に基づいて、音声認
識が行われ、その音声認識結果に対応して、所定の処理
が行われる。従って、音声信号そのものをセンターシス
テムに送信する場合に比較して、音声の劣化を防止し、
通信量を削減することができる。さらに、この場合、タ
ーミナル側には、大規模な音声認識装置は必要ないの
で、ターミナルを小型に構成することができる。
According to the twelfth aspect of the information access system, the voice inputted to the voice input means is acoustically analyzed at the terminal, and the acoustic analysis result is transmitted to the center system. Then, in the center system, voice recognition is performed based on the acoustic analysis result transmitted from the terminal, and predetermined processing is performed corresponding to the voice recognition result. Therefore, as compared with the case where the audio signal itself is transmitted to the center system, the deterioration of the audio is prevented,
The amount of communication can be reduced. Further, in this case, since a large-scale voice recognition device is not required on the terminal side, the terminal can be made compact.

【0502】請求項13に記載の情報アクセスシステム
によれば、センター側制御手段が、センター側音声認識
手段の音声認識結果を、ターミナルに送信する。従っ
て、ターミナル側に音声認識装置を設けなくても、音声
によるターミナルの動作制御を行うことができるように
なる。
According to the information access system of the thirteenth aspect, the center side control means transmits the voice recognition result of the center side voice recognition means to the terminal. Therefore, it is possible to control the operation of the terminal by voice without providing a voice recognition device on the terminal side.

【0503】請求項16に記載の情報アクセスシステム
によれば、音声認識結果が誤っている場合、音声入力手
段には、音声が再入力され、その音声が、誤った音声認
識結果をふまえて、再度音声認識される。従って、同一
の音声に、再度誤認識されることが防止される。
According to the information access system of claim 16, when the voice recognition result is erroneous, the voice is re-input to the voice input means, and the voice is based on the erroneous voice recognition result. The voice is recognized again. Therefore, the same voice is prevented from being erroneously recognized again.

【0504】請求項17に記載の情報アクセスシステム
によれば、センター側制御手段からターミナルに送信さ
れたセンター側音声認識手段の音声認識結果に対応する
音声が合成される。従って、目が不自由な使用者でも、
音声認識結果を確認することができる。
According to the information access system of the seventeenth aspect, the voice corresponding to the voice recognition result of the center side voice recognition means transmitted from the center side control means to the terminal is synthesized. Therefore, even for visually impaired users,
You can check the voice recognition result.

【0505】請求項19に記載の情報アクセスシステム
によれば、センター側制御手段が、センター側音声認識
手段の音声認識結果に対応して、刊行物に関する情報
を、データベースから検索し、ターミナルに送信する。
従って、キーボードなどの操作をすることなく、音声に
よって、所望する情報を得ることができる。
According to the information access system of claim 19, the center side control means searches the database for information on the publication corresponding to the voice recognition result of the center side voice recognition means and sends it to the terminal. To do.
Therefore, desired information can be obtained by voice without operating a keyboard or the like.

【0506】請求項20に記載の情報アクセスシステム
によれば、ターミナルが、センター側制御手段によって
送信された刊行物に関する情報に対応する音声を合成す
る。従って、目が不自由な使用者でも、刊行物の内容を
確認することができる。
According to the information access system of claim 20, the terminal synthesizes the voice corresponding to the information on the publication transmitted by the center side control means. Therefore, even the visually impaired user can confirm the contents of the publication.

【0507】請求項33に記載の情報アクセスシステム
によれば、音声合成手段が、合成音を、所定の聴覚特性
に対応して補正する。従って、耳の不自由な使用者に対
して、聞き易い合成音を提供することができる。
According to the information access system of the thirty-third aspect, the voice synthesizing means corrects the synthesized voice in accordance with a predetermined auditory characteristic. Therefore, it is possible to provide a synthesized sound that is easy to hear to a deaf user.

【0508】請求項36に記載の記録媒体によれば、音
韻情報および韻律情報を含む発音記号情報が記録されて
いる。従って、容易に合成音を得ることができる。
According to the recording medium of the thirty-sixth aspect, phonetic symbol information including phonological information and prosody information is recorded. Therefore, the synthesized sound can be easily obtained.

【0509】請求項37に記載の情報アクセスシステム
によれば、オーサリングシステムによって、刊行物に関
する情報から発音記号情報を作成し、データベースに記
憶させることができる。従って、発音記号情報から合成
音を作成し、音声によって、刊行物の情報を、容易に提
供することができるようになる。
According to the information access system of the thirty-seventh aspect, the authoring system can generate phonetic symbol information from the information about the publication and store it in the database. Therefore, it becomes possible to easily provide the information of the publication by producing a synthetic sound from the phonetic symbol information and using the voice.

【0510】請求項39に記載の情報アクセスシステム
によれば、音声合成手段が、発音記号情報から音声を合
成するので、オーサリングシステムで作成、編集した発
音記号情報を確認することができる。
According to the information access system of the thirty-ninth aspect, since the voice synthesizing means synthesizes voice from the phonetic symbol information, it is possible to confirm the phonetic symbol information created and edited by the authoring system.

【0511】請求項47に記載の情報アクセスシステム
によれば、音声入力手段に入力された音声の韻律情報を
抽出し、この韻律情報に基づいて、解析手段の解析結果
の誤りを訂正する。従って、キーボードなどの操作をす
ることなく、音声によって、解析結果の誤りを訂正する
ことができる。
According to the 47th aspect of the information access system, the prosody information of the voice input to the voice input means is extracted, and the error of the analysis result of the analysis means is corrected based on this prosody information. Therefore, the error in the analysis result can be corrected by voice without operating the keyboard or the like.

【0512】請求項53に記載の情報アクセスシステム
によれば、早読み情報作成手段によって、刊行物を早読
みするための早読み情報が作成され、データベースに
は、早読み情報が、刊行物に関する発音記号情報ととも
に記憶される。そして、音声合成手段が、早読み情報に
基づいて、刊行物を早読みする合成音を出力する。従っ
て、刊行物の内容を、迅速に把握することができる。
According to the information access system of claim 53, the quick-reading information creating means creates the quick-reading information for quick-reading the publication, and the database contains the quick-reading information about the publication. It is stored together with phonetic symbol information. Then, the voice synthesizing unit outputs a synthetic sound for fast-reading the publication based on the fast-reading information. Therefore, the content of the publication can be quickly grasped.

【0513】請求項57に記載の情報アクセスシステム
によれば、キーワードが、刊行物の属性を表す属性デー
タであり、データベースには、属性データどうしの対応
関係並びに属性データと刊行物との対応関係を表す関係
表が記憶され、検索手段が、関係表を参照して検索を行
う。従って、迅速に検索を行うことができる。
[0513] According to the information access system of claim 57, the keyword is attribute data representing attributes of publications, and the database has a correspondence relationship between attribute data and a correspondence relationship between attribute data and publications. Is stored, and the search means searches with reference to the relationship table. Therefore, the search can be performed quickly.

【0514】請求項58に記載の情報アクセスシステム
によれば、刊行物または属性データに、それを識別する
ためのユニークな刊行物識別番号または属性識別番号が
それぞれ付され、関係表には、刊行物識別番号および属
性識別番号によって対応関係が記述される。従って、さ
らに迅速に検索を行うことができる。
According to the information access system of claim 58, the publication or attribute data is provided with a unique publication identification number or attribute identification number for identifying the publication or attribute data, and the relational table shows publications. The correspondence is described by the object identification number and the attribute identification number. Therefore, the search can be performed more quickly.

【0515】請求項59に記載の情報アクセスシステム
によれば、過去検索情報記憶手段に、過去に検索された
刊行物識別番号または属性識別番号が記憶され、検索手
段が、最初に過去検索情報記憶手段を参照して検索を行
う。従って、過去に検索したものを、再度検索する場合
には、即座に検索結果を得ることができる。
According to the information access system of claim 59, the past search information storage means stores the publication identification number or the attribute identification number searched in the past, and the search means first stores the past search information storage. Search by referring to the means. Therefore, when a search that was performed in the past is searched again, the search result can be immediately obtained.

【0516】請求項60に記載の情報アクセスシステム
によれば、検索範囲記憶手段に、検索範囲が記憶され、
検索手段が、検索範囲記憶手段に記憶された検索範囲内
において検索を行う。従って、迅速に検索を行うことが
できる。
According to the information access system of claim 60, the search range is stored in the search range storage means.
The search means performs a search within the search range stored in the search range storage means. Therefore, the search can be performed quickly.

【0517】請求項61に記載の情報アクセスシステム
によれば、検索頻度記憶手段に、検索手段によって刊行
物に関する発音記号情報が検索された頻度が記憶され、
検索手段が、検索頻度記憶手段を参照し、頻度の高い刊
行物に関する発音記号情報のグループから順次検索を行
う。従って、過去に検索された回数の多い刊行物を、即
座に検索することができる。
According to the information access system of claim 61, the search frequency storage means stores the frequency with which the search means searches for phonetic symbol information relating to the publication.
The search means refers to the search frequency storage means, and sequentially performs a search from groups of phonetic symbol information regarding publications with high frequency. Therefore, it is possible to immediately search for a publication that has been frequently searched in the past.

【0518】請求項63に記載の情報アクセスシステム
によれば、キーワード出力手段に、キーワードのうち、
先頭から所定の文字数までが、出力制御手段によって制
御されながら出力される。そして、キーワード出力手段
に出力されたキーワードのうちの所望するものが、選択
手段によって選択される。従って、所望するキーワード
を、容易に入力することができる。
According to the information access system of claim 63, in the keyword output means,
From the head to a predetermined number of characters are output while being controlled by the output control means. Then, a desired one of the keywords output to the keyword output means is selected by the selection means. Therefore, the desired keyword can be easily input.

【0519】請求項68に記載の情報アクセスシステム
によれば、センターシステムが、他のセンターシステム
とネットワークを介して接続されており、ネットワーク
制御手段によって、他のセンターシステムとの情報のや
りとりが制御される。従って、複数のセンターシステム
間で、情報の共有化を図ることができるようになる。
[0519] According to the information access system of claim 68, the center system is connected to another center system via a network, and the exchange of information with the other center system is controlled by the network control means. To be done. Therefore, it becomes possible to share information among a plurality of center systems.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の情報アクセスシステムの一実施例の全
体構成を示す図である。
FIG. 1 is a diagram showing an overall configuration of an embodiment of an information access system of the present invention.

【図2】図1のネットワーク制御部6の詳細構成を示す
図である。
FIG. 2 is a diagram showing a detailed configuration of a network control unit 6 in FIG.

【図3】図1のセンターシステム1と他のセンターシス
テム1−1乃至1−7とから構成されるネットワークを
示す図である。
FIG. 3 is a diagram showing a network composed of a center system 1 of FIG. 1 and other center systems 1-1 to 1-7.

【図4】図2のネットワーク制御部6におけるCPU6
−2の動作を説明するフローチャートである。
FIG. 4 is a CPU 6 in the network control unit 6 of FIG.
2 is a flowchart illustrating an operation of -2.

【図5】図1のターミナル2の詳細構成を示す図であ
る。
5 is a diagram showing a detailed configuration of a terminal 2 in FIG.

【図6】図5の音声認識装置2−2の詳細構成を示す図
である。
6 is a diagram showing a detailed configuration of a voice recognition device 2-2 of FIG.

【図7】図5のボタン部2−4およびジョグシャトル部
2−5の詳細構成を示す図である。
7 is a diagram showing a detailed configuration of a button section 2-4 and a jog shuttle section 2-5 in FIG.

【図8】図5の音声合成装置2−6の詳細構成を示す図
である。
8 is a diagram showing a detailed configuration of a speech synthesizer 2-6 in FIG.

【図9】図5のターミナル2において、刊行物の朗読が
行われる場合の動作を説明するフローチャートである。
FIG. 9 is a flowchart illustrating an operation when reading a publication in Terminal 2 of FIG. 5;

【図10】図5のターミナル2において、ディスプレイ
2−7に刊行物が表示される場合の動作を説明するフロ
ーチャートである。
10 is a flowchart illustrating an operation when a publication is displayed on display 2-7 in terminal 2 of FIG.

【図11】図5のターミナル2において、プリンタ2−
8から刊行物のプリントアウトが行われる場合の動作を
説明するフローチャートである。
11 is a schematic diagram illustrating a printer 2 in the terminal 2 of FIG.
8 is a flowchart illustrating an operation when printout of a publication is performed from No. 8.

【図12】図5のターミナル2において、音声記録再生
装置2−13により再生が行われる場合の動作を説明す
るフローチャートである。
12 is a flowchart illustrating an operation when reproduction is performed by the audio recording / reproducing device 2-13 in the terminal 2 of FIG.

【図13】図1の音声入力型データベース検索・送出シ
ステム3の詳細構成を示す図である。
FIG. 13 is a diagram showing a detailed configuration of a voice input type database search / transmission system 3 of FIG.

【図14】システム制御部3−3のメインの制御を説明
するフローチャートである。
FIG. 14 is a flowchart illustrating main control of a system control unit 3-3.

【図15】システム制御部3−3の制御を説明するフロ
ーチャートである。
FIG. 15 is a flowchart illustrating control of the system control unit 3-3.

【図16】図13の認識部3−4の詳細構成を示す図で
ある。
16 is a diagram showing a detailed configuration of a recognition unit 3-4 of FIG.

【図17】図16の単語認識部3−12の詳細構成を示
す図である。
17 is a diagram showing a detailed configuration of a word recognition unit 3-12 in FIG.

【図18】図16の単語認識部3−12の動作を説明す
るフローチャートである。
18 is a flowchart illustrating the operation of the word recognition unit 3-12 in FIG.

【図19】図16のディクテーション部3−13の詳細
構成を示す図である。
19 is a diagram showing a detailed configuration of the dictation unit 3-13 of FIG.

【図20】図16のディクテーション部3−13におい
てディクテーションが行われる場合の制御部3−3の動
作を説明するフローチャートである。
20 is a flowchart illustrating an operation of the control unit 3-3 when dictation is performed in the dictation unit 3-13 in FIG.

【図21】図16のディクテーション部3−13の動作
を説明するフローチャートである。
21 is a flowchart illustrating the operation of the dictation unit 3-13 of FIG.

【図22】ターミナル2において、ディクテーション部
3−13のディクテーション結果の修正が行われる場合
の動作を説明するフローチャートである。
FIG. 22 is a flowchart illustrating an operation of the terminal 2 when the dictation result of the dictation unit 3-13 is corrected.

【図23】ターミナル2において、ディクテーション部
3−13のディクテーション結果の修正が行われる場合
の動作を説明するための図である。
FIG. 23 is a diagram for explaining an operation when the dictation result of the dictation unit 3-13 is corrected in the terminal 2.

【図24】音声によりキーワードが入力されて、図書デ
ータベース5の検索が行われる場合のシステム制御部3
−3の動作を説明するフローチャートである。
FIG. 24 is a system control unit 3 when a keyword is input by voice and the book database 5 is searched.
3 is a flowchart illustrating an operation of No. -3.

【図25】図24のフローチャートに続くフローチャー
トである。
FIG. 25 is a flowchart following the flowchart of FIG. 24.

【図26】図13の検索部3−6の詳細構成を示す図で
ある。
FIG. 26 is a diagram showing a detailed configuration of a search unit 3-6 in FIG.

【図27】図1の図書データベース5の詳細構成を示す
図である。
27 is a diagram showing a detailed configuration of the book database 5 in FIG.

【図28】図27の図書データベース5に記憶されたデ
ータ形式を説明するための図である。
28 is a diagram for explaining the data format stored in the book database 5 of FIG. 27. FIG.

【図29】図26の検索制御部4−41の動作を説明す
るフローチャートである。
29 is a flowchart illustrating the operation of the search control unit 4-41 in FIG.

【図30】属性リストを示す図である。FIG. 30 is a diagram showing an attribute list.

【図31】センターシステム1において、新聞サービス
が提供される場合の動作を説明するフローチャートであ
る。
FIG. 31 is a flowchart illustrating an operation in the center system 1 when a newspaper service is provided.

【図32】図31のフローチャートのステップS3−1
43およびS3−144の処理のより詳細を説明するた
めのフローチャートである。
32 is a flow chart of FIG. 31, step S3-1.
43 is a flowchart for explaining the details of the processing of S43 and S3-144.

【図33】ジョグシャトル部2−5が操作されることに
より、あらかじめ登録されたインデックスが、ディスプ
レイ2−7または音声合成装置2−6から出力される場
合の動作を説明するフローチャートである。
FIG. 33 is a flowchart illustrating an operation when a preregistered index is output from display 2-7 or voice synthesizer 2-6 by operating jog shuttle unit 2-5.

【図34】図1のオーサリングシステム4の詳細構成を
示す図である。
34 is a diagram showing a detailed configuration of the authoring system 4 in FIG.

【図35】図34のテキスト入力部4−1の詳細構成を
示す図である。
35 is a diagram showing a detailed configuration of the text input unit 4-1 of FIG. 34.

【図36】図34のテキスト解析部4−3の詳細構成を
示す図である。
36 is a diagram showing a detailed configuration of the text analysis unit 4-3 of FIG. 34.

【図37】図34のテキスト解析部4−3の動作を説明
するための図である。
37 is a diagram for explaining the operation of the text analysis unit 4-3 of FIG. 34.

【図38】図36の発音記号列生成用テキスト解析部4
−34の詳細構成を示す図である。
FIG. 38 is a phonetic symbol string generation text analysis unit 4 of FIG. 36;
It is a figure which shows the detailed structure of -34.

【図39】図34の早読み・本文検索情報作成部4−4
の詳細構成を示す図である。
39 is a rapid reading / text search information creating unit 4-4 in FIG.
It is a figure which shows the detailed structure of.

【図40】図34の発音記号列編集部4−5の詳細構成
を示す図である。
40 is a diagram showing a detailed configuration of a phonetic symbol string editing unit 4-5 in FIG. 34.

【図41】図34の発音記号列編集部4−5の動作を説
明するための図である。
41 is a diagram for explaining the operation of the phonetic symbol string editing unit 4-5 in FIG. 34.

【図42】図34の発音記号列編集部4−5の動作を説
明するための図である。
42 is a diagram for explaining the operation of the phonetic symbol string editing unit 4-5 in FIG. 34.

【図43】図34の発音記号列編集部4−5の動作を説
明するための図である。
FIG. 43 is a diagram for explaining the operation of the pronunciation symbol string editing unit 4-5 in FIG. 34.

【図44】図34の発音記号列編集部4−5の動作を説
明するための図である。
44 is a diagram for explaining the operation of the phonetic symbol string editing unit 4-5 in FIG. 34.

【図45】図34の発音記号列編集部4−5の動作を説
明するための図である。
45 is a diagram for explaining the operation of the phonetic symbol string editing unit 4-5 in FIG. 34.

【図46】図34の発音記号列編集部4−5の動作を説
明するための図である。
FIG. 46 is a diagram for explaining the operation of the phonetic symbol string editing unit 4-5 in FIG. 34.

【図47】図34の発音記号列編集部4−5の動作を説
明するための図である。
47 is a diagram for explaining the operation of the pronunciation symbol string editing unit 4-5 in FIG. 34.

【図48】図34の発音記号列編集部4−5の動作を説
明するための図である。
48 is a diagram for explaining the operation of the phonetic symbol string editing unit 4-5 in FIG. 34.

【符号の説明】[Explanation of symbols]

1 センターシステム 2 ターミナル 3 音声入力型データベース検索・送出システム 4 オーサリングシステム 5 図書データベース 1 Center system 2 Terminal 3 Voice input type database search / transmission system 4 Authoring system 5 Book database

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G10L 3/00 561 E 9379−5H G 9379−5H (72)発明者 石井 和夫 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 岩橋 祐輔 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 加藤 靖彦 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 小川 浩明 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 表 雅則 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 渡辺 一夫 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 南野 活樹 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 浅野 康治 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G10L 3/00 561 E 9379-5H G 9379-5H (72) Inventor Kazuo Ishii Kita Shinagawa-ku, Tokyo Shinagawa 6-735 Sony Corporation (72) Inventor Yusuke Iwahashi 6-735 Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Yasuhiko Kato 6 Kita-Shinagawa, Shinagawa-ku, Tokyo Chome 7-35 In Sony Corporation (72) Inventor Hiroaki Ogawa 6-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor table Masanori 6-7 Kita-Shinagawa, Shinagawa-ku, Tokyo No. 35 Sony Corporation (72) Inventor Kazuo Watanabe 6-7 Kita-Shinagawa, Shinagawa-ku, Tokyo No. 35 Sony Corporation (72) Inventor Katsuki Minamino 6-7 Kita-Shinagawa, Shinagawa-ku, Tokyo No. 35 Sony over within Co., Ltd. (72) inventor Koji Asano Tokyo, Shinagawa-ku, Kita 6-chome No. 7 No. 35, Sony over the Corporation

Claims (69)

【特許請求の範囲】[Claims] 【請求項1】 情報を記憶したデータベースを有するセ
ンターシステムと、前記センターシステムと通信回線に
よって接続され、前記データベースの情報にアクセスす
るターミナルとからなる情報アクセスシステムにおい
て、 前記データベースは、音韻情報と韻律情報を含む発音記
号情報を少なくとも記憶しており、 前記センターシステムは、前記データベースに記憶され
た発音記号情報を、前記ターミナルに送信し、 前記ターミナルは、前記センターシステムから送信され
た前記発音記号情報を受信することを特徴とする情報ア
クセスシステム。
1. An information access system comprising a center system having a database storing information, and a terminal connected to the center system by a communication line to access information in the database, wherein the database is phonological information and prosody. At least phonetic symbol information including information is stored, the center system transmits phonetic symbol information stored in the database to the terminal, and the terminal receives the phonetic symbol information transmitted from the center system. An information access system characterized by receiving the.
【請求項2】 前記ターミナルは、前記発音記号情報か
ら音声を合成する音声合成手段を備えることを特徴とす
る請求項1に記載の情報アクセスシステム。
2. The information access system according to claim 1, wherein the terminal includes a voice synthesizing unit that synthesizes a voice from the phonetic symbol information.
【請求項3】 前記発音記号情報は、刊行物に関するも
のであることを特徴とする請求項2に記載の情報アクセ
スシステム。
3. The information access system according to claim 2, wherein the phonetic symbol information relates to a publication.
【請求項4】 前記ターミナルは、 所望する前記刊行物のキーワードを入力する入力手段を
さらに備え、 前記入力手段より出力される前記キーワードを、前記セ
ンターシステムに送信し、 前記センターシステムは、 前記ターミナルから送信された前記キーワードに対応す
る前記刊行物に関する発音記号情報を、前記データベー
スから検索する検索手段をさらに備え、 前記検索手段の検索結果を、前記ターミナルに送信する
ことを特徴とする請求項3に記載の情報アクセスシステ
ム。
4. The terminal further comprises input means for inputting a keyword of the desired publication, and transmitting the keyword output from the input means to the center system, wherein the center system includes the terminal. 4. A search unit that searches the database for phonetic symbol information corresponding to the publication that corresponds to the keyword transmitted from the database, and transmits the search result of the search unit to the terminal. Information access system described in.
【請求項5】 前記センターシステムは、前記検索手段
の検索結果である前記刊行物に関する発音記号情報のう
ち、その概要に関するものを、前記ターミナルに送信す
ることを特徴とする請求項4に記載の情報アクセスシス
テム。
5. The center system transmits, to the terminal, phonetic symbol information regarding the publication, which is a search result of the search means, regarding the outline thereof. Information access system.
【請求項6】 前記入力手段には、所望する前記刊行物
のキーワードが、音声によって入力され、 前記センターシステムは、前記入力手段に入力された前
記音声を認識する音声認識手段をさらに備え、 前記検索手段は、前記音声認識手段の認識結果に基づい
て、前記刊行物に関する発音記号情報を、前記データベ
ースから検索することを特徴とする請求項4または5に
記載の情報アクセスシステム。
6. A keyword of the desired publication is input by voice to the input means, and the center system further includes voice recognition means for recognizing the voice input to the input means. The information access system according to claim 4 or 5, wherein the search unit searches the database for phonetic symbol information regarding the publication based on a recognition result of the voice recognition unit.
【請求項7】 前記音声認識手段は、前記入力手段に、
複数の前記キーワードが、音声によって入力された場
合、その複数のキーワードそれぞれの音声認識結果の組
み合わせがあり得るか否かを判定し、その判定結果に基
づいて、前記複数のキーワードそれぞれの音声認識結果
を出力することを特徴とする請求項6に記載の情報アク
セスシステム。
7. The voice recognition means includes the input means,
When a plurality of the keywords are input by voice, it is determined whether or not there is a combination of the voice recognition results of the plurality of keywords, and based on the determination result, the voice recognition results of the plurality of keywords. 7. The information access system according to claim 6, wherein the information access system outputs.
【請求項8】 前記入力手段は、キーボード、ボタン、
ジョグダイヤル、またはシャトルリングでなることを特
徴とする請求項4に記載の情報アクセスシステム。
8. The input means comprises a keyboard, buttons,
The information access system according to claim 4, wherein the information access system comprises a jog dial or a shuttle ring.
【請求項9】 前記ターミナルは、前記発音記号情報
を、記録媒体に記録する記録手段をさらに備えることを
特徴とする請求項1乃至8のいずれかに記載の情報アク
セスシステム。
9. The information access system according to claim 1, wherein the terminal further comprises recording means for recording the phonetic symbol information on a recording medium.
【請求項10】 前記ターミナルは、前記記録媒体に記
録された前記発音記号情報を再生する再生手段をさらに
備えることを特徴とする請求項9に記載の情報アクセス
システム。
10. The information access system according to claim 9, wherein the terminal further comprises reproducing means for reproducing the phonetic symbol information recorded in the recording medium.
【請求項11】 前記ターミナルは、前記音声合成手段
より出力される合成音の所定の位置にマークを付加する
マーク付加手段をさらに備え、 前記音声合成手段は、前記マークが付加された位置か
ら、前記合成音を再合成して出力することを特徴とする
請求項2に記載の情報アクセスシステム。
11. The terminal further comprises mark adding means for adding a mark to a predetermined position of the synthesized sound output from the voice synthesizing means, and the voice synthesizing means, from the position where the mark is added, The information access system according to claim 2, wherein the synthesized voice is resynthesized and output.
【請求項12】 センターシステムと、前記センターシ
ステムと通信回線によって接続されたターミナルとから
なる情報アクセスシステムにおいて、 前記ターミナルは、 音声を入力する音声入力手段と、 前記音声入力手段に入力された音声を音響分析する音響
分析手段とを備え、 前記音響分析手段の音響分析結果を、前記センターシス
テムに送信し、 前記センターシステムは、 前記ターミナルから送信された前記音響分析手段の音響
分析結果に基づいて、音声認識を行うセンター側音声認
識手段と、 前記センター側音声認識手段の音声認識結果に対応し
て、所定の処理を行うセンター側制御手段とを備えるこ
とを特徴とする情報アクセスシステム。
12. An information access system comprising a center system and a terminal connected to the center system via a communication line, wherein the terminal is a voice input unit for inputting voice, and a voice input to the voice input unit. Acoustic analysis means for acoustic analysis of, the acoustic analysis result of the acoustic analysis means is transmitted to the center system, the center system, based on the acoustic analysis result of the acoustic analysis means transmitted from the terminal. An information access system comprising: a center side voice recognition means for performing voice recognition; and a center side control means for performing a predetermined process in response to a voice recognition result of the center side voice recognition means.
【請求項13】 前記センター側制御手段は、前記セン
ター側音声認識手段の音声認識結果を、前記ターミナル
に送信することを特徴とする請求項12に記載の情報ア
クセスシステム。
13. The information access system according to claim 12, wherein the center-side control means transmits the voice recognition result of the center-side voice recognition means to the terminal.
【請求項14】 前記センター側音声認識手段は、ディ
クテーションによって音声認識を行い、 前記ターミナルは、 前記センター側制御手段から送信された前記センター側
音声認識手段の音声認識結果のうち、誤認識された部分
を修正する音声認識結果修正手段をさらに備え、 前記音声認識結果修正手段による修正結果を、前記セン
ターシステムに送信することを特徴とする請求項13に
記載の情報アクセスシステム。
14. The center side voice recognition means performs voice recognition by dictation, and the terminal is erroneously recognized among the voice recognition results of the center side voice recognition means transmitted from the center side control means. 14. The information access system according to claim 13, further comprising voice recognition result correction means for correcting a part, and transmitting the correction result by the voice recognition result correction means to the center system.
【請求項15】 前記音声認識結果修正手段は、ジョグ
ダイヤルまたはシャトルリングでなることを特徴とする
請求項14に記載の情報アクセスシステム。
15. The information access system according to claim 14, wherein the voice recognition result correction means is a jog dial or a shuttle ring.
【請求項16】 前記センター側音声認識手段は、ディ
クテーションによって音声認識を行い、 前記センター側制御手段から送信された前記センター側
音声認識手段の音声認識結果が誤っている場合、前記音
声入力手段には、前記音声が再入力され、 前記センター側音声認識手段は、前記音声入力手段に再
入力された前記音声を、誤った前記音声認識結果をふま
えて、再度音声認識することを特徴とする請求項13に
記載の情報アクセスシステム。
16. The center side voice recognition means performs voice recognition by dictation, and when the center side voice recognition means's voice recognition result transmitted from the center side control means is incorrect, the center side voice recognition means The voice is re-input, and the center-side voice recognition unit recognizes the voice re-input to the voice input unit again based on the incorrect voice recognition result. Item 13. The information access system according to Item 13.
【請求項17】 前記ターミナルは、前記センター側制
御手段から送信された前記センター側音声認識手段の音
声認識結果に対応する音声を合成する音声合成手段をさ
らに備えることを特徴とする請求項13乃至16のいず
れかに記載の情報アクセスシステム。
17. The terminal further comprises a voice synthesizing unit for synthesizing a voice corresponding to a voice recognition result of the center side voice recognizing unit transmitted from the center side control unit. 16. The information access system according to any one of 16.
【請求項18】 前記ターミナルは、 前記音響分析手段の音響分析結果に基づいて、音声認識
を行うターミナル側音声認識手段と、 前記ターミナル側音声認識手段の音声認識結果に対応し
て、所定の処理を行うターミナル側制御手段とをさらに
備えることを特徴とする請求項12乃至17のいずれか
に記載の情報アクセスシステム。
18. The terminal performs a predetermined process corresponding to the terminal side voice recognition means for performing voice recognition based on the acoustic analysis result of the acoustic analysis means, and the voice recognition result of the terminal side voice recognition means. The information access system according to any one of claims 12 to 17, further comprising terminal-side control means for performing the above.
【請求項19】 前記センターシステムは、刊行物に関
する情報を記憶しているデータベースをさらに備え、 前記センター側制御手段は、前記センター側音声認識手
段の音声認識結果に対応して、前記刊行物に関する情報
を、前記データベースから検索し、前記ターミナルに送
信することを特徴とする請求項12に記載の情報アクセ
スシステム。
19. The center system further comprises a database that stores information about publications, and the center-side control means relates to the publications corresponding to a voice recognition result of the center-side voice recognition means. 13. The information access system according to claim 12, wherein information is retrieved from the database and transmitted to the terminal.
【請求項20】 前記ターミナルは、前記センター側制
御手段によって送信された前記刊行物に関する情報に対
応する音声を合成する音声合成手段をさらに備えること
を特徴とする請求項19に記載の情報アクセスシステ
ム。
20. The information access system according to claim 19, wherein the terminal further comprises a voice synthesizing unit that synthesizes a voice corresponding to the information on the publication transmitted by the center-side control unit. .
【請求項21】 前記ターミナルは、音声認識の対象と
なる語彙の範囲を、前記センターシステムに送信し、 前記センター側音声認識手段は、前記ターミナルから送
信された前記語彙の範囲で、音声認識を行うことを特徴
とする請求項12乃至20のいずれかに記載の情報アク
セスシステム。
21. The terminal transmits a range of vocabulary to be subjected to voice recognition to the center system, and the center-side voice recognition means performs voice recognition within the range of the vocabulary transmitted from the terminal. 21. The information access system according to claim 12, wherein the information access system is performed.
【請求項22】 前記ターミナルは、前記音響分析手段
の音響分析結果を圧縮して、前記センターシステムに送
信することを特徴とする請求項12乃至21のいずれか
に記載の情報アクセスシステム。
22. The information access system according to claim 12, wherein the terminal compresses the acoustic analysis result of the acoustic analysis means and transmits the result to the center system.
【請求項23】 前記ターミナルは、前記センター側制
御手段によって送信された前記刊行物に関する情報を出
力する点字ディスプレイまたは点字プリンタをさらに備
えることを特徴とする請求項19に記載の情報アクセス
システム。
23. The information access system according to claim 19, wherein the terminal further comprises a braille display or a braille printer that outputs information about the publication transmitted by the center-side control means.
【請求項24】 前記音声は、単語単位または音節単位
で発話されたものであることを特徴とする請求項12に
記載の情報アクセスシステム。
24. The information access system according to claim 12, wherein the voice is uttered in word units or syllable units.
【請求項25】 前記ターミナルは、前記音声合成手段
により合成された合成音を、記録媒体に記録する記録手
段をさらに備えることを特徴とする請求項2または20
に記載の情報アクセスシステム。
25. The terminal according to claim 2, further comprising recording means for recording the synthesized sound synthesized by the voice synthesizing means on a recording medium.
Information access system described in.
【請求項26】 前記ターミナルは、前記音声合成手段
が合成して出力する合成音を制御する合成音制御手段を
さらに備えることを特徴とする請求項2または20に記
載の情報アクセスシステム。
26. The information access system according to claim 2, wherein the terminal further comprises a synthetic sound control means for controlling a synthetic sound synthesized and output by the speech synthesis means.
【請求項27】 前記合成音制御手段は、前記合成音の
声質を制御することを特徴とする請求項26に記載の情
報アクセスシステム。
27. The information access system according to claim 26, wherein said synthetic voice control means controls the voice quality of said synthetic voice.
【請求項28】 前記合成音制御手段は、前記合成音の
発話速度を制御することを特徴とする請求項26に記載
の情報アクセスシステム。
28. The information access system according to claim 26, wherein the synthetic voice control means controls a speech rate of the synthetic voice.
【請求項29】 前記合成音制御手段は、前記合成音の
声の高さを制御することを特徴とする請求項26に記載
の情報アクセスシステム。
29. The information access system according to claim 26, wherein the synthesized voice control means controls a voice pitch of the synthesized voice.
【請求項30】 前記合成音制御手段は、ジョグダイヤ
ルまたはシャトルリングでなることを特徴とする請求項
26乃至29のいずれかに記載の情報アクセスシステ
ム。
30. The information access system according to claim 26, wherein the synthetic sound control means is a jog dial or a shuttle ring.
【請求項31】 前記ターミナルは、前記記録媒体に記
録された前記合成音を再生する再生手段をさらに備える
ことを特徴とする請求項25に記載の情報アクセスシス
テム。
31. The information access system according to claim 25, wherein the terminal further comprises reproducing means for reproducing the synthesized sound recorded in the recording medium.
【請求項32】 前記再生手段は、前記合成音を逆再生
することを特徴とする請求項31に記載の情報アクセス
システム。
32. The information access system according to claim 31, wherein the reproduction means reversely reproduces the synthetic sound.
【請求項33】 前記音声合成手段は、前記合成音を、
所定の聴覚特性に対応して補正する特性補正手段を備え
ることを特徴とする請求項2または20に記載の情報ア
クセスシステム。
33. The voice synthesizer outputs the synthesized voice,
21. The information access system according to claim 2, further comprising a characteristic correction unit that corrects in accordance with a predetermined auditory characteristic.
【請求項34】 前記所定の聴覚特性は、変更可能であ
ることを特徴とする請求項33に記載の情報アクセスシ
ステム。
34. The information access system according to claim 33, wherein the predetermined auditory characteristic is changeable.
【請求項35】 前記特性補正手段は、フィルタでなる
ことを特徴とする請求項33に記載の情報アクセスシス
テム。
35. The information access system according to claim 33, wherein the characteristic correction unit is a filter.
【請求項36】 音韻情報および韻律情報を含む発音記
号情報が記録されていることを特徴とする記録媒体。
36. A recording medium on which phonetic symbol information including phonological information and prosody information is recorded.
【請求項37】 前記センターシステムは、刊行物に関
する情報から前記発音記号情報を作成し、前記データベ
ースに記憶させるオーサリングシステムをさらに備える
ことを特徴とする請求項1に記載の情報アクセスシステ
ム。
37. The information access system according to claim 1, wherein the center system further comprises an authoring system that creates the phonetic symbol information from information about publications and stores the phonetic symbol information in the database.
【請求項38】 前記オーサリングシステムは、前記発
音記号情報を編集する編集手段を備えることを特徴とす
る請求項37に記載の情報アクセスシステム。
38. The information access system according to claim 37, wherein the authoring system includes an editing unit that edits the phonetic symbol information.
【請求項39】 前記オーサリングシステムは、前記発
音記号情報から音声を合成する音声合成手段を備えるこ
とを特徴とする請求項37または38に記載の情報アク
セスシステム。
39. The information access system according to claim 37, wherein the authoring system includes a voice synthesizing unit that synthesizes a voice from the phonetic symbol information.
【請求項40】 前記オーサリングシステムは、前記刊
行物のテキストデータを解析し、その解析結果に基づい
て、前記発音記号情報を生成する解析手段を備えること
を特徴とする請求項37に記載の情報アクセスシステ
ム。
40. The information according to claim 37, wherein the authoring system includes an analyzing unit that analyzes the text data of the publication and generates the phonetic symbol information based on the analysis result. Access system.
【請求項41】 前記オーサリングシステムは、前記解
析手段の解析結果に、前記刊行物のテキストデータにお
ける単語の読みの誤りがあった場合には、その単語の読
みの誤りを訂正する読み誤り訂正手段をさらに備えるこ
とを特徴とする請求項40に記載の情報アクセスシステ
ム。
41. The authoring system corrects the reading error of the word when the reading result of the word in the text data of the publication is incorrect in the analysis result of the analyzing unit. The information access system according to claim 40, further comprising:
【請求項42】 前記オーサリングシステムは、前記解
析手段の解析結果に、前記刊行物のテキストデータにお
ける母音の無声化の誤りがあった場合には、その母音の
無声化の誤りを訂正する無声化誤り訂正手段をさらに備
えることを特徴とする請求項40または41に記載の情
報アクセスシステム。
42. The authoring system, when the analysis result of the analysis means includes a vowel devoicing error in the text data of the publication, devoicing for correcting the vowel devoicing error. The information access system according to claim 40 or 41, further comprising error correction means.
【請求項43】 前記オーサリングシステムは、前記解
析手段の解析結果に、前記刊行物のテキストデータにお
ける単語のアクセントの誤りがあった場合には、その単
語のアクセントの誤りを訂正するアクセント誤り訂正手
段をさらに備えることを特徴とする請求項40乃至42
のいずれかに記載の情報アクセスシステム。
43. The accent error correction means for correcting the accent error of the word when the authoring system includes an error in the accent of the word in the text data of the publication in the analysis result of the analyzing means. 43. The method further comprising:
Information access system described in any of.
【請求項44】 前記オーサリングシステムは、前記解
析手段の解析結果に、前記刊行物のテキストデータに挿
入されるポーズの位置の誤りがあった場合には、そのポ
ーズの位置の誤りを訂正するポーズ位置誤り訂正手段を
さらに備えることを特徴とする請求項40乃至43のい
ずれかに記載の情報アクセスシステム。
44. The authoring system corrects the error in the position of the pose, if the result of analysis by the analysis unit includes an error in the position of the pose inserted in the text data of the publication. 44. The information access system according to claim 40, further comprising position error correction means.
【請求項45】 前記オーサリングシステムは、前記解
析手段の解析結果に、前記刊行物のテキストデータにお
けるフレーズの誤りがあった場合には、そのフレーズの
誤りを訂正するフレーズ誤り訂正手段をさらに備えるこ
とを特徴とする請求項40乃至44のいずれかに記載の
情報アクセスシステム。
45. The authoring system further comprises phrase error correction means for correcting an error in the phrase when the analysis result of the analysis means includes an error in the phrase in the text data of the publication. The information access system according to any one of claims 40 to 44, wherein:
【請求項46】 前記オーサリングシステムは、前記解
析手段の解析結果に、前記刊行物のテキストデータにお
ける母音の長音化の誤りがあった場合には、その母音の
長音化の誤りを訂正する長音化誤り訂正手段をさらに備
えることを特徴とする請求項40乃至45のいずれかに
記載の情報アクセスシステム。
46. The authoring system corrects an error in lengthening a vowel when the analysis result of the analyzing unit includes an error in lengthening a vowel in the text data of the publication. 46. The information access system according to claim 40, further comprising error correction means.
【請求項47】 前記オーサリングシステムは、 音声を入力する音声入力手段と、 前記音声入力手段に入力された音声の韻律情報を抽出す
る抽出手段と、 前記抽出手段により抽出された前記音声の韻律情報に基
づいて、前記解析手段の解析結果の誤りを訂正する訂正
手段とをさらに備えることを特徴とする請求項40に記
載の情報アクセスシステム。
47. The authoring system comprises: voice input means for inputting voice; extraction means for extracting prosody information of the voice input to the voice input means; prosody information of the voice extracted by the extraction means. The information access system according to claim 40, further comprising: a correction unit that corrects an error in the analysis result of the analysis unit based on the above.
【請求項48】 前記オーサリングシステムは、 前記刊行物から文字を読み取り、前記テキストデータを
生成する文字読み取り手段をさらに備えることを特徴と
する請求項40に記載の情報アクセスシステム。
48. The information access system according to claim 40, wherein the authoring system further comprises character reading means for reading characters from the publication and generating the text data.
【請求項49】 前記オーサリングシステムは、 前記文字読み取り手段の出力から音声を合成する音声合
成手段と、 前記文字読み取り手段による前記刊行物からの文字の読
み取りの誤りを、前記音声合成手段より出力される合成
音に基づいて訂正する訂正手段とをさらに備えることを
特徴とする請求項48に記載の情報アクセスシステム。
49. The authoring system includes a voice synthesizing unit for synthesizing a voice from an output of the character reading unit, and an error in reading a character from the publication by the character reading unit, output from the voice synthesizing unit. 49. The information access system according to claim 48, further comprising a correction unit that corrects based on a synthesized sound.
【請求項50】 前記オーサリングシステムは、前記刊
行物のグラフィックデータを、それを説明するテキスト
データに変換し、 前記解析手段は、前記グラフィックデータを説明するテ
キストデータをさらに解析することを特徴とする請求項
40に記載の情報アクセスシステム。
50. The authoring system converts graphic data of the publication into text data that describes the publication, and the analysis unit further analyzes the text data that describes the graphic data. The information access system according to claim 40.
【請求項51】 前記刊行物のテキストデータは、前記
刊行物の記載事項の概要に関するものを含むことを特徴
とする請求項40に記載の情報アクセスシステム。
51. The information access system according to claim 40, wherein the text data of the publication includes information related to an outline of description items of the publication.
【請求項52】 前記オーサリングシステムは、前記刊
行物の記載事項の概要を、前記刊行物のテキストデータ
として、前記解析手段に入力する概要入力手段をさらに
備えることを特徴とする請求項40に記載の情報アクセ
スシステム。
52. The authoring system according to claim 40, further comprising a summary input means for inputting a summary of description items of the publication as text data of the publication to the analysis means. Information access system.
【請求項53】 前記センターシステムは、前記刊行物
を早読みするための早読み情報を作成する早読み情報作
成手段をさらに備え、 前記データベースには、前記早読み情報が、前記刊行物
に関する発音記号情報とともに記憶され、 前記音声合成手段は、前記早読み情報に基づいて、前記
刊行物を早読みする合成音を出力することを特徴とする
請求項3に記載の情報アクセスシステム。
53. The center system further comprises a quick-reading information creating unit for creating quick-reading information for quick-reading the publication, wherein the database includes the pronunciation of the publication. 4. The information access system according to claim 3, wherein the voice synthesizing means outputs a synthetic sound for fast-reading the publication based on the fast-reading information, which is stored together with the symbol information.
【請求項54】 前記早読み情報は、前記刊行物から抽
出されたキーワードでなることを特徴とする請求項53
に記載の情報アクセスシステム。
54. The fast-reading information comprises a keyword extracted from the publication.
Information access system described in.
【請求項55】 前記早読み情報は、前記刊行物の目次
情報でなることを特徴とする請求項53に記載の情報ア
クセスシステム。
55. The information access system according to claim 53, wherein the fast-reading information is table-of-contents information of the publication.
【請求項56】 前記センターシステムは、前記刊行物
の目次情報を作成する目次作成手段をさらに備えること
を特徴とする請求項55に記載の情報アクセスシステ
ム。
56. The information access system according to claim 55, wherein the center system further comprises a table of contents creating means for creating table of contents information of the publication.
【請求項57】 前記キーワードは、前記刊行物の属性
を表す属性データであり、 前記データベースには、前記属性データどうしの対応関
係並びに前記属性データと前記刊行物との対応関係を表
す関係表が記憶され、 前記検索手段は、前記関係表を参照して検索を行うこと
を特徴とする請求項4に記載の情報アクセスシステム。
57. The keyword is attribute data representing an attribute of the publication, and the database includes a relationship table representing a correspondence relationship between the attribute data and a correspondence relationship between the attribute data and the publication. The information access system according to claim 4, wherein the information is stored, and the search unit searches by referring to the relation table.
【請求項58】 前記刊行物または属性データに、それ
を識別するためのユニークな刊行物識別番号または属性
識別番号がそれぞれ付され、 前記関係表には、前記刊行物識別番号および属性識別番
号によって前記対応関係が記述されることを特徴とする
請求項57に記載の情報アクセスシステム。
58. The publication or attribute data is provided with a unique publication identification number or attribute identification number, respectively, for identifying the publication or attribute data, and the relational table includes the publication identification number and the attribute identification number. 58. The information access system according to claim 57, wherein the correspondence is described.
【請求項59】 前記センターシステムは、過去に検索
された前記刊行物識別番号または属性識別番号を記憶す
る過去検索情報記憶手段をさらに備え、 前記検索手段は、最初に前記過去検索情報記憶手段を参
照して検索を行うことを特徴とする請求項58に記載の
情報アクセスシステム。
59. The center system further comprises past search information storage means for storing the publication identification number or the attribute identification number retrieved in the past, and the search means initially includes the past search information storage means. 59. The information access system according to claim 58, wherein the search is performed by referring to the information access system.
【請求項60】 前記センターシステムは、検索範囲を
記憶する検索範囲記憶手段をさらに備え、 前記検索手段は、前記検索範囲記憶手段に記憶された前
記検索範囲内において検索を行うことを特徴とする請求
項4に記載の情報アクセスシステム。
60. The center system further comprises search range storage means for storing a search range, wherein the search means performs a search within the search range stored in the search range storage means. The information access system according to claim 4.
【請求項61】 前記センターシステムは、前記検索手
段によって前記刊行物に関する発音記号情報が検索され
た頻度を記憶する検索頻度記憶手段を備え、 前記検索手段は、前記検索頻度記憶手段を参照し、前記
頻度の高い前記刊行物に関する発音記号情報のグループ
から順次検索を行うことを特徴とする請求項4に記載の
情報アクセスシステム。
61. The center system includes a search frequency storage unit that stores a frequency with which the phonetic symbol information regarding the publication is searched by the search unit, and the search unit refers to the search frequency storage unit, The information access system according to claim 4, wherein a search is sequentially performed from a group of phonetic symbol information relating to the publication having the high frequency.
【請求項62】 前記属性データは、音声認識されたも
のであり、 前記検索手段は、前記音声認識の結果の尤度の高い前記
属性データに対応する前記刊行物に関する発音記号情報
から順次検索を行うことを特徴とする請求項57に記載
の情報アクセスシステム。
62. The attribute data is voice-recognized, and the search means sequentially searches phonetic symbol information relating to the publication corresponding to the attribute data having a high likelihood of the result of the voice recognition. 58. The information access system according to claim 57, which is performed.
【請求項63】 前記入力手段は、 前記キーワードのうち、先頭から所定の文字数までを出
力するキーワード出力手段と、 前記キーワード出力手段からの前記キーワードの出力を
制御する出力制御手段と、 前記キーワード出力手段から出力されるキーワードのう
ちの所望するものを選択する選択手段とを備えることを
特徴とする請求項4に記載の情報アクセスシステム。
63. The input means outputs a keyword from the beginning up to a predetermined number of characters among the keywords, an output control means for controlling output of the keyword from the keyword output means, and the keyword output The information access system according to claim 4, further comprising a selection unit that selects a desired one of the keywords output from the unit.
【請求項64】 前記属性データは、前記刊行物のタイ
トル、出版社名、著者名、発行日、ページ数、または分
野であることを特徴とする請求項57に記載の情報アク
セスシステム。
64. The information access system according to claim 57, wherein the attribute data is a title of the publication, a publisher name, an author name, a publication date, the number of pages, or a field.
【請求項65】 前記ターミナルは、 緊急警戒に関する緊急放送を受信する放送受信手段と、 前記緊急警戒を知らせる報知手段とをさらに備えること
を特徴とする請求項1乃至35、または37乃至64の
いずれかに記載の情報アクセスシステム。
65. The terminal according to claim 1, further comprising broadcast receiving means for receiving an emergency broadcast regarding emergency alert, and notifying means for notifying the emergency alert. Information access system described in Crab.
【請求項66】 前記センターシステムとターミナルと
は、無線通信を行うことを特徴とする請求項1乃至3
5、または37乃至65のいずれかに記載の情報アクセ
スシステム。
66. The center system and the terminal perform wireless communication with each other.
5. The information access system according to any one of 5 and 37 to 65.
【請求項67】 前記ターミナルは、電池を電源として
動作することを特徴とする請求項1乃至35、または3
7乃至66のいずれかに記載の情報アクセスシステム。
67. The terminal according to claim 1, wherein the terminal operates with a battery as a power source.
The information access system according to any one of 7 to 66.
【請求項68】 前記センターシステムは、 他のセンターシステムとネットワークを介して接続され
ており、 前記他のセンターシステムとの情報のやりとりを制御す
るネットワーク制御手段をさらに備えることを特徴とす
る請求項1乃至35、または37乃至67のいずれかに
記載の情報アクセスシステム。
68. The center system is connected to another center system via a network, and further comprises network control means for controlling exchange of information with the other center system. The information access system according to any one of 1 to 35 or 37 to 67.
【請求項69】 前記センターシステムは、複数の前記
ターミナルと接続されることを特徴とする請求項1乃至
35、または37乃至68のいずれかに記載の情報アク
セスシステム。
69. The information access system according to any one of claims 1 to 35 or 37 to 68, wherein the center system is connected to a plurality of the terminals.
JP6001840A 1994-01-13 1994-01-13 Information access system and recording medium Pending JPH07152787A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6001840A JPH07152787A (en) 1994-01-13 1994-01-13 Information access system and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6001840A JPH07152787A (en) 1994-01-13 1994-01-13 Information access system and recording medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP05325980 Division 1993-11-30 1993-11-30

Publications (1)

Publication Number Publication Date
JPH07152787A true JPH07152787A (en) 1995-06-16

Family

ID=11512755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6001840A Pending JPH07152787A (en) 1994-01-13 1994-01-13 Information access system and recording medium

Country Status (1)

Country Link
JP (1) JPH07152787A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0973461A (en) * 1995-09-06 1997-03-18 Shinano Kenshi Co Ltd Sentence information reproducing device using voice
JPH09160595A (en) * 1995-12-04 1997-06-20 Toshiba Corp Voice synthesizing method
JPH09180093A (en) * 1995-12-25 1997-07-11 Matsushita Electric Ind Co Ltd Audio road information providing system
JPH09261758A (en) * 1996-03-19 1997-10-03 Sony Corp Communication terminal device
JPH09305193A (en) * 1996-05-13 1997-11-28 Canon Inc Method for setting accent and device therefor
JPH1083193A (en) * 1996-09-09 1998-03-31 Matsushita Electric Ind Co Ltd Speech synthesizing device and formation of phoneme
WO2000047951A1 (en) * 1999-02-09 2000-08-17 Sony Corporation Method and apparatus for information processing, and medium for information processing
JP2001069071A (en) * 1999-07-16 2001-03-16 Bayerische Motoren Werke Ag Method for wireless transmission of information between in-vehicle communication system and central computer at outside of vehicle
US6332121B1 (en) 1995-12-04 2001-12-18 Kabushiki Kaisha Toshiba Speech synthesis method
JP2002542501A (en) * 1999-02-19 2002-12-10 カスタム・スピーチ・ユーエスエイ・インコーポレーテッド Automatic transcription system and method using two speech conversion instances and computer-assisted correction
JP2005079792A (en) * 2003-08-29 2005-03-24 Toppan Forms Co Ltd Voice information providing system
WO2007055233A1 (en) * 2005-11-08 2007-05-18 Nec Corporation Speech-to-text system, speech-to-text method, and speech-to-text program
JP2008090771A (en) * 2006-10-05 2008-04-17 Hitachi Ltd Digital contents version management system
US7546241B2 (en) 2002-06-05 2009-06-09 Canon Kabushiki Kaisha Speech synthesis method and apparatus, and dictionary generation method and apparatus
JP2010160506A (en) * 1998-11-13 2010-07-22 Motorola Ltd Method and device of mitigating error in distributed speech recognition process
JP2016218881A (en) * 2015-05-25 2016-12-22 大日本印刷株式会社 Electronic library system
JP2020502571A (en) * 2016-12-14 2020-01-23 グーグル エルエルシー Facilitate the generation and playback of user-recorded audio

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0239268A (en) * 1988-07-28 1990-02-08 Shimadzu Corp Automatic questioning device
JPH02210498A (en) * 1989-02-10 1990-08-21 Ricoh Co Ltd Character communicating voice output system
JPH05181491A (en) * 1991-12-30 1993-07-23 Sony Corp Speech synthesizing device
JPH05290095A (en) * 1992-04-13 1993-11-05 N T T Data Tsushin Kk Online manual retrieval device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0239268A (en) * 1988-07-28 1990-02-08 Shimadzu Corp Automatic questioning device
JPH02210498A (en) * 1989-02-10 1990-08-21 Ricoh Co Ltd Character communicating voice output system
JPH05181491A (en) * 1991-12-30 1993-07-23 Sony Corp Speech synthesizing device
JPH05290095A (en) * 1992-04-13 1993-11-05 N T T Data Tsushin Kk Online manual retrieval device

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5822284A (en) * 1995-09-06 1998-10-13 Shinano Kenshi Kabushiki Kaisha Audio player which allows written data to be easily searched and accessed
JPH0973461A (en) * 1995-09-06 1997-03-18 Shinano Kenshi Co Ltd Sentence information reproducing device using voice
US6332121B1 (en) 1995-12-04 2001-12-18 Kabushiki Kaisha Toshiba Speech synthesis method
JPH09160595A (en) * 1995-12-04 1997-06-20 Toshiba Corp Voice synthesizing method
US7184958B2 (en) 1995-12-04 2007-02-27 Kabushiki Kaisha Toshiba Speech synthesis method
US6553343B1 (en) 1995-12-04 2003-04-22 Kabushiki Kaisha Toshiba Speech synthesis method
US6760703B2 (en) 1995-12-04 2004-07-06 Kabushiki Kaisha Toshiba Speech synthesis method
JPH09180093A (en) * 1995-12-25 1997-07-11 Matsushita Electric Ind Co Ltd Audio road information providing system
JPH09261758A (en) * 1996-03-19 1997-10-03 Sony Corp Communication terminal device
JPH09305193A (en) * 1996-05-13 1997-11-28 Canon Inc Method for setting accent and device therefor
JPH1083193A (en) * 1996-09-09 1998-03-31 Matsushita Electric Ind Co Ltd Speech synthesizing device and formation of phoneme
US8050912B1 (en) 1998-11-13 2011-11-01 Motorola Mobility, Inc. Mitigating errors in a distributed speech recognition process
JP2010160507A (en) * 1998-11-13 2010-07-22 Motorola Ltd Method and device of mitigating error in distributed speech recognition process
JP2010160506A (en) * 1998-11-13 2010-07-22 Motorola Ltd Method and device of mitigating error in distributed speech recognition process
WO2000047951A1 (en) * 1999-02-09 2000-08-17 Sony Corporation Method and apparatus for information processing, and medium for information processing
JP2010071993A (en) * 1999-02-09 2010-04-02 Sony Corp Method and apparatus for information processing, and providing medium
JP4596291B2 (en) * 1999-02-09 2010-12-08 ソニー株式会社 Information processing apparatus and method, and providing medium
US6725155B1 (en) 1999-02-09 2004-04-20 Sony Corporation Method and apparatus for information processing, and medium for information processing
JP2002542501A (en) * 1999-02-19 2002-12-10 カスタム・スピーチ・ユーエスエイ・インコーポレーテッド Automatic transcription system and method using two speech conversion instances and computer-assisted correction
JP2001069071A (en) * 1999-07-16 2001-03-16 Bayerische Motoren Werke Ag Method for wireless transmission of information between in-vehicle communication system and central computer at outside of vehicle
US7546241B2 (en) 2002-06-05 2009-06-09 Canon Kabushiki Kaisha Speech synthesis method and apparatus, and dictionary generation method and apparatus
JP2005079792A (en) * 2003-08-29 2005-03-24 Toppan Forms Co Ltd Voice information providing system
JP2007133033A (en) * 2005-11-08 2007-05-31 Nec Corp System, method and program for converting speech into text
WO2007055233A1 (en) * 2005-11-08 2007-05-18 Nec Corporation Speech-to-text system, speech-to-text method, and speech-to-text program
US8155958B2 (en) 2005-11-08 2012-04-10 Nec Corporation Speech-to-text system, speech-to-text method, and speech-to-text program
JP2008090771A (en) * 2006-10-05 2008-04-17 Hitachi Ltd Digital contents version management system
JP2016218881A (en) * 2015-05-25 2016-12-22 大日本印刷株式会社 Electronic library system
JP2020502571A (en) * 2016-12-14 2020-01-23 グーグル エルエルシー Facilitate the generation and playback of user-recorded audio

Similar Documents

Publication Publication Date Title
US6161093A (en) Information access system and recording medium
US11735162B2 (en) Text-to-speech (TTS) processing
EP3387646B1 (en) Text-to-speech processing system and method
US7149690B2 (en) Method and apparatus for interactive language instruction
EP1096472B1 (en) Audio playback of a multi-source written document
JPH07152787A (en) Information access system and recording medium
JPH11513144A (en) Interactive language training device
US20030154080A1 (en) Method and apparatus for modification of audio input to a data processing system
JP2001215993A (en) Device and method for interactive processing and recording medium
CN112466279B (en) Automatic correction method and device for spoken English pronunciation
US20070168193A1 (en) Autonomous system and method for creating readable scripts for concatenative text-to-speech synthesis (TTS) corpora
JP3270356B2 (en) Utterance document creation device, utterance document creation method, and computer-readable recording medium storing a program for causing a computer to execute the utterance document creation procedure
JP2001209644A (en) Information processor, information processing method and recording medium
JP2001117920A (en) Device and method for translation and recording medium
JP3846300B2 (en) Recording manuscript preparation apparatus and method
JP4409279B2 (en) Speech synthesis apparatus and speech synthesis program
Damper Speech technology—implications for biomedical engineering
Bristy et al. Bangla speech to text conversion using CMU sphinx
JP3060276B2 (en) Speech synthesizer
Vafaie et al. 4 Speech Recognition for Persian
Marasek et al. Multi-level annotation in SpeeCon Polish speech database
Seneff The use of subword linguistic modeling for multiple tasks in speech recognition
Zitouni et al. OrienTel: speech-based interactive communication applications for the mediterranean and the Middle East
Ito Spoken dialogue system development without speech recognition towards language revitalization
JPH11259094A (en) Regular speech synthesis device

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040224