JP2001134418A - Method and device for relaying hyper-text - Google Patents

Method and device for relaying hyper-text

Info

Publication number
JP2001134418A
JP2001134418A JP31630299A JP31630299A JP2001134418A JP 2001134418 A JP2001134418 A JP 2001134418A JP 31630299 A JP31630299 A JP 31630299A JP 31630299 A JP31630299 A JP 31630299A JP 2001134418 A JP2001134418 A JP 2001134418A
Authority
JP
Japan
Prior art keywords
hypertext
speech recognition
target word
recognition target
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP31630299A
Other languages
Japanese (ja)
Inventor
Akio Shinohara
章夫 篠原
Kuniko Moriwaki
邦子 森脇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP31630299A priority Critical patent/JP2001134418A/en
Publication of JP2001134418A publication Critical patent/JP2001134418A/en
Pending legal-status Critical Current

Links

Landscapes

  • Document Processing Apparatus (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a hyper-text relaying method and device for providing a voice controlling function based on the pronunciation of specific language even to a hyper-text described in language other than the specific language. SOLUTION: When a hyper-text is displayed at a hyper-text display device having a controlling function based on a voice, the target words of voice recognition are specified from the hyper-text, and pronunciation notation in specific language corresponding to the target words of the voice recognition is derived, and the pronunciation notation and a command for voice control are added to the hyper-text.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ネットワークから
音声制御機能付きのハイパーテキスト表示装置にハイパ
ーテキストを中継するハイパーテキスト中継方法及び装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and a device for relaying hypertext from a network to a hypertext display device having a voice control function.

【0002】[0002]

【従来の技術】近年、インターネットやイントラネット
等のコンピュータネットワークを用いて、HTMLやS
GML、XML等で記述されたハイパーテキストを受信
して表示することが有力な情報収集手段となっている。
このハイパーテキストを表示させる手段としては、一般
にブラウザと呼ばれるハイパーテキスト表示装置が用い
られており、特に音声による制御が可能なものが用いら
れることもある。
2. Description of the Related Art In recent years, a computer network such as the Internet or an intranet has been used to create HTML or S
Receiving and displaying a hypertext described in GML, XML, or the like is an effective information collecting means.
As a means for displaying the hypertext, a hypertext display device generally called a browser is used, and in particular, a device which can be controlled by voice may be used.

【0003】この音声制御機能付きのハイパーテキスト
表示装置としては、例えば、特開平10−222342
号公報に開示されているものが知られている。このハイ
パーテキスト表示装置は、HTML文書の中に記述され
た発音表記とコマンドの組を取り出し、この発音表記を
音声認識の対象語とし、認識された発音表記に対応する
コマンドを実行する機能を有している。
A hypertext display device with a voice control function is disclosed, for example, in Japanese Patent Laid-Open No. 10-222342.
What is disclosed in the gazette is known. This hypertext display device has a function of extracting a set of phonetic notation and a command described in an HTML document, using the phonetic notation as a target word for speech recognition, and executing a command corresponding to the recognized phonetic notation. are doing.

【0004】また、ブラウザの機能を強化する方法とし
て、プロキシと呼ばれる中継装置を用いる方法がある。
この中継装置は、通常、コンピュータネットワークへの
外部からのアクセスを制限するファイアウォールを迂回
するために用いられる。この中継装置に種々の機能を追
加することで、新たなサービスを提供することができ
る。例えば、特開平10−154063号公報に開示さ
れているように、ハイパーテキストに対して、音声認識
対象語を抽出し、該音声認識対象に対応するコマンドの
組を付加するものが知られている。
[0004] As a method of enhancing the function of a browser, there is a method of using a relay device called a proxy.
This relay device is usually used to bypass a firewall that restricts external access to the computer network. A new service can be provided by adding various functions to this relay device. For example, as disclosed in Japanese Patent Application Laid-Open No. H10-154063, a method is known in which a speech recognition target word is extracted from a hypertext and a command set corresponding to the speech recognition target is added. .

【0005】[0005]

【発明が解決しようとする課題】しかしながら、従来の
技術において、前記音声制御機能付きブラウザと、前記
音声コマンド付与プロキシの組み合わせでは、ユーザの
母国語以外の言語で記述されたハイパーテキストを音声
で制御することが難しいという問題がある。これは、以
下のような理由による。
However, in the prior art, in the combination of the browser with the voice control function and the voice command assignment proxy, the hypertext described in a language other than the user's native language is controlled by voice. There is a problem that it is difficult to do. This is for the following reasons.

【0006】すなわち、前記音声コマンド付与プロキシ
では、音声認識対象語に発音表記を付与するために形態
素解析を使用している。このため、母国語以外の言語で
記述されたハイパーテキストを処理することができな
い。例えば、日本語形態素解析では英語で記述されたハ
イパーテキストを処理することができない。
That is, the voice command assignment proxy uses morphological analysis to assign a phonetic notation to a speech recognition target word. Therefore, it is not possible to process a hypertext written in a language other than the native language. For example, Japanese morphological analysis cannot process hypertext written in English.

【0007】そこで、複数国語対応の形態素解析を用意
し、ハイパーテキストを処理する方法も考えられる。し
かし、この方法で処理された音声認識対象語の発音表記
は、該音声認識対象語の国語の発音表記であるため、該
国語と異なる言語を母国語とするユーザが発音が困難で
あった。例えば、ハイパーテキストが英語で記述されて
いる場合、英語の形態素解析を使用して音声認識対象語
を抽出し、これに対応する発音表記を付与しても、その
発音表記は英語の発音表記であるため、日本人のユーザ
がこの発音表記どおりに発音するのは困難である。
Therefore, a method of preparing a morphological analysis corresponding to a plurality of languages and processing a hypertext is also conceivable. However, since the phonetic notation of the speech recognition target word processed by this method is the phonetic notation of the national language of the speech recognition target word, it is difficult for a user whose native language is a language different from the national language to pronounce. For example, if the hypertext is written in English, the target words for speech recognition are extracted using morphological analysis in English, and even if a corresponding phonetic transcription is given, the phonetic transcription is the English phonetic transcription. Therefore, it is difficult for Japanese users to pronounce according to the phonetic transcription.

【0008】本発明は、上記事情に鑑みてなされたもの
であり、その目的とするところは、特定言語以外で記述
されたハイパーテキストに対しても、特定言語の発声に
よる音声制御機能を提供することができるハイパーテキ
スト中継方法及び装置を提供することにある。
The present invention has been made in view of the above circumstances, and an object thereof is to provide a voice control function by uttering a specific language even for a hypertext described in a language other than a specific language. It is an object of the present invention to provide a hypertext relay method and apparatus capable of performing the above.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するため
に、請求項1の発明では、音声制御機能を有するハイパ
ーテキスト表示装置によって指定されたハイパーテキス
トをネットワークから取得し、前記ハイパーテキスト表
示装置へ中継するハイパーテキスト中継方法において、
ハイパーテキストを中継する際に、ハイパーテキストか
ら音声認識対象語を特定し、特定した音声認識対象語が
特定言語で記述されている場合には該音声認識対象語に
対応する発音表記を導出し、特定した音声認識対象語が
特定言語以外で記述されている場合には該音声認識対象
語に対応する特定言語の発音表記を導出し、特定した音
声認識対象語に対応する前記発音表記及び前記ハイパー
テキスト表示装置における音声制御用のコマンドをハイ
パーテキストに付加することを特徴とするものを提案す
る。
In order to achieve the above object, according to the first aspect of the present invention, a hypertext designated by a hypertext display device having a voice control function is obtained from a network, and the hypertext display device is obtained. In the hypertext relay method of relaying to
When relaying the hypertext, specify a speech recognition target word from the hypertext, and when the specified speech recognition target word is described in a specific language, derive a phonetic notation corresponding to the speech recognition target word, If the specified speech recognition target word is described in a language other than the specific language, the phonetic transcription of the specific language corresponding to the speech recognition target word is derived, and the phonetic transcription and the hyper corresponding to the specified speech recognition target word are derived. We propose a feature in which a command for voice control in a text display device is added to hypertext.

【0010】本発明の原理について図1を参照して説明
する。図1は本発明の動作原理を説明する図である。図
1に示すように、音声による制御機能を有するハイパー
テキスト表示装置からハイパーテキストが指定されると
(ステップS101)、コンピュータネットワークから
指定されたハイパーテキストを取得する(ステップS1
02)。そして、ネットワーク中の経路上でハイパーテ
キストをハイパーテキスト表示装置に中継する際に、ハ
イパーテキスト内に含まれる音声認識対象語を特定し、
該音声認識対象語に対応する特定言語の発音表記及び前
記ハイパーテキスト表示装置における音声制御用のコマ
ンドをハイパーテキストに付加し(ステップS10
3)、編集されたハイパーテキストをハイパーテキスト
表示装置に中継する(ステップS104)。ここで、前
記ステップS103における発音表記の導出は、音声認
識対象語が特定言語で記述されている場合には該言語に
おける発音表記を導出し、音声認識対象語が特定言語以
外で記述されている場合にはその特定言語における発音
表記を導出する。
The principle of the present invention will be described with reference to FIG. FIG. 1 is a diagram for explaining the operation principle of the present invention. As shown in FIG. 1, when a hypertext is designated from a hypertext display device having a voice control function (step S101), the designated hypertext is obtained from a computer network (step S1).
02). Then, when relaying the hypertext to the hypertext display device on a route in the network, the speech recognition target words included in the hypertext are specified,
The phonetic notation of the specific language corresponding to the speech recognition target word and the command for speech control in the hypertext display device are added to the hypertext (step S10).
3) The edited hypertext is relayed to the hypertext display device (step S104). Here, in the derivation of the phonetic notation in the step S103, when the speech recognition target word is described in a specific language, the phonetic notation in the language is derived, and the speech recognition target word is described in a language other than the specific language. In that case, the phonetic notation in the specific language is derived.

【0011】これにより、ハイパーテキスト表示装置が
中継装置として本発明の中継方法にかかる装置を指定す
れば、該ハイパーテキスト表示装置は、要求したハイパ
ーテキストに音声認識対象に対応する特定言語の発音表
記及び音声制御用のコマンドが付加されたものを受け取
ることができる。したがって、ユーザは、ハイパーテキ
スト表示装置において、特定言語以外の言語で記述され
ているハイパーテキストであっても、特定言語風の発音
で音声制御することができる。なお、特定言語として
は、例えばユーザの母国語である。
[0011] Thus, if the hypertext display device specifies the device according to the relay method of the present invention as the relay device, the hypertext display device will add the phonetic notation of the specific language corresponding to the speech recognition target to the requested hypertext. And a command to which a voice control command is added. Therefore, the user can perform voice control on the hypertext display device with the pronunciation of a specific language even if the hypertext is written in a language other than the specific language. The specific language is, for example, the user's native language.

【0012】また、請求項2の発明では、請求項1記載
のハイパーテキスト中継方法において、特定言語が複数
ある場合には、各特定言語に対応する発音表記をそれぞ
れ導出することを特徴とするものを提案する。
According to a second aspect of the present invention, in the hypertext relay method according to the first aspect, when there are a plurality of specific languages, a phonetic transcription corresponding to each of the specific languages is derived. Suggest.

【0013】本発明によれば、特定言語が複数ある場合
には一つの音声認識対象語に対して各特定言語ごとの発
音表記が導出される。したがって、ユーザは、ハイパー
テキスト表示装置において、一つの音声認識対象に対し
て複数の特定言語のうち何れかの特定言語にかかる発音
表記を発音することで音声制御することができる。
According to the present invention, when there are a plurality of specific languages, the phonetic notation for each specific language is derived for one speech recognition target word. Therefore, the user can perform voice control on the hypertext display device by pronouncing phonetic notation in one of a plurality of specific languages for one voice recognition target.

【0014】本発明の好適な態様の一例として、請求項
3の発明では、請求項1又は2何れか1項記載のハイパ
ーテキスト中継方法において、前記音声認識対象語の特
定は、ハイパーテキストからリンクの記述を抽出し、抽
出したリンクの記述から前記音声認識対象語を特定する
ことを特徴とするものを提案する。
According to a third aspect of the present invention, in the hypertext relay method according to any one of the first to second aspects, the speech recognition target word is specified by a link from a hypertext. Is extracted, and the speech recognition target word is specified from the description of the extracted link.

【0015】また、請求項4の発明では、請求項1〜3
何れか1項記載のハイパーテキスト中継方法において、
前記音声認識対象語の特定は、形態素解析又はパターン
マッチングにより名詞と判断された語を音声認識対象語
として特定することを特徴とするものを提案する。
Further, in the invention of claim 4, according to claims 1 to 3,
The hypertext relay method according to any one of the preceding claims,
The specification of the speech recognition target word proposes that a word determined as a noun by morphological analysis or pattern matching is specified as a speech recognition target word.

【0016】さらに、請求項5の発明では、請求項1〜
4何れか1項記載のハイパーテキスト中継方法におい
て、前記発音表記の導出は、前記音声認識対象語が特定
言語以外で記述されている場合は該音声認識対象語の特
定言語への音訳処理により発音表記を導出することを特
徴とするものを提案する。
Further, according to the invention of claim 5, in claim 1 to claim 1
4. In the hypertext relay method according to any one of the above 4, the derivation of the phonetic transcription is performed by transliterating the speech recognition target word into a specific language when the speech recognition target word is described in a language other than the specific language. We propose a feature that derives the notation.

【0017】さらに、請求項6の発明では、ネットワー
ク中の経路に介在して音声制御機能を有するハイパーテ
キスト表示装置にハイパーテキストを中継するハイパー
テキスト中継装置において、前記ハイパーテキスト表示
装置から要求されたハイパーテキストを前記ネットワー
クを介して読み込む読込手段と、前記読込手段で読み込
まれたハイパーテキストに対して、該ハイパーテキスト
に含まれる音声認識対象語に対応する特定言語の発音表
記及び前記ハイパーテキスト表示装置における音声制御
用のコマンドを付加する編集手段と、前記編集手段で編
集されたハイパーテキストを前記ハイパーテキスト表示
装置に転送する転送手段とを有することを特徴とするも
のを提案する。
Further, according to the invention of claim 6, in a hypertext relay device for relaying hypertext to a hypertext display device having a voice control function via a route in a network, the hypertext relay device is requested by the hypertext display device. Reading means for reading hypertext via the network, and phonetic notation of a specific language corresponding to a speech recognition target word included in the hypertext read by the reading means and the hypertext display device And a transfer means for transferring the hypertext edited by the editing means to the hypertext display device.

【0018】本発明の原理について図2を参照して説明
する。図2は本発明の原理を説明するハイパーテキスト
中継装置の構成図である。一般的に、ハイパーテキスト
表示装置は、中継装置を指定できる機能を備えている。
本発明では、ハイパーテキスト表示装置200がこの機
能を用いて本発明にかかるハイパーテキスト中継装置1
00を指定する。まず、ハイパーテキスト表示装置20
0がハイパーテキスト中継装置100にハイパーテキス
トの要求を行うと、読込手段110によりネットワーク
300からハイパーテキストが読み込まれる。読み込ま
れたハイパーテキストは、編集手段120により、該ハ
イパーテキストに含まれる音声認識対象語に対応する特
定言語の発音表記及び前記ハイパーテキスト表示装置2
00における音声制御用のコマンドが付加される。編集
されたハイパーテキストは、転送手段130により、ハ
イパーテキスト表示装置200に転送される。
The principle of the present invention will be described with reference to FIG. FIG. 2 is a configuration diagram of a hypertext relay device for explaining the principle of the present invention. Generally, a hypertext display device has a function of designating a relay device.
According to the present invention, the hypertext display device 200 uses the hypertext relay device 1 according to the present invention by using this function.
Specify 00. First, the hypertext display device 20
When 0 requests the hypertext relay device 100 for the hypertext, the reading unit 110 reads the hypertext from the network 300. The read hypertext is edited by the editing means 120 into the phonetic notation of a specific language corresponding to the speech recognition target word included in the hypertext and the hypertext display device 2.
A command for voice control at 00 is added. The edited hypertext is transferred to the hypertext display device 200 by the transfer unit 130.

【0019】これにより、ハイパーテキスト表示装置2
00は、要求したハイパーテキストに音声認識対象に対
応する特定言語の発音表記及び音声制御用のコマンドが
付加されたものを受け取ることができる。したがって、
ユーザは、ハイパーテキスト表示装置200において、
特定言語以外の言語で記述されているハイパーテキスト
であっても、特定言語風の発音で音声制御することがで
きる。なお、特定言語としては、例えばユーザの母国語
である。
Thus, the hypertext display device 2
00 can receive the requested hypertext with the phonetic notation of the specific language corresponding to the speech recognition target and the command for voice control added. Therefore,
The user, in the hypertext display device 200,
Even a hypertext described in a language other than a specific language can be voice-controlled by pronunciation in a specific language style. The specific language is, for example, the user's native language.

【0020】また、請求項7の発明では、請求項6記載
のハイパーテキスト中継装置において、前記編集手段
は、読み込まれたハイパーテキストからリンクの記述を
抽出するリンク抽出手段と、抽出したリンクの記述から
音声認識対象語を特定する音声認識対象語特定手段と、
特定した音声認識対象語が特定言語で記述されている場
合には該音声認識対象語に対応する発音表記を導出し、
特定した音声認識対象語が特定言語以外で記述されてい
る場合には該音声認識対象語に対応する特定言語の発音
表記を導出する発音表記導出手段と、導出した前記発音
表記と前記ハイパーテキスト表示装置における音声制御
用のコマンドの組をハイパーテキストに付加する付加手
段とを備えたことを特徴とするものを提案する。
According to a seventh aspect of the present invention, in the hypertext relay device according to the sixth aspect, the editing means includes a link extracting means for extracting a description of the link from the read hypertext, and a description of the extracted link. A speech recognition target word specifying means for specifying a speech recognition target word from
If the specified speech recognition target word is described in a specific language, derive a phonetic transcription corresponding to the speech recognition target word,
When the specified speech recognition target word is described in a language other than the specific language, phonetic transcription deriving means for deriving a phonetic transcription of a specific language corresponding to the speech recognition target word, and the derived phonetic transcription and the hypertext display The present invention proposes an apparatus having an additional unit for adding a set of commands for voice control in the apparatus to hypertext.

【0021】本発明について再び図2を参照して説明す
ると、リンク抽出手段121により、読込手段110で
読み込まれたハイパーテキスト中からリンクの記述が抽
出される。そして、音声認識対象語特定手段122によ
り、前記リンクの記述から音声認識対象語が特定され
る。そして、発音表記導出手段123により、前記音声
認識対象語が特定言語で記述されている場合には、該音
声認識対象語に対応する発音表記が導出され、特定した
音声認識対象語が特定言語以外で記述されている場合に
は該音声認識対象語に対応する特定言語の発音表記が導
出される。そして、付加手段124により、前記読込手
段110で読み込まれたハイパーテキストに導出された
発音表記及びコマンドが付加される。このような動作に
より、前記請求項6に記載したハイパーテキスト中継装
置を確実に実施することができる。
Referring again to FIG. 2, the link extracting means 121 extracts the description of the link from the hypertext read by the reading means 110. Then, the target word for voice recognition specifying means 122 specifies the target word for voice recognition from the description of the link. If the phonetic recognition target word is described in a specific language, the phonetic notation deriving means 123 derives a phonetic notation corresponding to the voice recognition target word, and the specified voice recognition target word is other than the specific language. In the case of the description, the phonetic notation of the specific language corresponding to the speech recognition target word is derived. Then, the derived phonetic notation and command are added to the hypertext read by the reading means 110 by the adding means 124. By such an operation, the hypertext relay device according to claim 6 can be reliably implemented.

【0022】本発明の好適な態様の一例として、請求項
8の発明では、請求項7記載のハイパーテキスト中継装
置において、前記発音表記導出手段は、前記音声認識対
象語特定手段により特定された音声認識対象語に対し、
該音声認識対象語が前記特定語以外で記述されている場
合には音訳処理により該特定言語での発音表記を導出す
ることを特徴とするものを提案する。
As a preferred embodiment of the present invention, in the invention of claim 8, in the hypertext relay device according to claim 7, the phonetic notation deriving means includes a speech specified by the speech recognition target word specifying means. For the target words,
In the case where the speech recognition target word is described in a language other than the specific word, a phonetic translation process is used to derive a phonetic transcription in the specific language.

【0023】[0023]

【発明の実施の形態】本発明の一実施の形態にかかるハ
イパーテキスト中継装方法及び装置について図面を参照
して説明する。図3はネットワーク構成図、図4はハイ
パーテキスト中継装置の機能ブロック図である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS A hypertext relaying method and apparatus according to an embodiment of the present invention will be described with reference to the drawings. FIG. 3 is a network configuration diagram, and FIG. 4 is a functional block diagram of the hypertext relay device.

【0024】図3に示すように、ハイパーテキスト中継
装置(以下「中継装置」という。)10は、WANやL
ANなどのコンピュータネットワーク(以下「ネットワ
ーク」という。)20と、音声による制御機能を有する
ハイパーテキスト表示装置(以下「表示装置」とい
う。)30とを結ぶ通信経路上に介在する。中継装置1
0とネットワーク20とは、通信回線41を介して接続
されている。中継装置10と表示装置30とは、通信回
線42を介して接続されている。中継装置10は、表示
装置30からハイパーテキストの取得を要求されると、
表示装置30の代理としてネットワーク20に接続して
いるハイパーテキストサーバ21に接続し、該サーバ2
1よりハイパーテキストを取得し、これを表示装置30
に転送する中継機能を備えている。本発明は、ハイパー
テキストの中継時に、このハイパーテキストに対して所
定の編集を行うことを特徴としている。
As shown in FIG. 3, a hypertext relay device (hereinafter referred to as a “relay device”) 10 is a WAN or L
It is interposed on a communication path connecting a computer network (hereinafter, referred to as “network”) 20 such as an AN and a hypertext display device (hereinafter, referred to as “display device”) 30 having a voice control function. Relay device 1
0 and the network 20 are connected via a communication line 41. The relay device 10 and the display device 30 are connected via a communication line 42. When the relay device 10 is requested to acquire the hypertext from the display device 30,
The server 2 connects to the hypertext server 21 connected to the network 20 as a proxy for the display device 30.
1 and obtains the hypertext from the display device 30.
It has a relay function to transfer to The present invention is characterized in that, when relaying a hypertext, predetermined editing is performed on the hypertext.

【0025】中継装置10は、図4に示すように、ネッ
トワーク20からハイパーテキストを読み込む読込部1
1と、読み込まれたハイパーテキストを一時的に記憶す
る記憶手段であるバッファ12と、バッファ12に記憶
されているハイパーテキストを表示装置30に転送する
転送部13とを備えている。
The relay unit 10, as shown in FIG.
1, a buffer 12 as storage means for temporarily storing the read hypertext, and a transfer unit 13 for transferring the hypertext stored in the buffer 12 to the display device 30.

【0026】また、中継装置10は、バッファ12に記
憶されているハイパーテキストを編集するために、以下
の構成要素を具備している。すなわち、中継装置10
は、バッファ12に記憶されているハイパーテキストを
参照し、該ハイパーテキストに含まれているリンクの記
述を抽出するリンク抽出部14と、リンク抽出部14で
抽出されたリンクの記述を受け取り、該リンクの記述か
ら音声認識対象語を特定する音声認識対象語特定部15
と、音声認識対象語特定部15で特定された音声認識対
象語に対して発音表記を導出する発音表記導出部16
と、発音表記導出部16で導出された発音表記及び音声
制御用のコマンドをバッファ12に記憶されているハイ
パーテキストに付加する付加部17とを備えている。
The relay device 10 has the following components for editing hypertext stored in the buffer 12. That is, the relay device 10
Receives a description of the link included in the hypertext by referring to the hypertext stored in the buffer 12 and a description of the link extracted by the link extraction unit 14; A speech recognition target word specifying unit 15 for specifying a speech recognition target word from a description of a link
A phonetic notation deriving unit 16 that derives a phonetic notation for the speech recognition target word specified by the speech recognition target word specifying unit 15
And an adding unit 17 for adding the phonetic notation and voice control command derived by the phonetic notation deriving unit 16 to the hypertext stored in the buffer 12.

【0027】リンク抽出部14は、ハイパーテキスト中
に含まれるリンクの記述を抽出する。例えば、ハイパー
テキストがHTMLである場合には、<A>タグと</A>タ
グで囲まれる部位をリンクの記述として抽出する。抽出
の具体的な手法としては、例えばパターンマッチング法
や構文解析法である。
The link extracting section 14 extracts a description of a link included in the hypertext. For example, when the hypertext is HTML, a portion surrounded by <A> and </A> tags is extracted as a description of a link. Specific methods of extraction include, for example, a pattern matching method and a syntax analysis method.

【0028】音声認識対象語特定部15は、形態素解析
部18を備えている。そして、この形態素解析部18を
用いて対象となるリンクの記述に対して形態素解析を行
い、音声認識対象語を特定する。ここで、形態素解析部
18は、対象となる文章を形態素単位に区切り、得られ
た形態素のうち特定の性質を有するものを抽出する。例
えば、文章中に含まれる名詞を抽出する。これにより、
音声認識対象語特定部15は、リンクの記述に含まれる
名詞を音声認識対象語として特定する。また、形態素解
析部18は複数の言語に対応している。
The speech recognition target word specifying section 15 includes a morphological analysis section 18. Then, the morphological analysis unit 18 performs morphological analysis on the description of the target link, and specifies a speech recognition target word. Here, the morphological analysis unit 18 divides the target sentence into morpheme units, and extracts a morpheme having a specific property from the obtained morphemes. For example, nouns included in a sentence are extracted. This allows
The speech recognition target word specifying unit 15 specifies a noun included in the description of the link as a speech recognition target word. The morphological analysis unit 18 supports a plurality of languages.

【0029】発音表記導出部16は、音声認識対象語に
対して特定言語の発音表記を導出する手段である。すな
わち、この音声認識対象語が特定言語で記述されている
場合にはそのまま該語の発音表記を導出し、音声認識対
象語が特定言語で記述されている場合には音訳処理によ
り特定言語における発音表記を導出する。ここで、導出
する発音表記は、表示装置30の音声制御機能で処理で
きる表記方法で記述される。
The phonetic notation deriving unit 16 is a means for deriving a phonetic notation in a specific language for a word to be recognized. That is, if the target speech recognition word is described in a specific language, the phonetic transcription of the word is directly derived. If the target speech recognition target word is described in a specific language, the pronunciation in the specific language is performed by transliteration processing. Derive the notation. Here, the derived phonetic notation is described in a notation method that can be processed by the voice control function of the display device 30.

【0030】前記音声認識対象語が特定言語で記述され
ている場合の処理としては、例えば特定言語が日本語で
ある場合、音声認識対象語「相撲」に対して発音表記と
して「スモウ」を導出する。また、特定言語が英語であ
る場合、音声認識対象語「animal」に対して発音表記
「#an0Im0@l」を導出する。
When the target word for speech recognition is described in a specific language, for example, when the specific language is Japanese, "Sumou" is derived as a phonetic notation for the target word for speech recognition "Sumo". I do. If the specific language is English, the phonetic notation “# an0Im0 @ l” is derived for the speech recognition target word “animal”.

【0031】前記音訳処理の手段としては、一般的なも
のとして辞書19に音声認識対象語とその発音表記を登
録しておく手段がある。例えば、特定言語が日本語であ
る場合、英語の音声認識対象語「station」に対して発
音表記「ステーション」を導出する。また、特定言語が
英語である場合、日本語の音声認識対象語「相撲」に対
して発音表記「s'um%oU」を導出する。
As a means of the transliteration processing, there is a general means for registering a speech recognition target word and its phonetic notation in the dictionary 19. For example, when the specific language is Japanese, the phonetic notation “station” is derived for the English-language speech recognition target word “station”. If the specific language is English, the phonetic notation "s'um% oU" is derived for the Japanese word for speech recognition "Sumo".

【0032】また、発音表記導出部16は、特定言語が
複数ある場合には、各言語に対して前述したような発音
表記の導出を行う。例えば、特定言語が日本語及び英語
である場合、音声認識対象語「相撲」に対して発音表記
「スモウ」と「s'um%oU」を導出し、音声認識対象語「a
nimal」に対して発音表記「アニマル」と「#an0Im0@l」
を導出する。
When there are a plurality of specific languages, the phonetic notation deriving unit 16 derives the phonetic notation as described above for each language. For example, when the specific languages are Japanese and English, the phonetic notation “Sumou” and “s'um% oU” are derived for the speech recognition target word “Sumo”, and the speech recognition target word “a
nimal "for phonetic notation" animal "and"# an0Im0 @ l "
Is derived.

【0033】付加部17は、バッファ12に記憶されて
いるハイパーテキストに対して、発音表記導出部16で
導出した発音表記及び表示装置30における音声制御用
のコマンドの組を付加する。ここで、発音表記及びコマ
ンドの組は、表示装置30において解釈可能な様式で付
加する。ここでは、付加するコマンドには、音声認識対
象語が含まれていたリンクの記述におけるリンク先の記
述が含まれる。
The adding unit 17 adds, to the hypertext stored in the buffer 12, a set of phonetic notation derived by the phonetic notation deriving unit 16 and a command for voice control in the display device 30. Here, the set of phonetic notation and command is added in a format that can be interpreted on the display device 30. Here, the command to be added includes the description of the link destination in the description of the link that included the speech recognition target word.

【0034】このような中継装置10の具体的なハード
ウェア構成の一例を図5を参照して説明する。図5はハ
イパーテキスト中継装置のハードウェア構成図である。
An example of a specific hardware configuration of the relay device 10 will be described with reference to FIG. FIG. 5 is a hardware configuration diagram of the hypertext relay device.

【0035】図5に示すように、中継装置10は、主演
算装置51と、DRAMなどの揮発性記憶手段からなる
主記憶装置52と、固定磁気記憶装置などの不揮発性記
憶手段からなる補助記憶装置53と、ネットワーク20
に接続する第1のネットワークインタフェイス54と、
表示装置30と接続する第2のネットワークインタフェ
イス55と、これらを結ぶバス56とを主たる構成要素
としている。主記憶装置52又は補助記憶装置53に
は、ハイパーテキスト中継プログラムが記憶されてい
る。この中継装置10は、主演算装置51が前記ハイパ
ーテキスト中継プログラムを実行することにより動作す
ることにより、ハイパーテキストの中継を実現する。
As shown in FIG. 5, the relay device 10 includes a main processing unit 51, a main storage device 52 composed of a volatile storage device such as a DRAM, and an auxiliary storage device composed of a nonvolatile storage device such as a fixed magnetic storage device. The device 53 and the network 20
A first network interface 54 that connects to
The main components are a second network interface 55 connected to the display device 30 and a bus 56 connecting them. The main storage device 52 or the auxiliary storage device 53 stores a hypertext relay program. The relay apparatus 10 operates by the main processing unit 51 executing the hypertext relay program, thereby realizing the relay of the hypertext.

【0036】次に、表示装置30について図6を参照し
て説明する。図6はハイパーテキスト表示装置の構成図
である。
Next, the display device 30 will be described with reference to FIG. FIG. 6 is a configuration diagram of the hypertext display device.

【0037】図6に示すように、表示装置30は、中継
装置10と接続する主装置31と、マイク、雑音除去装
置などの機器により構成されユーザの音声を入力する音
声入力装置32と、ハイパーテキストをユーザに表示す
る表示部33とを主たる構成要素としている。この表示
装置30は、中継装置を介したハイパーテキストの表示
が可能であり、前述した中継装置10が指定されてい
る。
As shown in FIG. 6, the display device 30 includes a main device 31 connected to the relay device 10, a voice input device 32 composed of a device such as a microphone and a noise removing device for inputting a user's voice, and a hyper The display unit 33 that displays text to the user is a main component. The display device 30 can display a hypertext via the relay device, and the above-described relay device 10 is designated.

【0038】主装置31は、中継装置10との通信制御
を行う通信制御部34と、ハイパーテキストの取得要求
信号を送信する要求信号送信部35と、送られてきたハ
イパーテキストを受信する文書受信部36と、音声入力
装置32から入力された信号を音声認識処理する音声認
識処理部37と、受信したハイパーテキストを表示部3
3で表示できるように解釈及び処理し、また音声認識処
理部37で処理された音声情報に含まれるコマンドを解
釈及び処理し、さらに解釈の内容に応じて要求信号送信
部35にハイパーテキストの取得要求を指示する文書及
びコマンド解釈処理部38とを主たる構成要素としてい
る。
The main unit 31 includes a communication control unit 34 for controlling communication with the relay device 10, a request signal transmitting unit 35 for transmitting a request signal for acquiring a hypertext, and a document receiving unit for receiving the transmitted hypertext. Unit 36, a voice recognition processing unit 37 that performs voice recognition processing on a signal input from the voice input device 32, and a display unit 3 that displays the received hypertext.
3 for interpreting and processing so that it can be displayed, interpreting and processing commands included in the voice information processed by the voice recognition processing unit 37, and acquiring the hypertext to the request signal transmitting unit 35 according to the content of the interpretation. The main component is a document designating a request and a command interpretation processing unit 38.

【0039】次に、ハイパーテキストの中継方法につい
て図7のフローチャート参照して説明する。図7はハイ
パーテキストの中継方法を説明するフローチャートであ
る。
Next, a method of relaying a hypertext will be described with reference to the flowchart of FIG. FIG. 7 is a flowchart illustrating a method for relaying a hypertext.

【0040】まず、ユーザの指示などにより表示装置3
0が、中継装置10に対してハイパーテキストを指定す
る(ステップS1)。
First, the display device 3 is operated by a user's instruction or the like.
0 designates a hypertext for the relay device 10 (step S1).

【0041】中継装置10の読込部11が、ネットワー
ク20から通信回線41を介して指定されたハイパーテ
キストを読み込み、当該ハイパーテキストをバッファ1
2に格納する(ステップS2)。
The reading unit 11 of the relay device 10 reads the designated hypertext from the network 20 via the communication line 41 and stores the hypertext in the buffer 1.
2 (step S2).

【0042】次に、リンク抽出部14が、バッファ12
に格納されているハイパーテキストについて構文解析又
はパターンマッチング処理を行ってリンクの記述を抽出
する(ステップS3)。ここで、抽出したリンクの記述
にはリンク先が指定されている。
Next, the link extracting unit 14
Then, a syntactic analysis or a pattern matching process is performed on the hypertext stored in the file to extract the description of the link (step S3). Here, a link destination is specified in the description of the extracted link.

【0043】次に、音声認識対象語特定部15が、リン
ク抽出部14により抽出されたリンクの記述を形態素解
析部18を用いて解析することにより名詞を抽出し、こ
の名詞を音声認識対象語として特定する(ステップS
4)。
Next, the speech recognition target word identifying unit 15 extracts a noun by analyzing the description of the link extracted by the link extraction unit 14 using the morphological analysis unit 18 and extracts the noun. (Step S
4).

【0044】次に、発音表記導出部16が、音声認識対
象語特定部15により特定された音声認識対象語に対し
て発音表記を導出する(ステップS5)。導出した発音
表記は一時的にバッファ12に格納しておく。
Next, the phonetic notation deriving unit 16 derives a phonetic notation for the speech recognition target word specified by the speech recognition target word specifying unit 15 (step S5). The derived phonetic notation is temporarily stored in the buffer 12.

【0045】次に、付加部17が、格納しておいた発音
表記と当該音声認識対象語に対応するコマンドとを、バ
ッファ12に格納されているハイパーテキストに付加す
る(ステップS6)。
Next, the adding unit 17 adds the stored phonetic notation and the command corresponding to the speech recognition target word to the hypertext stored in the buffer 12 (step S6).

【0046】最後に、転送部13が、編集したハイパー
テキストをバッファ12から取り出し、これを表示装置
30に転送する(ステップS7)。
Finally, the transfer unit 13 takes out the edited hypertext from the buffer 12 and transfers it to the display device 30 (step S7).

【0047】以上のステップにより、表示装置30に中
継されるハイパーテキストには、音声認識対象語の発音
表記及び表示装置30の音声認識制御で用いられるコマ
ンドが付加される。これにより、表示装置30では、付
加された記述に基づき音声制御を行うことができる。
Through the above steps, the phonetic notation of the speech recognition target word and the command used in the speech recognition control of the display device 30 are added to the hypertext relayed to the display device 30. Thus, the display device 30 can perform voice control based on the added description.

【0048】[0048]

【実施例】次に、本発明にかかるハイパーテキスト中継
方法及び装置の具体的な一例について図面を参照して説
明する。図8はハイパーテキストの一例を示す図であ
る。
Next, a specific example of a hypertext relay method and apparatus according to the present invention will be described with reference to the drawings. FIG. 8 is a diagram illustrating an example of the hypertext.

【0049】ここでは、ハイパーテキストの一例として
HTMLについて説明する。また、音声制御機能付きの
ハイパーテキスト表示装置30としては、JavaAp
pletを実行可能なもので、このJavaApple
tにより音声制御機能を具備したものを例示する。この
表示装置30において音声制御を行うには、HTML文
書にJavaAppletに関する記述を付加すればよ
い。
Here, HTML will be described as an example of hypertext. As the hypertext display device 30 with the voice control function, Java Ap
Plet can be executed, and this JavaApplet
An example provided with a voice control function is illustrated by t. To perform voice control in the display device 30, a description related to JavaApplet may be added to the HTML document.

【0050】以下、前述した図7のフローチャートを参
照して説明する。なお、ここでは、特定言語がユーザの
母国語である日本語の場合について説明する。
Hereinafter, description will be made with reference to the flowchart of FIG. Here, a case where the specific language is Japanese, which is the user's native language, will be described.

【0051】まず、表示装置30は、中継装置を指定す
る機能を用いて中継装置10を選択し、該中継装置10
に対してハイパーテキストを指定する(ステップS
1)。
First, the display device 30 selects the relay device 10 using the function of designating the relay device, and selects the relay device 10.
Specify a hypertext for (Step S
1).

【0052】これにより、中継装置10の読込部11
が、ネットワーク20から通信回線41を介して指定さ
れたハイパーテキストを読み込み、当該ハイパーテキス
トをバッファ12に格納する(ステップS2)。読み込
んだハイパーテキストを、図8のリストAに示す。
Thus, the reading unit 11 of the relay device 10
Reads the hypertext specified from the network 20 via the communication line 41 and stores the hypertext in the buffer 12 (step S2). The read hypertext is shown in List A of FIG.

【0053】次に、リンク抽出部14が、バッファ12
に格納されているハイパーテキストについて構文解析又
はパターンマッチング処理を行ってリンクの記述を抽出
する(ステップS3)。ここで、抽出したリンクの記述
には、図8に示すように、<AHREF=…>で示されるリンク
先が指定されている。
Next, the link extracting unit 14
Then, a syntactic analysis or a pattern matching process is performed on the hypertext stored in the file to extract the description of the link (step S3). Here, in the description of the extracted link, as shown in FIG. 8, a link destination indicated by <AHREF =...> Is specified.

【0054】次に、音声認識対象語特定部15が、リン
ク抽出部14により抽出されたリンクの記述を形態素解
析部18を用いて解析することにより名詞を抽出し、こ
の名詞を音声認識対象語として特定する(ステップS
4)。図8の例では、「相撲を見る」から「相撲」を特
定し、「The big animal」から「animal」を特定し、
「iron」から「iron」を特定する。
Next, the speech recognition target word specifying unit 15 extracts the noun by analyzing the description of the link extracted by the link extraction unit 14 using the morphological analysis unit 18 and extracts the noun. (Step S
4). In the example of FIG. 8, “sumo” is specified from “watch sumo”, “animal” is specified from “the big animal”,
Specify "iron" from "iron".

【0055】次に、発音表記導出部16が、音声認識対
象語特定部15により特定された音声認識対象語に対し
て発音表記を導出する(ステップS5)。ここでは、特
定言語が日本語なので、「相撲」に対して「スモウ」を
導出し、「animal」に対して「アニマル」を導出し、
「iron」に対して「アイロン/アイアン」を特定する。
なお、ここで発音表記に含まれる「/」は、複数の発音
表記を併記するための記号である。導出した発音表記は
一時的にバッファ12に格納しておく。
Next, the phonetic notation deriving unit 16 derives a phonetic notation for the speech recognition target word specified by the speech recognition target word specifying unit 15 (step S5). Here, since the specific language is Japanese, "Sumo" is derived for "Sumo", "Animal" is derived for "animal",
Specify "iron / iron" for "iron".
Here, “/” included in the phonetic notation is a symbol for writing a plurality of phonetic notations in parallel. The derived phonetic notation is temporarily stored in the buffer 12.

【0056】次に、付加部17が、格納しておいた発音
表記と当該音声認識対象語に対応するコマンドとを、バ
ッファ12に格納されているハイパーテキストに付加す
る(ステップS6)。これにより、図8のリストBに示
すハイパーテキストが得られる。
Next, the adding unit 17 adds the stored phonetic notation and the command corresponding to the speech recognition target word to the hypertext stored in the buffer 12 (step S6). As a result, the hypertext shown in the list B of FIG. 8 is obtained.

【0057】最後に、転送部13が、編集したハイパー
テキストをバッファ12から取り出し、これを表示装置
30に転送する(ステップS7)。
Finally, the transfer unit 13 takes out the edited hypertext from the buffer 12, and transfers it to the display device 30 (step S7).

【0058】以上のステップにより、表示装置30に中
継されるハイパーテキストには、音声認識対象語の発音
表記及び表示装置30の音声認識制御で用いられるコマ
ンドが付加される。これにより、表示装置30では、付
加された記述に基づき音声制御を行うことができる。具
体的には、ユーザがリンクに対応するテキストを発声す
れば、該リンク先のハイパーテキストに画面を切り替え
ることができる。
Through the above steps, the phonetic notation of the speech recognition target word and the command used in the speech recognition control of the display device 30 are added to the hypertext relayed to the display device 30. Thus, the display device 30 can perform voice control based on the added description. Specifically, when the user utters the text corresponding to the link, the screen can be switched to the hypertext of the link destination.

【0059】また、ユーザの母国語が複数ある場合に
は、これらの母国語を特定言語として設定すればよい。
例えば、英語と日本語を特定言語とすれば、図8のリス
トCに示すハイパーテキストを得ることができる。これ
により、日本語が母国語で英語を日本語風に発音する
人、英語が母国語で日本語を英語風に発音する人、日本
語と英語をそれぞれネイティブスピーカのごとく発音す
る人の全ての人に対して、確実な音声制御が可能とな
る。
When the user has a plurality of native languages, these native languages may be set as specific languages.
For example, if English and Japanese are the specific languages, the hypertext shown in List C in FIG. 8 can be obtained. This means that anyone who pronounces English in Japanese in their native language, who pronounces Japanese in English in their native language, and who pronounces Japanese and English like native speakers Reliable voice control can be performed for a person.

【0060】以上、本発明にかかるハイパーテキスト中
継方法及び装置について詳述したが、本発明は上記実施
の形態及び実施例に限定されるものではない。例えば、
上記実施例では、ハイパーテキストとしてHTMLを対
象にして説明したが、これに限定されことなく、SGM
LやXMLなどにおいても本発明を実施することができ
る。また、ハイパーテキストに記述されている言語及び
特定言語として日本語及び英語の場合について説明した
が、本発明はこれに限定されることなく、他の言語であ
っても本発明を実施することができる。
Although the method and apparatus for relaying hypertext according to the present invention have been described in detail, the present invention is not limited to the above embodiments and examples. For example,
In the above-described embodiment, the description has been made with reference to HTML as the hypertext. However, the present invention is not limited to this.
The present invention can also be implemented in L or XML. Also, the case where the language described in the hypertext and the specific language are Japanese and English has been described, but the present invention is not limited to this, and the present invention may be implemented in other languages. it can.

【0061】また、上記実施の形態及び実施例では、音
声認識対象語が特定言語以外で記述されている場合に辞
書を用いた音訳処理を行っていたが、本発明はこれに限
定されるものではない。例えば、大量の特定言語以外の
単語とそれに対応する特定言語の発音表記のデータを統
計処理することにより音訳モデルを作成する。そして、
この音訳モデルをもとに確率を計算し、一番適切な音訳
表記を探索する方法などが考えられる。この方法では、
辞書を用いた音訳処理において問題となる辞書のメンテ
ナンスコスト及び登録単語以外への対応不可という欠点
を解消することができる。
In the above-described embodiments and examples, the transliteration process using the dictionary is performed when the speech recognition target word is described in a language other than the specific language. However, the present invention is not limited to this. is not. For example, a transliteration model is created by statistically processing a large number of words other than the specific language and the corresponding phonetic transcription data of the specific language. And
A method of calculating the probability based on this transliteration model and searching for the most appropriate transliteration notation can be considered. in this way,
It is possible to eliminate the drawbacks of dictionary maintenance costs and the inability to deal with other than registered words, which are problems in transliteration processing using a dictionary.

【0062】また、上記実施の形態及び実施例では、音
声認識対象語特定部において、ハイパーテキストから名
詞を抽出し、これを音声認識対象語として特定したが、
本発明はこれに限定されるものではない。すなわち、他
の品詞、例えば、形容詞、形容動詞、動詞、副詞などを
音声認識対象語として特定するようにしてもよい。
In the above-described embodiments and examples, the speech recognition target word specifying unit extracts a noun from the hypertext and specifies the noun as the speech recognition target word.
The present invention is not limited to this. That is, another part of speech, for example, an adjective, an adjective verb, a verb, an adverb, or the like may be specified as a speech recognition target word.

【0063】また、上記実施の形態及び実施例では、音
声認識対象語をハイパーテキストに含まれるリンクの記
述から抽出するとともに、ハイパーテキストに付加する
コマンドとしてリンクに関するものを例示したが、本発
明はこれに限定されるものではない。例えば、特定の書
式の記述から音声認識対象語を抽出するようにしてもよ
い。また、ハイパーテキストに付加するコマンドとし
て、書式に関するものなどを付加してもよい。これを利
用すれば、ユーザが音声認識対象語を発声することによ
り、例えば画面の色や文字の大きさなどを変更するよう
な音声制御を行うことも可能である。
In the above-described embodiments and examples, the speech recognition target word is extracted from the description of the link included in the hypertext, and the command relating to the link is exemplified as a command added to the hypertext. It is not limited to this. For example, a speech recognition target word may be extracted from a description in a specific format. As a command to be added to the hypertext, a command related to a format may be added. If this is used, it is also possible to perform voice control such as changing the color of the screen, the size of characters, and the like by the user uttering the target word for voice recognition.

【0064】[0064]

【発明の効果】以上詳述したように、本発明によれば、
ハイパーテキスト表示装置が中継装置として本発明の中
継方法にかかる装置を指定すれば、該ハイパーテキスト
表示装置において、母国語等の特定言語で記述されたハ
イパーテキストに対してはもちろん、該特定言語以外の
言語で記述されたハイパーテキストに対しても、その特
定言語以外の言語における正確な発音ができないユーザ
が母国語等の特定言語風の発音で音声制御することがで
きる。
As described in detail above, according to the present invention,
If the hypertext display device specifies the device according to the relay method of the present invention as a relay device, the hypertext display device can, of course, not only perform hypertext written in a specific language such as a native language, but also use a language other than the specific language. A user who cannot accurately pronounce a hypertext written in a language other than that language in a language other than the specific language can also perform voice control using pronunciation in a specific language style such as a native language.

【図面の簡単な説明】[Brief description of the drawings]

【図1】ハイパーテキスト中継方法の動作原理を説明す
る図
FIG. 1 is a diagram illustrating the operating principle of a hypertext relay method.

【図2】本発明の原理を説明するハイパーテキスト中継
装置の構成図
FIG. 2 is a configuration diagram of a hypertext relay device for explaining the principle of the present invention;

【図3】ネットワーク構成図FIG. 3 is a network configuration diagram.

【図4】ハイパーテキスト中継装置の機能ブロック図FIG. 4 is a functional block diagram of a hypertext relay device.

【図5】ハイパーテキスト中継装置のハードウェア構成
FIG. 5 is a hardware configuration diagram of the hypertext relay device.

【図6】ハイパーテキスト表示装置の構成図FIG. 6 is a configuration diagram of a hypertext display device.

【図7】ハイパーテキストの中継方法を説明するフロー
チャート
FIG. 7 is a flowchart illustrating a method for relaying a hypertext.

【図8】ハイパーテキストの一例を示す図FIG. 8 is a diagram showing an example of a hypertext.

【符号の説明】[Explanation of symbols]

10…ハイパーテキスト中継装置、11…読込部、12
…バッファ、13…転送部、14…リンク抽出部、15
…音声認識対象語特定部、16…発音表記導出部、17
…付加部、18…形態素解析部、19…辞書、20…コ
ンピュータネットワーク、30…ハイパーテキスト表示
装置、31…主装置、32…音声入力装置、33…表示
部、34…通信制御部、35…要求信号送信部、36…
文書受信部、37…音声認識処理部、38…文書及びコ
マンド解釈処理部、41,42…通信回線、100…ハ
イパーテキスト中継装置、110…読込手段、120…
編集手段、121…リンク抽出手段、122…音声認識
対象語特定手段、123…発音表記導出手段、124…
発音表記及びコマンド付加手段、125…転送手段、2
00…コンピュータネットワーク、300…ハイパーテ
キスト表示装置
10: hypertext relay device, 11: reading unit, 12
... Buffer, 13 ... Transfer unit, 14 ... Link extraction unit, 15
... Speech recognition target word specifying unit, 16 ... Pronunciation notation deriving unit, 17
... Addition unit, 18 ... Morphological analysis unit, 19 ... Dictionary, 20 ... Computer network, 30 ... Hypertext display device, 31 ... Main device, 32 ... Speech input device, 33 ... Display unit, 34 ... Communication control unit, 35 ... Request signal transmitter, 36 ...
Document receiving unit, 37 Voice recognition processing unit, 38 Document and command interpretation processing unit, 41, 42 Communication line, 100 Hypertext relay device, 110 Reading means, 120
Editing means, 121: Link extraction means, 122: Voice recognition target word identification means, 123: Phonetic notation derivation means, 124 ...
Phonetic notation and command addition means, 125 ... transfer means, 2
00: computer network, 300: hypertext display device

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) // G06F 17/30 G06F 15/419 320 Fターム(参考) 5B075 KK01 KK07 ND03 ND20 ND36 PQ02 PQ04 PQ20 PQ32 PQ42 UU01 UU06 5B091 AA01 BA02 CA02 CB24 CB32 CC02 CD03 CD15 DA06 5D015 GG01 GG03 KK01 9A001 GG03 HH17 HH33 JJ26 Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat II (reference) // G06F 17/30 G06F 15/419 320 F term (reference) 5B075 KK01 KK07 ND03 ND20 ND36 PQ02 PQ04 PQ20 PQ32 PQ42 UU01 UU06 5B091 AA01 BA02 CA02 CB24 CB32 CC02 CD03 CD15 DA06 5D015 GG01 GG03 KK01 9A001 GG03 HH17 HH33 JJ26

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 音声制御機能を有するハイパーテキスト
表示装置によって指定されたハイパーテキストをネット
ワークから取得し、前記ハイパーテキスト表示装置へ中
継するハイパーテキスト中継方法において、 ハイパーテキストを中継する際に、 ハイパーテキストから音声認識対象語を特定し、 特定した音声認識対象語が特定言語で記述されている場
合には該音声認識対象語に対応する発音表記を導出し、
特定した音声認識対象語が特定言語以外で記述されてい
る場合には該音声認識対象語に対応する特定言語の発音
表記を導出し、 特定した音声認識対象語に対応する前記発音表記及び前
記ハイパーテキスト表示装置における音声制御用のコマ
ンドをハイパーテキストに付加することを特徴とするハ
イパーテキスト中継方法。
1. A hypertext relay method for acquiring a hypertext specified by a hypertext display device having a voice control function from a network and relaying the hypertext to the hypertext display device. From the speech recognition target word, and if the specified speech recognition target word is described in a specific language, derive a phonetic notation corresponding to the speech recognition target word,
If the specified speech recognition target word is described in a language other than the specific language, a phonetic transcription of the specific language corresponding to the speech recognition target word is derived, and the phonetic transcription and the hyper corresponding to the specified speech recognition target word are derived. A hypertext relay method, wherein a command for voice control in a text display device is added to hypertext.
【請求項2】 特定言語が複数ある場合には、各特定言
語に対応する発音表記をそれぞれ導出することを特徴と
する請求項1記載のハイパーテキスト中継方法。
2. The hypertext relay method according to claim 1, wherein when there are a plurality of specific languages, phonetic notations corresponding to each of the specific languages are respectively derived.
【請求項3】 前記音声認識対象語の特定は、ハイパー
テキストからリンクの記述を抽出し、抽出したリンクの
記述から前記音声認識対象語を特定することを特徴とす
る請求項1又は2何れか1項記載のハイパーテキスト中
継方法。
3. The speech recognition target word is specified by extracting a description of a link from a hypertext and specifying the speech recognition target word from the extracted link description. 2. The hypertext relay method according to claim 1.
【請求項4】 前記音声認識対象語の特定は、形態素解
析又はパターンマッチングにより名詞と判断された語を
音声認識対象語として特定することを特徴とする請求項
1〜3何れか1項記載のハイパーテキスト中継方法。
4. The speech recognition target word according to claim 1, wherein the speech recognition target word is specified by specifying a word determined as a noun by morphological analysis or pattern matching as a speech recognition target word. Hypertext relay method.
【請求項5】 前記発音表記の導出は、前記音声認識対
象語が特定言語以外で記述されている場合は該音声認識
対象語の特定言語への音訳処理により発音表記を導出す
ることを特徴とする請求項1〜4何れか1項記載のハイ
パーテキスト中継方法。
5. The phonetic notation derivation is characterized in that, when the speech recognition target word is described in a language other than a specific language, the phonetic notation is derived by transliterating the speech recognition target word into a specific language. The hypertext relay method according to claim 1.
【請求項6】 ネットワーク中の経路に介在して音声制
御機能を有するハイパーテキスト表示装置にハイパーテ
キストを中継するハイパーテキスト中継装置において、 前記ハイパーテキスト表示装置から要求されたハイパー
テキストを前記ネットワークを介して読み込む読込手段
と、 前記読込手段で読み込まれたハイパーテキストに対し
て、該ハイパーテキストに含まれる音声認識対象語に対
応する特定言語の発音表記及び前記ハイパーテキスト表
示装置における音声制御用のコマンドを付加する編集手
段と、 前記編集手段で編集されたハイパーテキストを前記ハイ
パーテキスト表示装置に転送する転送手段とを有するこ
とを特徴とするハイパーテキスト中継装置。
6. A hypertext relay device for relaying a hypertext to a hypertext display device having a voice control function via a route in a network, wherein the hypertext requested from the hypertext display device is transmitted via the network. Reading means for reading and reading, for the hypertext read by the reading means, a phonetic notation of a specific language corresponding to a speech recognition target word included in the hypertext and a command for voice control in the hypertext display device. A hypertext relay device comprising: an editing unit for adding; and a transfer unit for transferring the hypertext edited by the editing unit to the hypertext display device.
【請求項7】 前記編集手段は、 読み込まれたハイパーテキストからリンクの記述を抽出
するリンク抽出手段と、 抽出したリンクの記述から音声認識対象語を特定する音
声認識対象語特定手段と、 特定した音声認識対象語が特定言語で記述されている場
合には該音声認識対象語に対応する発音表記を導出し、
特定した音声認識対象語が特定言語以外で記述されてい
る場合には該音声認識対象語に対応する特定言語の発音
表記を導出する発音表記導出手段と、 導出した前記発音表記と前記ハイパーテキスト表示装置
における音声制御用のコマンドの組をハイパーテキスト
に付加する付加手段とを備えたことを特徴とする請求項
6記載のハイパーテキスト中継装置。
7. The linking means for extracting a description of a link from the read hypertext; a speech recognition target word specifying means for specifying a speech recognition target word from the extracted link description; If the speech recognition target word is described in a specific language, derive a phonetic transcription corresponding to the speech recognition target word,
If the specified speech recognition target word is described in a language other than the specific language, phonetic transcription deriving means for deriving a phonetic transcription of a specific language corresponding to the speech recognition target word, and the derived phonetic transcription and the hypertext display 7. The hypertext relay device according to claim 6, further comprising an adding unit for adding a set of commands for voice control in the device to the hypertext.
【請求項8】 前記発音表記導出手段は、前記音声認識
対象語特定手段により特定された音声認識対象語に対
し、該音声認識対象語が前記特定語以外で記述されてい
る場合には音訳処理により該特定言語での発音表記を導
出することを特徴とする請求項7記載のハイパーテキス
ト中継装置。
8. The phonetic notation deriving means, if the speech recognition target word specified by the speech recognition target word specifying means is described in a language other than the specific word, transliteration processing. The hypertext relay device according to claim 7, wherein the phonetic transcription in the specific language is derived by the following.
JP31630299A 1999-11-08 1999-11-08 Method and device for relaying hyper-text Pending JP2001134418A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31630299A JP2001134418A (en) 1999-11-08 1999-11-08 Method and device for relaying hyper-text

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31630299A JP2001134418A (en) 1999-11-08 1999-11-08 Method and device for relaying hyper-text

Publications (1)

Publication Number Publication Date
JP2001134418A true JP2001134418A (en) 2001-05-18

Family

ID=18075621

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31630299A Pending JP2001134418A (en) 1999-11-08 1999-11-08 Method and device for relaying hyper-text

Country Status (1)

Country Link
JP (1) JP2001134418A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001255885A (en) * 2000-03-13 2001-09-21 Oki Electric Ind Co Ltd Speech browser system
JP2003167598A (en) * 2001-12-04 2003-06-13 Canon Inc Speech recognition device, and method and program for the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09244679A (en) * 1996-03-12 1997-09-19 Sony Corp Method and device for synthesizing speech
JPH10124293A (en) * 1996-08-23 1998-05-15 Osaka Gas Co Ltd Speech commandable computer and medium for the same
JPH10154063A (en) * 1996-11-22 1998-06-09 Nippon Telegr & Teleph Corp <Ntt> Hyper text relaying method and device therefor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09244679A (en) * 1996-03-12 1997-09-19 Sony Corp Method and device for synthesizing speech
JPH10124293A (en) * 1996-08-23 1998-05-15 Osaka Gas Co Ltd Speech commandable computer and medium for the same
JPH10154063A (en) * 1996-11-22 1998-06-09 Nippon Telegr & Teleph Corp <Ntt> Hyper text relaying method and device therefor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001255885A (en) * 2000-03-13 2001-09-21 Oki Electric Ind Co Ltd Speech browser system
JP2003167598A (en) * 2001-12-04 2003-06-13 Canon Inc Speech recognition device, and method and program for the same

Similar Documents

Publication Publication Date Title
US7904291B2 (en) Communication support apparatus and computer program product for supporting communication by performing translation between languages
US6999932B1 (en) Language independent voice-based search system
US20070198245A1 (en) Apparatus, method, and computer program product for supporting in communication through translation between different languages
JP2000137596A (en) Interactive voice response system
US9196251B2 (en) Contextual conversion platform for generating prioritized replacement text for spoken content output
JPH07222248A (en) System for utilizing speech information for portable information terminal
KR101709693B1 (en) Method for Web toon Language Automatic Translating Using Crowd Sourcing
JPH10124293A (en) Speech commandable computer and medium for the same
JP3467160B2 (en) Multilingual communication system, server device, and document transmission method for server device
JPH10154063A (en) Hyper text relaying method and device therefor
JP6676093B2 (en) Interlingual communication support device and system
JP2006236037A (en) Voice interaction content creation method, device, program and recording medium
KR20000039748A (en) Apparatus for translating web documents written in multi-languages and method for translating service using the apparatus
JP2001134418A (en) Method and device for relaying hyper-text
KR102107447B1 (en) Text to speech conversion apparatus for providing a translation function based on application of an optional speech model and operating method thereof
JP4350566B2 (en) Machine translation system
WO2021161856A1 (en) Information processing device and information processing method
JP2003263307A (en) Hypertext voice control method, device and program
KR101814431B1 (en) Translation system and method for translation syncronization
US20240095448A1 (en) Automatic guidance to interactive entity matching natural language input
WO2021161908A1 (en) Information processing device and information processing method
KR101810555B1 (en) Translation system and method for translation syncronization
JP2008243222A (en) Communication support device, method, and program
Amoli et al. Chromium Navigator Extension: Voice-Activated Assist for Disabled
JP4473801B2 (en) Machine translation device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040921

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050222