JPH08194600A - Voice input terminal equipment - Google Patents

Voice input terminal equipment

Info

Publication number
JPH08194600A
JPH08194600A JP7004864A JP486495A JPH08194600A JP H08194600 A JPH08194600 A JP H08194600A JP 7004864 A JP7004864 A JP 7004864A JP 486495 A JP486495 A JP 486495A JP H08194600 A JPH08194600 A JP H08194600A
Authority
JP
Japan
Prior art keywords
input
data
voice input
voice
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7004864A
Other languages
Japanese (ja)
Inventor
Shinsuke Sakai
信輔 坂井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP7004864A priority Critical patent/JPH08194600A/en
Publication of JPH08194600A publication Critical patent/JPH08194600A/en
Pending legal-status Critical Current

Links

Landscapes

  • Telephonic Communication Services (AREA)

Abstract

PURPOSE: To provide a terminal equipment which is improved in a user interface and is easy to use owing to voice input in network service. CONSTITUTION: A voice input dictionary 206 stores the character notation and the reading of each voice input word and the meaning representation of a system corresponding to the voice input, and an input converting part 201 receives the voice input through a speech recognizing part 204 in addition to keyboard and mouse input. The input converting part 204 converts input from a user into a retrieving command sequence, and holds it in a buffer 208, ands in the case where the user input is a retrieving request, it transfers the designation of a retrieving condition stored in the buffer 208 through a communication processing part 202. A user output part 203 converts a message sent from the input converting part 201 and the communication processing part 202 by using an answer table 207 to hold the coordination of a message name and an answer text, and executes properly text-output and display-output to a speech synthesizing part. The speech synthesizing part 205 synthesizes a speech from the inputted text, and outputs it.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、音声入力端末装置に関
し、特にインターネットや、パソコン通信などにおける
ネットワークサービスに対して音声入力によりアクセス
する音声入力端末装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice input terminal device, and more particularly to a voice input terminal device for accessing network services such as the Internet and personal computer communication by voice input.

【0002】[0002]

【従来の技術】近年、計算機パソコンの着実な普及とと
もに、パソコン通信と呼ばれる、パーソナルコンピュー
タを端末とするネットワークサービスの利用が盛んであ
る。パソコン通信の従来のインタフェースは、キャラク
タ端末上でのキーボードからのコマンドのタイピングに
より、メニュー階層を上がったり下がったりするもので
あった。
2. Description of the Related Art In recent years, with the steady spread of computer personal computers, the use of a network service called personal computer communication using a personal computer as a terminal has been popular. The conventional interface for personal computer communication has been to move up and down the menu hierarchy by typing commands from the keyboard on a character terminal.

【0003】一方、最近では、グラフィカルユーザイン
タフェースや実世界のメタファを用いた、よりユーザ・
フレンドリーなパソコン通信端末ソフトウェアが提案・
開発され、すでに実用に供され始めている。
On the other hand, recently, a more user interface using a graphical user interface or a real world metaphor is used.
Proposed friendly PC communication terminal software
It has been developed and is already in practical use.

【0004】[0004]

【発明が解決しようとする課題】前記のキャラクタ端末
のユーザ・インタフェースには、コマンドを覚えるのが
困難である、メニュー項目間の移動に手間がかかり過ぎ
る等の欠点があった。
The user interface of the character terminal described above has drawbacks such that it is difficult to remember commands and it takes too much time to move between menu items.

【0005】一方、グラフィカルユーザインタフェース
や実世界のメタファを用いたインタフェースは、このよ
うな問題をある程度改善してはいるものの、多数の選択
肢からの選択には膨大なメニュー項目からのマウスによ
る選択が避けられず、また人名・地名等の固有名の入力
などには、キーボードによる入力が必要な場合が多く、
まだまだ一般ユーザにとって使いやすいものとなってい
ない。
On the other hand, although the graphical user interface and the interface using the real-world metaphor have improved such problems to some extent, selection from a large number of options requires selection from a large number of menu items with a mouse. It is unavoidable, and in many cases it is necessary to enter with a keyboard to enter unique names such as person names and place names.
It is not easy for general users to use.

【0006】[0006]

【課題を解決するための手段】上述した問題点を解決す
るため、本発明の音声入力端末装置は、ネットワークサ
ービスの通信規約に従う入力データを送信し、ネットワ
ークサービスからの受信データを出力する通信制御手段
と、音声入力を認識する音声認識手段と、前記音声認識
手段による認識結果をネットワークサービスの通信規約
に基づくデータ形式に変換して前記通信制御手段に対し
て出力するデータ変換手段と、を備えたことを特徴とし
ている。
In order to solve the above-mentioned problems, the voice input terminal device of the present invention is a communication control for transmitting input data according to the communication protocol of the network service and outputting received data from the network service. Means, voice recognition means for recognizing voice input, and data conversion means for converting the recognition result by the voice recognition means into a data format based on the communication protocol of the network service and outputting it to the communication control means. It is characterized by that.

【0007】また、本発明の第2の音声入力端末装置
は、本発明の第1の音声入力端末装置において、前記デ
ータ変換手段からの出力を一時保持するバッファを有
し、前記データ変換手段が、前記バッファに蓄積したデ
ータを一括して通信処理部に出力することを特徴として
いる。
A second voice input terminal device of the present invention is the first voice input terminal device of the present invention, which has a buffer for temporarily holding the output from the data conversion means, and the data conversion means is The data stored in the buffer is collectively output to the communication processing unit.

【0008】また、本発明の第3の音声入力端末装置
は、本発明の第2の音声入力端末装置において、相対的
時刻表現の読みと、それに対応する意味データを格納す
る音声入力辞書を有し、前記データ変換手段が、相対的
時刻表現が入力された場合は、前記音声入力辞書および
以前に出力したデータに基づいて、前記音声認識手段か
ら出力された認識結果を、相対的時刻表現を含むネット
ワークサービスの通信規約に基づくデータ形式に変換す
ることを特徴としている。
Further, a third voice input terminal device of the present invention is the second voice input terminal device of the present invention, which has a voice input dictionary for storing readings of relative time expressions and corresponding semantic data. Then, when the relative time expression is input, the data conversion unit converts the recognition result output from the voice recognition unit into the relative time expression based on the voice input dictionary and the data output previously. It is characterized in that it is converted into a data format based on the communication protocol of the included network service.

【0009】[0009]

【実施例】次に、本発明について図面を参照して説明す
る。
Next, the present invention will be described with reference to the drawings.

【0010】図1は、本発明の第1の実施例を示すブロ
ック図である。図1を参照すると本発明の第1の実施例
は、入力変換部101、通信処理部102、ユーザ出力
部103、音声認識部104、音声合成部105、音声
入力辞書106、応答テーブル107からなる。
FIG. 1 is a block diagram showing a first embodiment of the present invention. Referring to FIG. 1, the first exemplary embodiment of the present invention includes an input conversion unit 101, a communication processing unit 102, a user output unit 103, a voice recognition unit 104, a voice synthesis unit 105, a voice input dictionary 106, and a response table 107. .

【0011】音声入力辞書106は、各音声入力単語に
ついて、その文字表記、読み、および音声入力に対応す
るシステムの意味表現を格納する。
The voice input dictionary 106 stores, for each voice input word, its notation, reading, and the semantic representation of the system corresponding to the voice input.

【0012】入力変換部101は、キーボード、マウス
入力の他に、音声認識部104を介して音声入力を受け
付ける。入力変換部101は、ユーザからのユーザが検
索指定条件である場合は、検索条件指定を通信処理部1
02に伝達し、またユーザへのメッセージ通知が必要な
場合には、ユーザ出力部103へメッセージを出力す
る。
The input conversion unit 101 receives a voice input via the voice recognition unit 104 in addition to the keyboard and mouse inputs. When the user is a search designation condition, the input conversion unit 101 designates the search condition designation by the communication processing unit 1.
02, and when message notification to the user is necessary, the message is output to the user output unit 103.

【0013】通信処理部102は、パソコンネットワー
クへの接続の開始や接続の切断、およびデータの送受信
の処理を行なう。
The communication processing unit 102 starts the connection to the personal computer network, disconnects the connection, and transmits / receives data.

【0014】ユーザ出力部103は、入力変換部10
1、通信処理部102から送られてきたメッセージを、
メッセージ名と応答テキストの対応づけを保持する応答
テーブル107を用いて変換し、適宜音声出力およびデ
ィスプレイ出力を行なう。
The user output unit 103 is an input conversion unit 10.
1, the message sent from the communication processing unit 102,
Conversion is performed using the response table 107 that holds the correspondence between the message name and the response text, and voice output and display output are performed as appropriate.

【0015】音声認識部104は、音声入力を単語ある
いは単語系列を表す文字列に変換する。
The voice recognition unit 104 converts a voice input into a character string representing a word or a word series.

【0016】音声合成部105は、入力された文字列か
ら、音声を合成し、出力する。
The voice synthesizer 105 synthesizes voice from the input character string and outputs it.

【0017】次に図1を参照して、本実施例の動作につ
いて説明する。
Next, the operation of this embodiment will be described with reference to FIG.

【0018】以下、ユーザの操作の手順に従ってシステ
ムの主要な動作について述べる。なお、本実施例では、
出発地と到着地、出発日および出発時刻を指定して、そ
の時刻付近のフライトの空席情報を提示するサービスへ
のアクセスを例として説明する。
The main operation of the system will be described below according to the operation procedure of the user. In this example,
An access to a service for designating a departure place and an arrival place, a departure date and a departure time and presenting vacant seat information of a flight near the time will be described as an example.

【0019】システム起動後、ユーザが音声入力(例え
ば「接続開始。」)により接続開始を指示すると、この
入力は入力変換部101により、ネットワークサービス
の規約における接続開始コマンドに変換され、通信処理
部102を通して送信される。接続の成功を通知するネ
ットワークサービスからのメッセージを通信処理部10
2から出力されたら、ユーザ出力部は、これを解釈し、
応答テーブル107より接続の成功に対応するユーザ向
けメッセージテキストを検索し、音声合成部105を通
してユーザに音声で通知する。
After the system is activated, when the user gives a voice input (for example, "connection start") to instruct a connection start, this input is converted by the input conversion unit 101 into a connection start command according to the rules of the network service, and the communication processing unit. Sent through 102. The communication processing unit 10 receives a message from the network service notifying the successful connection.
When output from 2, the user output unit interprets this,
The response table 107 is searched for a message text for the user corresponding to the successful connection, and the voice synthesis unit 105 notifies the user by voice.

【0020】ネットワークサービスと接続した後、ユー
ザは音声入力により、空席を調べたいフライトの出発地
・到着地を指定する。これは、たとえば、以下のような
音声入力である。
After connecting to the network service, the user designates the departure point / arrival point of the flight whose vacant seat is to be checked by voice input. This is, for example, the following voice input.

【0021】「羽田から福岡まで。」 この音声入力は、入力変換部101により、たとえば、
以下のようなネットワークサービスの規約に従うコマン
ド列に変換され、通信処理部102を通して送信され
る。
"From Haneda to Fukuoka." This voice input is made by the input conversion unit 101, for example,
It is converted into a command string that complies with the following network service conventions and transmitted through the communication processing unit 102.

【0022】10,12<CR> その後、ネットワークサービスの規約による入力順序に
従い、ユーザは、日付および時刻を指定する音声入力を
行なう。
10, 12 <CR> After that, the user performs voice input designating the date and time according to the input order according to the rules of the network service.

【0023】「1月2日9時頃。」 これは、再び入力変換部101により、たとえば、以下
のようなネットワークサービスの規約に従うコマンド列
に変換され、通信処理部102を通して送信される。
"Around 9 o'clock on January 2nd." This is again converted by the input conversion unit 101 into a command sequence in accordance with the following network service convention, and transmitted through the communication processing unit 102.

【0024】1,2,0900<CR> ここで、10は羽田空港をあらわす識別番号、12は福
岡空港をあらわす識別番号であり、<CR>は改行制御
文字をあらわす。10,12<CR>は、ネットワーク
サービスにおいて、出発地が羽田であり到着地が福岡で
あることをあらわす記法であるものとする。また、1,
2,0900<CR>は、1月2日午前9時という時刻
の指定をあらわす記法であるものとする。
1,2,0900 <CR> Here, 10 is an identification number representing Haneda Airport, 12 is an identification number representing Fukuoka Airport, and <CR> is a line feed control character. It is assumed that 10,12 <CR> is a notation indicating that the departure place is Haneda and the arrival place is Fukuoka in the network service. Also, 1,
It is assumed that 2,0900 <CR> is a notation for designating a time of 9:00 am on January 2nd.

【0025】検索結果を受信したら、ユーザ出力部10
3はディスプレイに便名、発着時刻、空席状況などの情
報を表示し、同時に、例えば『検索結果です。』などの
音声出力によるユーザへの通知を行なう。
When the search result is received, the user output unit 10
3 displays information such as flight number, departure and arrival times, seat availability on the display, and at the same time, for example, "Search results. The user is notified by voice output such as ".

【0026】ユーザの音声入力が検索のための入力であ
る時間は、上記の処理が繰り返される。
During the time when the user's voice input is the input for searching, the above processing is repeated.

【0027】ユーザの音声入力が、接続終了の指示、た
とえば「接続終了。」ならば、入力変換部101は、ネ
ットワークサービスの規約による接続終了コマンドを通
信処理部102を通して送信し、ネットワークとの接続
を終了する。
If the user's voice input is a connection end instruction, for example, "connection end.", The input conversion unit 101 transmits a connection end command according to the rules of the network service through the communication processing unit 102 to connect to the network. To finish.

【0028】次に、図2を参照して、本発明の第2の実
施例について説明する。
Next, a second embodiment of the present invention will be described with reference to FIG.

【0029】図2を参照すると、本発明の第2の実施例
は、入力変換部201の生成した変換データを一時保持
しておくバッファ208を有する点で第1の実施例と異
なる。
Referring to FIG. 2, the second embodiment of the present invention is different from the first embodiment in that it has a buffer 208 for temporarily holding the conversion data generated by the input conversion unit 201.

【0030】次に図2を参照して、本実施例の動作につ
いて説明する。
Next, the operation of this embodiment will be described with reference to FIG.

【0031】以下では第1の実施例と同様に、ユーザの
操作の手順に従ってシステムの主要な動作について述べ
る。なお、本実施例においても、出発地と到着地、出発
地および出発時刻を指定して、その時刻付近のフライト
の空席情報を提示するサービスへのアクセスを例として
説明する。
Similar to the first embodiment, the main operation of the system will be described below in accordance with the operation procedure of the user. In the present embodiment as well, an explanation will be given by taking as an example an access to a service which designates a departure place and an arrival place, a departure place and a departure time, and presents vacant seat information of a flight near that time.

【0032】システム起動後、ユーザが音声入力(例え
ば「接続開始。」)により接続開始を指示すると、この
入力は入力変換部201により、ネットワークサービス
の規約における接続開始コマンドに変換され、通信処理
部202を通して送信される。接続の成功を通知するネ
ットワークサービスからのメッセージを通信処理部20
2から出力されたら、ユーザ出力部203は、これを解
釈し、応答テーブル207より接続の成功に対応するユ
ーザ向けメッセージテキストを検索し、音声合成部20
5を通してユーザに音声で通知する。
After the system is activated, when the user gives an instruction to start connection by voice input (for example, "start connection"), this input is converted by the input conversion unit 201 into a connection start command according to the rules of the network service, and the communication processing unit. Sent through 202. The communication processing unit 20 receives a message from the network service notifying the successful connection.
2 is output, the user output unit 203 interprets this, searches the response table 207 for the message text for the user corresponding to the successful connection, and the voice synthesis unit 20.
The user is notified by voice through 5.

【0033】ネットワークサービスと接続した後、ユー
ザは音声入力により、空席を調べたいフライトの出発地
・到着地、日付、時刻を指定する。入力変換部201
は、必要な検索条件指定を蓄積していくので、この際、
出発地、到着地、日付、時刻等の個々の検索条件指定の
入力順序はどのような順序であってもよい。たとえば、
音声入力は、以下のようになる。
After connecting to the network service, the user designates the departure point / arrival point, date, and time of the flight whose vacant seat is to be checked by voice input. Input conversion unit 201
Accumulates the necessary search condition specifications, so at this time,
The input order of the individual search condition designations such as the departure place, the arrival place, the date, and the time may be any order. For example,
The voice input is as follows.

【0034】「羽田から福岡まで。」 「1月2日9時頃。」 これらは入力変換部201によりたとえば、以下のよう
なネットワークサービスの規約に従うコマンド列に変換
され、バッファ208に保持される。
"From Haneda to Fukuoka.""Around 9:00 on January 2nd." These are converted by the input conversion unit 201 into, for example, a command string in accordance with the following network service conventions and stored in the buffer 208. .

【0035】10,12<CR> 1,2,0900<CR> ここで、記法は、第1の実施例に従う。10,12 <CR> 1,2,0900 <CR> Here, the notation is according to the first embodiment.

【0036】ユーザからの入力が検索開始要求たとえば
「検索開始。」である場合、入力変換部201は、バッ
ファ208に蓄積したデータすなわち検索コマンド列
を、通信処理部202を介して送信する。
When the input from the user is a search start request, for example, “search start.”, The input conversion unit 201 transmits the data stored in the buffer 208, that is, the search command string, via the communication processing unit 202.

【0037】検索結果を受信したら、通信処理部202
は、受信データをユーザ出力部203に出力する。ユー
ザ出力部203はディスプレイに便名、発着時刻、空席
状況などの情報を表示し、同時に、例えば『検索結果で
す。』などの音声出力によるユーザへの通知を行なう。
When the search result is received, the communication processing unit 202
Outputs the received data to the user output unit 203. The user output unit 203 displays information such as flight number, departure and arrival times, and seat availability on the display, and at the same time, for example, "Search results. The user is notified by voice output such as ".

【0038】ユーザの音声入力が検索のための入力であ
る間は、上記の処理が繰り返される。
While the user's voice input is an input for searching, the above processing is repeated.

【0039】ユーザの音声入力が、接続終了の指示(た
とえば「接続終了。」)ならば、入力変換部は、ネット
ワークサービスの規約による接続終了コマンドを通信処
理部202を通して送信し、ネットワークとの接続を終
了する。
If the user's voice input is a connection end instruction (for example, "connection end."), The input conversion unit transmits a connection end command according to the network service agreement through the communication processing unit 202 to connect to the network. To finish.

【0040】次に、図2および図3を参照しつつ、本発
明の第3の実施例について説明する。
Next, a third embodiment of the present invention will be described with reference to FIGS.

【0041】図3は、音声入力辞書206のエントリー
の一例で、相対的な時刻表現を含んでいる。301は、
音声入力のパターンをあらわし、302、303、30
4は、301のパターン中に代入可能な個々の単語をあ
らわしている。302、303、304の各行の第1項
は音声入力の表記、第2項は読み、第3項は、システム
における意味表現をあらわしている。たとえば、図3の
音声入力パターンであらわされる発話の一例として、
「もう少し早い便。」という入力が可能である。
FIG. 3 is an example of an entry in the voice input dictionary 206, which contains a relative time representation. 301 is
Represents a voice input pattern 302, 303, 30
4 represents individual words that can be substituted in the 301 pattern. The first term in each line of 302, 303, and 304 represents the notation of voice input, the second term represents the reading, and the third term represents the semantic representation in the system. For example, as an example of the utterance represented by the voice input pattern of FIG.
It is possible to enter "a little faster flight."

【0042】次に図2、図3を参照して、本実施例の動
作について説明する。
Next, the operation of this embodiment will be described with reference to FIGS.

【0043】以下では第1の実施例と同様に、ユーザの
操作の手順に従ってシステムの主要な動作について述べ
る。なお、本実施例においても、出発地と到着地、出発
日および出発時刻を指定して、その時刻付近のフライト
の空席情報を提示するサービスへのアクセスを例として
説明する。
Similar to the first embodiment, the main operation of the system will be described below in accordance with the operation procedure of the user. Note that, also in the present embodiment, an explanation will be given by taking as an example an access to a service that specifies a departure place and an arrival place, a departure date and a departure time, and presents vacant seat information of a flight near the time.

【0044】システム起動後、ユーザが音声入力(例え
ば「接続開始。」)により接続開始を指示すると、この
入力は入力変換部201により、ネットワークサービス
の規約における接続開始コマンドに変換され、通信処理
部202を通して送信される。接続の成功を通知するネ
ットワークサービスからのメッセージを通信処理部20
2から出力されたら、ユーザ出力部は、これを解釈し、
応答テーブル207より接続の成功に対応するユーザ向
けメッセージテキストを検索し、音声合成部205を通
してユーザに音声で通知する。
After the system is activated, when the user gives a voice input (for example, "connection start.") To instruct the connection start, this input is converted by the input conversion unit 201 into a connection start command in the network service contract, and the communication processing unit. Sent through 202. The communication processing unit 20 receives a message from the network service notifying the successful connection.
When output from 2, the user output unit interprets this,
The message table for the user corresponding to the successful connection is searched from the response table 207, and the user is notified by voice through the voice synthesis unit 205.

【0045】ネットワークサービスと接続した後、ユー
ザは、音声入力により、空席を調べたいフライトの出発
地・到着地、日付、時刻を指定する。これは、たとえ
ば、以下のような音声入力である。入力変換部201
は、必要な検索条件指定を蓄積していくので、この際、
出発地、到着地、日付、時刻等の個々の検索条件指定の
入力順序はどのような順序であってもよい。
After connecting to the network service, the user designates the departure point / arrival point, date, and time of the flight whose vacant seat is to be checked by voice input. This is, for example, the following voice input. Input conversion unit 201
Accumulates the necessary search condition specifications, so at this time,
The input order of the individual search condition designations such as the departure place, the arrival place, the date, and the time may be any order.

【0046】「羽田から福岡まで。」 「1月2日9時頃。」 これらは、入力変換部201によりたとえば、以下のよ
うなネットワークサービスの規約に従うコマンド列に変
換され、バッファ208に保持される。
"From Haneda to Fukuoka.""Around 9:00 on January 2nd." These are converted by the input conversion unit 201 into, for example, a command string in accordance with the following network service conventions and stored in the buffer 208. It

【0047】10,12<CR> 1,2,0900<CR> ここで、記法は、第1の実施例に従う。10,12 <CR> 1,2,0900 <CR> Here, the notation is according to the first embodiment.

【0048】ユーザからの入力が検索開始要求たとえば
「検索開始。」である場合、入力変換部201は、バッ
ファ208に蓄積したデータすなわち検索コマンド列
を、通信処理部202を介して送信する。入力変換部2
01は、最後に送信した検索コマンド列を、常にバッフ
ァ208に保持しておく。
When the input from the user is a search start request, for example, “search start.”, The input conversion unit 201 transmits the data accumulated in the buffer 208, that is, the search command string, via the communication processing unit 202. Input converter 2
01 always holds the last transmitted search command sequence in the buffer 208.

【0049】入力が相対的時刻表現であった場合は、入
力変換部201は、音声入力辞書206に登録された各
単語のシステムにおける意味表現および、バッファ20
8に保持された前回の送信コマンド列の情報に基づき、
前回の入力に相対的に決定される新しい検索条件指定コ
マンド列を生成する。例えば、直前の入力が、 「羽田から福岡まで。」 「1月2日9時頃。」 であったとする。今回の入力が「もう少し早い便。」な
らば、図3より、システムの意味表現の系列“hour
before,null”が得られる。ここで、be
foreは、前の検索条件よりも時間的に前であること
をあらわし、hour−1は、時間的に前である程度が
1時間であることを示す。nullは、とくに何も意味
しないことをあらわすダミー意味表現である。系列全体
の意味は、1時間早いものの検索指定となる。これによ
り、新しい検索条件は、「羽田から福岡までの1月2日
の8時頃の便」をあらわすものとなる。入力変換部20
1は、これを通信処理部202を介して送信する。
When the input is a relative time expression, the input conversion unit 201 causes the system 20 to represent the meaning of each word registered in the voice input dictionary 206 and the buffer 20.
Based on the information of the previous transmission command sequence held in 8,
Generate a new search condition specification command string that is determined relative to the previous input. For example, suppose that the last entry was "From Haneda to Fukuoka.""January 2, 9:00." If the input this time is "a little faster flight."
before, null "is obtained, where be
"fore" indicates that it is earlier in time than the previous search condition, and "hour-1" indicates that it is one hour ahead of time to some extent. Null is a dummy meaning expression that means that it does not mean anything in particular. The meaning of the entire sequence is that the search is specified one hour earlier. As a result, the new search conditions will be "Flights from Haneda to Fukuoka around 8 am on January 2". Input conversion unit 20
1 transmits this via the communication processing unit 202.

【0050】検索結果を受信したら、通信処理部202
は、受信データをユーザ出力部203に出力する。ユー
ザ出力部203はディスプレイに便名、発着時刻、空席
状況などの情報を表示し、同時に、例えば『検索結果で
す。』などの音声出力によるユーザへの通知を行なう。
When the search result is received, the communication processing unit 202
Outputs the received data to the user output unit 203. The user output unit 203 displays information such as flight number, departure and arrival times, and seat availability on the display, and at the same time, for example, "Search results. The user is notified by voice output such as ".

【0051】ユーザの音声入力が検索のための入力であ
る間は、上記の処理が繰り返される。
While the user's voice input is the input for searching, the above processing is repeated.

【0052】ユーザの音声入力が、接続終了の指示(た
とえば「接続終了。」)ならば、入力変換部は、ネット
ワークサービスの規約による接続終了コマンドを通信処
理部202を通して送信し、ネットワークとの接続を終
了する。
If the user's voice input is a connection end instruction (for example, "connection end."), The input conversion unit transmits a connection end command according to the network service convention through the communication processing unit 202 to connect to the network. To finish.

【0053】[0053]

【発明の効果】以上説明したように、本発明による音声
入力端末装置は、音声認識手段により音声入力を認識
し、認識結果を、ネットワークサービスの通信規約に基
づくデータ形式に変換してネットワークサービスアクセ
スを行なうために、操作が簡単であるという効果を有す
る。
As described above, the voice input terminal device according to the present invention recognizes the voice input by the voice recognition means, converts the recognition result into the data format based on the communication protocol of the network service, and accesses the network service. Therefore, there is an effect that the operation is simple.

【0054】また、変換データを一時保持するバッファ
を有し、蓄積したデータを一括して送信するために、ユ
ーザがサービスにおける状態を常に把握する必要がな
く、より操作が容易になるという効果を有する。
Further, since a buffer for temporarily holding the converted data is provided and the accumulated data is collectively transmitted, it is not necessary for the user to constantly grasp the status of the service, and the operation becomes easier. Have.

【0055】また、相対的時刻表現が入力された場合
は、相対的時刻表現の読みと、それに対応する意味デー
タを格納する音声入力辞書を用いて認識結果を絶対的時
刻表現を含むネットワークサービスの通信規約に基づく
データ形式に変換するので、ユーザは簡潔な入力で検索
指定を行なうことが出来るので、より操作の効率性、快
適性が向上するという効果を有する。
When the relative time expression is input, the reading of the relative time expression and the voice input dictionary storing the corresponding semantic data are used to recognize the recognition result of the network service including the absolute time expression. Since the data format is converted according to the communication protocol, the user can specify the search with a simple input, which has the effect of improving the efficiency and comfort of the operation.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例の構成を示したブロック
図である。
FIG. 1 is a block diagram showing a configuration of a first exemplary embodiment of the present invention.

【図2】本発明の第2,第3の実施例の構成を示したブ
ロック図である。
FIG. 2 is a block diagram showing a configuration of second and third embodiments of the present invention.

【図3】音声入力辞書の一例を示す図である。FIG. 3 is a diagram showing an example of a voice input dictionary.

【符号の説明】 101 入力変換部 102 通信処理部 103 ユーザ出力部 104 音声認識部 105 音声合成部 106 音声入力辞書 107 応答テーブル 201 入力変換部 202 通信処理部 203 ユーザ出力部 204 音声認識部 205 音声合成部 206 音声入力辞書 207 応答テーブル 208 バッファ 301 音声入力パターン 302 単語の表記、読み、およびシステムにおける意
味表現 303 単語の表記、読み、およびシステムにおける意
味表現 304 単語の表記、読み、およびシステムにおける意
味表現
[Description of Reference Signs] 101 input conversion unit 102 communication processing unit 103 user output unit 104 voice recognition unit 105 voice synthesis unit 106 voice input dictionary 107 response table 201 input conversion unit 202 communication processing unit 203 user output unit 204 voice recognition unit 205 voice Synthesizing unit 206 Voice input dictionary 207 Response table 208 Buffer 301 Voice input pattern 302 Word notation, reading, and semantic expression in system 303 Word notation, reading, and semantic expression in system 304 Word notation, reading, and system meaning Expression

フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04M 11/00 302 Continuation of front page (51) Int.Cl. 6 Identification code Office reference number FI Technical display area H04M 11/00 302

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】ネットワークサービスの通信規約に従う入
力データを送信し、ネットワークサービスからの受信デ
ータを出力する通信制御手段と、 音声入力を認識する音声認識手段と、 前記音声認識手段による認識結果をネットワークサービ
スの通信規約に基づくデータ形式に変換して前記通信制
御手段に対して出力するデータ変換手段と、を備えたこ
とを特徴とする音声入力端末装置。
1. A communication control means for transmitting input data according to a communication protocol of a network service and outputting received data from a network service, a voice recognition means for recognizing a voice input, and a recognition result by the voice recognition means for a network. A voice input terminal device, comprising: a data conversion unit that converts the data into a data format based on a communication protocol of a service and outputs the data to the communication control unit.
【請求項2】前記データ変換手段からの出力を一時保持
するバッファを有し、 前記データ変換手段が、前記バッファに蓄積したデータ
を一括して通信処理部に出力することを特徴とする、請
求項1記載の音声入力端末装置。
2. A buffer for temporarily holding an output from the data converting means, wherein the data converting means collectively outputs the data accumulated in the buffer to the communication processing section. Item 1. The voice input terminal device according to item 1.
【請求項3】相対的時刻表現の読みと、それに対応する
意味データを格納する音声入力辞書を有し、 前記データ変換手段が、相対的時刻表現が入力された場
合は、前記音声入力辞書および以前に出力したデータに
基づいて、前記音声認識手段から出力された認識結果
を、相対的時刻表現を含むネットワークサービスの通信
規約に基づくデータ形式に変換することを特徴とする、
請求項2記載の音声入力端末装置。
3. A phonetic input dictionary for storing readings of relative time expressions and corresponding semantic data, wherein said data converting means stores said audio input dictionary when relative time expressions are inputted. The recognition result output from the voice recognition unit is converted into a data format based on a communication protocol of a network service including a relative time expression, based on previously output data.
The voice input terminal device according to claim 2.
JP7004864A 1995-01-17 1995-01-17 Voice input terminal equipment Pending JPH08194600A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7004864A JPH08194600A (en) 1995-01-17 1995-01-17 Voice input terminal equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7004864A JPH08194600A (en) 1995-01-17 1995-01-17 Voice input terminal equipment

Publications (1)

Publication Number Publication Date
JPH08194600A true JPH08194600A (en) 1996-07-30

Family

ID=11595547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7004864A Pending JPH08194600A (en) 1995-01-17 1995-01-17 Voice input terminal equipment

Country Status (1)

Country Link
JP (1) JPH08194600A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999014743A1 (en) * 1997-09-17 1999-03-25 Unisys Corporation System and method using natural language understanding for speech control application
KR101522486B1 (en) * 2011-03-25 2015-05-21 미쓰비시덴키 가부시키가이샤 Elevator call registration device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63181058A (en) * 1987-01-22 1988-07-26 Nec Corp Portable computer with facsimile function
JPS6429955A (en) * 1987-07-24 1989-01-31 Fujitsu Ltd Cfu control system for personal computer communication
JPH0220148A (en) * 1988-07-08 1990-01-23 Nec Corp Voice data packet transmitter
JPH04314153A (en) * 1991-04-12 1992-11-05 Toshiba Corp Informaiton liaison device for plant control room

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63181058A (en) * 1987-01-22 1988-07-26 Nec Corp Portable computer with facsimile function
JPS6429955A (en) * 1987-07-24 1989-01-31 Fujitsu Ltd Cfu control system for personal computer communication
JPH0220148A (en) * 1988-07-08 1990-01-23 Nec Corp Voice data packet transmitter
JPH04314153A (en) * 1991-04-12 1992-11-05 Toshiba Corp Informaiton liaison device for plant control room

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999014743A1 (en) * 1997-09-17 1999-03-25 Unisys Corporation System and method using natural language understanding for speech control application
KR101522486B1 (en) * 2011-03-25 2015-05-21 미쓰비시덴키 가부시키가이샤 Elevator call registration device

Similar Documents

Publication Publication Date Title
US7606712B1 (en) Speech recognition interface for voice actuation of legacy systems
RU2352979C2 (en) Synchronous comprehension of semantic objects for highly active interface
JP4036528B2 (en) Semantic recognition system
KR100561228B1 (en) Method for VoiceXML to XHTML+Voice Conversion and Multimodal Service System using the same
JP6819988B2 (en) Speech interaction device, server device, speech interaction method, speech processing method and program
US8082153B2 (en) Conversational computing via conversational virtual machine
US8209184B1 (en) System and method of providing generated speech via a network
JPH07140998A (en) Voice recognition interface
JP2005321730A (en) Dialog system, dialog system implementation method, and computer program
US6732078B1 (en) Audio control method and audio controlled device
JP2005031758A (en) Voice processing device and method
JPH07222248A (en) System for utilizing speech information for portable information terminal
US5897618A (en) Data processing system and method for switching between programs having a same title using a voice command
CN111128175B (en) Spoken language dialogue management method and system
JPH0863478A (en) Method and processor for language processing
JP2929959B2 (en) Voice input network service system
JP2000075887A (en) Device, method and system for pattern recognition
JPH08194600A (en) Voice input terminal equipment
JP2003150621A (en) Interactive browsing system
Oberteuffer Commercial applications of speech interface technology: an industry at the threshold.
EP0429057A1 (en) Text-to-speech system having a lexicon residing on the host processor
JPH10164249A (en) Information processor
JPH0962739A (en) Consultation counter assignment method and device therefor
JP2000047684A (en) Voice recognizing method and voice service device
JP3147898B2 (en) Voice response system

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 19980908