JPH11272662A - Voice information processor, its method and medium storing its control program - Google Patents

Voice information processor, its method and medium storing its control program

Info

Publication number
JPH11272662A
JPH11272662A JP10072401A JP7240198A JPH11272662A JP H11272662 A JPH11272662 A JP H11272662A JP 10072401 A JP10072401 A JP 10072401A JP 7240198 A JP7240198 A JP 7240198A JP H11272662 A JPH11272662 A JP H11272662A
Authority
JP
Japan
Prior art keywords
voice
voice information
document
command
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10072401A
Other languages
Japanese (ja)
Inventor
Yoshiyuki Murashima
義幸 村島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP10072401A priority Critical patent/JPH11272662A/en
Publication of JPH11272662A publication Critical patent/JPH11272662A/en
Pending legal-status Critical Current

Links

Landscapes

  • Document Processing Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To execute document processing nearly without destroying the format of a document by automatically identifying whether attached voice information is a voice command or a voice text and giving document processing to it to improve the operability of document processing. SOLUTION: A display part 306 displays a previously obtained document and a voice attaching position instructing part 301 instructs a position to attach voice information in the document. A voice input part 302 inputs voice information including the voice command or a voice text to the attaching position. A voice information attaching part 303 displays that voice information is attached, and stores them in a voice information storage part 304. A voice information retrieving part 305 retrieves voice information corresponding to the attaching position from the part 304 and a voice information recognizing part 308 identifies the voice command or the voice text from voice information. A voice information processing part 309 executes document processing previously set as the voice command or the voice text based on the identifying result of the part 308.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ワードプロセッ
サ、パーソナルコンピュータ、及び各種情報処理端末等
に適用され、音声入力により文書処理する音声情報処理
装置及び方法並びにその制御プログラムを記憶した媒体
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice information processing apparatus and method for processing a document by voice input, and a medium storing a control program thereof, which is applied to a word processor, a personal computer and various information processing terminals.

【0002】[0002]

【従来の技術】近年、音声認識技術は単純な応答ならか
なりの精度で音声を認識することが可能になり、ディス
プレイに文字や画像を表示してキー入力により電子機器
を操作するだけでなく、音声入力により電子機器を操作
する装置も多く提案されている。
2. Description of the Related Art In recent years, speech recognition technology has become capable of recognizing speech with a considerable accuracy with a simple response. In addition to displaying characters and images on a display and operating electronic devices by key input, Many devices for operating electronic devices by voice input have been proposed.

【0003】例えば、特開平9−222985号公報の
記載によれば、音声によりCDプレーヤー等の電子機器
を操作する音声操作装置が提案されている。この音声操
作装置を、例えば、自動車内の電子機器に適用すれば、
音声のみで電子機器を操作できるため、視線や手は運転
操作に集中できるので安全に運転できるという効果があ
る。
[0003] For example, according to the description of Japanese Patent Application Laid-Open No. 9-222985, there has been proposed a voice operation device for operating an electronic device such as a CD player by voice. If this voice operation device is applied to, for example, electronic devices in a car,
Since the electronic device can be operated only by voice, eyes and hands can be concentrated on the driving operation, so that there is an effect that the driver can drive safely.

【0004】また、特開平8−255047号公報の記
載によれば、テキストファイルにユーザ特有の発音の特
徴を添付することにより、ユーザが特定の単語の発音に
満足しない場合、その単語をユーザ自身の発音と置換す
ることができる音声制御システムの注釈のための方法お
よびシステムが提案されている。この方法およびシステ
ムによれば、特定の単語に遭遇するたびに、それが正し
く発音されるという効果がある。
According to Japanese Patent Application Laid-Open No. H8-255047, if a user is not satisfied with the pronunciation of a particular word by attaching a user-specific pronunciation feature to a text file, the user can add the word to himself / herself. Methods and systems have been proposed for annotation of voice control systems that can be replaced with pronunciations. The method and system has the effect that each time a particular word is encountered, it is pronounced correctly.

【0005】また、特開平9−62289号公報の記載
によれば、個別音声データと標準音声データとの差分特
徴データを用いることにより、年齢や性別、あるいは話
し方の個人差などによる特徴の違いに関係なく不特定話
者の音声をきわめて高い認識率での認識し、その認識結
果に対応した応答や特定動作を行う音声認識装置および
音声認識処理方法が提案されている。この音声認識装置
および方法を、例えば、自動販売機に適用すれば、不特
定話者の音声を高い認識率で認識するので、不要なボタ
ン操作を減らすことができるという効果がある。
Further, according to the description of Japanese Patent Application Laid-Open No. 9-62289, by using difference feature data between individual voice data and standard voice data, differences in characteristics due to age, gender, individual differences in speech, and the like can be eliminated. Regardless, a speech recognition apparatus and a speech recognition processing method that recognize an unspecified speaker's voice at an extremely high recognition rate and perform a response or a specific operation corresponding to the recognition result have been proposed. If this voice recognition device and method are applied to, for example, a vending machine, the voice of an unspecified speaker is recognized at a high recognition rate, so that there is an effect that unnecessary button operations can be reduced.

【0006】また、特開平5−27790号公報の記載
によれば、音声入力から利用者のタイプを判定して、応
答メッセージを利用者の性別、緊急度、成熟度などに合
った最適なものに変更する音声入力装置が提案されてい
る。この音声入力装置を、例えば、銀行などのCD装置
に適用すれば、利用者のタイプに対応した応答メッセー
ジでCD操作を案内して、利用者の待ち時間を短縮する
ことができる。
According to Japanese Patent Application Laid-Open No. 5-27790, the type of a user is determined from voice input, and a response message suitable for the user's gender, urgency, maturity, etc. Has been proposed. If this voice input device is applied to, for example, a CD device such as a bank, a CD operation is guided by a response message corresponding to the type of the user, and the waiting time of the user can be reduced.

【0007】[0007]

【発明が解決しようとする課題】従来の音声認識技術
は、音声から特定話者または不特定話者の音声コマンド
を認識して、その認識した音声コマンドに従って動作す
るものである。しかしながら、音声入力は、音声コマン
ドとして装置を操作するだけでなく、表示、印刷及び送
信する文書に添付する音声メモ(音声テキスト)として
の利用が考えられる。例えば、通信可能な情報処理端末
で電子メールなどのテキストデータを受信した場合、キ
ー操作の不慣れな者には、受信したテキストデータを取
り込んで、コメントを添付したりする場合、音声入力で
操作するほうが作業性がよい。また、音声に文書処理の
コマンドやテキストを含めて装置に入力する場合、入力
された音声から音声コマンドか音声テキストかを識別し
て音声に対応する処理機能が求められる。
The conventional voice recognition technology recognizes a voice command of a specific speaker or an unspecified speaker from voice and operates according to the recognized voice command. However, the voice input can be used not only to operate the apparatus as a voice command but also as a voice memo (voice text) attached to a document to be displayed, printed and transmitted. For example, when text data such as e-mail is received by a communicable information processing terminal, a person who is unfamiliar with key operations can take in the received text data and attach a comment, or operate by voice input. Workability is better. In addition, when inputting a voice including a document processing command or text to the apparatus, a processing function corresponding to the voice by identifying the voice command or the voice text from the input voice is required.

【0008】本発明は、以上の事情を考慮してなされた
もので、例えば、文書処理に関連する音声コマンドまた
は音声テキストを含む音声情報を文書の任意の位置の指
示して添付すれば、添付した音声情報に対し音声コマン
ドか音声テキストかを自動識別して文書処理することが
できる音声情報処理装置及び方法並びにその制御プログ
ラムを記憶した媒体を提供する。
The present invention has been made in consideration of the above circumstances. For example, if voice information including voice commands or voice text related to document processing is specified at any position in a document and attached, the attached Provided are a voice information processing apparatus and method capable of automatically identifying a voice command or a voice text with respect to the generated voice information and performing document processing, and a medium storing a control program therefor.

【0009】[0009]

【課題を解決するための手段】予め取得した文書を表示
する表示部と、前記文書において音声情報を添付する位
置を指示する音声添付位置指示部と、前記添付位置に少
なくとも音声コマンドまたは音声テキストのいずれかを
含む音声情報を入力する音声入力部と、前記音声情報を
前記添付位置に添付したことを示す表記を表示するとと
もにそれらを音声情報記憶部に記憶する音声情報添付部
と、前記添付位置に対応する音声情報を前記音声情報記
憶部から検索する音声情報検索部と、検索された音声情
報から音声コマンドまたは音声テキストを識別する音声
情報識別部と、前記音声情報識別部による識別結果に基
づき音声コマンドまたは音声テキストとして予め設定さ
れた文書処理を実行する音声情報処理部とを備えたこと
を特徴とする音声情報処理装置である。
A display unit for displaying a document obtained in advance, a voice attachment position indicating unit for indicating a position to attach voice information in the document, and at least a voice command or a voice text at the attachment position. A voice input unit for inputting any of the voice information, a voice information attachment unit for displaying a notation indicating that the voice information is attached to the attachment position and storing them in a voice information storage unit; A voice information search unit that searches for voice information corresponding to the voice information from the voice information storage unit; a voice information identification unit that identifies a voice command or a voice text from the searched voice information; A voice information processing unit for executing a document process preset as a voice command or voice text Boric processing apparatus.

【0010】なお、本発明において、表示部はLCD
(液晶ディスプレイ)、プラズマディスプレイなどで構
成することができる。音声添付位置指示部は、キーボー
ド、マウス、ペン、タブレットなどの入力装置で構成す
ることができる。音声入力部は、マイク、アンプ、フィ
ルタなどで構成することができる。また、音声情報添付
部、音声情報検索部、音声情報識別部及び音声情報処理
部は、CPU、ROM、RAM、I/Oポートからなる
コンピュータで構成してもよい。音声情報記憶部は、R
AM、フロッピーディスク、ハードディスクなどの記憶
装置で構成することができる。
In the present invention, the display unit is an LCD.
(Liquid crystal display), a plasma display, or the like. The voice attachment position indicating unit can be configured by an input device such as a keyboard, a mouse, a pen, and a tablet. The audio input unit can be configured with a microphone, an amplifier, a filter, and the like. Further, the audio information attachment unit, the audio information search unit, the audio information identification unit, and the audio information processing unit may be configured by a computer including a CPU, a ROM, a RAM, and an I / O port. The voice information storage unit is R
It can be constituted by a storage device such as an AM, a floppy disk, a hard disk, or the like.

【0011】本発明によれば、文書処理に関連する音声
コマンドまたは音声テキストを含む音声情報を文書の任
意の位置の指示して添付すれば、添付した音声情報に対
し音声コマンドか音声テキストかを自動識別して文書処
理することができる。このため、文書処理の作業性が向
上し、文書のフォーマットを殆ど崩さずに文書処理する
ことができる。
According to the present invention, if voice information including a voice command or voice text related to document processing is indicated at an arbitrary position in a document and attached, whether the voice command or voice text is attached to the attached voice information is determined. Automatic identification and document processing. For this reason, the workability of the document processing is improved, and the document processing can be performed without substantially changing the format of the document.

【0012】前記音声情報と対応する音声コマンドを記
憶した音声コマンドテーブルと、音声コマンドに対応す
る文書処理内容を記憶したコマンド処理テーブルとをさ
らに備え、前記音声情報識別部が、前記音声コマンドテ
ーブルに基づいて音声情報から音声コマンドを識別した
際、前記音声情報処理部は、添付された表記を削除し、
前記コマンド処理テーブルに基づいて前記音声コマンド
に対応する文書処理内容を抽出して実行するよう構成し
てもよい。なお、音声コマンドテーブル、コマンド処理
テーブルは、ROM、フロッピーディスクなどのメモリ
で構成することができる。前記構成によれば、音声情報
が音声コマンドであると認識された場合、添付された表
記を削除し、音声コマンドが指示する文書処理内容を自
動抽出して実行することができる。
A voice command table storing voice commands corresponding to the voice information; and a command processing table storing document processing contents corresponding to the voice commands, wherein the voice information identifying unit stores the voice command table in the voice command table. When identifying the voice command from the voice information based on, the voice information processing unit deletes the attached notation,
The document processing content corresponding to the voice command may be extracted and executed based on the command processing table. Note that the voice command table and the command processing table can be configured by a memory such as a ROM and a floppy disk. According to the above configuration, when the voice information is recognized as a voice command, the attached notation is deleted, and the content of the document processing indicated by the voice command can be automatically extracted and executed.

【0013】前記音声コマンドテーブルの音声コマンド
の属性を示す属性コマンドを記憶した属性コマンドテー
ブルをさらに備え、前記コマンド処理テーブルは、属性
コマンドに対応する処理内容を記憶した前記音声情報と
対応する音声コマンドの属性を示す属性コマンドを記憶
した構成にしてもよい。なお、属性コマンドテーブル
は、ROM、フロッピーディスクなどのメモリで構成す
ることができる。前記構成によれば、属性コマンドが指
示する文書処理内容を自動抽出して実行することができ
る。このため、属性コマンドと部分的な文書処理を対応
させれば、部分的な文書処理内容を自動抽出して実行す
ることができる。
The voice command table further includes an attribute command table storing an attribute command indicating an attribute of the voice command, wherein the command processing table stores the processing content corresponding to the attribute command and the voice command corresponding to the voice information. May be stored. The attribute command table can be configured by a memory such as a ROM and a floppy disk. According to the configuration, it is possible to automatically extract and execute the content of the document processing specified by the attribute command. For this reason, by associating the attribute command with the partial document processing, the content of the partial document processing can be automatically extracted and executed.

【0014】文書を印刷する印刷部をさらに備え、前記
音声情報識別部が、前記音声情報を宛て名及び添付文処
理の音声コマンドとして識別した際、前記音声情報処理
部は、宛て名及び添付文を付加した文書を前記印刷部に
出力するよう構成してもよい。なお、印刷部は、サーマ
ルプリンタ、レーザプリンタで構成することができる。
前記構成によれば、宛て名及び添付文を自動的に付加し
た文書を印刷することができる。
A print unit for printing a document, wherein when the voice information identification unit identifies the voice information as a voice command for processing the destination name and the attached sentence, the voice information processing unit outputs the destination name and the attached text May be configured to be output to the printing unit. The printing unit can be constituted by a thermal printer or a laser printer.
According to the configuration, it is possible to print a document to which an address and an attached text are automatically added.

【0015】外部端末と接続して文書を送受信すること
な可能な通信部をさらに備え、前記音声情報識別部が、
前記音声情報を宛て名及び添付文処理の音声コマンドと
して識別した際、前記音声情報処理部は、宛て名及び添
付文を付加した文書を前記通信部に出力するよう構成し
てもよい。なお、通信部は、モデム、RS232Cなど
の通信インタフェースで構成することができる。前記構
成によれば、宛て名及び添付文を自動的に付加した文書
を送受信することができる。
[0015] The apparatus further includes a communication unit capable of transmitting and receiving a document by connecting to an external terminal, wherein the voice information identification unit includes:
When the voice information is identified as a voice command for address and attachment processing, the audio information processing unit may output a document to which the address and the attachment are added to the communication unit. Note that the communication unit can be configured with a communication interface such as a modem and RS232C. According to the configuration, it is possible to transmit and receive a document to which an address and an attached text are automatically added.

【0016】前記音声情報識別部が、前記音声情報を文
書の削除処理を指定した音声コマンドとして識別した
際、前記音声情報処理部は、音声コマンドにより指定し
た文書の領域を削除するよう構成してもよい。前記構成
によれば、音声により指定した文書の領域を削除するこ
とができる。
When the voice information identification unit identifies the voice information as a voice command designating document deletion processing, the voice information processing unit is configured to delete a document area specified by the voice command. Is also good. According to the configuration, it is possible to delete the area of the document specified by the voice.

【0017】前記音声情報識別部が、前記音声情報を文
書の削除部分に罫線処理を指定した音声コマンドとして
識別した際、前記音声情報処理部は、音声コマンドによ
り指定した文書の削除部分に罫線処理するよう構成して
もよい。前記構成によれば、音声により指定した文書の
削除部分に罫線処理して削除したことを明示することが
できる。
When the voice information identification unit identifies the voice information as a voice command specifying a ruled line processing for a deleted portion of the document, the voice information processing unit determines that the line information is processed for a deleted portion of the document specified by the voice command. May be configured. According to the configuration, it is possible to clearly indicate that the deleted portion of the document specified by voice is deleted by performing ruled line processing.

【0018】前記音声情報識別部が、前記音声情報を文
書の削除処理及びフォーマット変更処理を指定した音声
コマンドとして識別した際、前記音声情報処理部は、音
声コマンドにより指定した文書の領域を削除し文書のフ
ォーマットを変更するよう構成してもよい。前記構成に
よれば、音声により指定した文書の領域を削除し、削除
によるフォーマットの崩れを防止することができる。
When the voice information identification unit identifies the voice information as a voice command designating document deletion processing and format change processing, the voice information processing unit deletes a document area specified by the voice command. The format of the document may be changed. According to the configuration, it is possible to delete the area of the document specified by the voice and prevent the format from being destroyed by the deletion.

【0019】前記音声情報識別部が、前記音声情報を文
書の強調処理を指定した音声コマンドとして識別した
際、前記音声情報処理部は、音声コマンドにより指定し
た文書の領域を強調処理するよう構成してもよい。前記
強調処理としては、例えば、印刷濃度を高めるか、文字
サイズを大きくして強調してもよい。前記構成によれ
ば、音声により指定した文書の領域を強調処理するの
で、ユーザは強調部分を注意して確認することができ
る。
When the voice information identifying section identifies the voice information as a voice command designating the emphasis processing of the document, the voice information processing section is configured to emphasize the area of the document specified by the voice command. You may. As the emphasis processing, for example, the print density may be increased or the character size may be increased to emphasize. According to the above configuration, the region of the document specified by the voice is emphasized, so that the user can carefully check the emphasized portion.

【0020】前記音声情報識別部が、前記音声情報を文
書の弱調処理を指定した音声コマンドとして識別した
際、前記音声情報処理部は、音声コマンドにより指定し
た文書の領域を弱調処理するよう構成してもよい。前記
弱調処理としては、例えば、印刷濃度を低くするか、文
字サイズを小さくして弱調してもよい。前記構成によれ
ば、音声により指定した文書の領域を弱調処理するの
で、ユーザは弱調部分を注意して確認することができ
る。
When the voice information identifying section identifies the voice information as a voice command designating the weak processing of the document, the voice information processing section performs the weak processing on the area of the document specified by the voice command. You may comprise. As the low-tone processing, for example, the low-density printing may be performed or the character size may be reduced to perform the low-tone processing. According to the above configuration, since the area of the document specified by the sound is subjected to the attenuating process, the user can carefully check the attenuated portion.

【0021】前記音声情報識別部が、前記音声情報を特
定文字列の挿入処理の音声コマンドとして識別した際、
前記音声情報処理部は、音声コマンドにより指定した文
書の領域に特定文字列を挿入処理するよう構成してもよ
い。前記特定文字列としては、例えば、[重要]、[参
考]などの追記によく使われる文字列である。前記構成
によれば、音声により指定した文書の領域に特定文字列
を挿入処理するので、ユーザは特定文字列のある文書領
域を注意して確認することができる。
When the voice information identifying section identifies the voice information as a voice command for inserting a specific character string,
The voice information processing unit may be configured to insert a specific character string into an area of a document specified by a voice command. The specific character string is, for example, a character string often used for additional writing such as [important] and [reference]. According to the above configuration, since the specific character string is inserted into the area of the document specified by the voice, the user can carefully check the document area having the specific character string.

【0022】前記音声情報識別部が、前記音声情報を音
声テキストとして識別した際、前記音声情報処理部は、
文書の添付位置に音声テキストを添付処理するよう構成
してもよい。前記構成によれば、音声により指定した文
書の添付位置に音声テキストを添付処理するので、音声
テキストを変換せずにそのまま音声メモとして文書に添
付することができる。
When the voice information identifying unit identifies the voice information as a voice text, the voice information processing unit
A configuration may be adopted in which audio text is attached to the attachment position of the document. According to the above configuration, since the voice text is attached to the attachment position of the document specified by voice, the voice text can be directly attached to the document as a voice memo without conversion.

【0023】本発明の別の観点によれば、予め取得した
文書を表示部に表示し、前記文書において音声情報を添
付する位置を指示し、前記添付位置に少なくとも音声コ
マンドまたは音声テキストのいずれかを含む音声情報を
音声入力部により入力し、前記音声情報を前記添付位置
に添付したことを示す表記を表示するとともにそれらを
音声情報記憶部に記憶し、前記添付位置に対応する音声
情報を前記音声情報記憶部から検索し、検索された音声
情報から音声コマンドまたは音声テキストを識別し、前
記識別結果に基づき音声コマンドまたは音声テキストと
して予め設定された文書処理を実行することを特徴とす
る音声情報処理方法が提供される。
According to another aspect of the present invention, a document obtained in advance is displayed on a display unit, a position at which voice information is to be attached in the document is indicated, and at least one of a voice command and a voice text is provided at the attachment position. Is input by a voice input unit, a notation indicating that the voice information is attached to the attachment position is displayed and stored in a voice information storage unit, and the voice information corresponding to the attachment position is displayed. Speech information characterized by retrieving from a speech information storage unit, identifying a speech command or speech text from the retrieved speech information, and executing document processing preset as a speech command or speech text based on the identification result. A processing method is provided.

【0024】さらに、本発明の別の観点によれば、予め
取得した文書を表示する表示部と、前記文書において音
声情報を添付する位置を指示する音声添付位置指示部
と、前記添付位置に少なくとも音声コマンドまたは音声
テキストのいずれかを含む音声情報を入力する音声入力
部とを備えた音声情報処理装置をコンピュータによって
制御するプログラムを記憶した媒体であって、前記コン
ピュータに、前記音声情報を前記添付位置に添付したこ
とを示す表記を表示させるとともにそれらを音声情報記
憶部に記憶させ、前記添付位置に対応する音声情報を前
記音声情報記憶部から検索させ、検索された音声情報か
ら音声コマンドまたは音声テキストを識別させ、前記音
声情報の識別結果に基づき音声コマンドまたは音声テキ
ストとして予め設定された文書処理を実行させる音声情
報処理装置制御プログラムを記憶した媒体が提供され
る。
Further, according to another aspect of the present invention, a display unit for displaying a previously acquired document, a voice attachment position designating unit for designating a position to attach audio information in the document, And a voice input unit for inputting voice information including either a voice command or a voice text. A medium storing a program for controlling a voice information processing device by a computer, wherein the voice information is attached to the computer. The notation indicating that the position is attached is displayed and stored in the voice information storage unit, and the voice information corresponding to the attached position is searched from the voice information storage unit. Identify the text and set it in advance as a voice command or voice text based on the identification result of the voice information Medium storing a voice information processing apparatus control program for executing the document processing which is provided.

【0025】前記記憶媒体に記憶した制御プログラム
を、本発明の音声情報処理機能を持たない装置のRA
M、フロッピーディスクなどのメモリにインストールす
ることにより、各種情報処理装置を本発明の音声情報処
理装置として適用することが可能になる。
The control program stored in the storage medium is transferred to the RA of the apparatus having no voice information processing function of the present invention.
By installing the information processing device in a memory such as a floppy disk or the like, various information processing devices can be applied as the voice information processing device of the present invention.

【0026】[0026]

【発明の実施の形態】以下、図に示す実施例に基づいて
本発明を詳述する。なお、本発明はこれによって限定さ
れるものではない。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail based on an embodiment shown in the drawings. The present invention is not limited by this.

【0027】図1は本発明の音声情報処理装置のハード
構成を示すブロック図である。図1において、1は制御
プログラムにより本発明の音声情報処理装置の各部を制
御するコンピュータのCPUを示す。CPU1は図2に
示す制御プログラムにより図3に示す各部として機能す
る。2はCPU1の制御プログラムや各種データ等を記
憶するROMを示し、音声コマンドテーブル、属性コマ
ンドテーブルとしても機能する。3はCPU1の制御デ
ータを一時記憶するバッファ、音声情報を記憶する音声
情報記憶部として機能するRAMを示す。
FIG. 1 is a block diagram showing a hardware configuration of a voice information processing apparatus according to the present invention. In FIG. 1, reference numeral 1 denotes a CPU of a computer that controls each unit of the audio information processing apparatus of the present invention by a control program. The CPU 1 functions as each unit shown in FIG. 3 by the control program shown in FIG. Reference numeral 2 denotes a ROM that stores a control program of the CPU 1, various data, and the like, and also functions as a voice command table and an attribute command table. Reference numeral 3 denotes a buffer that temporarily stores control data of the CPU 1 and a RAM that functions as an audio information storage unit that stores audio information.

【0028】4は各種表示データを表示するLCD(液
晶ディスプレイ)を示し、表示部として機能する。5は
CPU1の指示により表示データやLCD4の制御を行
う表示コントローラを示す。6はLCD4の表示画面と
一体構成したタブレットを示す。7はタブレット6に座
標データを入力するペンを示し、音声添付位置指示部と
して機能する。8はタブレット6及びペン7をそれぞれ
制御し、タブレット6に入力された座標データをCPU
1に転送する座標入力コントローラを示す。
Reference numeral 4 denotes an LCD (Liquid Crystal Display) for displaying various display data, which functions as a display unit. Reference numeral 5 denotes a display controller that controls display data and the LCD 4 according to an instruction from the CPU 1. Reference numeral 6 denotes a tablet integrated with the display screen of the LCD 4. Reference numeral 7 denotes a pen for inputting coordinate data to the tablet 6, and functions as a voice attachment position indicating unit. Reference numeral 8 controls the tablet 6 and the pen 7, respectively, and stores coordinate data input to the tablet 6 in the CPU.
1 shows a coordinate input controller to be transferred.

【0029】9は音声を入力するマイクを示し、音声入
力部として機能する。10はマイク9により入力された
アナログの音声データをデジタルの音声データに変換し
CPU1に転送する音声入力コントローラを示す。11
はROMで構成され、デジタルの音声データを認識して
コードデータに変換するためのコードデータを記憶した
音声認識テーブルを示す。13はデジタルの音声データ
をアナログの音声データに変換してスピーカ12により
出力する音声出力コントローラを示す。
Reference numeral 9 denotes a microphone for inputting voice, which functions as a voice input unit. Reference numeral 10 denotes an audio input controller that converts analog audio data input by the microphone 9 into digital audio data and transfers the digital audio data to the CPU 1. 11
Denotes a voice recognition table which is constituted by a ROM and stores code data for recognizing digital voice data and converting it into code data. Reference numeral 13 denotes an audio output controller that converts digital audio data into analog audio data and outputs the converted audio data through the speaker 12.

【0030】14はICカード、FD(フロッピーディ
スク)、CD−ROM、MDなどで構成され、本発明の
制御プログラムを記憶する記憶媒体を示す。15は記憶
媒体14とRAM3間の情報の入出力を制御する記憶媒
体コントローラを示す。記憶媒体コントローラ15は、
必要に応じて本発明を実現する制御プログラムを記憶媒
体14から読み出してRAM3にインストールすること
ができる。
Reference numeral 14 denotes a storage medium which is constituted by an IC card, FD (floppy disk), CD-ROM, MD, or the like, and stores a control program of the present invention. Reference numeral 15 denotes a storage medium controller that controls input and output of information between the storage medium 14 and the RAM 3. The storage medium controller 15
A control program for implementing the present invention can be read from the storage medium 14 and installed in the RAM 3 as needed.

【0031】16はサーマルプリンタ、レーザプリンタ
などで構成されるプリンタを示す。17は印刷部16及
び印刷データを制御する印刷コントローラを示す。18
は通信回線上にある他の情報処理端末と通信接続するモ
デムを示す。19はモデム18及び通信データを制御す
る通信コントローラ(通信部)を示す。20はアドレ
ス、制御プログラムデータ、音声データ(音声コマン
ド、音声テキスト)などを転送するバスを示す。
Reference numeral 16 denotes a printer including a thermal printer, a laser printer, and the like. Reference numeral 17 denotes a printing unit 16 and a print controller that controls print data. 18
Denotes a modem for communication connection with another information processing terminal on a communication line. Reference numeral 19 denotes a communication controller (communication unit) for controlling the modem 18 and communication data. Reference numeral 20 denotes a bus for transferring addresses, control program data, voice data (voice commands, voice texts) and the like.

【0032】図2は本実施例の記憶媒体に記憶される制
御プログラムを示す図である。図2に示すように、記憶
媒体14には、CPU1が、文書中に指示された添付位
置に音声情報(音声データ)を添付する音声情報添付プ
ログラム、添付位置に対応する音声情報を検索する音声
情報検索プログラム、添付された音声情報を認識する音
声情報認識プログラム、音声情報が音声コマンドか音声
テキストかを識別する音声情報識別プログラム、情報処
理プログラムなどの各プログラムが記憶されている。ま
た、記憶媒体14は、図1に示す各コントローラ及びR
OM2、RAM3を制御するプログラム、音声認識テー
ブルなどの各種データも含んでいる。
FIG. 2 is a diagram showing a control program stored in the storage medium of this embodiment. As shown in FIG. 2, in the storage medium 14, the CPU 1 stores a voice information attachment program for attaching voice information (voice data) to an attachment position designated in a document, and a voice for searching for voice information corresponding to the attachment position. Each program stores an information search program, a voice information recognition program for recognizing attached voice information, a voice information identification program for determining whether voice information is a voice command or voice text, and an information processing program. In addition, the storage medium 14 stores each controller and R shown in FIG.
Various data such as a program for controlling the OM 2 and the RAM 3 and a voice recognition table are also included.

【0033】前記構成によれば、予め取得した文書を表
示する表示部4と、前記文書において音声情報を添付す
る位置を指示する音声添付位置指示部7と、前記添付位
置に少なくとも音声コマンドまたは音声テキストのいず
れかを含む音声情報を入力する音声入力部9とを備えた
音声情報処理装置を、コンピュータ1に、前記音声情報
を前記添付位置に添付したことを示す表記を表示させる
とともにそれらを音声情報記憶部3に記憶させ、前記添
付位置に対応する音声情報を前記音声情報記憶部3から
検索させ、検索された音声情報から音声コマンドまたは
音声テキストを識別させ、前記音声情報の識別結果に基
づき音声コマンドまたは音声テキストとして予め設定さ
れた文書処理を実行させる制御プログラムを記憶媒体1
4に記憶してもよい。従って、市場にある各種情報処理
端末に、記憶媒体14に記憶された制御プログラムをイ
ンストールすることにより、本発明の音声情報処理置を
実現することができる。
According to the above configuration, the display unit 4 for displaying a previously acquired document, the voice attachment position instructing unit 7 for designating a position to attach audio information in the document, and at least a voice command or a voice at the attachment position. An audio information processing apparatus having an audio input unit 9 for inputting audio information including any of texts is displayed on a computer 1 by displaying a notation indicating that the audio information is attached to the attachment position. The information is stored in the information storage unit 3, the voice information corresponding to the attachment position is searched from the voice information storage unit 3, a voice command or a voice text is identified from the searched voice information, and based on the identification result of the voice information. A control program for executing document processing preset as a voice command or voice text is stored in the storage medium 1.
4 may be stored. Therefore, by installing the control program stored in the storage medium 14 into various information processing terminals on the market, the audio information processing apparatus of the present invention can be realized.

【0034】図3は本発明の音声情報処理装置の機能構
成を示すブロック図である。図3において、301は音
声添付位置指示部(ペン7)、302は音声入力部(マ
イク9)、303は音声情報添付部(CPU1)、30
4は音声情報記憶部(RAM3)、305は音声情報検
索部(CPU1)、306は表示部(LCD4)、30
7は音声情報認識部(CPU1)、308は音声情報識
別部(CPU1)、309は音声情報処理部(CPU
1)、310は音声コマンドテーブル(ROM2)、3
11は属性コマンドテーブル(ROM2)、312はコ
マンド処理テーブル(ROM2)を示す。
FIG. 3 is a block diagram showing a functional configuration of the voice information processing apparatus according to the present invention. In FIG. 3, reference numeral 301 denotes a voice attachment position indicating unit (pen 7), 302 denotes a voice input unit (microphone 9), 303 denotes a voice information attachment unit (CPU 1), 30
4 is a voice information storage unit (RAM3), 305 is a voice information search unit (CPU1), 306 is a display unit (LCD4), 30
7 is a voice information recognition unit (CPU1), 308 is a voice information identification unit (CPU1), and 309 is a voice information processing unit (CPU1).
1) and 310 are voice command tables (ROM2), 3
Reference numeral 11 denotes an attribute command table (ROM2), and reference numeral 312 denotes a command processing table (ROM2).

【0035】図3の機能構成について以下に示す図4〜
図32を用いて説明する。図4は本実施例において文書
中に添付する音声情報の処理画面を示す図である。図4
の(a)は、ペンからなる音声添付位置指示部301に
より、表示された文書中に音声情報を添付(挿入)する
位置を決定する処理画面を示す。図4の(b)は、カー
ソルを移動して添付位置を指定する処理画面を示す。
The functional configuration of FIG. 3 is shown in FIGS.
This will be described with reference to FIG. FIG. 4 is a diagram showing a processing screen of audio information attached to a document in this embodiment. FIG.
(A) shows a processing screen for determining a position where sound information is to be attached (inserted) in a displayed document by the sound attachment position indicating unit 301 composed of a pen. FIG. 4B shows a processing screen for specifying the attachment position by moving the cursor.

【0036】この音声情報の添付操作は、ペン7で操作
するが、マウス、キーボードからなるカーソルキーの操
作でも可能である。このように、音声情報を添付する文
書中の添付位置を決定し、次に、マイク9などの音声入
力部302により音声を入力し、音声情報添付部303
により音声情報を文書の添付位置に添付する。
The operation of attaching the voice information is performed by using the pen 7, but can also be performed by operating the cursor keys including the mouse and the keyboard. As described above, the attachment position in the document to which the audio information is attached is determined, and then the audio is input by the audio input unit 302 such as the microphone 9, and the audio information attachment unit 303 is input.
To attach the audio information to the attachment position of the document.

【0037】図4の(c)は、音声情報が添付されたこ
とを示すアイコン[音]が表示された処理画面を示す。
音声情報添付部303により文書の添付位置に添付され
た音声情報は、その添付位置と対応させて音声情報記憶
部304に記憶される。
FIG. 4C shows a processing screen on which an icon [sound] indicating that the audio information has been attached is displayed.
The audio information attached to the attachment position of the document by the audio information attachment unit 303 is stored in the audio information storage unit 304 in association with the attachment position.

【0038】図5は本実施例において音声情報が添付さ
れた文書の表示例とそのテキストデータを示す図であ
る。図5の(a)は、音声情報が添付された文書の表示
例を示す。図5の(a)に示す[2文字削除]は、音声
情報(音声コマンド)であることを示す。図5の(b)
は、音声情報が添付された文書のテキストデータ(コー
ドデータ)を示す。音声情報が添付される位置に音声識
別子(5555H)とポインタがテキストデータに挿入
される。音声情報添付部303は、入力された音声情報
をポインタが指示する位置に対応させてテキストデータ
として音声情報記憶部304に記憶する。
FIG. 5 is a view showing a display example of a document to which voice information is attached in this embodiment and its text data. FIG. 5A shows a display example of a document to which audio information is attached. “Delete two characters” shown in FIG. 5A indicates that it is voice information (voice command). FIG. 5 (b)
Indicates text data (code data) of a document to which audio information is attached. A voice identifier (5555H) and a pointer are inserted into the text data at the position where the voice information is attached. The voice information attachment unit 303 stores the input voice information as text data in the voice information storage unit 304 in association with the position indicated by the pointer.

【0039】図6は本実施例の音声コマンドテーブルを
示す図である。この音声コマンドテーブル310は、音
声情報認識部307により認識された音声情報(音声デ
ータ)が、音声情報識別部308により音声コマンド
(制御コマンド)か否かを識別するためのものである。
音声コマンドテーブル310に音声データが含まれてい
るとき、音声コマンドとして処理され、含まれていなけ
れば、音声テキスト(音声メモ)として処理される。
FIG. 6 is a diagram showing a voice command table according to this embodiment. The voice command table 310 is for identifying whether the voice information (voice data) recognized by the voice information recognition unit 307 is a voice command (control command) by the voice information identification unit 308.
When voice data is included in the voice command table 310, it is processed as a voice command, and when voice data is not included, it is processed as voice text (voice memo).

【0040】図7は本実施例の属性コマンドテーブルを
示す図である。この属性コマンドテーブル311は、音
声情報識別部308により識別された音声データが音声
コマンド(制御コマンド)であったとき、さらに、音声
コマンドが、全体処理コマンドか部分選択処理コマンド
かを識別するためのものである。属性コマンドテーブル
311に音声コマンドが含まれているとき、音声情報処
理部309は、部分選択処理コマンドとして処理し、含
まれていなければ、全体処理コマンドとして処理する。
FIG. 7 is a view showing an attribute command table according to this embodiment. When the voice data identified by the voice information identification unit 308 is a voice command (control command), the attribute command table 311 is used to further identify whether the voice command is a whole processing command or a partial selection processing command. Things. When the attribute command table 311 includes a voice command, the voice information processing unit 309 processes the command as a partial selection processing command.

【0041】図8は本実施例のコマンド処理テーブルを
示す図である。このコマンド処理テーブル312は、制
御コマンドと属性コマンドとを有効に組み合わせた音声
コマンドの処理内容を定義している。図9は本実施例の
音声コマンドの認識結果とそのコードデータの一例を示
す図である。認識された音声コマンドと処理内容は、音
声情報処理部309により音声情報記憶部304に一時
記憶される。
FIG. 8 is a diagram showing a command processing table according to this embodiment. The command processing table 312 defines processing contents of a voice command in which a control command and an attribute command are effectively combined. FIG. 9 is a diagram illustrating an example of a recognition result of a voice command and code data thereof according to the present embodiment. The recognized voice command and the processing content are temporarily stored in the voice information storage unit 304 by the voice information processing unit 309.

【0042】音声情報検索部305は、音声情報記憶部
304に記憶された音声データから音声データ識別子が
あるかどうか検索し、音声データ識別子に基づいて音声
情報を検索する。音声情報認識部307は、検索した音
声情報を音声認識テーブル11により認識しコードデー
タに変換する。音声情報識別部308は、音声情報(コ
ードデータ)が音声テキスト(音声メモ)か音声コマン
ドかを音声コマンドテーブル310、属性コマンドテー
ブル311によって識別し、音声テキストならば、音声
情報処理部309によって音声テキストとして処理され
る。例えば、図31に示すように、[これは音声認識に
より実現しています]が音声テキストとして処理され、
文書中に挿入される。音声情報識別部308は、属性コ
マンドテーブルにより制御コマンドをより詳細な音声コ
マンドとして識別され、音声情報処理部309により削
除等の編集処理に適用される。
The audio information search unit 305 searches the audio data stored in the audio information storage unit 304 for an audio data identifier, and searches for audio information based on the audio data identifier. The voice information recognition unit 307 recognizes the searched voice information by using the voice recognition table 11 and converts it into code data. The voice information identification unit 308 identifies whether the voice information (code data) is a voice text (voice memo) or a voice command by using the voice command table 310 and the attribute command table 311. Treated as text. For example, as shown in FIG. 31, [this is realized by speech recognition] is processed as speech text,
Inserted into the document. The voice information identification unit 308 identifies the control command as a more detailed voice command by the attribute command table, and is applied by the voice information processing unit 309 to editing processing such as deletion.

【0043】以下、図10〜図22のフローチャートに
ついて、本実施例において音声情報(1)〜(10)が
添付された文書とその音声情報に基づいて処理された文
書を示す図23〜図32を用いて説明する。
Referring now to the flowcharts of FIGS. 10 to 22, FIGS. 23 to 32 show a document to which sound information (1) to (10) is attached and a document processed based on the sound information in this embodiment. This will be described with reference to FIG.

【0044】図10は本実施例の音声情報認識処理及び
音声情報処理の手順を示すフローチャートである。図1
0において、音声情報記憶部304に記憶されている音
声データは、図5で示すように、文書データ中に音声識
別子のポインタが指示する位置に存在する。その文書デ
ータ中に音声データ識別子があるか調べる(S100
1)。音声データ識別子がなければ、音声データは含ま
れていないため、何も処理せずに終了する。音声データ
識別子があれば、音声データの認識を行い(S100
2)、認識結果をコードに変換された形式で音声情報記
憶部304に記憶する。記憶されたコードデータに図6
の音声コマンドテーブルの制御コマンドがあるか否かを
調べる(S1003)。例えば、認識結果中に「さくじ
ょ」というコード列が含まれているか調べる。
FIG. 10 is a flowchart showing the procedure of the voice information recognition processing and voice information processing of this embodiment. FIG.
At 0, the audio data stored in the audio information storage unit 304 exists in the document data at the position indicated by the pointer of the audio identifier in the document data, as shown in FIG. It is checked whether a voice data identifier exists in the document data (S100).
1). If there is no voice data identifier, no voice data is included, and the process ends without any processing. If there is a voice data identifier, the voice data is recognized (S100).
2) The recognition result is stored in the voice information storage unit 304 in a format converted into a code. FIG. 6 shows the stored code data.
It is checked whether or not there is a control command of the voice command table (S1003). For example, it is checked whether or not the recognition result includes a code string “Sakuju”.

【0045】認識結果中に制御コマンドが含まれていな
ければ、音声テキストと識別し(S1005)、音声デ
ータを音声テキストとしてコード変換し文書に挿入する
(S1007)。これは、図31の(a)で、文書に音
声データが添付されている場合を示し、図31の(b)
で、音声データが音声テキストに変換され、文書に挿入
された状態を示す。
If the control command is not included in the recognition result, it is identified as a voice text (S1005), and the voice data is code-converted as a voice text and inserted into a document (S1007). This shows a case where voice data is attached to the document in FIG. 31A, and FIG.
Shows a state in which the voice data is converted into voice text and inserted into the document.

【0046】S1003で、制御コマンドが含まれてい
るときは、音声コマンドと識別し(S1004)、音声
コマンドの内容を解析しそれに対応するコマンド処理を
行う(S1006)。音声コマンドの処理を行えば、音
声コマンドは不要になるので、音声データをカットする
(S1008)。これは、図32に示すように、[印
刷]という音声コマンドを含むテキストデータを示し、
音声コマンドはカットされ、テキストデータのみ印刷さ
れた状態を示す。
If a control command is included in S1003, it is identified as a voice command (S1004), the content of the voice command is analyzed, and a corresponding command process is performed (S1006). If the voice command is processed, the voice command becomes unnecessary, so the voice data is cut (S1008). This indicates, as shown in FIG. 32, text data including a voice command of “print”,
The voice command is cut, and only the text data is printed.

【0047】図11は本実施例の音声コマンド識別処理
の手順を示すフローチャートである。音声データから図
7の属性コマンドテーブルより属性コマンドを抽出する
(S1101)。次に、音声データから図6の音声コマ
ンドテーブルより制御コマンドを抽出して(S110
2)、制御コマンドと属性コマンドの組み合わせから、
図8のコマンド処理テーブルより処理対象と処理内容を
抽出する。
FIG. 11 is a flow chart showing the procedure of the voice command identification processing of this embodiment. An attribute command is extracted from the voice data from the attribute command table of FIG. 7 (S1101). Next, control commands are extracted from the voice data from the voice command table of FIG. 6 (S110).
2) From the combination of control command and attribute command,
The processing target and the processing content are extracted from the command processing table of FIG.

【0048】図12は本実施例の音声コマンド識別処理
及びそのコマンド処理(1)の手順を示すフローチャー
トである。図12において、音声データが音声テキスト
か音声コマンドかの識別を行い(S1201)、音声テ
キスト(音声メモ)ならば、音声データをテキストデー
タに変換して文書に張り付け処理を行う(S120
6)。ここで、音声コマンドが全体処理を指示するコマ
ンドか、指定された範囲の処理を指示するコマンドかを
解析する。
FIG. 12 is a flowchart showing the procedure of the voice command identification process and the command process (1) of this embodiment. In FIG. 12, it is determined whether the voice data is a voice text or a voice command (S1201). If the voice data is a voice text (voice memo), the voice data is converted into text data and a paste process is performed on the document (S120).
6). Here, it is analyzed whether the voice command is a command for instructing overall processing or a command for instructing processing in a specified range.

【0049】音声データが、音声コマンドならば、文書
の先頭に音声識別子があるか調べ(S1202)、音声
データ識別子がなければ、全体処理コマンドではないの
で、部分処理コマンドとする(S1205)。文頭に音
声識別子があれば、認識された音声データに属性コマン
ドがあるか否かを識別する(S1203)。属性コマン
ドがあれば、部分処理コマンドに対応する処理をする
(S1205)。属性コマンドがなければ、全体処理コ
マンドに対応する処理をする(S1204)。
If the voice data is a voice command, it is checked whether or not there is a voice identifier at the head of the document (S1202). If there is no voice data identifier, the command is a partial processing command because it is not an entire processing command (S1205). If there is a voice identifier at the beginning of the sentence, it is determined whether or not the recognized voice data has an attribute command (S1203). If there is an attribute command, processing corresponding to the partial processing command is performed (S1205). If there is no attribute command, processing corresponding to the entire processing command is performed (S1204).

【0050】図13は本実施例の音声コマンド識別処理
及びそのコマンド処理(2)の手順を示すフローチャー
トである。図13において、音声データが全体処理の音
声コマンドであったとき、そのコマンドの種類に応じた
全体処理を行う。例えば、音声コマンドが[印刷]のコ
マンドであったとき、印刷処理か調べ(S1301)、
印刷処理でありまた属性コマンドもないため全体処理と
なり、その文書を印刷する(S1302)。印刷処理で
なければ、さらに、メール宛て名添付処理か調べ(S1
303)、メール宛て名添付処理であれば、文書の先頭
にメールの宛て名を添付する(S1304)(図23参
照)。
FIG. 13 is a flowchart showing the procedure of the voice command identification process and the command process (2) of this embodiment. In FIG. 13, when the voice data is a voice command for the entire process, the entire process according to the type of the command is performed. For example, when the voice command is a command of [Print], it is checked whether the process is a print process (S1301).
Since the printing process is performed and there is no attribute command, the entire process is performed, and the document is printed (S1302). If it is not a print process, it is further checked whether the process is an attachment to a mail address (S1
303), in the case of mail address attachment processing, the mail address is attached to the head of the document (S1304) (see FIG. 23).

【0051】図14は本実施例の音声コマンド識別処理
及びそのコマンド処理(3)の手順を示すフローチャー
トである。次に、図14において、音声データが、部分
処理の音声コマンドであったとき、そのコマンドの種類
に応じた部分処理を行う。例えば、削除処理か調べ(S
1401)、削除処理の場合、フォーマット変更を伴う
か調べ(S1402)、フォーマット変更がなければ、
指定部分の削除を行う(S1403)(図24参照)。
FIG. 14 is a flowchart showing the procedure of the voice command identification process and the command process (3) of this embodiment. Next, in FIG. 14, when the voice data is a voice command of a partial process, a partial process corresponding to the type of the command is performed. For example, it is checked whether the process is a deletion process (S
1401) In the case of the deletion process, it is checked whether a format change is involved (S1402).
The designated part is deleted (S1403) (see FIG. 24).

【0052】フォーマット変更が伴えば、指定部分を削
除してフォーマット変更を行う(S1404)(図26
参照)。次に、削除部分を明示する処理か調べ(S14
05)、削除部分を明示する処理であるとき、2重線を
引くことにより削除部分を明示する処理を行う(S14
06)(図25参照)。
If the format is changed, the designated portion is deleted and the format is changed (S1404) (FIG. 26).
reference). Next, a check is made to see if the process explicitly specifies the deleted portion (S14).
05) If it is the process of specifying the deleted portion, a process of specifying the deleted portion by drawing a double line is performed (S14).
06) (see FIG. 25).

【0053】次に、強調処理か調べ(S1407)、強
調処理のときは、文字列を横倍角にすることで強調処理
を行う(S1408)(図27参照)。弱調処理か調べ
(S1409)、弱調処理のときは、文字を半角にする
ことで弱調処理を行う(S1410)(図28参照)。
特定表現付与処理か調べ(S1411)、特定表現付与
処理のときは、例えば、「重要」という特定表現を付与
することで特定表現付与処理を行う(S1412)(図
29参照)。
Next, it is checked whether the process is the emphasis process (S1407). If the process is the emphasis process, the emphasis process is performed by making the character string a double-width character (S1408) (see FIG. 27). It is checked whether the process is a weak tone process (S1409), and in the case of the weak tone process, the halftone process is performed by making the character half-width (S1410) (see FIG. 28).
It is checked whether the process is a specific expression providing process (S1411). In the case of the specific expression providing process, the specific expression providing process is performed by, for example, providing a specific expression “important” (S1412) (see FIG. 29).

【0054】図15は図13のS1302のコマンド処
理(印刷処理)を示す詳細フローチャートである。図1
5において、入力された文書をRAM3上で印刷データ
に変換する(S1501)。変換された印刷データを印
刷する(S1502)。例えば、図32の(a)〜
(b)に示すように、[印刷]という音声コマンドは消
えて印刷される。
FIG. 15 is a detailed flowchart showing the command processing (print processing) in S1302 of FIG. FIG.
In step 5, the input document is converted into print data on the RAM 3 (S1501). The converted print data is printed (S1502). For example, FIG.
As shown in (b), the voice command “print” disappears and is printed.

【0055】図16は図13のS1304のコマンド処
理(メールの宛て名添付処理)を示す詳細フローチャー
トである。図16において、メールの宛て名の文書を作
成し(S1601)、作成された文書を本文の先頭に追
加する(S1502)。例えば、図23の(a)〜
(b)に示すように、[メール宛て名添付]のコマンド
であるので、「Aさんへ、いつもお世話になっておりま
す。」という文書が文頭に添付される。
FIG. 16 is a detailed flowchart showing the command processing (mail address attachment processing) in S1304 of FIG. In FIG. 16, a document having a mail address is created (S1601), and the created document is added to the head of the body (S1502). For example, FIG.
As shown in (b), since it is a command of [Attach mail address], a document "I am always taking care of A." is attached to the beginning of the sentence.

【0056】図17は図14のS1403のコマンド処
理(削除処理)を示す詳細フローチャートである。図1
7において、メモリ上の指定部分を示すアドレスを得て
(S1701)、そのアドレスに対応するコードデータ
に対し、ある文字数分に削除されることを示す削除ビッ
ト(フラグ)を立てる(S1702)。このコマンド処
理では削除ビットが立っていれば、表示/印刷において
削除されない文字間が詰められてカットされたようにな
る。例えば、図24の(a)〜(b)に示すように、コ
マンド処理は、[2文字]という属性があるので指定部
分の削除処理となり、2文字分の削除ビットを立てる。
FIG. 17 is a detailed flowchart showing the command processing (deletion processing) in S1403 of FIG. FIG.
In step 7, an address indicating a designated portion on the memory is obtained (S1701), and a deletion bit (flag) indicating that the code data corresponding to the address is deleted for a certain number of characters is set (S1702). In this command processing, if the delete bit is set, it is as if the characters that are not deleted in display / print are cut and cut. For example, as shown in (a) and (b) of FIG. 24, the command processing has the attribute of [2 characters], so that the specified portion is deleted, and a deletion bit for two characters is set.

【0057】図18は図14のS1404のコマンド処
理(削除/フォーマット変更処理)を示す詳細フローチ
ャートである。図18において、メモリ上の指定部分を
示すアドレスを得て(S1801)、そのアドレスに対
応するコードデータに対し、ある文字数分に削除される
ことを示す削除ビットを立てる(S1802)。次に、
フォーマット変更が必要な部分については、そのフォー
マットを変更する(S1803)。例えば、図26の
(a)〜(b)に示すように、1行削除すると、行の先
頭につけられている番号の変更も行う。
FIG. 18 is a detailed flowchart showing the command processing (deletion / format change processing) in S1404 of FIG. In FIG. 18, an address indicating a designated portion on a memory is obtained (S1801), and a deletion bit indicating that the code data corresponding to the address is deleted for a certain number of characters is set (S1802). next,
The format of the portion that needs to be changed is changed (S1803). For example, as shown in (a) and (b) of FIG. 26, when one line is deleted, the number assigned to the head of the line is also changed.

【0058】図19は図14のS1406のコマンド処
理(削除部分明示処理)を示す詳細フローチャートであ
る。図19において、メモリ上の指定部分を示すアドレ
スを得て(S1901)、そのアドレスに対応するコー
ドデータに対し、ある文字数分に2重線が付加されるこ
とを示す2重線ビットを立てる(S1902)。例え
ば、図25の(a)〜(b)に示すように、削除部分を
明示する処理であるとき、2重線を引くことにより削除
部分を残して明示する処理を行う。
FIG. 19 is a detailed flowchart showing the command processing (deleted part explicit processing) in S1406 of FIG. In FIG. 19, an address indicating a designated portion on the memory is obtained (S1901), and a double line bit indicating that a double line is added for a certain number of characters is set for the code data corresponding to the address (S1901). S1902). For example, as shown in (a) and (b) of FIG. 25, when the process of specifying the deleted portion is performed, a process of specifying the deleted portion and leaving the deleted portion is performed by drawing a double line.

【0059】図20は図14のS1408のコマンド処
理(強調処理)を示す詳細フローチャートである。図2
0において、メモリ上の指定部分を示すアドレスを得て
(S2001)、そのアドレスに対応するコードデータ
に対し、ある文字数分に倍角になることを示す倍角ビッ
トを立てる(S2002)。例えば、図27の(a)〜
(b)に示すように、コマンド処理は、強調処理なので
文字列を横倍角にすることで強調処理を行う。強調につ
いては倍角だけでなく文字の色を変えることや書体を変
えることでも可能である。
FIG. 20 is a detailed flowchart showing the command processing (emphasis processing) in S1408 of FIG. FIG.
At 0, an address indicating a designated portion on the memory is obtained (S2001), and a double-width bit is set in the code data corresponding to the address to indicate that the double-width is set for a certain number of characters (S2002). For example, FIG.
As shown in (b), since the command processing is an emphasis processing, the emphasis processing is performed by making the character string a double-width character. For emphasis, it is possible to change not only double-width characters but also character colors and fonts.

【0060】図21は図14のS1410のコマンド処
理(弱調処理)を示す詳細フローチャートである。図2
1において、メモリ上の指定部分を示すアドレスを得て
(S2101)、そのアドレスに対応するコードデータ
に対し、ある文字数分に半角になることを示す半角ビッ
トを立てる(S2102)。例えば、図28の(a)〜
(b)に示すように、コマンド処理は、弱調処理なので
文字列を半角にすることで弱調処理を行う。弱調につい
ては半角だけでなく文字の色を変えることや書体を変え
ることでも可能である。
FIG. 21 is a detailed flowchart showing the command processing (weak processing) in S1410 of FIG. FIG.
In step 1, an address indicating a designated portion on the memory is obtained (S2101), and a half-width bit is set in the code data corresponding to the address to indicate that the half-width is set for a certain number of characters (S2102). For example, FIG.
As shown in (b), since the command processing is a low-tone processing, the low-tone processing is performed by reducing the character string to half-width. It is also possible to change the color of characters and the typeface in addition to half-width characters.

【0061】図22は図14のS1412のコマンド処
理(付与データ挿入処理)を示す詳細フローチャートで
ある。図22において、音声入力により付与データを決
める(S2201)。メモリ上の指定部分を示すアドレ
スを得て(S2202)、そのアドレスに対応する位置
に特定付与データを挿入する(S2203)。例えば、
図29の(a)〜(b)に示すように、コマンド処理
は、付与データ挿入処理なので、「重要」という文字表
記を付与する処理を行う。また、図30の(a)〜
(b)に示すように、「参考」という文字表記を付与す
る処理を行う。
FIG. 22 is a detailed flowchart showing the command processing (added data insertion processing) in S1412 of FIG. In FIG. 22, additional data is determined by voice input (S2201). An address indicating a specified portion on the memory is obtained (S2202), and the specific assignment data is inserted into a position corresponding to the address (S2203). For example,
As shown in (a) and (b) of FIG. 29, the command processing is the processing of adding the character notation “important” because the processing is the insertion data insertion processing. Also, FIG.
As shown in (b), a process of giving a character notation “reference” is performed.

【0062】[0062]

【発明の効果】本発明によれば、文書処理に関連する音
声コマンドまたは音声テキストを含む音声情報を文書の
任意の位置の指示して添付すれば、添付した音声情報に
対し音声コマンドか音声テキストかを自動識別して文書
処理することができる。このため、文書処理の作業性が
向上し、文書のフォーマットを殆ど崩さずに文書処理す
ることができる。
According to the present invention, if voice information including voice commands or voice text related to document processing is indicated at an arbitrary position in a document and attached, a voice command or voice text is attached to the attached voice information. Can be automatically identified and document processing can be performed. For this reason, the workability of the document processing is improved, and the document processing can be performed without substantially changing the format of the document.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の音声情報処理装置のハード構成を示す
ブロック図である。
FIG. 1 is a block diagram illustrating a hardware configuration of a speech information processing apparatus according to the present invention.

【図2】本実施例の記憶媒体に記憶される制御プログラ
ムを示す図である。
FIG. 2 is a diagram showing a control program stored in a storage medium of the embodiment.

【図3】本発明の音声情報処理装置の機能構成を示すブ
ロック図である。
FIG. 3 is a block diagram illustrating a functional configuration of a voice information processing apparatus according to the present invention.

【図4】本実施例において文書中に添付する音声情報の
処理画面を示す図である。
FIG. 4 is a diagram showing a processing screen of audio information attached to a document in the embodiment.

【図5】本実施例において音声情報が添付された文書の
表示例とそのテキストデータを示す図である。
FIG. 5 is a diagram illustrating a display example of a document to which audio information is attached and text data thereof according to the embodiment.

【図6】本実施例の音声コマンドテーブルを示す図であ
る。
FIG. 6 is a diagram illustrating a voice command table according to the present embodiment.

【図7】本実施例の属性コマンドテーブルを示す図であ
る。
FIG. 7 is a diagram illustrating an attribute command table according to the embodiment.

【図8】本実施例のコマンド処理テーブルを示す図であ
る。
FIG. 8 is a diagram illustrating a command processing table according to the present embodiment.

【図9】本実施例の音声コマンドの認識結果とそのコー
ドデータの一例を示す図である。
FIG. 9 is a diagram illustrating an example of a voice command recognition result and code data thereof according to the present embodiment.

【図10】本実施例の音声情報認識処理及び音声情報処
理の手順を示すフローチャートである。
FIG. 10 is a flowchart illustrating a procedure of voice information recognition processing and voice information processing according to the present embodiment.

【図11】本実施例の音声コマンド識別処理の手順を示
すフローチャートである。
FIG. 11 is a flowchart illustrating a procedure of a voice command identification process according to the embodiment;

【図12】本実施例の音声コマンド識別処理及びそのコ
マンド処理(1)の手順を示すフローチャートである。
FIG. 12 is a flowchart illustrating a voice command identification process and a procedure of the command process (1) according to the embodiment;

【図13】本実施例の音声コマンド識別処理及びそのコ
マンド処理(2)の手順を示すフローチャートである。
FIG. 13 is a flowchart illustrating a procedure of voice command identification processing and command processing (2) according to the present embodiment.

【図14】本実施例の音声コマンド識別処理及びそのコ
マンド処理(3)の手順を示すフローチャートである。
FIG. 14 is a flowchart illustrating a procedure of voice command identification processing and command processing (3) according to the present embodiment.

【図15】図13のS1302のコマンド処理(印刷処
理)を示す詳細フローチャートである。
FIG. 15 is a detailed flowchart showing a command process (print process) in S1302 of FIG.

【図16】図13のS1304のコマンド処理(メール
宛て名添付処理)を示す詳細フローチャートである。
FIG. 16 is a detailed flowchart showing a command process (mail address attachment process) in S1304 of FIG. 13;

【図17】図14のS1403のコマンド処理(削除処
理)を示す詳細フローチャートである。
FIG. 17 is a detailed flowchart showing the command processing (deletion processing) in S1403 of FIG.

【図18】図14のS1404のコマンド処理(削除/
フォーマット変更処理)を示す詳細フローチャートであ
る。
FIG. 18 shows a command processing (deletion /
9 is a detailed flowchart illustrating format change processing).

【図19】図14のS1406のコマンド処理(削除部
分明示処理)を示す詳細フローチャートである。
FIG. 19 is a detailed flowchart showing the command processing (deleted part explicit processing) in S1406 of FIG.

【図20】図14のS1408のコマンド処理(強調処
理)を示す詳細フローチャートである。
FIG. 20 is a detailed flowchart showing a command process (emphasis process) in S1408 of FIG. 14;

【図21】図14のS1410のコマンド処理(弱調処
理)を示す詳細フローチャートである。
FIG. 21 is a detailed flowchart showing the command processing (weak processing) in S1410 of FIG.

【図22】図14のS1412のコマンド処理(付与デ
ータ挿入処理)を示す詳細フローチャートである。
FIG. 22 is a detailed flowchart showing a command process (added data insertion process) in S1412 of FIG.

【図23】本実施例において音声情報(1)が添付され
た文書とその音声情報に基づいて処理された文書を示す
図である。
FIG. 23 is a diagram showing a document to which audio information (1) is attached and a document processed based on the audio information in the embodiment.

【図24】本実施例において音声情報(2)が添付され
た文書とその音声情報に基づいて処理された文書を示す
図である。
FIG. 24 is a diagram showing a document to which audio information (2) is attached and a document processed based on the audio information in the embodiment.

【図25】本実施例において音声情報(3)が添付され
た文書とその音声情報に基づいて処理された文書を示す
図である。
FIG. 25 is a diagram showing a document to which audio information (3) is attached and a document processed based on the audio information in the embodiment.

【図26】本実施例において音声情報(4)が添付され
た文書とその音声情報に基づいて処理された文書を示す
図である。
FIG. 26 is a diagram showing a document to which audio information (4) is attached and a document processed based on the audio information in the embodiment.

【図27】本実施例において音声情報(5)が添付され
た文書とその音声情報に基づいて処理された文書を示す
図である。
FIG. 27 is a diagram showing a document to which audio information (5) is attached and a document processed based on the audio information in the embodiment.

【図28】本実施例において音声情報(6)が添付され
た文書とその音声情報に基づいて処理された文書を示す
図である。
FIG. 28 is a diagram showing a document to which audio information (6) is attached and a document processed based on the audio information in the embodiment.

【図29】本実施例において音声情報(7)が添付され
た文書とその音声情報に基づいて処理された文書を示す
図である。
FIG. 29 is a diagram illustrating a document to which audio information (7) is attached and a document processed based on the audio information in the embodiment.

【図30】本実施例において音声情報(8)が添付され
た文書とその音声情報に基づいて処理された文書を示す
図である。
FIG. 30 is a diagram showing a document to which audio information (8) is attached and a document processed based on the audio information in the embodiment.

【図31】本実施例において音声情報(9)が添付され
た文書とその音声情報に基づいて処理された文書を示す
図である。
FIG. 31 is a diagram showing a document to which audio information (9) is attached and a document processed based on the audio information in the embodiment.

【図32】本実施例において音声情報(10)が添付さ
れた文書とその音声情報に基づいて処理された文書を示
す図である。
FIG. 32 is a diagram showing a document to which audio information (10) is attached and a document processed based on the audio information in the embodiment.

【符号の説明】[Explanation of symbols]

1 CPU 2 ROM 3 RAM 4 LCD 5 表示コントローラ 6 タブレット 7 ペン 8 座標入力コントローラ 9 マイク 10 音声入力コントローラ 11 音声認識テーブル 12 スピーカ 13 音声出力コントローラ 14 記憶媒体 15 記憶媒体コントローラ 16 プリンタ 17 プリンタコントローラ 18 モデム 19 通信コントローラ 20 バス 1 CPU 2 ROM 3 RAM 4 LCD 5 Display controller 6 Tablet 7 Pen 8 Coordinate input controller 9 Microphone 10 Voice input controller 11 Voice recognition table 12 Speaker 13 Voice output controller 14 Storage medium 15 Storage medium controller 16 Printer 17 Printer controller 18 Modem 19 Communication controller 20 bus

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 予め取得した文書を表示する表示部と、
前記文書において音声情報を添付する位置を指示する音
声添付位置指示部と、前記添付位置に少なくとも音声コ
マンドまたは音声テキストのいずれかを含む音声情報を
入力する音声入力部と、前記音声情報を前記添付位置に
添付したことを示す表記を表示するとともにそれらを音
声情報記憶部に記憶させる音声情報添付部と、前記添付
位置に対応する音声情報を前記音声情報記憶部から検索
する音声情報検索部と、検索された音声情報から音声コ
マンドまたは音声テキストを識別する音声情報識別部
と、前記音声情報識別部による識別結果に基づき音声コ
マンドまたは音声テキストとして予め設定された文書処
理を実行する音声情報処理部とを備えたことを特徴とす
る音声情報処理装置。
A display unit for displaying a document obtained in advance;
A voice attachment position indicating unit that indicates a position to which voice information is to be attached in the document; a voice input unit that inputs voice information including at least one of a voice command and a voice text at the attachment position; A voice information attachment unit that displays a notation indicating that it is attached to a position and stores them in a voice information storage unit, and a voice information search unit that searches the voice information storage unit for voice information corresponding to the attached position, A voice information identification unit that identifies a voice command or a voice text from the searched voice information, and a voice information processing unit that executes a document process that is preset as a voice command or a voice text based on the identification result by the voice information identification unit. A voice information processing apparatus comprising:
【請求項2】 前記音声情報と対応する音声コマンドを
記憶した音声コマンドテーブルと、音声コマンドに対応
する文書処理内容を記憶したコマンド処理テーブルとを
さらに備え、前記音声情報識別部が、前記音声コマンド
テーブルに基づいて音声情報から音声コマンドを識別し
た際、前記音声情報処理部は、添付された表記を削除
し、前記コマンド処理テーブルに基づいて前記音声コマ
ンドに対応する文書処理内容を抽出して実行することを
特徴とする請求項1記載の音声情報処理装置。
2. A voice command table storing voice commands corresponding to the voice information, and a command processing table storing document processing contents corresponding to the voice commands, wherein the voice information identifying unit includes the voice command. When the voice command is identified from the voice information based on the table, the voice information processing unit deletes the attached notation and extracts and executes the document processing content corresponding to the voice command based on the command processing table. The voice information processing apparatus according to claim 1, wherein
【請求項3】 前記音声コマンドテーブルの音声コマン
ドの属性を示す属性コマンドを記憶した属性コマンドテ
ーブルをさらに備え、前記コマンド処理テーブルは、属
性コマンドに対応する処理内容を記憶したことを特徴と
する請求項2記載の音声情報処理装置。
3. An attribute command table storing attribute commands indicating attributes of voice commands of the voice command table, wherein the command processing table stores processing contents corresponding to the attribute commands. Item 3. The audio information processing device according to Item 2.
【請求項4】 文書を印刷する印刷部をさらに備え、前
記音声情報識別部が、前記音声情報を宛て名及び添付文
処理の音声コマンドとして識別した際、前記音声情報処
理部は、宛て名及び添付文を付加した文書を前記印刷部
に出力することを特徴とする請求項1記載の音声情報処
理装置。
4. A printing unit for printing a document, wherein when the voice information identification unit identifies the voice information as a voice command for address processing and attached sentence processing, the voice information processing unit outputs The voice information processing apparatus according to claim 1, wherein the document to which the attached text is added is output to the printing unit.
【請求項5】 外部端末と接続して文書を送受信するこ
とな可能な通信部をさらに備え、前記音声情報識別部
が、前記音声情報を宛て名及び添付文処理の音声コマン
ドとして識別した際、前記音声情報処理部は、宛て名及
び添付文を付加した文書を前記通信部に出力することを
特徴とする請求項1記載の音声情報処理装置。
5. A communication unit capable of transmitting and receiving a document by connecting to an external terminal, wherein the voice information identification unit identifies the voice information as a voice command for address processing and attached text processing. The voice information processing apparatus according to claim 1, wherein the voice information processing unit outputs a document to which a destination name and an attached text are added to the communication unit.
【請求項6】 前記音声情報識別部が、前記音声情報を
文書の削除処理を指定した音声コマンドとして識別した
際、前記音声情報処理部は、音声コマンドにより指定し
た文書の領域を削除することを特徴とする請求項1記載
の音声情報処理装置。
6. When the voice information identification unit identifies the voice information as a voice command designating document deletion processing, the voice information processing unit deletes a document area specified by the voice command. The voice information processing apparatus according to claim 1, wherein:
【請求項7】 前記音声情報識別部が、前記音声情報を
文書の削除部分に罫線処理を指定した音声コマンドとし
て識別した際、前記音声情報処理部は、音声コマンドに
より指定した文書の削除部分に罫線処理することを特徴
とする請求項1記載の音声情報処理装置。
7. When the voice information identification unit identifies the voice information as a voice command designating ruled line processing in a deleted portion of the document, the voice information processing unit determines whether the voice information has been deleted in the document deleted portion specified by the voice command. 2. The audio information processing apparatus according to claim 1, wherein rule processing is performed.
【請求項8】 前記音声情報識別部が、前記音声情報を
文書の削除処理及びフォーマット変更処理を同時指定し
た音声コマンドとして識別した際、前記音声情報処理部
は、音声コマンドにより指定した文書の領域を削除し文
書のフォーマットを変更することを特徴とする請求項1
記載の音声情報処理装置。
8. When the voice information identification unit identifies the voice information as a voice command that simultaneously specifies a document deletion process and a format change process, the voice information processing unit determines a region of the document specified by the voice command. 2. The method according to claim 1, wherein the format of the document is changed by deleting the file.
An audio information processing apparatus according to claim 1.
【請求項9】 前記音声情報識別部が、前記音声情報を
文書の強調処理を指定した音声コマンドとして識別した
際、前記音声情報処理部は、音声コマンドにより指定し
た文書の領域を強調処理することを特徴とする請求項1
記載の音声情報処理装置。
9. When the voice information identification unit identifies the voice information as a voice command designating a document emphasizing process, the voice information processing unit emphasizes a region of the document specified by the voice command. Claim 1 characterized by the following:
An audio information processing apparatus according to claim 1.
【請求項10】 前記音声情報識別部が、前記音声情報
を文書の弱調処理を指定した音声コマンドとして識別し
た際、前記音声情報処理部は、音声コマンドにより指定
した文書の領域を弱調処理することを特徴とする請求項
1記載の音声情報処理装置。
10. When the voice information identification unit identifies the voice information as a voice command designating the weak processing of the document, the voice information processing unit performs the weak processing on the area of the document specified by the voice command. The voice information processing apparatus according to claim 1, wherein
【請求項11】 前記音声情報識別部が、前記音声情報
を特定文字列の挿入処理の音声コマンドとして識別した
際、前記音声情報処理部は、音声コマンドにより指定し
た文書の領域に特定文字列を挿入処理することを特徴と
する請求項1記載の音声情報処理装置。
11. When the voice information identification unit identifies the voice information as a voice command for a specific character string insertion process, the voice information processing unit stores the specific character string in a document area specified by the voice command. 2. The audio information processing apparatus according to claim 1, wherein an insertion process is performed.
【請求項12】 前記音声情報識別部が、前記音声情報
を音声テキストとして識別した際、前記音声情報処理部
は、文書の添付位置に音声テキストを添付処理すること
を特徴とする請求項1記載の音声情報処理装置。
12. The speech information processing unit according to claim 1, wherein when the speech information identification unit identifies the speech information as speech text, the speech information processing unit attaches the speech text to a document attachment position. Audio information processing device.
【請求項13】 予め取得した文書を表示部に表示し、
前記文書において音声情報を添付する位置を指示し、前
記添付位置に少なくとも音声コマンドまたは音声テキス
トのいずれかを含む音声情報を音声入力部により入力
し、前記音声情報を前記添付位置に添付したことを示す
表記を表示するとともにそれらを音声情報記憶部に記憶
し、前記添付位置に対応する音声情報を前記音声情報記
憶部から検索し、検索された音声情報から音声コマンド
または音声テキストを識別し、前記識別結果に基づき音
声コマンドまたは音声テキストとして予め設定された文
書処理を実行することを特徴とする音声情報処理方法。
13. A document obtained in advance is displayed on a display unit,
Indicating a position to attach audio information in the document, inputting audio information including at least one of a voice command and an audio text to the attachment position by an audio input unit, and attaching the audio information to the attachment position. Displaying the notations shown and storing them in the voice information storage unit, searching the voice information storage unit for voice information corresponding to the attached position, identifying a voice command or voice text from the searched voice information, A voice information processing method, wherein a document process preset as a voice command or voice text is executed based on the identification result.
【請求項14】 予め取得した文書を表示する表示部
と、前記文書において音声情報を添付する位置を指示す
る音声添付位置指示部と、前記添付位置に少なくとも音
声コマンドまたは音声テキストのいずれかを含む音声情
報を入力する音声入力部とを備えた音声情報処理装置を
コンピュータによって制御するプログラムを記憶した媒
体であって、前記コンピュータに、前記音声情報を前記
添付位置に添付したことを示す表記を表示させるととも
にそれらを音声情報記憶部に記憶させ、前記添付位置に
対応する音声情報を前記音声情報記憶部から検索させ、
検索された音声情報から音声コマンドまたは音声テキス
トを識別させ、前記音声情報の識別結果に基づき音声コ
マンドまたは音声テキストとして予め設定された文書処
理を実行させる音声情報処理装置制御プログラムを記憶
した媒体。
14. A display unit for displaying a document obtained in advance, a voice attachment position indicating unit for indicating a position to attach audio information in the document, and at least one of a voice command and a voice text at the attachment position. A medium storing a program for controlling a voice information processing apparatus having a voice input unit for inputting voice information by a computer, wherein the computer displays a notation indicating that the voice information is attached to the attachment position. And store them in a voice information storage unit, and search the voice information storage unit for voice information corresponding to the attachment position,
A medium storing a voice information processing device control program for causing a voice command or a voice text to be identified from the searched voice information, and executing a document process preset as a voice command or a voice text based on the identification result of the voice information.
JP10072401A 1998-03-20 1998-03-20 Voice information processor, its method and medium storing its control program Pending JPH11272662A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10072401A JPH11272662A (en) 1998-03-20 1998-03-20 Voice information processor, its method and medium storing its control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10072401A JPH11272662A (en) 1998-03-20 1998-03-20 Voice information processor, its method and medium storing its control program

Publications (1)

Publication Number Publication Date
JPH11272662A true JPH11272662A (en) 1999-10-08

Family

ID=13488230

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10072401A Pending JPH11272662A (en) 1998-03-20 1998-03-20 Voice information processor, its method and medium storing its control program

Country Status (1)

Country Link
JP (1) JPH11272662A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006053906A (en) * 2004-07-13 2006-02-23 Microsoft Corp Efficient multi-modal method for providing input to computing device
JP2014137667A (en) * 2013-01-16 2014-07-28 Mitsubishi Electric Corp Control device and control method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006053906A (en) * 2004-07-13 2006-02-23 Microsoft Corp Efficient multi-modal method for providing input to computing device
JP2014137667A (en) * 2013-01-16 2014-07-28 Mitsubishi Electric Corp Control device and control method

Similar Documents

Publication Publication Date Title
JP5791861B2 (en) Information processing apparatus and information processing method
JP5501581B2 (en) Information processing apparatus and information processing method
US20110071829A1 (en) Image processing apparatus, speech recognition processing apparatus, control method for speech recognition processing apparatus, and computer-readable storage medium for computer program
JPH07222248A (en) System for utilizing speech information for portable information terminal
JP3104661B2 (en) Japanese writing system
US7505903B2 (en) Speech recognition dictionary creation method and speech recognition dictionary creating device
JPH11272662A (en) Voice information processor, its method and medium storing its control program
JPH0883092A (en) Information inputting device and method therefor
JP5511161B2 (en) Information processing apparatus and information processing method
JP4203630B2 (en) Information output device and program recording medium thereof
JPH09244869A (en) Document reading-aloud system
JPH09325787A (en) Voice synthesizing method, voice synthesizing device, method and device for incorporating voice command in sentence
JP2000242464A (en) Processor and method for processing voice information and storage medium stored with voice information processing program
JPH11153998A (en) Audio response equipment and its method, and computer readable memory
JPH07152532A (en) Sentence reading-aloud device
US20050119888A1 (en) Information processing apparatus and method, and program
JPS59197924A (en) Documentation device
JP2010033156A (en) Information processor and information processing method
JP4036741B2 (en) Text-to-speech system and method
JPH06314274A (en) Document preparing device and document information input method
JPH11272673A (en) Method and processor for document processing and record medium where computer program for document processing is recorded
JP2000010973A (en) Character input system/method and recording medium which computer can read
JP2001005806A (en) Character input device and input control method
JP2003167768A (en) File holding device, file holding method, and program for making computer execute this method
JP3894479B2 (en) Text-to-speech system and method