JP3382958B2 - Control device and method for electronic equipment - Google Patents

Control device and method for electronic equipment

Info

Publication number
JP3382958B2
JP3382958B2 JP01375991A JP1375991A JP3382958B2 JP 3382958 B2 JP3382958 B2 JP 3382958B2 JP 01375991 A JP01375991 A JP 01375991A JP 1375991 A JP1375991 A JP 1375991A JP 3382958 B2 JP3382958 B2 JP 3382958B2
Authority
JP
Japan
Prior art keywords
voice
input
information
signal
message
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP01375991A
Other languages
Japanese (ja)
Other versions
JPH04239292A (en
Inventor
康裕 千種
英省 富塚
朝子 田村
士郎 大森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=11842181&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP3382958(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP01375991A priority Critical patent/JP3382958B2/en
Publication of JPH04239292A publication Critical patent/JPH04239292A/en
Application granted granted Critical
Publication of JP3382958B2 publication Critical patent/JP3382958B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、例えばVTR(ビデオ
テープレコーダ)等の電子機器に対して録画予約や直接
的な動作制御等を行うための電子機器の制御装置及び方
法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a control device and method of an electronic device such as a VTR (video tape recorder) for performing recording reservation and direct operation control of the electronic device.

【0002】[0002]

【従来の技術】近年において、VTR(ビデオテープレ
コーダ)等の各種家庭用電子機器の多機能化が進んでお
り、機器本体には各種動作モードを設定制御するための
多数のスイッチが設けられて操作が複雑化したり、ある
いはスイッチが少数個でも操作手順が複雑化したりして
いる。このため、例えばVTRの録画予約等を行うため
のタイマ機能でも有効に使いこなせる人が少ないのが実
情である。このような操作を容易にするために種々の方
法が考えられており、例えばいわゆるバーコード読み取
り装置等を用いて入力操作の簡略化を図ったり、キーボ
ードやマイク等から自然言語すなわち人間の言葉の形態
で命令や各種情報を入力することにより動作モード設定
制御を行わせること等が試みられている。ここで上記バ
ーコード読み取りによる方法では、予約しようとする番
組の各種情報等を示すバーコードが予め必要とされるこ
とから自由度が低く、使用範囲が限定されるため、上記
自然言語により入力する方法が将来的にも有力視されて
いる。
2. Description of the Related Art In recent years, various household electronic devices such as VTRs (video tape recorders) have become multifunctional, and a large number of switches for setting and controlling various operation modes are provided on the device body. The operation is complicated, or the operation procedure is complicated even with a small number of switches. For this reason, the fact is that few people can effectively use the timer function for making a recording reservation of the VTR, for example. Various methods have been considered for facilitating such an operation. For example, a so-called bar code reading device is used to simplify the input operation, and a natural language, that is, human words, is input from a keyboard or a microphone. Attempts have been made to perform operation mode setting control by inputting commands and various information in a form. In the method of reading the bar code, the bar code indicating various information of the program to be reserved is required in advance, and thus the degree of freedom is low and the use range is limited. Therefore, the bar code is input in the natural language. The method is considered to be influential in the future.

【0003】ここで、例えば特開昭61−172239
号公報においては、人声音によってVTR等の情報記録
再生装置の動作モードを指定する操作命令を音声入力し
得るようになされた音声入力操作装置において、データ
処理手段が、情報記録再生装置のステータスデータを参
照しながら、VTR等に対するコントロールコマンドを
発生するようにすることにより、VTR等を安定に制御
することができるようにした音声入力装置が開示されて
いる。また、特開平2−133803号公報において
は、制御対象となる各種電子機器の複数の制御命令を表
す自然言語を構成する単語の組み合わせで表現される自
然言語を解析して、制御対象に制御命令を与えることに
よって、自然言語入力による制御を可能とするような制
御データ入力装置が開示されている。
Here, for example, JP-A-61-272239
In the publication, in a voice input operation device capable of voice-inputting an operation command for designating an operation mode of an information recording / reproducing device such as a VTR by a human voice, the data processing means includes status data of the information recording / reproducing device. , A voice input device capable of stably controlling a VTR or the like by generating a control command for the VTR or the like is disclosed. Further, in Japanese Patent Laid-Open No. 2-133803, a natural language expressed by a combination of words forming a natural language representing a plurality of control commands of various electronic devices to be controlled is analyzed and a control command is given to the control target. There is disclosed a control data input device capable of performing control by natural language input by giving.

【0004】[0004]

【発明が解決しようとする課題】これらの技術によれ
ば、マイク等を介して自然言語の形態で音声入力するこ
とで、VTR等の電子機器の動作モードの設定制御が行
えるわけであるが、入力に対する応答に改善の余地があ
り、例えば表示パネル等に予約内容が数字や文字のデー
タ列として表示されるのみでは、入力途中での訂正や予
約が完全に行えない場合の対処等のために予備知識が必
要とされ、誰でもが容易に操作できるとは言い難い。ま
た、表示内容が単なる数字等のデータの羅列では拒絶反
応を引き起こしたり、にがて意識を持つ人も多く、マン
−マシン・インターフェース上での更なる改善が求めら
れているのが現状である。また、上述のようにして自然
言語の状態で音声入力を行う場合は、複数の離散単語か
らなる音声の連続入力が行われることになる。このた
め、上記従来の音声入力装置等においては、入力音声信
号の各単語の意味を解析するための音声認識処理の際
に、各単語の明確な開始タイミング,終了タイミングを
判断することが困難となり、したがって例えば、単語音
声以外の雑音等に対しても無用な音声認識を行ってしま
ったり、音声認識に時間がかかったりするようになって
いる。
According to these techniques, it is possible to control the setting of the operation mode of an electronic device such as a VTR by inputting voice in a natural language form via a microphone or the like. There is room for improvement in the response to the input, for example, in order to deal with the case where the reservation contents cannot be completely corrected or reserved only by displaying the reservation contents as a data string of numbers or characters on the display panel etc. Prior knowledge is required and it is hard to say that anyone can operate it easily. In addition, when the displayed contents are a list of data such as numbers, many people may cause a rejection reaction and may be conscious of disappointment, and further improvement on the man-machine interface is currently required. . Further, when voice input is performed in the natural language state as described above, voice input consisting of a plurality of discrete words is continuously input. Therefore, in the above-described conventional voice input device, it is difficult to determine the clear start timing and end timing of each word during the voice recognition process for analyzing the meaning of each word of the input voice signal. Therefore, for example, unnecessary voice recognition is performed for noise other than the word voice, and it takes time for the voice recognition.

【0005】そこで、本発明は、上述のような実情に鑑
みて提案されたものであり、誰でもが容易に制御操作が
行えるのみならず、操作に親しみ易く、より自然な形態
でのマン−マシン・インターフェースが実現されるよう
な電子機器の制御装置及び方法を提供することを目的と
するものである。
Therefore, the present invention has been proposed in view of the above situation, and not only can anyone easily perform the control operation, but also the operation is easy and familiar to the human operator. An object of the present invention is to provide a control device and method for an electronic device in which a machine interface is realized.

【0006】[0006]

【課題を解決するための手段】本発明の電子機器の制御
装置は、上述の目的を達成するために提案されたもので
あり、電子機器を制御する電子機器の制御装置におい
て、入力状態を指定するためのスイッチ手段と、入力信
号から命令又は各種情報を表す単語情報を抽出する抽出
手段と、メッセージの話者となるアニメーションキャラ
クタの映像信号を発生するアニメーションキャラクタ発
生手段と、メッセージ信号入力に応じて該メッセージの
音声信号を合成する音声合成手段と、上記音声合成手段
からの音声信号を音声として出力する音声出力手段と、
少なくとも、上記抽出手段にて抽出された単語情報と習
慣学習データベースに蓄積された情報とに基づいて、上
記アニメーションキャラクタ発生手段のアニメーション
キャラクタの動作を制御する動作制御信号、及び上記音
声合成手段にて合成させたいメッセージ音声を指示する
メッセージ信号を制御する制御手段とを有し、上記制御
手段は、上記スイッチ手段のオン/オフにより上記入力
状態を指定制御すると共に、上記スイッチ手段のオンに
応じて上記アニメーションキャラクタ発生手段のアニメ
ーションキャラクタの動作を切換制御し、上記抽出手段
により抽出された単語情報に上記電子機器の制御に必要
な情報が不足しているか否かを判定し、上記必要な情報
が不足している場合に上記習慣学習データベースに該必
要な情報が含まれるか否かを判定し、上記習慣学習デー
タベースに該必要な情報が含まれる場合に当該必要な情
報を音声出力して確認するよう上記メッセージ信号を制
御することを特徴とするものである。また、本発明の電
子機器の制御方法は、上述の目的を達成するために提案
されたものであり、電子機器を制御する電子機器の制御
方法において、入力状態を指定するためのスイッチ工程
と、入力信号から命令又は各種情報を表す単語情報を抽
出する抽出工程と、メッセージの話者となるアニメーシ
ョンキャラクタの映像信号を発生するアニメーションキ
ャラクタ発生工程と、メッセージ信号入力に応じて該メ
ッセージの音声信号を合成する音声合成工程と、上記音
声合成工程からの音声信号を音声として出力する音声出
力工程と、少なくとも、上記抽出工程にて抽出された単
語情報と習慣学習データベースに蓄積された情報とに基
づいて、上記アニメーションキャラクタ発生工程でのア
ニメーションキャラクタの動作を制御する動作制御信
号、及び上記音声合成工程にて合成させたいメッセージ
音声を指示するメッセージ信号を制御する制御工程とを
有し、上記制御工程では、上記スイッチ工程でのオン/
オフにより上記入力状態を指定制御すると共に、上記ス
イッチ工程でのオンに応じて上記アニメーションキャラ
クタの動作を切換制御し、上記抽出工程により抽出され
た単語情報に上記電子機器の制御に必要な情報が不足し
ているか否かを判定し、上記必要な情報が不足している
場合に上記習慣学習データベースに該必要な情報が含ま
れるか否かを判定し、上記習慣学習データベースに該必
要な情報が含まれる場合に当該必要な情報を音声出力し
て確認するよう上記メッセージ信号を制御することを特
徴とするものである。
An electronic equipment control device of the present invention has been proposed to achieve the above-mentioned object, and an input state is designated in the electronic equipment control device for controlling an electronic equipment. Switching means for extracting the word information representing a command or various information from the input signal, an animation character generating means for generating a video signal of an animation character serving as a speaker of the message, and a message signal input Voice synthesizing means for synthesizing the voice signal of the message, and voice output means for outputting the voice signal from the voice synthesizing means as voice.
At least, based on the word information extracted by the extraction means and the information accumulated in the habit learning database, a motion control signal for controlling the motion of the animation character of the animation character generation means, and the voice synthesis means. And a control means for controlling a message signal for instructing a message voice to be synthesized. The control means specifies and controls the input state by turning on / off the switch means, and responds to turning on of the switch means. The operation of the animation character of the animation character generation means is controlled to be switched, and it is determined whether or not the word information extracted by the extraction means lacks information necessary for controlling the electronic device. If there is a shortage, the habit learning database contains the necessary information. Whether determined, it is characterized in that for controlling the message signal to the necessary information to confirm the audio output if it contains the necessary information to the habit learning database. Further, the control method of the electronic device of the present invention is proposed in order to achieve the above object, in the control method of the electronic device for controlling the electronic device, a switch step for designating an input state, An extraction step of extracting word information representing a command or various information from an input signal, an animation character generation step of generating a video signal of an animation character serving as a speaker of a message, and an audio signal of the message according to a message signal input. A voice synthesizing step of synthesizing, a voice output step of outputting the voice signal from the voice synthesizing step as a voice, and based on at least the word information extracted in the extracting step and the information accumulated in the habit learning database. , Motion control signals that control the motion of the animation character in the animation character generation process And a control step of controlling a message signal instructing a message voice which is desired to be synthesized by the speech synthesis step, in the control step, on with the switch step /
While controlling the input state by turning it off, switching control of the motion of the animation character according to the turning on in the switch step, and information necessary for controlling the electronic device is included in the word information extracted by the extracting step. It is determined whether or not the necessary information is included in the habit learning database when the necessary information is insufficient, and the necessary information is included in the habit learning database. When included, the above-mentioned message signal is controlled so that the necessary information is output by voice and confirmed.

【0007】[0007]

【作用】本発明によれば、入力状態を指定するためのス
イッチを設け、スイッチによるオン/オフに応じて、入
力信号からの単語情報抽出以降の処理動作を切り換える
ことで、入力状態に区切りを付けることができるように
なり、この区切られた入力状態をひとまとまりとして処
理することで、より正確な処理を可能とする。
According to the present invention, a switch for designating the input state is provided, and the processing operation after the extraction of the word information from the input signal is switched according to the ON / OFF state of the switch, thereby separating the input state. It becomes possible to attach them, and by processing the separated input states as a group, more accurate processing is possible.

【0008】[0008]

【実施例】以下、本発明を適用した実施例について図面
を参照しながら説明する。本実施例の電子機器の制御装
置は、図1に示すように、例えばVTR(ビデオテープ
レコーダ)40等の電子機器の動作モードを指定制御す
る電子機器の制御装置である。本実施例では、上記電子
機器として上記VTR40を用い、このVTR40の例
えば録画,再生,早送り,巻戻し等の各種動作モードの
指定制御や録画予約等の情報制御を行う場合を例に挙げ
て説明する。
Embodiments of the present invention will be described below with reference to the drawings. As shown in FIG. 1, the control device for an electronic device according to the present embodiment is a control device for an electronic device that specifies and controls an operation mode of an electronic device such as a VTR (video tape recorder) 40. In the present embodiment, the VTR 40 is used as the electronic device, and the VTR 40 is controlled by various control modes such as recording, reproducing, fast-forwarding, rewinding, and information control such as recording reservation. To do.

【0009】すなわち図1に示す本実施例の装置におい
て、上記動作モードの指定制御のための命令や各種情報
を音声にて入力するための音声入力手段として、例えば
いわゆる電話機の送受話器と同じ形状をした送受話器1
0を設けている。この送受話器10の送話部11には入
力音声を電気的な信号に変換して出力する音響−電気変
換素子が設けられており、この送話部11の近傍に音声
入力状態を切換指定して例えば入力の区切り等を付ける
ためのスイッチ(プレストークスイッチ)12が設けら
れている。この送受話器10の送話部11からの出力信
号は、音声認識回路13に送られて信号処理されること
で上記命令や各種情報が認識される。スイッチ12から
の出力信号はスイッチ状態検出部14に送られてオン/
オフ状態の検出が行われる。これらの音声認識回路13
及びスイッチ状態検出部14は制御回路15に接続され
ている。制御回路15には、この他、メッセージの話者
となるアニメーションキャラクタの映像信号を出力する
アニメーションキャラクタ発生回路16と、メッセージ
信号入力に応じて該メッセージの音声信号を例えばいわ
ゆる規則音声合成の手法を用いて合成する音声合成回路
19と、上記VTR40の動作モードを指定制御するた
めのVTRコントローラ18とが接続されている。キャ
ラクタ発生回路16からの映像信号は、スーパーインポ
ーザ17に送られてVTR40からの映像信号にスーパ
ーインポーズされ、画像表示手段としての陰極線管(C
RT)表示装置30に送られている。音声合成回路19
からの音声信号は音声出力手段としてのスピーカ20に
送られて音声となって出力される。このスピーカ20及
びCRT表示装置30は、例えばテレビジョン受像機と
してまとめて構成するようにしてもよい。
That is, in the apparatus of the present embodiment shown in FIG. 1, as a voice input means for inputting a command and various information for designating the operation mode by voice, for example, the same shape as a so-called telephone handset Handset 1
0 is set. The transmitter 11 of the handset 10 is provided with an acoustic-electric conversion element that converts an input voice into an electrical signal and outputs the electrical signal, and a voice input state is switched and designated near the transmitter 11. For example, a switch (press talk switch) 12 is provided to attach input delimiters and the like. The output signal from the transmitter 11 of the handset 10 is sent to the voice recognition circuit 13 and undergoes signal processing to recognize the above-mentioned command and various information. The output signal from the switch 12 is sent to the switch state detection unit 14 to turn on / off.
The off state is detected. These voice recognition circuits 13
The switch state detector 14 is connected to the control circuit 15. In addition to this, the control circuit 15 is provided with an animation character generation circuit 16 for outputting a video signal of an animation character serving as a speaker of the message, and a voice signal of the message according to a message signal input, for example, a so-called regular voice synthesis method. A voice synthesizing circuit 19 to be used for synthesis and a VTR controller 18 for designating and controlling the operation mode of the VTR 40 are connected. The video signal from the character generation circuit 16 is sent to the superimposer 17 and superposed on the video signal from the VTR 40, and a cathode ray tube (C
RT) is sent to the display device 30. Speech synthesis circuit 19
The audio signal from is sent to the speaker 20 as an audio output means and is output as audio. The speaker 20 and the CRT display device 30 may be collectively configured as a television receiver, for example.

【0010】制御回路15は、少なくとも上記音声認識
回路13からの出力信号に応じて、上記VTR40の動
作モードを指定制御する動作モード指定制御信号、上記
アニメーションキャラクタ発生回路16のアニメーショ
ンキャラクタACの動作を制御する動作制御信号、及び
上記音声合成回路19にて合成させたいメッセージ音声
を指示するメッセージ信号を出力するものであり、マイ
クロプロセッサ等のCPUを有して成っている。この制
御回路15は、上記音声認識回路13により認識された
上記動作モードの指定制御のための命令に応じて複数の
制御命令の内から上記VTR40の現在の動作状態に対
して適切な一つの制御命令を選択して出力するものであ
る。この選択処理及びVTR40の動作モードの詳細に
ついては後述する。また制御回路15は、音声入力内容
に応じて(さらに現在の状態に応じて)応答内容として
最適のメッセージを指示するメッセージ信号を出力し、
このメッセージ信号を上記アニメーションキャラクタ発
生回路16と音声合成回路19とに送っている。
The control circuit 15 controls the operation mode designation control signal for designating and controlling the operation mode of the VTR 40 in accordance with at least the output signal from the voice recognition circuit 13 and the action of the animation character AC of the animation character generation circuit 16. It outputs an operation control signal for controlling and a message signal for instructing a message voice to be synthesized by the voice synthesis circuit 19, and has a CPU such as a microprocessor. The control circuit 15 controls one of a plurality of control commands, which is suitable for the current operating state of the VTR 40, according to the command for controlling the operation mode designation recognized by the voice recognition circuit 13. The command is selected and output. Details of this selection process and the operation mode of the VTR 40 will be described later. Further, the control circuit 15 outputs a message signal instructing an optimal message as a response content according to the voice input content (further according to the current state),
This message signal is sent to the animation character generation circuit 16 and the voice synthesis circuit 19.

【0011】また図1において、上記送受話器10の送
話部11は、人(例えば上記VTR40等を操作するオ
ペレータ、すなわちユーザ)が発声する音声を、電気的
な音声信号に変換する。上記オペレータが発声する音声
とは、上記VTR40の上記各種動作モードを直接制御
するための、例えば「再生」,「停止」,「録画」,
「ポーズ」,「スロー」,「早送り」,「巻戻し」等の
命令の単語を音声で発音したものや、上記各種情報とし
て例えば録画予約のための曜日(「日曜」〜「土曜」,
「毎日」,「毎週」等),チャンネル(「1チャンネ
ル」〜「12チャンネル」等),開始/終了時刻(「午
前」,「午後」,「0時」〜「12時」等)の単語等を
音声で発音したものを挙げることができる。更に、本実
施例では、上記各単語の他に、より人間的な例えば「お
い」,「もういい」,「だめ」等の単語をも音声入力す
ることができるようになっている。
In FIG. 1, the transmitter 11 of the handset 10 converts a voice uttered by a person (for example, an operator who operates the VTR 40 or the like, that is, a user) into an electric voice signal. The voice uttered by the operator is, for example, “play”, “stop”, “record”, for directly controlling the various operation modes of the VTR 40.
The pronunciation of words of commands such as "pause", "slow", "fast forward", "rewind", etc., and various types of information, such as the day of the week for recording reservations ("Sunday" to "Saturday",
"Everyday", "Weekly" etc.), channel ("1st channel" to "12th channel", etc.), start / end time ("AM", "PM", "0:00" to "12:00", etc.) And the like can be mentioned as a voice. Further, in the present embodiment, in addition to the above-mentioned words, more human words such as "Ooi", "more good", and "useless" can be input by voice.

【0012】送受話器10に配された上記音声入力状態
指定のためのプレストークスイッチ12は、上記オペレ
ータがオン/オフすることで、該オペレータが発音する
言葉に対して区切りを指示するためのものである。すな
わち、このプレストークスイッチ12は、複数の離散単
語の連続で構成された文からなる入力音声信号に対し
て、上記音声認識回路13での音声認識の処理単位を区
切るために設けられているものであり、当該プレストー
クスイッチ12からの出力は上記音声認識回路13に併
設されたスイッチ状態検出部14に送られるようになっ
ている。このスイッチ状態検出部14は、上記プレスト
ークスイッチ12からの出力信号に応じて現在のオン/
オフ状態を指示する状態指示信号を形成するものであ
る。この状態指示信号としては、例えば、上記プレスト
ークスイッチ12が非作動時(オフ)には状態0、作動
時(オン)は状態1となるものとする。したがって、上
記音声認識回路13で音声認識を行わせたい場合は、プ
レストークスイッチ12をオンに操作し、音声入力終了
後にオフに操作することで、対応する上記状態指示信号
に基づく音声認識の処理単位で、上記音声認識回路13
での音声認識処理が行われるようになる。このようなこ
とから、音声による連続単語入力を行う際に、その音声
単語入力の終了を意味するオフ(状態0)によって、上
記音声認識回路13では、入力が終わったかどうかの解
析をしなくても済むようになる。換言すれば、当該音声
認識回路13においては、音声の認識の際に、明確な開
始タイミング及び終了タイミングがわかり、音声認識す
る範囲がソフトウェアで容易に判別可能となるため、こ
の範囲外の雑音に対して無用な音声認識処理を行わなく
ても済むようになる。また、上記送受話器10の制御を
行わないため、音声入力切り換え時(音声切断時)の雑
音が入らないようになる。
The press talk switch 12 for designating the voice input state arranged on the handset 10 is for turning on / off by the operator to instruct a break for a word pronounced by the operator. Is. That is, the press talk switch 12 is provided to separate the processing unit of the voice recognition in the voice recognition circuit 13 from the input voice signal composed of a sentence composed of a plurality of continuous discrete words. The output from the press talk switch 12 is sent to the switch state detection unit 14 provided in the voice recognition circuit 13. The switch state detecting unit 14 is turned on / off at present depending on the output signal from the press talk switch 12.
A state indicating signal indicating the off state is formed. The state instruction signal is, for example, state 0 when the press talk switch 12 is not in operation (OFF) and state 1 when it is in operation (ON). Therefore, when the voice recognition circuit 13 wants to perform voice recognition, the press talk switch 12 is turned on and turned off after the voice input is completed, whereby the voice recognition process based on the corresponding state instruction signal is performed. In units of the speech recognition circuit 13
The voice recognition process is started. Therefore, when a continuous word input is performed by voice, the voice recognition circuit 13 does not analyze whether the input is finished because of OFF (state 0) which means the end of the voice word input. It will be finished. In other words, in the voice recognition circuit 13, when the voice is recognized, the clear start timing and the end timing are known, and the voice recognition range can be easily discriminated by software. On the other hand, it becomes unnecessary to perform unnecessary voice recognition processing. Further, since the handset 10 is not controlled, noise does not occur when switching the voice input (when disconnecting the voice).

【0013】ここで、上記音声合成回路19からの音声
出力信号を上記送受話器10の受話器に送るようにし、
音声の入出力を電話機の送受話器と同様な形状をした送
受話器10を介して行うことにより、機械に向かって話
す抵抗感や違和感を軽減することができ、またノイズの
多い場所で使用する際の誤動作防止にもなる。また、テ
レビジョン受像機やステレオセット等のスピーカ20に
は応答音声を送らずに送受話器10の受話部にのみ送る
ようにすることにより、共同視聴者に対して応答音声を
遮蔽でき、録画予約設定操作やVTR操作等が共同視聴
者に迷惑をかけることなく行える。
Here, the voice output signal from the voice synthesis circuit 19 is sent to the handset of the handset 10.
By performing voice input / output via the handset 10 having the same shape as the handset of the telephone, it is possible to reduce the resistance and discomfort felt when talking to the machine, and when using in a noisy place. It also prevents malfunctions. In addition, by not sending the response sound to the speaker 20 of the television receiver or the stereo set and sending it only to the earpiece of the handset 10, the response sound can be shielded from the co-viewers, and the recording reservation can be made. Setting operations and VTR operations can be performed without inconvenience the joint viewers.

【0014】図2に、本実施例装置における主要な動作
のフローチャートを示す。この図2において、装置電源
オンした後等の初期状態において、ステップS1でオペ
レータ(ユーザ)が音声入力あるいは他の入力操作を行
うことによりアニメーションキャラクタを呼び出すと、
上記CRT表示装置30の画面SC上には、例えば図3
に示すようなアニメーションキャラクタACの表示が行
われ、オペレータによる音声入力の待機状態となる。す
なわち、上記CRT表示装置30の画面SC上には、図
3に示すように、上記アニメーションキャラクタACと
このアニメーションキャラクタACの発言内容及び、上
記オペレータによる音声入力の認識結果を文字表示する
ための吹き出し部SPとが、上記VTR40からの映像
信号を背景画像BGとして、いわゆるスーパーインポー
ズされて表示される。吹き出し部SP内のメッセージ
(例えば上記待機状態であることを示す「何をしますか
?」のようなメッセージ)は、同時に上記音声合成回路
19でも同じ内容の合成音声が形成され、上記スピーカ
20からこの音声(例えば「何をしますか?」との音
声)が発音される。なお、このステップS1での呼び出
し処理を更に具体的に例示すると、上記アニメーション
キャラクタACの名前(例えばアイビーとする)を呼ん
だり、「おい」等の呼び掛けを音声で入力すると、ある
いは上記VTR40の電源をオンすると、先ず、「はい
アイビーです」とのメッセージと共にアニメーションキ
ャラクタACが表示され、その後上記図3の状態に移行
することにより、より自然な対話の雰囲気が得られる。
FIG. 2 shows a flowchart of main operations in the apparatus of this embodiment. In FIG. 2, when the operator (user) calls up an animation character by performing a voice input or another input operation in step S1 in an initial state such as after powering on the device,
On the screen SC of the CRT display device 30, for example, FIG.
The animation character AC is displayed as shown in, and the operator enters a standby state for voice input. That is, as shown in FIG. 3, on the screen SC of the CRT display device 30, a balloon for displaying the animation character AC, the utterance content of the animation character AC, and the recognition result of the voice input by the operator in characters. The part SP is displayed in a so-called superimposed manner with the video signal from the VTR 40 as the background image BG. A message (for example, a message such as "What are you doing?" That indicates the standby state) in the speech balloon unit SP is simultaneously formed in the voice synthesis circuit 19 with the same synthesized voice, and the speaker 20 is used. This voice (for example, the voice "What are you doing?") Is pronounced. As a more specific example of the calling process in step S1, the name of the animation character AC (for example, ivy) is called, a call such as "Oi" is input by voice, or the power of the VTR 40 is turned on. When is turned on, first, the animation character AC is displayed together with the message "Yes, it's Ivy." After that, by shifting to the state of FIG. 3, a more natural dialogue atmosphere can be obtained.

【0015】次のステップS2では、上記オペレータ
(ユーザ)が上記動作モードの指定制御のための命令や
各種情報を音声入力する。この命令が、上記VTR40
の走行系操作のための命令である場合はステップS3へ
進んでVTR40の動作モードを直接的に制御するフェ
ーズに入り、録画予約のための命令である場合はステッ
プS4へ進んでVTR40の録画予約動作のフェーズに
入る。予約確認のための命令である場合はステップS5
へ進んで予約された内容の確認動作のフェーズに入る。
この予約確認のフェーズにおいては、ステップS5の次
にさらにステップS6に進んで予約の変更や取消の処理
がなされる。なお、ステップS5を経由せずに、ステッ
プS2から直接ステップS6に進むことも可能である。
上記録画予約、及び予約確認のフェーズにおいては、後
述するようにアニメーションキャラクタACとのより深
いレベルの会話が行われる。これらのステップS3,S
4,S5(S6)の処理が終了すると、ステップS2の
音声入力の待機状態に戻る。
In the next step S2, the operator (user) inputs by voice a command and various information for controlling the operation mode designation. This command is the VTR40
If it is a command for operating the traveling system, the process proceeds to step S3 to enter the phase for directly controlling the operation mode of the VTR 40, and if it is a command for recording reservation, the process proceeds to step S4 and recording reservation of the VTR 40. Enter the phase of operation. If it is an instruction to confirm the reservation, step S5
Proceed to and enter the phase of confirming the reserved contents.
In this reservation confirmation phase, the process proceeds to step S6 after step S5, and the reservation is changed or canceled. It is also possible to directly proceed from step S2 to step S6 without passing through step S5.
In the recording reservation and reservation confirmation phases, a deeper level conversation with the animation character AC is performed as described later. These steps S3, S
When the processes of 4, S5 (S6) are completed, the process returns to the voice input standby state of step S2.

【0016】ここで図3の例においては、アニメーショ
ンキャラクタACは、CRT表示装置30の画面SC上
の例えば左下に表示するようにしている。すなわち、上
記アニメーションキャラクタACを画面SCの中央に表
示すると、画面上に映し出されている映像(背景画像B
G)に対して視覚上妨げとなるが、左下ならば当該画面
SC上の映像の妨げとはなりにくい。しかも画面SCの
下側だとアニメーションキャラクタACの足が宙に浮か
ず安定感があり、左下ならば人間の感性から抵抗感が少
ない。画面SCにメッセージを文字表示するための吹き
出し部SPは、当該文字列を左から右への横書きとする
ならば画面SCの下部に配置し、文字列を上から下への
縦書きとするならば画面SCの右側に配置する。これに
より画面SC上の映像(背景画像BG)の妨げになるこ
とが少ない。
Here, in the example of FIG. 3, the animation character AC is displayed on the screen SC of the CRT display device 30, for example, at the lower left. That is, when the animation character AC is displayed in the center of the screen SC, a video (background image B) displayed on the screen is displayed.
G) is visually obstructed, but if it is at the lower left, it is unlikely to obstruct the image on the screen SC. Moreover, the foot of the animation character AC does not float in the air on the lower side of the screen SC, and there is little sense of resistance from the human sensibilities on the lower left side. The balloon portion SP for displaying a message on the screen SC is arranged at the bottom of the screen SC when the character string is written horizontally from left to right, and is arranged vertically when written vertically from top to bottom. For example, it is placed on the right side of the screen SC. This rarely interferes with the image on the screen SC (background image BG).

【0017】アニメーションキャラクタACの動作は、
制御回路15からのアニメーション動作制御信号がアニ
メーションキャラクタ発生回路16に送られることによ
り制御される。すなわち制御回路15からの上記動作制
御信号を受けたアニメーションキャラクタ発生回路16
は、上記オペレータと対話するための話者である例えば
上述した図3に示すようなアニメーションキャラクタA
Cを上記メッセージの音声出力に応じて口を動かすよう
な動画の映像信号を出力し、スーパーインポーザ17に
供給する。このアニメーション信号中には、上記メッセ
ージを文字表示する吹き出し部SPの表示信号も含まれ
ている。スーパーインポーザ17は、VTR40からの
再生映像(あるいはテレビジョン放送映像)上に上記ア
ニメーションキャラクタACの映像を重ねた形態の映像
信号に変換、いわゆるスーパーインポーズしてCRT表
示装置30に送る。なお、CRT表示装置30の画面S
C上に映し出されるアニメーションキャラクタACは、
表情を有する擬人的なものとし、更に親しみのあるもの
とする。これによりオペレータ(ユーザ)は、このアニ
メーションキャラクタAC(或いは電子機器)と対話し
ている感じを持つことができるようになる。
The motion of the animation character AC is
An animation motion control signal from the control circuit 15 is sent to the animation character generation circuit 16 for control. That is, the animation character generation circuit 16 which receives the above motion control signal from the control circuit 15
Is a speaker for interacting with the operator, for example, the animation character A as shown in FIG.
C outputs a video signal of a moving image in which the mouth is moved according to the voice output of the message, and supplies it to the superimposer 17. The animation signal also includes the display signal of the balloon portion SP that displays the message in text. The super-imposer 17 converts the video of the animation character AC into a video signal in a form of being superimposed on the reproduced video (or television broadcast video) from the VTR 40, so-called superimposing, and sends it to the CRT display device 30. The screen S of the CRT display device 30
The animation character AC projected on C is
It should be an anthropomorphic person with a facial expression and be more familiar. This allows the operator (user) to have a feeling of interacting with the animation character AC (or electronic device).

【0018】次に、上記図1における音声認識回路13
は、供給された音声信号を信号処理して上記命令や各種
情報を認識するものであり、種々の構成が考えられる
が、例えば図4に示すような構成のものについて説明す
る。この図4において、入力端子21には上記送受話器
10の送話部11からの出力信号(入力音声信号)が供
給されており、この入力音声信号は、アナログインター
フェース22を介して演算プロセッサ23に送られる。
アナログインターフェース22は、システムコントロー
ラ24から供給される制御データに応じて、入力音声レ
ベルを所定値に制御した後シリアルのディジタル音声信
号に変換して演算プロセッサ23に送る。演算プロセッ
サ23は、入力されたディジタル音声信号を例えば周波
数分析すること等によって音声パターンを形成すると共
に、人声音の発声速度の変動等による音声パターンの時
間的な歪みを修正(時間軸正規化)し、時間軸正規化さ
れた音声パターンを標準パターン登録メモリ25に予め
蓄えられている複数の標準パターンと比較して、いわゆ
るパターンマッチング処理を行う。このパターンマッチ
ング処理とは、検出された音声パターンと各標準パター
ンとの距離を算出し最短距離となる標準パターンを求め
ることであり、処理結果はインターフェース26を介し
て上記CPU等から成る制御回路15に送られる。ここ
で上記標準パターン登録メモリ25には、上述した「再
生」,「停止」等の命令の単語や、「日曜」,「1チャ
ンネル」等の各種情報の単語等の音声パターンが予め複
数個登録されており、演算プロセッサ23では上記入力
音声信号の音声パターンがこれら複数の登録パターンの
いずれか(いずれに最も近いか)を判断して単語等を認
識するものである。なお、標準パターン登録メモリ25
へのパターン登録は、メーカ側で標準的な複数の音声パ
ターンを予め記憶させるようにしたり、あるいはユーザ
側で製品使用開始に先立ってオペレータが複数の単語を
順次音声入力し、演算プロセッサ23で例えば周波数分
析して上記音声パターンを形成し、これらを記憶させる
ようにしてもよい。
Next, the voice recognition circuit 13 shown in FIG.
Is for processing the supplied audio signal to recognize the above-mentioned command and various information, and various configurations are conceivable. For example, the configuration shown in FIG. 4 will be described. In FIG. 4, an output signal (input voice signal) from the transmitter 11 of the handset 10 is supplied to the input terminal 21, and the input voice signal is sent to the arithmetic processor 23 via the analog interface 22. Sent.
The analog interface 22 controls the input voice level to a predetermined value according to the control data supplied from the system controller 24, converts the input voice level into a serial digital voice signal, and sends the serial digital voice signal to the arithmetic processor 23. The arithmetic processor 23 forms a voice pattern by, for example, frequency-analyzing the input digital voice signal, and corrects temporal distortion of the voice pattern due to fluctuations in the vocalization rate of human voice (temporal axis normalization). Then, a so-called pattern matching process is performed by comparing the time-axis-normalized voice pattern with a plurality of standard patterns stored in the standard pattern registration memory 25 in advance. The pattern matching process is to calculate the distance between the detected voice pattern and each standard pattern and obtain the shortest standard pattern. The processing result is the control circuit 15 including the CPU or the like via the interface 26. Sent to. Here, in the standard pattern registration memory 25, a plurality of voice patterns such as the above-mentioned command words such as "play" and "stop" and various information words such as "Sunday" and "1 channel" are registered in advance. Accordingly, the arithmetic processor 23 recognizes a word or the like by judging which of the plurality of registered patterns the sound pattern of the input sound signal is (which is the closest). The standard pattern registration memory 25
For registering the pattern in the, the manufacturer may store a plurality of standard voice patterns in advance, or the user may sequentially input a plurality of words by voice before the user starts using the product, and the arithmetic processor 23 may, for example, It is also possible to perform frequency analysis to form the voice patterns and store them.

【0019】この音声認識回路13からの出力信号は、
制御回路15に送られ、この制御回路15においては所
定のソフトウェア・プログラムによって自然言語入力処
理や推論・対話処理が施される。すなわち、図5に示す
ように、ユーザ側の音声入力31に応じて、自然言語入
力処理プロダクション・システム32が機能して例えば
予約番組数に応じた意味フレーム33が形成され、これ
らの意味フレーム33が推論・対話プロダクション・シ
ステム34に送られて、録画予約スケジューラ35を設
定制御する。自然言語入力処理プロダクション・システ
ム32は、文正規化プロダクション・システムPS1、
句切り分けプロダクション・システムPS2、単語抽出
プロダクション・システムPS3及び意味理解プロダク
ション・システムPS4に細分化でき、また推論・対話
プロダクション・システム34は、補間推論プロダクシ
ョン・システムPS5、習慣学習プロダクション・シス
テムPS6及び対話処理プロダクション・システムPS
7に細分化できる。1つの意味フレーム33内には、例
えば録画予約処理用として、曜日情報項目、チャンネル
情報項目、開始時刻情報項目、録画時間あるいは終了時
刻情報項目等の複数項目のスロットが設けられており、
予約処理中に音声入力された各種情報がこれらの対応す
る項目スロットに書き込まれるようになっている。
The output signal from the voice recognition circuit 13 is
It is sent to the control circuit 15, and in this control circuit 15, natural language input processing and inference / interaction processing are performed by a predetermined software program. That is, as shown in FIG. 5, the natural language input processing production system 32 functions in response to the voice input 31 on the user side to form a semantic frame 33 corresponding to, for example, the number of reserved programs. Is sent to the inference / interaction production system 34 to set and control the recording reservation scheduler 35. The natural language input processing production system 32 is a sentence normalization production system PS1,
The phrase segmentation production system PS2, the word extraction production system PS3, and the meaning understanding production system PS4 can be subdivided, and the inference / dialogue production system 34 includes an interpolation inference production system PS5, a habit learning production system PS6, and a dialogue. Processing Production System PS
It can be subdivided into 7. In one meaning frame 33, for example, a plurality of slots such as a day information item, a channel information item, a start time information item, a recording time or an end time information item are provided for recording reservation processing,
Various information input by voice during the reservation process is written in these corresponding item slots.

【0020】次に図6は、上記図2のフローチャートに
おける各ステップでの処理をより詳細に説明するための
フローチャートであり、録画予約とVTR40の走行系
の操作を行う場合を例に挙げている。すなわち、この図
6において、ステップS11では、上記図2のステップ
S1におけるアニメーションキャラクタACの呼び出し
操作が行われる。このステップS11での呼び出しは、
上記図2のステップS1で説明したようにオペレータの
呼び出し命令(「アイビー」とか「おい」等)の音声入
力や、VTR40の電源オン等に応じてなされる。この
ステップS11で上記アニメーションキャラクタACの
呼び出し入力がされると、次のステップS12に進んで
上記CRT表示装置30の画面SC上に上記図3に示し
たようなアニメーションキャラクタACが映し出される
(アニメーションキャラクタACの起動)。
Next, FIG. 6 is a flow chart for explaining the processing in each step in the flow chart of FIG. 2 in more detail, and an example of performing recording reservation and operation of the traveling system of the VTR 40 is given. . That is, in FIG. 6, in step S11, the operation of calling the animation character AC in step S1 of FIG. 2 is performed. The call in this step S11 is
As described in step S1 of FIG. 2 described above, it is performed in response to voice input of an operator's call command (such as "Ivy" or "Cute") and power-on of the VTR 40. When the calling input of the animation character AC is made in this step S11, the process proceeds to the next step S12, and the animation character AC as shown in FIG. 3 is displayed on the screen SC of the CRT display device 30 (animation character AC startup).

【0021】次にステップS13では、上記プレストー
クスイッチ12がオンかオフかの判断がなされる。オフ
の場合(No)の場合はステップS14に進み、オンの
場合(Yes)はステップS15に進む。ステップS1
5に進んで上記オペレータからの命令が音声入力される
と、先ず、ステップS16でこの入力命令が録画予約の
命令であるか否かの判断がなされる。録画予約の命令で
ある場合(Yes)はステップS17で録画予約の処理
を行った後、ステップS13に戻る。ステップS16で
Noの場合(命令入力が録画予約の命令でない場合)に
はステップS18に進み、既に行われた録画予約内容を
表示させる表示命令であるか否かの判断がなされ、Ye
sの場合はステップS19でCRT表示装置30の画面
SC上に先の録画予約内容を表示する処理がなされた後
ステップS13に戻り、Noの場合はステップS20に
進む。ステップS20では、上記オペレータの命令入力
が録画予約の変更命令か否かの判断を行う。このステッ
プS20でYesの場合はステップS21で録画予約の
変更が行われた後ステップS13に戻り、Noの場合は
ステップS22へ進む。ステップS22では録画予約の
取消命令であるか否かの判断がなされ、Yesの場合は
ステップS23で録画予約の取消処理がなされた後ステ
ップS13へ戻り、Noの場合はステップS24へ進
む。ステップS24では、上記アニメーションキャラク
タACに対する操作命令であるか否かの判断が成され、
Yesの場合ステップS25で当該アニメーションキャ
ラクタACの操作がなされた後ステップS13に戻る。
なお、このアニメーションキャラクタACの操作の具体
例としては、後述するようにアニメーションキャラクタ
ACを画面から消したり、黙らせたり(音声を消す)等
の操作を行わせるような操作を挙げることができる。ま
た、ステップ24でNoの場合はステップS26に進
む。ステップS26ではVTR40の操作命令であるか
否かの判断がなされ、Yesの場合はVTR40の操作
処理がなされた後ステップS13へ戻り、Noの場合は
入力が終了命令であったことになり処理を終了する。
Next, in step S13, it is determined whether the press talk switch 12 is on or off. If it is off (No), the process proceeds to step S14, and if it is on (Yes), the process proceeds to step S15. Step S1
When the operation is proceeded to step 5 and the command from the operator is inputted by voice, first, at step S16, it is judged whether or not the input command is a recording reservation command. If the command is a recording reservation command (Yes), the recording reservation process is performed in step S17, and the process returns to step S13. In the case of No in step S16 (when the command input is not a recording reservation command), the process proceeds to step S18, and it is determined whether or not it is a display command for displaying the contents of the recording reservation already made, and Yes.
In the case of s, in step S19, the process of displaying the previous recording reservation contents on the screen SC of the CRT display device 30 is performed, and then the process returns to step S13, and in the case of No, the process proceeds to step S20. In step S20, it is determined whether the operator's command input is a recording reservation change command. If Yes in this step S20, the recording reservation is changed in step S21 and then the process returns to step S13. If No, the process proceeds to step S22. In step S22, it is determined whether or not it is a recording reservation cancellation command. If Yes, the recording reservation cancellation processing is performed in step S23, and then the process returns to step S13. If No, the process proceeds to step S24. In step S24, it is determined whether the operation command is for the animation character AC,
In the case of Yes, after the operation of the animation character AC is performed in step S25, the process returns to step S13.
As a specific example of the operation of the animation character AC, an operation of causing the animation character AC to be erased from the screen, silenced (silenced), or the like, as described later, can be given. If No in step 24, the process proceeds to step S26. In step S26, it is determined whether or not it is the operation command of the VTR 40. If Yes, the operation process of the VTR 40 is performed, and then the process returns to step S13. If No, it means that the input is the end command and the process is executed. finish.

【0022】なお、上記ステップS13でNoとなって
ステップS14に進んだ場合、当該ステップS14でオ
ペレータ(ユーザ)からの音声命令入力がある一定時間
内に無い場合には、例えば、上記アニメーションキャラ
クタACが暇を持て余している様子を映像で表現する。
具体的には、例えば、最初は、アニメーションキャラク
タACがあくびをし、次に画面の端に寄りかかったり、
頭を掻く動作をさせたりし、音声命令入力が引き続き無
い場合はアニメーションキャラクタACが横たわる(横
に寝る)ような暇を持て余す動作をさせる。この動作処
理を以後暇アニメ処理と呼ぶ。
When the result of the determination in step S13 is No and the process proceeds to step S14, and when the voice command input from the operator (user) is not within a certain time in step S14, for example, the animation character AC is used. The video shows how he has a spare time.
Specifically, for example, at first, the animated character AC yawns and then leans against the edge of the screen,
For example, the user scratches his head, and when there is no voice command input, the animation character AC lays down (sleeps sideways), which is an extra time. This motion processing is hereinafter referred to as leisure animation processing.

【0023】図7は、上記図6のステップS17におけ
る予約処理の詳細を説明するためのフローチャートであ
る。すなわちこの図7において、ステップS50で録画
予約のための情報入力待ちを示す予約入力要求表示がな
される。この表示としては、例えば図8に示すように、
CRT表示装置30の画面SC上にアニメーションキャ
ラクタAC及び吹き出し部SP内の文字メッセージによ
る「予約をどうぞ。」との表示がなされる。このとき、
合成音声により「予約をどうぞ」との発音がなされると
共に、アニメーションキャラクタACの口が動く等の動
画表示がなされる。なお図8の例では、画面SCの例え
ば右上位置の文字表示窓部PHに現在のフェーズを示す
「予約」との文字が表示されている。
FIG. 7 is a flow chart for explaining the details of the reservation process in step S17 of FIG. That is, in FIG. 7, in step S50, a reservation input request display indicating that information input waiting for recording reservation is displayed. As this display, for example, as shown in FIG.
On the screen SC of the CRT display device 30, an animation character AC and a message "Please make a reservation." At this time,
The synthetic voice pronounces "Please make a reservation" and a moving image such as the mouth of the animated character AC moves. In the example of FIG. 8, the character "reservation" indicating the current phase is displayed in the character display window portion PH at the upper right position of the screen SC, for example.

【0024】この図8に示すような表示(及び音声出
力)がなされた状態において、図7の次のステップS5
1では、上記VTR40の録画予約のための各種要素情
報、例えば曜日、チャンネル、開始及び終了時刻等につ
いての音声入力が行われる。ここで、当該ステップS5
1での要素情報入力では、複数の要素情報を一度にしか
も任意の順序で入力できるようになっている。このた
め、ステップS52では、上記図5に示したような自然
言語入力処理プロダクション・システム32による入力
処理が行われ、文の正規化、句切り分け、単語抽出及び
意味理解の各処理が行われた後、複数の要素情報が上記
意味フレーム33の各項目、例えば曜日情報項目、チャ
ンネル情報項目、開始時刻情報項目、録画時間あるいは
終了時刻情報項目等のそれぞれ対応するスロットに分類
されて書き込まれる。このステップS52で要素情報入
力処理がなされた後、ステップS53で不足の要素情報
があるか否か判断される。
In the state where the display (and voice output) as shown in FIG. 8 is made, the next step S5 in FIG.
In 1, the voice input is performed for various element information for recording reservation of the VTR 40, for example, day of the week, channel, start and end times, and the like. Here, the step S5
In the element information input in 1, it is possible to input a plurality of element information at once and in any order. For this reason, in step S52, the input processing by the natural language input processing production system 32 as shown in FIG. 5 is performed, and the sentence normalization, phrase segmentation, word extraction, and meaning understanding are performed. After that, a plurality of pieces of element information are categorized and written in each item of the meaning frame 33, for example, a day of the week information item, a channel information item, a start time information item, a recording time or an end time information item. After the element information input processing is performed in step S52, it is determined in step S53 whether or not there is insufficient element information.

【0025】この要素情報の不足とは、上述した意味フ
レーム内の各項目情報が全て揃っていないことを意味す
るものである。すなわち、例えば録画予約時の意味フレ
ーム内に、曜日情報項目、チャンネル情報項目、開始時
刻情報項目、終了時刻(あるいは録画時間)情報項目の
4項目が設けられている場合に、これらの4項目の内の
1項目でも情報が欠けると正常な録画予約が行えなくな
る。そこで、ステップS53で要素情報が不足(Ye
s)と判断された場合、ステップS66で不足の要素情
報の質問がなされ、ステップS51に戻る。この不足情
報の補完処理については、図11を参照しながら後で説
明する。
The lack of element information means that all the item information in the above-mentioned meaning frame is not complete. That is, for example, when four items of a day of week information item, a channel information item, a start time information item, and an end time (or recording time) information item are provided in the meaning frame at the time of recording reservation, If even one of these items lacks information, normal recording reservations cannot be made. Therefore, in step S53, the element information is insufficient (Yes
If it is determined to be s), the question of the insufficient element information is asked in step S66, and the process returns to step S51. The process of complementing the lack information will be described later with reference to FIG.

【0026】図7のステップS53で不足が無い(N
o)と判断された場合には、ステップS54に進んで入
力された各要素情報の確認がなされる。このステップS
54の要素情報の確認の際には、例えばCRT表示装置
30の画面SC上に図9のような表示がなされる。この
図9の画面SC上での表示としては、上記図8の場合と
同様に、アニメーションキャラクタAC及び吹き出し部
SP内の文字メッセージによる「これでいいですか?」
との表示がなされ、合成音声により同じく「これでいい
ですか」との発音がなされると共にアニメーションキャ
ラクタACの口が動く表示がなされる。また画面SCの
文字表示窓部PHに現在のフェーズを示す「予約」との
文字が表示される。さらに、この図9の確認の表示にお
いては、画面SCの中央部分に録画予約内容表示窓部P
Rが設けられ、この表示窓部PR内に、例えば録画予約
の曜日データ「11月7日水曜日」、開始及び終了時刻
データ「午前3時−午前4時」、及びチャンネルデータ
「6チャンネル」のように、上記意味フレーム内の各項
目のデータを表示している。
In step S53 of FIG. 7, there is no shortage (N
If it is determined to be o), the process proceeds to step S54, and the input element information is confirmed. This step S
When confirming the element information 54, a display as shown in FIG. 9 is displayed on the screen SC of the CRT display device 30, for example. As for the display on the screen SC of FIG. 9, as in the case of FIG. 8 above, the text message in the animation character AC and the balloon SP indicates “Is this okay?”.
Is displayed, and the synthesized voice also pronounces "Is this okay?" And also displays that the mouth of the animation character AC moves. Further, the character "reservation" indicating the current phase is displayed in the character display window portion PH of the screen SC. Further, in the confirmation display of FIG. 9, the recording reservation content display window portion P is displayed in the central portion of the screen SC.
R is provided, and in the display window portion PR, for example, recording day data “Wednesday, November 7”, start and end time data “3:00 am to 4:00 am”, and channel data “6 channels” As described above, the data of each item in the meaning frame is displayed.

【0027】このような図9の表示が行われている状態
で、図7の次のステップS55では上記ステップS54
での予約確認のための音声入力がなされる。例えば、
「イエス」,「戻れ」,「ノー」,「変更」のような命
令あるいは上記要素情報等の音声入力がなされる。この
ときにも上述の図5による自然言語入力処理が行われる
ことは勿論である。ステップS56では、上記ステップ
S55における音声入力が「イエス」か否かの判断がな
され、Yes(「イエス」の入力音声)と判断された場
合は、ステップS67に進み録画予約の重複がないかチ
ェックされる。またステップS56でNo(「イエス」
以外)と判断された場合は、ステップS57に進む。当
該ステップS57では上記ステップS55の音声入力が
「戻れ」か否かの判断がなされ、この判断がYesの場
合は更にステップS68で要素情報入力の不足情報の質
問をしたかどうかの判断がなされる。このステップS6
8でYesの場合はステップS66に戻り、Noの場合
はステップS50に戻る。一方当該ステップS57の判
断がNoとなった場合は、ステップS58に進む。当該
ステップS58では上記ステップS55での音声入力が
要素情報であるか否かの判断がなされる。上記音声入力
が要素情報である場合(Yes)は、ステップS52に
戻り、要素情報でない別の音声入力である場合(No)
は、ステップS59に進む。ステップS59ではステッ
プS55の音声入力が「変更」であるか否かの判断がな
される。Yesの場合はステップS63に進み、Noの
場合はステップS60に進む。このステップS60で
は、録画予約の各要素情報の変更か或いは取消かの選択
を行う。このためステップS61で変更/取消のいずれ
かの入力を行い、ステップS62に進む。ステップS6
2では、再び音声入力が「変更」であるか否かの判断を
行い、Noの場合はステップS69で録画予約を中止す
る。また、ステップS62でYesの場合は、ステップ
S63に進み、変更内容の質問を行い、ステップS65
で再び要素情報の入力を行った後、ステップS52に戻
る。
In the state where the display of FIG. 9 is being performed as described above, in the next step S55 of FIG.
A voice input is made to confirm the reservation at. For example,
A command such as "yes", "return", "no", "change" or voice input of the above element information or the like is performed. Of course, the natural language input processing according to FIG. 5 described above is also performed at this time. In step S56, it is determined whether or not the voice input in step S55 is "yes". If Yes (voice input of "yes") is determined, the process proceeds to step S67 to check whether there is a duplicate recording reservation. To be done. In step S56, No (“Yes”)
If it is determined to be other than), the process proceeds to step S57. In step S57, it is determined whether or not the voice input in step S55 is "return", and if this determination is Yes, it is further determined in step S68 whether or not a question about insufficient information for element information input is queried. . This step S6
If Yes in step 8, the process returns to step S66, and if No, the process returns to step S50. On the other hand, if the determination in step S57 is No, the process proceeds to step S58. In step S58, it is determined whether the voice input in step S55 is element information. If the voice input is element information (Yes), the process returns to step S52, and if it is another voice input that is not element information (No).
Proceeds to step S59. In step S59, it is determined whether or not the voice input in step S55 is "change". If Yes, the process proceeds to step S63, and if No, the process proceeds to step S60. In this step S60, it is selected whether to change or cancel each element information of the recording reservation. Therefore, in step S61, either change / cancellation is input, and the process proceeds to step S62. Step S6
In 2, it is judged again whether or not the voice input is "change". If No, the recording reservation is stopped in step S69. If Yes in step S62, the process proceeds to step S63 to ask a question about the changed content, and then in step S65.
After inputting the element information again in step S52, the process returns to step S52.

【0028】図10は、上記図7のステップS51の要
素情報入力及びステップS52の要素情報入力処理の詳
細を示すフローチャートである。この図10では、自然
言語の「戻れ」に複数の意味があり、現在の状態に応じ
て異なる制御が必要となる点に着目した動作の流れを示
している。すなわちこの図10において、要素情報の入
力があると、ステップS71で該入力要素情報の意味解
析が行われた後、ステップS72に進む。ステップS7
2では、入力された音声が「戻れ」であるか否かの判断
がなされ、Yesの場合はステップS73に進み、当該
ステップS73で直前の音声入力が「戻れ」であったか
否かの判断が行われる。このステップS73でYesな
らばステップS75に進み予約中止の処理がなされた後
処理を終了する。また、ステップS73でNoと判断さ
れると、ステップS74に進み、当該ステップS74で
更にその直前の質問があったか否かの判断がなされる。
ステップS74でNoの場合はステップS75の予約中
止に進み、Yesの場合はステップS76に進む。ステ
ップS76では、上記直前の質問をして、上記図7のス
テップS51の要素情報入力ステップに戻る。更に、上
記ステップS72でNoと判断された場合は、ステップ
S77に進む。当該ステップS77ではエラーが有るか
否かの判断がなされ、Yesの場合ステップS79へ進
み、エラー項目の質問がなされた後、上記ステップS5
1の要素情報入力に戻る。ステップS77においてNo
と判断されると、ステップS78に進み、上記意味フレ
ームへの書き込みが行われた後、処理を終了する。
FIG. 10 is a flow chart showing details of the element information input processing in step S51 and the element information input processing in step S52 of FIG. FIG. 10 shows a flow of operations focusing on the point that "return" in natural language has a plurality of meanings and different control is required depending on the current state. That is, in FIG. 10, when the element information is input, the semantic analysis of the input element information is performed in step S71, and then the process proceeds to step S72. Step S7
In 2, it is determined whether or not the input voice is "return". If Yes, the process proceeds to step S73, and in step S73, it is determined whether or not the last voice input was "return". Be seen. If Yes in this step S73, the process proceeds to step S75 and the processing for canceling the reservation is performed and the processing is ended. If No is determined in step S73, the process proceeds to step S74, and it is determined in step S74 whether or not there is a question immediately before that.
In the case of No in step S74, the process proceeds to the reservation cancellation in step S75, and in the case of Yes, the process proceeds to step S76. In step S76, the question immediately before is asked, and the process returns to the element information input step of step S51 of FIG. Furthermore, if No in step S72, the process proceeds to step S77. In step S77, it is determined whether or not there is an error, and if the result is Yes, the process proceeds to step S79, and after asking the error item, the above step S5
Return to element information input of 1. No in step S77
If it is determined, the process proceeds to step S78, the writing to the meaning frame is performed, and then the process ends.

【0029】このような「戻れ」の他にも、「取り消
し」とか「いい」のように複数の意味がある単語が音声
入力された場合には、状況に応じて正しくその意味を理
解して処理を行えるように、すなわち言葉の多義性を扱
えるように、自然言語処理プログラムが組まれている。
これは、上記図10に示したように、現在の状態を判断
対象に組み入れることによって実現でき、これによって
人間の言語生活で普通に行われているような自然な感覚
で操作が行える。なお、上記図2のステップS3におけ
る上記VTR40の走行系を直接的に操作するフェーズ
や、ステップS5(及びS6)の予約確認のフェーズ等
においても、上記「戻れ」や「取り消し」等の音声入力
には種々の意味があり、状況に応じた適切な対応がなさ
れるわけであるが、これについては後述する。
In addition to such "return", if a word having a plurality of meanings such as "cancel" or "good" is input by voice, understand the meaning correctly according to the situation. A natural language processing program is built so that it can perform processing, that is, handle polysemy of words.
This can be realized by incorporating the current state into the judgment target, as shown in FIG. 10, so that the operation can be performed with a natural sensation that is normally performed in human language life. In addition, also in the phase of directly operating the traveling system of the VTR 40 in step S3 of FIG. 2 and the reservation confirmation phase of step S5 (and S6), voice input such as “return” and “cancel” Has various meanings, and appropriate measures are taken according to the situation, which will be described later.

【0030】次に図11は図7での不足情報処理の詳細
を示すフローチャートである。図7では図示を簡略化す
るために各種不足情報の有無や質問をまとめてそれぞれ
1ステップで示しているが、図11ではこれらを上記意
味フレームの4項目に応じて展開すると共に、録画予約
の習慣を学習して得られる要素情報(以下HLSデータ
という)の有無に応じたステップも付加している。すな
わちこの図11の不足情報の補完処理において、最初の
ステップS33では録画の曜日情報の項目の有り/無し
の判断がなされ、有りのときはステップS36へ、無し
のときは次のステップS34へ進む。ステップS34で
は録画予約の曜日を何曜日にするかの質問が上記アニメ
ーションキャラクタACの動画表示(アニメーションキ
ャラクタの口の動きの表示とメッセージの文字表示)と
音声とでなされ、ステップS35で曜日の情報の入力が
なされる。ステップS36では録画予約のチャンネルの
情報の項目が有り/無しの判断がなされ、有りの場合は
ステップS39へ、無しの場合はステップS37へ進
む。ステップS37ではチャンネルをどのチャンネルに
するかの質問がなされ、ステップS38でチャンネルの
情報の入力が行われる。
Next, FIG. 11 is a flow chart showing the details of the insufficient information processing in FIG. In FIG. 7, presence or absence of various kinds of insufficient information and questions are collectively shown in one step for simplification of illustration, but in FIG. 11, these are expanded according to the four items of the above-mentioned meaning frame, and recording reservation is made. A step corresponding to the presence or absence of element information (hereinafter referred to as HLS data) obtained by learning a habit is also added. That is, in the lack information complementing process of FIG. 11, in the first step S33, it is determined whether or not there is an item of the day of the week information for recording. If yes, the process proceeds to step S36, and if not, the process proceeds to the next step S34. . In step S34, a question as to what day of the week the recording is scheduled is made by displaying the moving image of the animation character AC (displaying the movement of the mouth of the animation character and displaying the message character) and voice, and in step S35, the day of the week information. Is input. In step S36, it is determined whether or not there is an item of channel reservation information, and if yes, the process proceeds to step S39, and if no, the process proceeds to step S37. In step S37, a question is asked as to which channel to set, and in step S38, channel information is input.

【0031】ここで、本実施例は、オペレータがVTR
40で録画予約する場合の予約の習慣を学習するシステ
ム(HLS)を有している。すなわちこのHLSシステ
ムにおいては、例えば曜日とチャンネル(或いは曜日の
み)の情報入力があったときに、ステップS39にてこ
の曜日とチャンネルの情報が上記習慣的に行われている
録画予約のデータ(HLSデータ)と同じであるか否か
の判断を行い、HLSデータである場合には、ステップ
S46で当該習慣的に予約される番組の少なくとも開始
時刻及び終了時刻を表示(及び音声出力)し、この習慣
的な録画予約を行うかどうかの確認を行う。このような
表示及び確認がされているとき、ステップS47で「イ
エス」又は「ノー」を音声入力し、次のステップS48
で上記習慣的な録画予約を行うか否かの判断を行い、Y
es(「イエス」の音声入力)の場合は重複チェックの
ステップS67へ、Noの場合はステップS41へ進
む。
Here, in this embodiment, the operator is the VTR.
It has a system (HLS) for learning the habit of reservation when making a recording reservation at 40. That is, in this HLS system, for example, when the information of the day of the week and the channel (or only the day of the week) is input, the recording reservation data (HLS) in which the information of the day of the week and the channel is customarily performed in step S39. Data)), and if it is HLS data, at least the start time and end time of the habitually reserved program are displayed (and audio output) in step S46. Confirm whether to make a custom recording reservation. When such display and confirmation are made, "Yes" or "No" is voice-input in step S47, and the next step S48.
Then, it is judged whether or not to make the above-mentioned habitual recording reservation, and Y
In the case of es (voice input of "yes"), the process proceeds to step S67 of duplication check, and in the case of No, the process proceeds to step S41.

【0032】また、ステップS39で曜日とチャンネル
の情報が上記習慣的なHLSデータで無いと判断された
ならば、ステップS40へ進む。ステップS40では録
画予約の開始時刻の情報の有り/無しの判断がなされ、
有りの場合はステップS43に進み、無しの場合はステ
ップS41に進む。このステップS41では上記録画予
約の開始時刻を何時にするかの質問がなされ、ステップ
S42では当該開始時刻の情報入力がなされる。この開
始時刻情報入力がなされると、ステップS43では録画
予約の終了時刻か又は録画時間の情報の有り/無しの判
断がなされる。有りの場合はステップS49へ進み、無
しの場合はステップS44へ進む。該ステップS44で
は録画予約の終了時刻を何時にするかの質問がなされ、
ステップS45では終了時刻の時間情報か又は録画時間
の情報の入力がなされる。ステップS49では、例えば
図9に示すような表示(及び「これでいいですか?」と
の音声出力)がなされ、上記各ステップで入力された録
画予約のための各情報が正しいかどうかの確認がなされ
る。
If it is determined in step S39 that the day of the week and channel information is not the customary HLS data, the process proceeds to step S40. In step S40, it is determined whether or not there is information on the start time of the recording reservation,
If yes, the process proceeds to step S43, and if no, the process proceeds to step S41. In step S41, a question is asked as to what time the start time of the recording reservation should be set, and in step S42, information on the start time is input. When this start time information is input, it is determined in step S43 whether there is information about the recording reservation end time or recording time. If yes, the process proceeds to step S49, and if no, the process proceeds to step S44. In step S44, a question is asked as to what time the recording reservation end time is set,
In step S45, the time information of the end time or the information of the recording time is input. In step S49, for example, a display as shown in FIG. 9 (and a voice output such as "Is this okay?") Is made, and it is confirmed whether or not each information for recording reservation input in each of the above steps is correct. Is done.

【0033】次に図12は、図7のステップS67の重
複チェック処理の詳細を説明するためのフローチャート
である。この図12において、ステップS81では上述
した予約内容の確認の表示(上記図7のステップS54
に相当)がなされ、ステップS82では重複確認処理を
開始するため音声入力により「イエス」を入力(図7の
ステップS55及びS56に相当)している。従って、
ステップS83以降が上記図7のステップS67の重複
チェック処理に相当することになる。図12のステップ
S83では、既に予約された録画予約情報の内に時間が
重複する予約情報があるか否かの判断がなされ、Noの
場合はステップS92で録画予約を完了させて処理を終
了し、Yesの場合はステップS84に進む。当該ステ
ップS84では重複している録画予約の表示と、この重
複している録画予約内容の変更/取消の選択を行う。ス
テップS85では音声入力により、「変更」/「取消」
の何れかの入力を行う。ステップS86では、上記音声
入力が「変更」であるか否かの判断がなされ、Noの場
合はステップS93で録画予約を中止して処理を終了
し、Yesの場合はステップS87で変更内容の質問を
する。このステップS87の次に、ステップS88で要
素情報の音声入力を行う。このステップS88で要素情
報が入力されたならば、ステップS89で意味解析処理
がなされる。この時ステップS90では、音声入力の意
味解析のエラーの有り/無しの判断を行い、有りの場合
はステップS94でエラー項目を質問してステップS8
8に戻る。また、ステップS90で無しと判断された場
合は、ステップS91に進み、上記意味フレームの対応
情報項目へのスロット書き込みを行った後、上記ステッ
プS81に戻る。
Next, FIG. 12 is a flow chart for explaining the details of the duplication check processing in step S67 of FIG. In FIG. 12, in step S81, the above-mentioned confirmation of the reservation content is displayed (step S54 in FIG. 7 above).
(Corresponding to steps S55 and S56 in FIG. 7) by voice input to start the duplication confirmation process in step S82. Therefore,
Steps S83 and thereafter correspond to the duplication check process of step S67 in FIG. In step S83 of FIG. 12, it is determined whether or not there is reservation information with overlapping time in the already reserved recording reservation information. If No, the recording reservation is completed in step S92, and the process ends. , Yes, the process proceeds to step S84. In step S84, display of the overlapping recording reservations and selection / change of the overlapping recording reservation contents are selected. In step S85, "change" / "cancel" by voice input
Input either of In step S86, it is determined whether or not the voice input is "change". If No, the recording reservation is stopped and the process ends in step S93, and if Yes, the question of the change content is asked in step S87. do. After step S87, voice input of element information is performed in step S88. If the element information is input in step S88, the semantic analysis process is performed in step S89. At this time, in step S90, it is determined whether or not there is an error in the semantic analysis of voice input. If yes, the error item is queried in step S94, and step S8 is performed.
Return to 8. If it is determined in step S90 that there is none, the process proceeds to step S91, the slot is written in the corresponding information item of the meaning frame, and then the process returns to step S81.

【0034】ここで、上記ステップS90、S94での
エラー処理や、上記図10のステップS77、S79で
のエラー処理等は、原則として音声入力がなされる毎に
行われるものであり、大別すると、意味解析ルーチンで
アンマッチが起きた(ルールが無い)場合の文法エラー
と、要素情報の指定に誤りがある(あるいは指定に誤り
は無いがVTRの仕様上間違っている)場合の入力エラ
ーとが挙げられる。上記文法エラーの場合には、例えば
「わかりませんでした。もう一度言って下さい。」との
メッセージを動画表示及び音声出力し、入力待ち状態と
する。上記入力エラーの場合には、例えば、「わかりま
せんでした。何曜日の予約ですか?」とか、「開始と終
了の時刻が同じです。時間を入れ直して下さい。」等の
ように入力文中の誤り項目(エラー項目)を指摘して再
入力を要求するようなメッセージを動画表示(アニメー
ションキャラクタの口の動きの表示とメッセージの文字
表示)及び音声出力し、入力待ち状態とする。
Here, the error processing in steps S90 and S94 and the error processing in steps S77 and S79 in FIG. 10 are, as a general rule, performed every time a voice is input. , There is a grammatical error when a mismatch occurs in the semantic analysis routine (there is no rule) and an input error when there is an error in the element information specification (or there is no error in the specification but it is incorrect in the VTR specifications). Can be mentioned. In the case of the above grammatical error, for example, a message "I didn't understand. Please try again." In the case of the above input error, for example, "I did not understand. What day of the week do you have a reservation?" Or "The start and end times are the same. Please enter the time again." A message for indicating an error item (error item) and requesting re-input is displayed as a moving image (display of the movement of the mouth of the animation character and character display of the message) and voice output, and the input waiting state is set.

【0035】次に図13及び図14は、上記図6のステ
ップS19での表示処理ルーチンの詳細を説明するため
のフローチャートである。すなわち、上記図6のステッ
プS19における表示処理が開始されると、ステップS
101では録画予約の情報が有るか無いかの判断がなさ
れ、無しの場合は、ステップS102で表示すべき予約
情報がないことを示すエラーメッセージを動画表示及び
音声出力して処理を終了する。またステップS101で
有りと判断された場合は、ステップS103で録画予約
内容の表示を行った後、ステップS104で未表示予約
情報が有るか無いかの判断を行う。ステップS104で
無しと判断されるとステップS113に進む。またこの
ステップS104で有りと判断されると、ステップS1
05でCRT表示装置30の画面を切り替えるかどうか
質問がなされる。ステップS106では、音声による
「イエス」,「ノー」,「戻れ」や変更の命令,取消の
命令の入力がなされる。このステップS106の入力が
なされた後、ステップS108で当該入力音声が「イエ
ス」であるか否かの判断がなされる。このステップS1
08でYesと判断された場合は、ステップS115へ
進み、更に次の画面の情報があるか否かの判断がなされ
る。このステップS115でYesと判断されると、ス
テップS116に進んで次の画面を表示してステップS
105に戻り、ステップS115でNoと判断される
と、ステップS117に進んでエラーメッセージを表示
してステップS105に戻る。また、上記ステップS1
08での判断がNoとなる場合は、ステップS109に
進む。当該ステップS109では上記音声入力が「戻
れ」であるか否かの判断がなされ、Yesの場合はステ
ップS118に進む。当該ステップS118では前画面
が有るか否かの判断を行い、Yesの場合はステップS
119で前画面を表示してステップS105に戻り、N
oの場合は処理を終了する。上記ステップS109がN
oの場合は、ステップS110に進む。ステップS11
0は上記音声入力が変更の命令であるか否かの判断がな
され、Yesの場合はステップS120で変更処理に進
み、Noの場合はステップS111に進む。ステップS
111では上記音声入力が取消の命令であるか否かの判
断を行い、Yesの場合はステップS121で取消処理
に進み、Noの場合はステップS112に進む。当該ス
テップS112では、この表示処理が表示の命令から始
まったか否かの判断がなされ、Noの場合はステップS
110に戻り、Yesの場合はステップS113に進
む。当該ステップS113では変更か取消をするかどう
かの質問を行い、ステップS114では音声による「イ
エス」,「ノー」,「戻れ」或いは変更命令,取消命令
の入力を行う。
Next, FIGS. 13 and 14 are flow charts for explaining the details of the display processing routine in step S19 of FIG. That is, when the display process in step S19 of FIG.
In 101, it is determined whether or not there is information on recording reservation. If not, in step S102, an error message indicating that there is no reservation information to be displayed is displayed as a moving image and voice output, and the process ends. If it is determined in step S101 that the recording reservation content is displayed in step S103, it is determined in step S104 whether or not there is undisplayed reservation information. If it is determined that there is none in step S104, the process proceeds to step S113. If it is determined in step S104, step S1
At 05, it is asked whether to switch the screen of the CRT display device 30. In step S106, a voice input of "yes", "no", "return", a change command, or a cancel command is input. After the input is made in step S106, it is determined in step S108 whether or not the input voice is "yes". This step S1
If Yes is determined in 08, the process proceeds to step S115, and it is further determined whether there is information on the next screen. If Yes is determined in step S115, the process proceeds to step S116, the next screen is displayed, and the process proceeds to step S116.
Returning to step 105, if No is determined in step S115, the process proceeds to step S117, an error message is displayed, and the process returns to step S105. In addition, the above step S1
If the determination in 08 is No, the process proceeds to step S109. In step S109, it is determined whether or not the voice input is "return", and if Yes, the process proceeds to step S118. In step S118, it is determined whether or not there is a previous screen, and if Yes, step S118.
At 119, the previous screen is displayed, the process returns to step S105, and N
If it is o, the process is terminated. Step S109 is N
In the case of o, it progresses to step S110. Step S11
For 0, it is determined whether or not the voice input is a change command. If Yes, the process proceeds to the change process in step S120, and if No, the process proceeds to step S111. Step S
In 111, it is determined whether or not the voice input is a cancel command. If Yes, the process proceeds to the canceling process in step S121, and if No, the process proceeds to step S112. In the step S112, it is judged whether or not the display processing is started from the display instruction, and if No, the step S112.
Return to 110, and if Yes, go to step S113. In step S113, a question is asked as to whether to change or cancel, and in step S114, a voice "yes", "no", "return" or a change command or a cancel command is input.

【0036】更に、この図13のステップS114の処
理が終了すると、図14に示すステップS125に進
む。当該ステップS125では上記ステップS114で
の音声入力が変更命令であるか否かの判断がなされ、Y
esの場合はステップS131で変更処理を行った後処
理を終了し、Noの場合はステップS126に進む。当
該ステップS126ではステップS114での音声入力
が取消命令であるか否かの判断がなされ、Yesの場合
はステップS132で取消処理を行った後処理を終了
し、Noの場合はステップS127に進む。当該ステッ
プS127ではステップS114での音声入力が「イエ
ス」であるか否かの判断がなされ、当該判断がNoの場
合は処理を終了し、判断がYesの場合はステップS1
28に進む。当該ステップS128では変更/取消の選
択の質問がなされ、ステップS129で音声による変更
命令,取消命令,「戻れ」の入力がなされる。その後、
ステップS130に進み、ここで上記音声入力が「戻
れ」であるか否かの判断がなされ、この判断がYesの
場合は処理を終了し、Noの場合は上記ステップS12
5に戻る。
Further, when the process of step S114 in FIG. 13 is completed, the process proceeds to step S125 shown in FIG. In step S125, it is determined whether or not the voice input in step S114 is a change command.
In the case of es, the change process is performed in step S131 and the post-process is ended. In the case of No, the process proceeds to step S126. In step S126, it is determined whether or not the voice input in step S114 is a cancel command. If Yes, the cancel process is performed in step S132 and the post-processing is terminated, and if No, the process proceeds to step S127. In step S127, it is determined whether or not the voice input in step S114 is "yes". If the determination is No, the process ends, and if the determination is Yes, step S1.
Proceed to 28. In step S128, a question is asked as to whether to change or cancel, and in step S129, a change command, a cancel command, and "return" are input by voice. afterwards,
The process proceeds to step S130, where it is determined whether or not the voice input is "return". If the determination is Yes, the process is terminated, and if No, the above-described step S12.
Return to 5.

【0037】図15は上記図13のフローチャートのス
テップS120における変更処理ルーチンの詳細を説明
するためのフローチャートである。すなわちこの図15
において、ステップS140では録画予約の選択処理が
行われ、具体的には例えば録画予約内容の一覧表が表示
されて、どの予約を変更するかを尋ねる旨のメッセージ
が動画表示及び音声出力される。次のステップS141
では、上記表示された一覧表中に例えば4つの内容表示
欄が有る場合、これらの内の何番目の欄の録画予約情報
を変更するかを、例えば「1番」〜「4番」のように音
声で入力する。次のステップS142では上記音声入力
で指定した番号の欄に実際に録画予約された情報がある
か否かの判断を行う。このステップS142でNoの場
合はステップS150でエラーメッセージを出してステ
ップS140に戻り、Yesの場合はステップS143
に進む。
FIG. 15 is a flow chart for explaining the details of the change processing routine in step S120 of the flow chart of FIG. That is, in FIG.
In step S140, a recording reservation selection process is performed. Specifically, for example, a list of recording reservation contents is displayed, and a message asking which reservation is to be changed is displayed as a moving image and voice output. Next step S141
Then, if there are, for example, four content display columns in the displayed list, the number of these columns to change the recording reservation information is determined by, for example, "1" to "4". To speak into. In the next step S142, it is determined whether or not there is actually recording-reserved information in the column of the number designated by the voice input. In the case of No in this step S142, an error message is output in step S150 and the process returns to step S140, and in the case of Yes, step S143
Proceed to.

【0038】このステップS143では、指定された録
画予約内容についての変更内容の質問が行われ、ステッ
プS144で変更内容の要素情報の音声入力が行われ
る。ステップS145では当該要素情報により変更され
た録画予約内容の確認処理がなされ、ステップS146
で音声による「イエス」,「ノー」あるいは要素情報の
入力が行われる。ステップS147では、上記ステップ
S146の音声入力が要素情報であるか否かの判断がな
され、Yesの場合はステップS145に戻り、Noの
場合はステップS148に進む。このステップS148
では上記音声入力が「イエス」か否かの判断がなされ、
Yes(「イエス」の音声入力)の場合はステップS1
51で上記重複チェック処理を行った後、処理を終了す
る。また、このステップS148での判断がNoの場
合、ステップS149で変更内容の質問が再びなされた
後、ステップS144に戻る。
In step S143, a question about the contents of the change regarding the designated recording reservation contents is asked, and in step S144, the voice input of the element information of the contents of the change is performed. In step S145, confirmation processing of the recording reservation content changed by the element information is performed, and step S146 is performed.
The voice inputs "yes", "no" or element information. In step S147, it is determined whether or not the voice input in step S146 is element information. If Yes, the process returns to step S145, and if No, the process proceeds to step S148. This step S148
Then, it is judged whether the above voice input is "yes",
In the case of Yes (voice input of "yes"), step S1
After performing the duplication check process at 51, the process ends. If the determination in step S148 is No, the question of the changed content is asked again in step S149, and then the process returns to step S144.

【0039】図16は上記図13のフローチャートのス
テップS121における取消処理ルーチンの詳細を説明
するためのフローチャートである。すなわちこの図16
において、ステップS160では取消を行う録画予約情
報の選択を行い、ステップS161で例えば1番〜4番
の4つある録画予約情報の内のどの録画予約情報を取り
消すかを音声で入力する。ステップS162ではこの1
番〜4番の録画予約情報があるか否かの判断を行う。こ
のステップS162でNoの場合はステップS168で
エラーメッセージを出してステップS160に戻り、Y
esの場合はステップS163に進む。この図16のス
テップS160からステップS162までの処理は、上
記図15のステップS140からステップS142まで
の処理と略々同様である。
FIG. 16 is a flow chart for explaining the details of the cancellation processing routine in step S121 of the flow chart of FIG. That is, this FIG.
In step S160, the recording reservation information to be canceled is selected, and in step S161, which recording reservation information among the four recording reservation information of 1 to 4 is to be canceled is input by voice. In step S162, this 1
It is determined whether or not there are recording reservation information of Nos. 4 to 4. If No in step S162, an error message is output in step S168 and the process returns to step S160.
In the case of es, it progresses to step S163. The processing from step S160 to step S162 in FIG. 16 is substantially the same as the processing from step S140 to step S142 in FIG.

【0040】次に、ステップS163では取消の確認処
理がなされ、ステップS164で音声による「イエ
ス」,「ノー」の入力が行われる。ステップS165で
は、上記ステップS164の音声入力が「イエス」であ
るか否かの判断がなされ、この判断がYes(音声入力
が「イエス」)の場合はステップS166に進み取消完
了とされた後処理を終了する。また、ステップS165
の判断でNoとされた場合はステップS167へ進み、
取消処理を中止して処理を終了する。
Next, in step S163, cancellation confirmation processing is performed, and in step S164, "yes" and "no" are input by voice. In step S165, it is determined whether or not the voice input in step S164 is "yes". If this determination is Yes (voice input is "yes"), the process proceeds to step S166 and the cancellation is completed. To finish. Also, step S165
If the determination is No, the process proceeds to step S167,
The cancellation process is stopped and the process ends.

【0041】以上説明したような録画予約あるいは予約
確認(及び変更/取消)のフェーズにおいて、上記図7
のステップS54〜S59や、上記図13のステップS
105〜S111や、上記図13のステップS113〜
上記図13のステップS127や、上記図15のステッ
プS145〜S148等から明らかなように、要求され
た答え以外の入力をも受け付け、理解するようにしてい
る。すなわち図7のステップS54においては、上記図
9のような表示(及び音声出力)がなされて、一般的に
は「イエス」又は「ノー」の答えが要求されているわけ
であるが、直接に要素情報を音声入力することで、ステ
ップS58でYesと判断されて要素情報入力処理S5
2に移ることができる。また「変更」と音声入力するこ
とで、変更処理に移行することができる。また、図13
のステップS105においては、画面を切り替えるか否
かの質問メッセージが動画表示及び音声出力されてお
り、通常は「イエス」又は「ノー」で答えるものである
が、変更命令や取消命令を直接入力して、変更処理ステ
ップS120や取消処理ステップS121に移行するこ
とができる。
In the phase of recording reservation or reservation confirmation (and change / cancellation) as described above, FIG.
Steps S54 to S59 of FIG.
105 to S111 and steps S113 to S113 in FIG.
As is clear from step S127 of FIG. 13 and steps S145 to S148 of FIG. 15, inputs other than the requested answer are accepted and understood. That is, in step S54 of FIG. 7, the display (and voice output) as shown in FIG. 9 is performed, and generally, an answer of “yes” or “no” is requested, but directly. By inputting the element information by voice, it is determined as Yes in step S58, and the element information input process S5.
You can move on to 2. Further, by voice inputting "change", it is possible to shift to the change processing. In addition, FIG.
In step S105, the question message as to whether or not the screen is switched is displayed as a moving image and is output by voice. Normally, the answer is “yes” or “no”, but a change command or cancel command is directly input. Then, it is possible to shift to the change processing step S120 and the cancellation processing step S121.

【0042】これは、通常の人間同士の会話において
は、文脈から意味を類推し、相手の前言と形式的には継
らない飛躍した返答が行われることがあることを考慮し
て、要求された答え以外の入力をも受け付けるように
し、入力内容に応じた最適の処理を行わせるものであ
る。これによって、例えば「イエス」又は「ノー」の答
えを省略して次の入力ステップに直接入ることができ、
操作手順の簡略化が図れる。また、所定の処理に移るた
めの手順が複数存在することになる。例えば録画予約内
容を変更したい場合には、確認時の「これでいいですか
?」との問いに対して「ノー」と答え、次に「どうしま
すか?」との問いに対して「変更」と命令するのが各問
いに対応する正統的な手順であるが、上記確認時に、
「変更」との命令を入力したり、直接変更内容を入力し
たり、「戻れ」との命令で直前の情報入力状態に戻った
りすることができ、ユーザ(オペレータ)の様々な入力
に柔軟に対処することができる。しかも、変更項目の要
素情報を例えば「6チャンネル」等のように直接入力し
て変更することもでき、操作手順の簡略化のみならず、
自明なことはわざわざ言及しないという自然言語での対
話の環境あるいは雰囲気を実現することができる。
This is required in the usual conversation between humans, in consideration of the fact that the meaning is inferred from the context and a dramatic reply that is not formally succeeded by the other party's premise may be made. The input other than the answer is accepted, and the optimum processing according to the input content is performed. This allows you to skip directly to the “yes” or “no” answer and go directly to the next input step,
The operation procedure can be simplified. In addition, there are a plurality of procedures for moving to a predetermined process. For example, if you want to change the contents of the recording reservation, answer "No" to the question "Is this OK?" At the time of confirmation, and then click "Change" to the question "What would you like to do?" Is the orthodox procedure corresponding to each question, but at the time of the above confirmation,
You can input the command of "change", directly input the changed contents, and return to the information input state immediately before by the command of "return", flexibly responding to various inputs of the user (operator). Can be dealt with. Moreover, it is possible to directly input the element information of the change item, such as "6 channels", to change the information, and not only to simplify the operation procedure,
It is possible to realize an environment or atmosphere of dialogue in natural language in which no obvious thing is mentioned.

【0043】図17は上記図6のフローチャートのステ
ップS27におけるVTR40の操作処理ルーチンの詳
細を説明するためのフローチャートである。すなわちこ
の図17において、ステップS171では、VTR40
の現在の状態(例えば動作モードがどのモードになって
いるか)のチェックが行われる。ステップS172で
は、動作モード指定制御信号に応じたコマンドに対応す
る操作を後述する動作モードのためのマトリクス(命令
−動作対照表)より検索する。このマトリクスの一部を
以下の表1に示す。
FIG. 17 is a flow chart for explaining the details of the operation processing routine of the VTR 40 in step S27 of the flow chart of FIG. That is, in FIG. 17, in step S171, the VTR 40
The current state (eg, which mode the operating mode is in) is checked. In step S172, an operation corresponding to the command corresponding to the operation mode designation control signal is searched from a matrix (command-operation comparison table) for an operation mode described later. A portion of this matrix is shown in Table 1 below.

【表1】 次のステップS173では、このマトリクス内に対応す
る操作があるか否かの判断がなされ、無しの場合はステ
ップS176でエラーメッセージを出して処理を終了す
る。また、ステップS173で有りの場合は、ステップ
S174に進み、当該ステップS174でこのコマンド
に対応する操作を実行させる。その後、ステップS17
5で実行する旨或いは実行した旨のメッセージを出して
処理を終了する。
[Table 1] In the next step S173, it is determined whether or not there is a corresponding operation in this matrix, and if there is no corresponding operation, an error message is output in step S176 and the process ends. If YES in step S173, the flow advances to step S174 to execute the operation corresponding to this command in step S174. Then, step S17
In step 5, a message indicating that the process is executed or a message indicating that the process is executed is issued, and the process ends.

【0044】ここで上記表1は、例えば、現在の動作モ
ードの状態から、上記音声入力による命令があった場
合、その現在の動作モードからどの動作モードに移るか
の例を示している。すなわち、表1では、例えば、音声
命令で「電源」と入力した場合において、現在の動作モ
ードが例えばパワーオフの状態であったならば、パワー
オンの動作モードに制御され、以下同様にしてテープな
し,停止,再生等の場合はパワーオフに制御される。ま
た、音声命令で例えば「再生」と入力した場合、現在の
動作モードがパワーオフ,停止等となっていれば動作モ
ードが再生に制御される。更に、例えば「早く」と音声
入力を行った場合において、現在の動作モードが例えば
停止,早送り,キューの状態であったならば早送りに制
御され、再生,ポーズであったならばキューに制御さ
れ、巻戻しであったならば巻戻しのままに、レビューで
あったならば巻戻しに制御される。また更に、例えば
「戻れ」と音声入力した場合において、現在の動作モー
ドが例えば停止,早送りならば巻戻しに,ポーズであっ
たならばレビューに制御され、再生,キューであったな
らばリバース再生に制御され、巻戻しであったならば早
送りに、レビューであったならば再生に制御される。こ
のように、多義的な「早く」とか「戻れ」とかの音声入
力に対しても、そのときの動作モードに応じた正しい意
味の制御動作が選択される。
Here, Table 1 shows an example of which operation mode the current operation mode is to be changed to when there is an instruction by the voice input from the current operation mode state. That is, in Table 1, for example, when "power" is input by a voice command, if the current operation mode is, for example, the power off state, the power on operation mode is controlled, and so on. In case of none, stop, play, etc., it is controlled to power off. Further, for example, when “play” is input by the voice command, if the current operation mode is power off, stop, etc., the operation mode is controlled to be reproduction. Further, for example, when the voice input is “fast”, if the current operation mode is, for example, stop, fast-forward, or cue, it is controlled to fast-forward, and if it is playback or pause, it is controlled to cue. If it is a rewind, the rewind is controlled as it is, and if it is a review, the rewind is controlled. Furthermore, for example, in the case of voice input "return", if the current operation mode is, for example, stop or fast forward, rewinding is performed, if it is a pause, review is controlled, and if it is a cue, reverse playback is performed. If it is a rewind, it is controlled to fast forward, and if it is a review, it is controlled to playback. In this way, even for ambiguous voice inputs such as “early” and “return”, the control operation having the correct meaning is selected according to the operation mode at that time.

【0045】次に図18は、上記図6のフローチャート
のステップS14における暇アニメ処理ルーチンの詳細
を説明するためのフローチャートである。この図18に
おいて、ステップS181ではトップレベルであるか否
かの判断がなされる。このトップレベルとは、VTR4
0の基本操作を(直接的に)行ったり、上記予約/表示
のフェーズに入ったりする会話のレベルのことである。
このステップS181でYes(トップレベルにある)
と判断された場合、ステップS186でトップレベル用
の暇アニメの映像の選択が行われた後、ステップS18
3に進む。また、上記ステップS181でNoと判断さ
れた場合は、ステップS182で各フェーズ毎の処理モ
ード用の暇アニメの映像の選択が行われる。これら、ト
ップレベル用或いは処理モード用の暇アニメの映像は予
め種々の設定が可能で、具体的には、例えば前述したよ
うに、アニメーションキャラクタACがあくびをした
り、画面の端に寄りかかったり、頭を掻く動作をさせた
りし、さらには、アニメーションキャラクタACが横た
わる(横に寝る)ような暇を持て余す動作をさせればよ
い。ステップS183では、例えば乱数発生により、こ
れら暇アニメの映像のパターンのうち何れかを選択する
処理を行った後、ステップS184に進む。当該ステッ
プS184では、音声入力が無い場合の待ち時間が所定
時間経過したか否かの判断を行い、Noの場合はこの判
断を繰り返し、Yesの場合はステップS185に進
む。当該ステップS185では上記選ばれたパターンの
暇アニメの映像をCRT表示装置30の画面SC上に動
画表示する。すなわちアニメーションキャラクタACが
暇を持て余していることを示す動作をさせる。
Next, FIG. 18 is a flow chart for explaining the details of the leisure animation processing routine in step S14 of the flow chart of FIG. In FIG. 18, in step S181, it is determined whether or not it is the top level. This top level is VTR4
It is a level of conversation in which the basic operation of 0 is (directly) performed and the reservation / display phase is entered.
Yes in this step S181 (at the top level)
If it is determined that the top-level leisure animation image is selected in step S186, then step S18 is performed.
Go to 3. Further, if No in step S181, the video of the leisure animation for the processing mode for each phase is selected in step S182. These top-level or processing mode leisure animation images can be preset in various ways. Specifically, for example, as described above, the animation character AC yawns or leans against the edge of the screen. , A motion of scratching the head, and further, a motion of allowing the animation character AC to lie down (sleeping sideways) and to do extra motion. In step S183, a process of selecting one of these leisure animation image patterns is performed by, for example, generating a random number, and then the process proceeds to step S184. In step S184, it is determined whether or not the waiting time when there is no voice input has elapsed, and if No, this determination is repeated, and if Yes, the process proceeds to step S185. In step S185, the image of the leisure animation of the selected pattern is displayed on the screen SC of the CRT display device 30 as a moving image. That is, the animation character AC is caused to perform a motion indicating that it has a spare time.

【0046】また、アニメーションキャラクタACの応
答をより人間臭くし、親近感を与えるために、機器の動
作状態指定等に無関係の音声入力に対しても、何らかの
応答(遊戯応答)が行われるようにすることが好まし
い。具体的な例としては、「おい」との音声入力に対し
て、「はい、なんでしょう?」と答えさせたり、「よし
よし」との音声入力に対して、「照れるなあ」との返答
と共に頭をかく等のアニメーション表示を行わせたりす
る等である。
Further, in order to make the response of the animation character AC more human-like and to give a sense of familiarity, some kind of response (play response) is made to a voice input unrelated to the designation of the operation state of the device. Preferably. To give a concrete example, let's say "Yes, what is it?" To the voice input "Oi", or reply to the voice input "Yoshiyoshi" with "Reply". For example, animation display such as drawing is performed.

【0047】ところで、上記図1の制御回路15とアニ
メーションキャラクタ発生回路16や音声合成回路19
との間でのインターフェースは、所定構造のメッセージ
パケットMPを用いて行われている。このメッセージパ
ケットMPの一具体例としては、メッセージの種類を示
すメッセージ・タイプと、各メッセージ内容毎に対応付
けられたメッセージ番号と、ステータスとの3つの要素
を有して成るものが考えられる。上記メッセージ・タイ
プは、例えば入力を伴わないメッセージ(例えば、「予
約しました」,「予約を中止しました」等がある。)
や、入力を伴うメッセージ(上記図3、図8、図9参
照)や、意味フレームの内容の表示や、リスト(予約内
容の一覧表)の表示や、重複番組リストの表示等の区別
を指示する。上記メッセージ番号は、例えば8ビットの
とき256種類のメッセージのいずれかを指定できる。
すなわち、制御回路15は入力音声の認識データや現在
の状態(ステータス)等に応じて適切なメッセージのタ
イプや種類(内容)を選択し、そのメッセージ・タイプ
やメッセージ番号を上記メッセージパケットMPに入れ
て、アニメーションキャラクタ発生回路16や音声合成
回路19に送る。アニメーションキャラクタ発生回路1
6や音声合成回路19では、送られたメッセージパケッ
トMP内のメッセージ番号に応じたメッセージを動画表
示(アニメーションキャラクタの口の動きの表示とメッ
セージの文字表示)したり音声合成して出力したりする
わけである。
By the way, the control circuit 15, the animation character generation circuit 16 and the voice synthesis circuit 19 shown in FIG.
The interface between and is performed using a message packet MP having a predetermined structure. As a specific example of the message packet MP, it is possible to consider one having three elements of a message type indicating the type of message, a message number associated with each message content, and a status. The above message types are, for example, messages without input (for example, "Reserved", "Reservation canceled", etc.)
Instructing to distinguish between input-related messages (see FIGS. 3, 8 and 9 above), display of meaning frame contents, list (list of reservation contents), display of duplicate program list, etc. To do. When the message number is, for example, 8 bits, any of 256 types of messages can be designated.
That is, the control circuit 15 selects an appropriate message type and type (content) according to the recognition data of the input voice, the current state (status), etc., and puts the message type and message number into the message packet MP. And sends it to the animation character generation circuit 16 and the voice synthesis circuit 19. Animation character generation circuit 1
In 6 and the voice synthesis circuit 19, a message corresponding to the message number in the sent message packet MP is displayed as a moving image (display of the movement of the mouth of the animation character and the character display of the message), or voice-synthesized and output. That is why.

【0048】なお、このようなメッセージ番号を介して
のメッセージの表示及び音声出力を行う場合には、予め
何種類かのメッセージを用意しておくことが必要とさ
れ、これらの複数のメッセージの内から1つのメッセー
ジが選択されて表示及び音声出力されるわけであるが、
その代わりに、制御回路15にてメッセージ自体を作文
させるようにし、この作られたメッセージを例えば1文
字分ずつ送って動画表示や音声合成を行わせるようにし
てもよい。
It should be noted that in the case of displaying and voice-outputting a message via such a message number, it is necessary to prepare some kinds of messages in advance, and among these plural messages, One message is selected and displayed and output by voice.
Alternatively, the control circuit 15 may be made to compose the message itself, and the composed message may be sent, for example, one character at a time to display a moving image or perform voice synthesis.

【0049】次に、上記自然言語入力処理についてさら
に説明する。例えば録画予約時において、時間情報等の
不足項目の推論を常識の範囲で行うようにしている。例
えば、開始時刻入力の際に分だけ指定されたときには、
現在時刻との関連で時間を推定したり、終了時刻入力の
際に時間や分が入力されたときには開始時刻からの録画
時間としたりする。また、複数の要素情報が入力される
ときに、「から」と「まで」との関連性を考慮し、例え
ば「30分9時まで」のような音声入力に対して8時3
0分から9時0分までと推定したり、現在時刻が8時1
0分であれば、「30分から1時間」との音声入力に対
して8時30分から9時30分までと推定したりする。
Next, the natural language input processing will be further described. For example, at the time of recording reservation, inference of insufficient items such as time information is performed within common sense. For example, if only minutes are specified when entering the start time,
The time is estimated in relation to the current time, and when the hour or minute is input when the end time is input, it is used as the recording time from the start time. Further, when a plurality of element information is input, the relationship between “from” and “up” is taken into consideration, and the voice input such as “up to 30 minutes 9 o'clock” is performed at 8 o'clock 3
It is estimated to be from 0 to 9: 0, or the current time is 8: 1
If it is 0 minutes, it is estimated that it is from 8:30 to 9:30 with respect to the voice input "30 minutes to 1 hour".

【0050】なお、本発明は上記実施例のみに限定され
るものではなく、例えば、音声入力手段としては送受話
器の他に、いわゆるハンドマイクを用いたり、遠隔操作
装置(いわゆるリモコン)に小型マイクを設けたりする
ようにしてもよい。スイッチ(プレストークスイッチ)
はこれらのハンドマイクやリモコンに設ければよい。ま
た、制御される電子機器はVTRに限定されず、ディス
クの記録及び/又は再生装置や、デジタル又はアナログ
のオーディオテープレコーダ等の種々の電子機器に対す
る制御装置に適用可能である。
The present invention is not limited to the above-described embodiments. For example, a so-called hand microphone may be used as the voice input means in addition to the handset, or a small microphone may be used as a remote control device (so-called remote controller). May be provided. Switch (press talk switch)
May be provided in these hand microphones and remote controls. Further, the electronic device to be controlled is not limited to the VTR, and can be applied to a recording and / or reproducing device for a disc, a control device for various electronic devices such as a digital or analog audio tape recorder, and the like.

【0051】[0051]

【発明の効果】上述のように、本発明の電子機器の制御
装置及び方法においては、入力信号から命令又は各種情
報を表す単語情報を抽出し、抽出された単語情報と学習
データベースに応じて、アニメーションキャラクタの動
作の制御と、合成させたいメッセージ音声の制御と、合
成させたいメッセージ音声を指示するメッセージ信号の
制御を行うと共に、入力状態をスイッチのオン/オフに
より入力処理動作の指定を行うことにより、例えば、制
御命令の順序の一部を省いたり、入力順を順不同で任意
にしても、それに対応したアニメーションキャラクタの
動作とメッセージ音声を合成することができ、更に、人
間からの様々な命令や各種情報入力に対して柔軟に対処
でき、より人間的な入力を可能とし、誰でもが容易に電
子機器の制御操作が行えるようになり、より自然な形態
でのマン−マシン・インターフェースを実現可能となっ
ている。
As described above, in the electronic device control apparatus and method of the present invention, word information representing a command or various kinds of information is extracted from an input signal, and the extracted word information and the learning database are used in accordance with the extracted word information. Controlling the motion of the animated character, controlling the message voice that you want to synthesize, controlling the message signal that instructs the message voice that you want to synthesize, and specifying the input processing action by turning the input state on / off. Thus, for example, even if a part of the order of control commands is omitted or the input order is arbitrary, the action of the animation character and the message voice corresponding thereto can be synthesized, and further various commands from humans can be synthesized. And various information inputs can be handled flexibly, more human input is possible, and anyone can easily control the electronic device. Should be able to, man of a more natural form - has become possible to realize a machine interface.

【図面の簡単な説明】[Brief description of drawings]

【図1】本実施例の制御装置の概略構成を示すブロック
図である。
FIG. 1 is a block diagram showing a schematic configuration of a control device of the present embodiment.

【図2】本実施例装置における主要な動作のフローチャ
ートである。
FIG. 2 is a flowchart of main operations in the apparatus of this embodiment.

【図3】初期状態でのアニメーションキャラクタ及び吹
き出し部が表示されたCRT画面を示す図である。
FIG. 3 is a diagram showing a CRT screen on which an animation character and a balloon portion are displayed in an initial state.

【図4】音声認識回路の一構成例を示すブロック図であ
る。
FIG. 4 is a block diagram showing a configuration example of a voice recognition circuit.

【図5】制御回路での機能を説明するためのブロック図
である。
FIG. 5 is a block diagram for explaining a function of a control circuit.

【図6】図2のフローチャートにおける各ステップでの
処理の詳細を示すフローチャートである。
FIG. 6 is a flowchart showing details of processing in each step in the flowchart of FIG.

【図7】図6のフローチャートにおける予約処理の詳細
を示すフローチャートである。
7 is a flowchart showing details of a reservation process in the flowchart of FIG.

【図8】予約入力要求表示がなされたCRT画面を示す
図である。
FIG. 8 is a diagram showing a CRT screen on which a reservation input request is displayed.

【図9】予約情報確認のための表示がなされたCRT画
面を示す図である。
FIG. 9 is a view showing a CRT screen on which a display for confirming reservation information is displayed.

【図10】図7のフローチャートにおける要素情報入力
及び要素情報入力処理の詳細を示すフローチャートであ
る。
10 is a flowchart showing details of element information input and element information input processing in the flowchart of FIG.

【図11】図7のフローチャートでの不足情報処理の詳
細を示すフローチャートである。
11 is a flowchart showing details of insufficient information processing in the flowchart of FIG.

【図12】図7のフローチャートにおける重複チェック
処理の詳細を示すフローチャートである。
12 is a flowchart showing details of the duplication check process in the flowchart of FIG.

【図13】図6のフローチャートにおける表示処理の詳
細を示すフローチャートである。
FIG. 13 is a flowchart showing details of display processing in the flowchart of FIG.

【図14】図13のフローチャートの続きのフローチャ
ートである。
FIG. 14 is a continuation of the flowchart of FIG.

【図15】図13のフローチャートにおける変更処理の
詳細を示すフローチャートである。
FIG. 15 is a flowchart showing details of change processing in the flowchart of FIG.

【図16】図13のフローチャートにおける取消処理の
詳細を示すフローチャートである。
16 is a flowchart showing details of a cancellation process in the flowchart of FIG.

【図17】図6のフローチャートにおけるVTR操作処
理の詳細を示すフローチャートである。
17 is a flowchart showing details of the VTR operation process in the flowchart of FIG.

【図18】図6のフローチャートにおける暇アニメ処理
の詳細を示すフローチャートである。
FIG. 18 is a flowchart showing details of the leisure animation process in the flowchart of FIG. 6.

【符号の説明】[Explanation of symbols]

10・・・・・・送受話器 11・・・・・・送話部 12・・・・・・プレストークスイッチ 13・・・・・・音声認識回路 14・・・・・・スイッチ状態検出部 15・・・・・・制御回路 16・・・・・・アニメーションキャラクタ発生回路 17・・・・・・スーパーインポーザ 18・・・・・・VTRコントローラ 19・・・・・・音声合成回路 20・・・・・・スピーカ 30・・・・・・CRT表示装置 40・・・・・・VTR 10 ・ ・ Handset 11 ・ ・ Speaker 12 ... Press talk switch 13 ... Voice recognition circuit 14 ・ ・ Switch state detector 15 ... Control circuit 16 ・ ・ ・ ・ Animated character generation circuit 17: Super imposer 18 ... VTR controller 19 ... Voice synthesis circuit 20 ... ・ Speaker 30 ... CRT display device 40 ... VTR

───────────────────────────────────────────────────── フロントページの続き (72)発明者 田村 朝子 東京都品川区北品川6丁目7番35号 ソ ニー株式会社内 (72)発明者 大森 士郎 東京都品川区北品川6丁目7番35号 ソ ニー株式会社内 (56)参考文献 特開 平2−86392(JP,A) 特開 平2−83727(JP,A) 特開 平2−141799(JP,A)   ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Asako Tamura               6-735 Kita-Shinagawa, Shinagawa-ku, Tokyo               Knee Co., Ltd. (72) Inventor Shiro Omori               6-735 Kita-Shinagawa, Shinagawa-ku, Tokyo               Knee Co., Ltd.                (56) References JP-A-2-86392 (JP, A)                 JP-A-2-83727 (JP, A)                 JP-A-2-141799 (JP, A)

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 電子機器を制御する電子機器の制御装置
において、 入力状態を指定するためのスイッチ手段と、 入力信号から命令又は各種情報を表す単語情報を抽出す
る抽出手段と、 メッセージの話者となるアニメーションキャラクタの映
像信号を発生するアニメーションキャラクタ発生手段
と、 メッセージ信号入力に応じて該メッセージの音声信号を
合成する音声合成手段と、 上記音声合成手段からの音声信号を音声として出力する
音声出力手段と、 少なくとも、上記抽出手段にて抽出された単語情報と習
慣学習データベースに蓄積された情報とに基づいて、上
記アニメーションキャラクタ発生手段のアニメーション
キャラクタの動作を制御する動作制御信号、及び上記音
声合成手段にて合成させたいメッセージ音声を指示する
メッセージ信号を制御する制御手段とを有し、 上記制御手段は、上記スイッチ手段のオン/オフにより
上記入力状態を指定制御すると共に、上記スイッチ手段
のオンに応じて上記アニメーションキャラクタ発生手段
のアニメーションキャラクタの動作を切換制御し、上記
抽出手段により抽出された単語情報に上記電子機器の制
御に必要な情報が不足しているか否かを判定し、上記必
要な情報が不足している場合に上記習慣学習データベー
スに該必要な情報が含まれるか否かを判定し、上記習慣
学習データベースに該必要な情報が含まれる場合に当該
必要な情報を音声出力して確認するよう上記メッセージ
信号を制御する ことを特徴とする電子機器の制御装置。
1. A controller of an electronic device for controlling an electronic device, comprising: switch means for designating an input state; extracting means for extracting word information representing a command or various information from an input signal; and a speaker of a message. An animation character generating means for generating a video signal of an animation character, a voice synthesizing means for synthesizing a voice signal of the message according to a message signal input, and a voice output for outputting the voice signal from the voice synthesizing means as voice. Means, at least a motion control signal for controlling the motion of the animation character of the animation character generating means based on the word information extracted by the extraction means and the information accumulated in the habit learning database , and the voice synthesis. A message that indicates the message voice that you want to synthesize by means of Have a control means for controlling the di signal, said control means, the on / off said switch means
The input state is designated and controlled, and the switch means is also provided.
When the above-mentioned animation character is turned on,
By switching control of the animation character's movement,
The electronic device control is applied to the word information extracted by the extraction means.
It is necessary to judge whether or not the necessary information is missing and
If necessary information is not available
Check whether the information contains the necessary information,
If the learning database contains the necessary information,
The message above to confirm the necessary information by voice output
A control device for electronic equipment, which is characterized by controlling signals .
【請求項2】 電子機器を制御する電子機器の制御方法
において、 入力状態を指定するためのスイッチ工程と、 入力信号から命令又は各種情報を表す単語情報を抽出す
る抽出工程と、 メッセージの話者となるアニメーションキャラクタの映
像信号を発生するアニメーションキャラクタ発生工程
と、 メッセージ信号入力に応じて該メッセージの音声信号を
合成する音声合成工程と、 上記音声合成工程からの音声信号を音声として出力する
音声出力工程と、 少なくとも、上記抽出工程にて抽出された単語情報と習
慣学習データベースに蓄積された情報とに基づいて、上
記アニメーションキャラクタ発生工程でのアニメーショ
ンキャラクタの動作を制御する動作制御信号、及び上記
音声合成工程にて合成させたいメッセージ音声を指示す
るメッセージ信号を制御する制御工程とを有し、 上記制御工程では、上記スイッチ工程でのオン/オフに
より上記入力状態を指定制御すると共に、上記スイッチ
工程でのオンに応じて上記アニメーションキャラクタの
動作を切換制御し、上記抽出工程により抽出された単語
情報に上記電子機器の制御に必要な情報が不足している
か否かを判定し、上記必要な情報が不足している場合に
上記習慣学習データベースに該必要な情報が含まれるか
否かを判定し、上記習慣学習データベースに該必要な情
報が含まれる場合に当該必要な情報を音声出力して確認
するよう上記メッセージ信号を制御する ことを特徴とす
る電子機器の制御方法。
2. An electronic device control method for controlling an electronic device, comprising: a switch process for designating an input state; an extraction process for extracting word information representing a command or various information from an input signal; and a speaker of a message. An animation character generating step for generating a video signal of an animation character, a voice synthesizing step for synthesizing a voice signal of the message in response to a message signal input, and a voice output for outputting the voice signal from the voice synthesizing step as voice. Step, and at least a motion control signal for controlling the motion of the animation character in the animation character generating step based on the word information extracted in the extraction step and the information accumulated in the habit learning database , and the voice. A message that indicates the message voice that you want to synthesize in the synthesis process Have a control step of controlling the over-di signal, in the above control process, the on / off the switch step
The above input state is specified and controlled, and the above switch
Depending on the turning on in the process, the animation character above
Words extracted by the above extraction process by controlling the operation switching
Information lacks the information necessary to control the above electronic devices
If the necessary information above is missing,
Does the habit learning database include the necessary information?
It is judged whether or not the necessary information is stored in the habit learning database.
If information is included, output the necessary information by voice and confirm
A method of controlling an electronic device, comprising: controlling the message signal so that
【請求項3】 上記制御手段は、上記スイッチ手段のオ
フ時に、上記アニメーションキャラクタが暇を持て余し
ている様子を映像で表現する処理を行わせることを特徴
とする請求項1記載の電子機器の制御装置。
3. The control means is a switch of the switch means.
In the meantime, the above animation character has a lot of time to spare.
The control device for an electronic device according to claim 1, wherein processing for expressing the state of being displayed is performed .
【請求項4】 上記スイッチ手段は、上記命令又は各種
情報を音声にて入力して電気的な音声信号として出力す
る音響−電気変換素子の音声入力状態の指定を行い、 上記スイッチ手段により音声入力状態の指定がなされた
上記音響−電気変換素子からの入力音声信号を信号処理
して上記命令又は各種情報を認識する音声認識手段を備
え、 上記抽出手段は、当該音声認識手段からの出力信号より
上記単語情報を抽出することを特徴とする請求項1記載
の電子機器の制御装置。
4. The switch means specifies a voice input state of an acoustic-electrical conversion element which inputs the command or various information by voice and outputs it as an electric voice signal, and the switch means inputs voice. A voice recognition means for recognizing the command or various information by signal processing the input voice signal from the acoustic-electrical conversion element in which the state is designated is provided, and the extraction means is based on the output signal from the voice recognition means. The control device for an electronic device according to claim 1, wherein the word information is extracted.
【請求項5】 上記制御工程は、上記スイッチ工程のオ
フ時に、上記アニメーションキャラクタが暇を持て余し
ている様子を映像で表現する処理を行わせることを特徴
とする請求項2記載の電子機器の制御方法。
5. The control step is the same as the switch step.
In the meantime, the above animation character has a lot of time to spare.
The method for controlling an electronic device according to claim 2, wherein a process of expressing the state of being displayed by a video is performed .
【請求項6】 上記スイッチ工程では、上記命令又は各
種情報を音声にて入力して電気的な音声信号として出力
する音響−電気変換素子の音声入力状態の指定を行い、 上記スイッチ工程により音声入力状態の指定がなされた
上記音響−電気変換素子からの入力音声信号を信号処理
して上記命令又は各種情報を認識する音声認識工程を備
え、 上記抽出工程では、当該音声認識工程からの出力信号よ
り上記単語情報を抽出することを特徴とする請求項2記
載の電子機器の制御方法。
6. In the switch step, the voice input state of an acoustic-electrical conversion element that inputs the command or various information by voice and outputs as an electric voice signal is specified, and the voice input is performed by the switch step. A voice recognition step of recognizing the command or various information by signal processing the input voice signal from the acoustic-electrical conversion element in which the state is designated is provided, and in the extraction step, from the output signal from the voice recognition step. The electronic device control method according to claim 2, wherein the word information is extracted.
JP01375991A 1991-01-12 1991-01-12 Control device and method for electronic equipment Expired - Fee Related JP3382958B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP01375991A JP3382958B2 (en) 1991-01-12 1991-01-12 Control device and method for electronic equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP01375991A JP3382958B2 (en) 1991-01-12 1991-01-12 Control device and method for electronic equipment

Publications (2)

Publication Number Publication Date
JPH04239292A JPH04239292A (en) 1992-08-27
JP3382958B2 true JP3382958B2 (en) 2003-03-04

Family

ID=11842181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01375991A Expired - Fee Related JP3382958B2 (en) 1991-01-12 1991-01-12 Control device and method for electronic equipment

Country Status (1)

Country Link
JP (1) JP3382958B2 (en)

Also Published As

Publication number Publication date
JPH04239292A (en) 1992-08-27

Similar Documents

Publication Publication Date Title
JPH0541894A (en) Controller for electronic device
US7028265B2 (en) Window display system and method for a computer system
US6253184B1 (en) Interactive voice controlled copier apparatus
JP4599244B2 (en) Apparatus and method for creating subtitles from moving image data, program, and storage medium
JP5998861B2 (en) Information processing apparatus, information processing method, and program
JP2005342862A (en) Robot
WO2020079941A1 (en) Information processing device, information processing method, and computer program
JP2021015266A (en) Voice interaction method and device
JP2002023716A (en) Presentation system and recording medium
JP6613560B2 (en) Electronic device, learning support method and program
JPWO2004019197A1 (en) Control system, method and program using rhythm pattern
JPH04338817A (en) Electronic equipment controller
JPH06139044A (en) Interface method and device
JPH11109991A (en) Man machine interface system
JP3382958B2 (en) Control device and method for electronic equipment
JP6841309B2 (en) Electronics and programs
JP3338458B2 (en) Control device and method for electronic equipment
KR20050015585A (en) Apparatus And Method for Enhanced Voice Recognition
JPH04239293A (en) Controller for electronic equipment
JP7156748B1 (en) Information processing system and information processing method
CN112092820B (en) Initialization setting method for vehicle, and storage medium
JP3775853B2 (en) vending machine
JP6851565B2 (en) Device control device, device control system, device control method, and device control program
JP7288530B1 (en) system and program
JPH1015243A (en) Conversation type tv game system and information recording medium

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees