JP2002330365A - Personal interactive type navigation system - Google Patents

Personal interactive type navigation system

Info

Publication number
JP2002330365A
JP2002330365A JP2001132952A JP2001132952A JP2002330365A JP 2002330365 A JP2002330365 A JP 2002330365A JP 2001132952 A JP2001132952 A JP 2001132952A JP 2001132952 A JP2001132952 A JP 2001132952A JP 2002330365 A JP2002330365 A JP 2002330365A
Authority
JP
Japan
Prior art keywords
data
voice
character
interpersonal
navigation device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001132952A
Other languages
Japanese (ja)
Inventor
Yoshihisa Kitsuka
善久 木塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2001132952A priority Critical patent/JP2002330365A/en
Publication of JP2002330365A publication Critical patent/JP2002330365A/en
Pending legal-status Critical Current

Links

Landscapes

  • Details Of Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a personal interactive type navigation system with enhanced operability that allows even an unskillful person to easily make operations. SOLUTION: The personal interactive type navigation system is provided with a character operation database(DB) 22a in which character operation data for each recognition result of language are registered, a character voice database(DB) 22b in which voice data of characters for each recognition result of language are registered, a voice recognition device 26 which recognizes the language, a navigation application 27 which selects program guide data or recommended program data, operation data, voice data, and a video/audio mixing device 29 which composites the selected operation data, program guide data or recommended program data into current TV image data respectively, composites the selected voice data into current TV voice data and outputs the current TV image data and the current TV voice data.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、電子的番組案内
(Electronic Program Guide)技術を用いた対人会話型
ナビゲーション装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a personal conversational navigation apparatus using an electronic program guide technology.

【0002】[0002]

【従来の技術】一般に、テレビ放送用の番組ガイドとし
ては、新聞のラジオ・テレビ欄(以下、ラテ欄という)
及び番組ガイド雑誌といった紙媒体による方式が広く用
いられている。
2. Description of the Related Art Generally, as a program guide for television broadcasting, a radio / TV section of a newspaper (hereinafter referred to as a latte section) is used.
In addition, paper media such as program guide magazines are widely used.

【0003】しかしながら近年、これらの方式に加え、
電子的に番組案内を行なう電子的番組案内EPGの方式
が普及してきている。
However, in recent years, in addition to these methods,
2. Description of the Related Art An electronic program guide EPG system for electronically providing a program guide has been widely used.

【0004】係る電子的番組案内は、予め送信されたラ
テ欄的な番組案内情報をTV装置内のメモリに保持し、
所望により、メモリ内の番組案内情報を読出してTV画
面に表示する方式である。
In such an electronic program guide, a previously transmitted latitudinal program guide information is stored in a memory of a TV device,
This is a method in which the program guide information in the memory is read out and displayed on the TV screen if desired.

【0005】この電子的番組案内によれば、例えばHI
(Human Interface)としてのリモコン装置の矢印キー
や数字ボタンの押操作に応じて、視聴者にラテ欄的な番
組案内を提供可能となっている。
According to this electronic program guide, for example, HI
It is possible to provide a viewer with a latte-column program guide in response to pressing of an arrow key or a numeric button of a remote controller as a (Human Interface).

【0006】[0006]

【発明が解決しようとする課題】しかしながら以上のよ
うな電子的番組案内の技術では、ラテ欄的な番組案内
と、リモコン装置の押操作とを用いるため、将来の多チ
ャンネル時代には不向きである可能性がある。
However, the above-mentioned electronic program guide technology uses a program guide in the form of a latte column and a push operation of a remote control device, and is not suitable for the future multi-channel era. there is a possibility.

【0007】例えば、多チャンネル時代に入り、チャン
ネルやサービスの数が、千、万のオーダになったとき、
ラテ欄的な番組案内では、例えば1画面に番組案内が収
まりきらないので、何回も画面を切換える必要が生じる
が、このような多数回の画面の切換操作は機械操作に不
慣れな人には困難である。
For example, when the multi-channel era has entered and the number of channels and services has reached the order of one thousand or ten thousand,
In a program guide like a latte column, for example, the program guide does not fit on one screen, so that it is necessary to switch the screen many times. Have difficulty.

【0008】また、1000チャンネルから1つのチャ
ンネルを選択する場合、矢印キーや数字ボタンを何度も
押操作する必要が生じるが、このような多数回の押操作
は、前述同様に困難である。
Further, when one channel is selected from 1000 channels, it is necessary to press the arrow keys and numeric buttons many times, but such a large number of pressing operations are difficult as described above.

【0009】本発明は上記実情を考慮してなされたもの
で、機械操作の不慣れな人にも容易に操作できるよう
に、操作性を向上し得る対人会話型ナビゲーション装置
を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and has as its object to provide an interpersonal conversation type navigation device capable of improving operability so that even a person unfamiliar with machine operation can easily operate it. I do.

【0010】[0010]

【課題を解決するための手段】第1の発明は、TV装置
に接続又は搭載され、前記TV装置のTV画面上でTV
番組を案内するための対人会話型ナビゲーション装置で
あって、音声入力された言語に基づいて、前記TV画面
の映像データと番組案内データ又は推奨番組データとを
合成する対人会話型ナビゲーション装置である。このよ
うに、音声入力により番組案内を行なうので、機械操作
の不慣れな人にも容易に操作できるように、操作性を向
上できる。
According to a first aspect of the present invention, a TV is connected to or mounted on a TV device, and the TV is displayed on a TV screen of the TV device.
An interpersonal conversational navigation device for guiding a program, wherein the interpersonal conversational navigation device combines video data of the TV screen with program guide data or recommended program data based on a language input by voice. As described above, since the program guide is performed by voice input, operability can be improved so that a person unfamiliar with machine operation can easily perform the operation.

【0011】第2の発明は、第1の発明において、前記
言語の認識結果毎に、所定のキャラクタ動作を表示する
ための動作データが登録されたキャラクタ動作データベ
ースと、前記言語の認識結果毎に、所定のキャラクタ音
声を出力するための音声データが登録されたキャラクタ
音声データベースと、前記音声入力された言語を認識す
るための音声認識手段と、前記音声認識手段による認識
結果に基づいて、予め配信された番組案内データ又は推
奨番組データを選択し、前記キャラクタ動作データベー
スから動作データを選択すると共に、前記キャラクタ音
声データベースから音声データを選択するデータ選択手
段と、前記データ選択手段により選択された動作データ
と番組案内データ又は推奨番組データとを各々現在のT
V画面データに合成し、合成結果を出力する画面合成手
段と、前記データ選択手段により選択された音声データ
を現在のTV音声データに合成又は交替して出力する音
声合成手段とを備えた対人会話型ナビゲーション装置で
ある。
In a second aspect based on the first aspect, a character motion database in which motion data for displaying a predetermined character motion is registered for each of the language recognition results, and a character motion database for each of the language recognition results. A character voice database in which voice data for outputting a predetermined character voice is registered, voice recognition means for recognizing the voice-input language, and distribution in advance based on a recognition result by the voice recognition means. Data selecting means for selecting the selected program guide data or recommended program data, selecting motion data from the character motion database, and selecting voice data from the character voice database, and motion data selected by the data selecting means. And the program guide data or recommended program data, respectively,
Interpersonal conversation comprising: screen synthesizing means for synthesizing V screen data and outputting a synthesis result; and voice synthesizing means for synthesizing or replacing the audio data selected by the data selecting means with current TV audio data and outputting the same. Type navigation device.

【0012】これにより、第1の発明の作用に加え、視
聴者 対 キャラクタ(擬似的な人)とのコミュニケー
ションで、TV操作や番組紹介が図れるようになり、よ
り人に快適、優しい装置を実現させることができる。
Thus, in addition to the operation of the first invention, TV operation and program introduction can be achieved by communication between the viewer and the character (pseudo-person), thereby realizing a device that is more comfortable and gentle to humans. Can be done.

【0013】第3の発明は、第2の発明において、前記
音声認識手段としては、前記音声入力された言語に対
し、予め登録された複数の言語のうち、最も近い言語を
認識結果とすることにより、異句同意表現の複数の言語
に対し、同一の認識結果を得る対人会話型ナビゲーショ
ン装置である。
[0013] In a third aspect based on the second aspect, the speech recognizing means uses a language closest to the speech input language among a plurality of languages registered in advance as a recognition result. Accordingly, the interpersonal conversation type navigation device obtains the same recognition result for a plurality of languages of the consonant expression.

【0014】これにより、第2の発明の作用に加え、決
まりきった音声に対する応答ではなく、幅広い言語表現
に対応させることにより、視聴者にとって、より快適な
ナビゲーション装置を実現させることができる。
Thus, in addition to the effect of the second invention, by responding to a wide range of linguistic expressions instead of responding to fixed voices, it is possible to realize a navigation device that is more comfortable for the viewer.

【0015】第4の発明は、第2又は第3の発明におい
て、前記データ選択手段としては、前記音声認識手段に
よる音声認識結果に基づいて、前記番組案内データを部
分的に選択する対人会話型ナビゲーション装置である。
[0015] In a fourth aspect based on the second or third aspect, the data selection means is an interpersonal conversation type which partially selects the program guide data based on a speech recognition result by the speech recognition means. It is a navigation device.

【0016】これにより、第2又は第3の発明の作用に
加え、ラテ欄的な過大な番組案内データに対し、視聴者
の要求により、番組案内データをフィルタリングするこ
とによって、表示される番組案内を絞り込むことができ
る。
Thus, in addition to the operation of the second or third aspect, the program guide data to be displayed is obtained by filtering the program guide data in response to a viewer's request for excessive program guide data in a latte column. Can be narrowed down.

【0017】第5の発明は、第2〜第4の各発明におい
て、前記キャラクタ音声データベースとしては、前記番
組案内データ又は推奨番組データに関する音声データ
と、日常会話に関する音声データとが登録されている対
人会話型ナビゲーション装置である。
In a fifth aspect based on the second to fourth aspects, voice data relating to the program guide data or recommended program data and voice data relating to daily conversation are registered as the character voice database. It is an interpersonal conversation type navigation device.

【0018】これにより、第2〜第4の各発明の作用に
加え、主目的以外の日常会話を通して、キャラクタをよ
り親しみ易くさせ、視聴者に癒し効果等を与えることが
できる。
Thus, in addition to the effects of the second to fourth aspects of the present invention, the character can be made more familiar through daily conversation other than the main purpose, and a healing effect or the like can be given to the viewer.

【0019】第6の発明は、第2〜第5の各発明におい
て、前記キャラクタ動作としては、少なくとも目又は口
を有するキャラクタに関する動作である対人会話型ナビ
ゲーション装置である。
A sixth invention is the interpersonal navigation device according to the second to fifth inventions, wherein the character motion is a motion relating to a character having at least an eye or a mouth.

【0020】これにより、第2〜第5の各発明の作用に
加え、TV自体の付加価値の向上を図ることができる。
Thus, in addition to the effects of the second to fifth inventions, the added value of the TV itself can be improved.

【0021】第7の発明は、第1〜第6の各発明に用い
られるリモコン装置であって、音声入力された言語を電
気信号に変換するマイクロホンと、前記マイクロホンに
より得られた電気信号を符号化し、この符号化結果に基
づいて赤外線信号を送信する赤外線送信手段と、を備え
たリモコン装置である。
A seventh invention is a remote control device used in each of the first to sixth inventions, wherein the microphone converts a speech input language into an electric signal, and encodes the electric signal obtained by the microphone. And an infrared transmitting means for transmitting an infrared signal based on the encoding result.

【0022】このように、手元に存在すると思われるリ
モコン装置にマイクロホンを搭載することにより、音声
認識率、使い勝手等の向上を図ることができる。
As described above, by mounting the microphone on the remote control device which is considered to be present at hand, it is possible to improve the voice recognition rate and the usability.

【0023】第8の発明は、第7の発明において、前記
マイクロホン及び前記赤外線送信手段を収容した筐体
と、前記筐体に取り付けられ、人間の手首部分に着脱す
るためのリストバンド部を備えたリモコン装置である。
According to an eighth aspect, in the seventh aspect, a housing accommodating the microphone and the infrared transmitting means, and a wristband portion attached to the housing and attached to and detached from a wrist of a human are provided. Remote control device.

【0024】これにより、第7の発明の作用に加え、リ
モコン装置を探す手間が省けると共に、腕時計との融合
などにより、使い勝手の向上を図ることができる。
Thus, in addition to the operation of the seventh aspect, the trouble of searching for the remote control device can be omitted, and the usability can be improved by fusing it with a wristwatch.

【0025】[0025]

【発明の実施の形態】以下、本発明の一実施形態につい
て図面を参照して説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below with reference to the drawings.

【0026】図1は本発明の一実施形態に係る対人会話
型ナビゲーション装置及びその周辺構成を示す模式図で
ある。この対人会話型ナビゲーション装置は、リモコン
装置10及びセットトップボックス(Set Top Box)20
からなり、セットトップボックス20にはTV装置30
が接続されている。
FIG. 1 is a schematic diagram showing an interpersonal conversation type navigation device according to an embodiment of the present invention and its peripheral configuration. This interpersonal interactive navigation device includes a remote control device 10 and a set top box (Set Top Box) 20.
, And a TV device 30
Is connected.

【0027】ここで、リモコン装置10は、視聴者の音
声を赤外線信号に変換し、この赤外線信号を送信するワ
イヤレスマイク機能を有しており、具体的には、発話ボ
タン11、マイクロホン12、赤外線符号化装置13及
び赤外線送出装置14を備えている。但し、リモコン装
置10は、音声以外にも、数字ボタン等による操作を可
能としてもよく、この場合、数字ボタン等の押操作に応
じても赤外線信号が送信される構成となる。
Here, the remote control device 10 has a wireless microphone function of converting a viewer's voice into an infrared signal and transmitting the infrared signal. Specifically, the utterance button 11, the microphone 12, the infrared An encoder 13 and an infrared transmitter 14 are provided. However, the remote control device 10 may be configured to be able to operate by using a numeric button or the like in addition to the voice. In this case, the infrared signal is transmitted even in response to the pressing operation of the numeric button or the like.

【0028】発話ボタン11は、視聴者の押操作によ
り、マイクロホン12を音声取得待機状態にするもので
ある。なお、発話ボタン11は、ボタンに限らず、スラ
イドスイッチやレバー等の任意のスイッチや、センサ等
が使用可能である。
The utterance button 11 is used to put the microphone 12 into a sound acquisition standby state by a pressing operation of the viewer. The utterance button 11 is not limited to a button, and any switch such as a slide switch or a lever, a sensor, or the like can be used.

【0029】マイクロホン12は、発話ボタン11の押
操作により、音声取得待機状態になったとき、入力され
た音声を電気信号に変換して赤外線符号化装置13に入
力する機能をもっている。
The microphone 12 has a function of converting the input voice into an electric signal and inputting it to the infrared encoding device 13 when the microphone 12 enters a voice acquisition standby state by pressing the utterance button 11.

【0030】赤外線符号化装置13は、マイクロホン1
2から受けた電気信号を符号化し、得られた符号化信号
を赤外線送出装置14に送出するものである。ここで、
符号化の方式としては、例えば、携帯電話等で利用され
るVSELP(Vector Sum Excited Linear Predictio
n)等の標準符号化技術が適用可能となっている。
The infrared encoding device 13 includes the microphone 1
2 is encoded, and the obtained encoded signal is transmitted to the infrared transmitting device 14. here,
As an encoding method, for example, VSELP (Vector Sum Excited Linear Predictio
Standard encoding techniques such as n) are applicable.

【0031】赤外線送出装置14は、赤外線符号化装置
13から送出された符号化信号を赤外線信号に変換して
送信するものである。ここで、赤外線信号の送信の際に
は、赤外線データ通信規格であるIrDA(Infrared D
ata Association)「IrDA1.1」等が使用可能と
なっている。
The infrared transmitter 14 converts the encoded signal transmitted from the infrared encoder 13 into an infrared signal and transmits it. Here, when transmitting an infrared signal, IrDA (Infrared D) which is an infrared data communication standard is used.
ata Association) "IrDA1.1" etc. can be used.

【0032】一方、セットトップボックス20は、TV
アンテナ31から受けるTV放送の映像(Video)/音声
(Audio)入力に基づいて、映像信号及び音声信号をT
V装置30に出力する機能に加え、リモコン装置10か
ら受ける赤外線信号に基づいて、番組案内等のキャラク
タの映像データ及び音声データをTV放送の映像信号及
び音声信号にミキシングしてTV装置30に出力する機
能とをもっている。
On the other hand, the set-top box 20
The video signal and the audio signal are converted to T based on the video / video input of the TV broadcast received from the antenna 31.
In addition to the function of outputting to the V-device 30, based on the infrared signal received from the remote control device 10, the video data and the audio data of the characters such as the program guide are mixed with the TV broadcast video and audio signals and output to the TV device 30. It has a function to do.

【0033】具体的にはセットトップボックス20は、
認識用音声DB(Database)21、キャラクタ動作DB2
2a、キャラクタ音声DB22b、グラフィックスライ
ブラリ23、EPG用DB24、赤外線受信装置25、
音声認識装置26、ナビゲーションアプリケーション2
7、TV制御装置28、映像・音声ミキシング装置29
を備えている。
Specifically, the set-top box 20
Recognition voice DB (Database) 21, character motion DB2
2a, character voice DB 22b, graphics library 23, EPG DB 24, infrared receiver 25,
Voice recognition device 26, navigation application 2
7, TV control device 28, video / audio mixing device 29
It has.

【0034】なお、セットトップボックス20は、ここ
ではTV装置30に接続されるTV別体型構成である
が、これに限らず、TV装置30に搭載されたTV一体
型構成としてもよい。この場合、本発明を対人会話型ナ
ビゲーション機能付TV装置と表現してもよい。
Although the set-top box 20 has a separate TV configuration connected to the TV device 30 here, the present invention is not limited to this, and may be a TV integrated type mounted on the TV device 30. In this case, the present invention may be expressed as a TV device with an interpersonal interactive navigation function.

【0035】ここで、認識用音声DB21は、図2に模
式的に示すように、索引値、視聴者の音声の文字データ
及び音声符号化データの組が複数登録されており、音声
認識装置26から音声信号を受けると、この音声信号の
符号化パターンを1ビットずつ照合し、最も近い登録済
の音声符号化データに対応する索引値を音声認識装置2
6に送出する機能をもっている。但し、認識用音声DB
21は、1つの索引値毎に1つの音声符号化データでな
くともよく、索引値毎に、異句同意表現の複数の音声符
号化データ及びその文字データが登録されていてもよ
い。
As shown schematically in FIG. 2, the recognition speech DB 21 stores a plurality of sets of index values, character data of speech of a viewer, and speech coded data. , The encoded pattern of the audio signal is collated bit by bit, and an index value corresponding to the closest registered encoded audio data is determined by the speech recognition device 2.
6 is provided. However, the voice DB for recognition
Reference numeral 21 may not be one piece of encoded voice data for each index value, and a plurality of pieces of encoded audio data of a consonant expression and its character data may be registered for each index value.

【0036】なお、認識用音声DB21は、番組案内を
行なう観点から番組案内用の会話に関する音声符号化デ
ータと、人に優しいヒューマンインタフェースを提供す
る観点から挨拶や日常会話などに関する音声符号化デー
タとの両者が登録されている。また、図2は一部の例で
あり、実際には多数のデータが登録されているが、これ
は以下の各図3〜図5等も同様である。
The recognition voice DB 21 stores voice coded data relating to conversation for program guidance from the viewpoint of providing program guidance and voice coded data relating to greetings and daily conversation from the viewpoint of providing a human-friendly human interface. Are registered. FIG. 2 is a partial example, and a large number of data are actually registered. The same applies to the following FIGS. 3 to 5 and the like.

【0037】キャラクタ動作DB22aは、図3に模式
的に示すように、索引値毎に、キャラクタの1つ以上の
動作データが登録されており、ナビゲーションアプリケ
ーション27から索引値を受けると、この索引値に対応
する動作データのうち、いずれかの動作データをナビゲ
ーションアプリケーション27に送出する機能をもって
いる。
As shown schematically in FIG. 3, the character motion DB 22a stores at least one motion data of a character for each index value. Is transmitted to the navigation application 27.

【0038】ここで、動作データは、動くキャラクタの
アニメーション画像のデータであり、データ形式として
は、GIF(Graphics Interchange Format)アニメーシ
ョンや、Flash(登録商標)などが適用可能である。
Here, the motion data is data of an animation image of a moving character, and GIF (Graphics Interchange Format) animation, Flash (registered trademark), or the like can be applied as a data format.

【0039】キャラクタとしては、ペット、人、動物、
植物、魚類、鳥類、虫、生物、ロボット、妖精、物品、
シンボル等の例に限らずに任意のものが適用可能である
が、視聴者と円滑に会話をする観点から、少なくとも目
又は口を有するキャラクタであることが好ましい。ま
た、少なくとも顔の部分があれば全身を表示する必要は
なく、また、時間の経過と共に成長又は変更させてもよ
い。さらに、キャラクタは単数である必要はなく、複数
のキャラクタが表示されてもよい。
Characters include pets, people, animals,
Plants, fish, birds, insects, creatures, robots, fairies, goods,
Any characters can be applied without being limited to examples of symbols and the like, but it is preferable that the character has at least eyes or a mouth from the viewpoint of having a smooth conversation with the viewer. In addition, if there is at least a face part, it is not necessary to display the whole body, and it may be grown or changed over time. Further, the character need not be a single character, and a plurality of characters may be displayed.

【0040】キャラクタ音声DB22bは、図4に模式
的に示すように、索引値毎に、キャラクタ音声(返事)
の文字データとその音声符号化データとの組が1つ以上
登録されており、ナビゲーションアプリケーション27
から索引値を受けると、この索引値に対応する音声の文
字データと音声符号化データとの組のうち、いずれかの
音声の文字データと音声符号化データとの組をナビゲー
ションアプリケーション27に送出する機能をもってい
る。
As shown schematically in FIG. 4, the character voice DB 22b stores character voices (replies) for each index value.
One or more pairs of character data and its voice-encoded data are registered.
, And sends a set of any of the voice character data and the voice encoded data to the navigation application 27 out of the pair of the voice character data and the voice encoded data corresponding to the index value. Has a function.

【0041】但し、同一の索引値に対して、登録される
音声符号化データ及び文字データの複数の組は、少なく
とも会話が成立する表現であればよいが、円滑な会話の
観点から、異句同意表現(同じ意味を表す異なる言葉)
の関係にあることが好ましい。
It should be noted that a plurality of sets of voice encoded data and character data to be registered with respect to the same index value may be expressions that at least make a conversation, but from the viewpoint of smooth conversation, Synonymous expression (different words with the same meaning)
It is preferable that the following relationship is satisfied.

【0042】例えば、視聴者の「今日のお勧め番組は
?」に対し、索引値“2”の「今日のお勧め番組はこれ
だよ!」「今日は、これを見た方が得です」「スペシャ
ルセレクト番組はこれです」は、互いに異句同意表現の
関係にあり、どれが選択されても円滑に会話が進行す
る。なお、索引値“2”の「さて、今日はどれを見る」
は、異句同意表現ではないが、会話が成立する表現の例
である。なお、キャラクタ音声DB22bは、同様の動
作をするものに置換してもよく、例えば周知の自然会話
エンジンに置換してもよい。
For example, in response to the viewer's "What is today's recommended program?", The index value "2" is "Today's recommended program is this!""This is a special select program" is a mutually consensual expression, and the conversation proceeds smoothly regardless of which is selected. In addition, the index value "2""Which one to look at today?"
Is an example of an expression that is not a consensual expression but that establishes a conversation. Note that the character voice DB 22b may be replaced with one that performs the same operation, for example, a well-known natural conversation engine.

【0043】グラフィックスライブラリ23は、GUI
(Graphical User Interface)等のためのライブラリソフ
トウェアであり、ナビゲーションアプリケーション27
から参照可能であって、例えば、キャラクタ音声DB2
2bの文字データを囲んで表示するためのフキダシ等の
グラフィックデータが登録されている。
The graphics library 23 has a GUI
(Graphical User Interface), etc.
For example, character voice DB2
Graphic data such as balloons for surrounding and displaying the character data of 2b are registered.

【0044】EPG用DB24は、図5(a)に示す如
き番組案内データと、図5(b)に示す如き推奨番組デ
ータとを保持するものであり、これら番組案内データと
推奨番組データとは、例えばCSデジタル放送のように
コンテンツと同様に放送波として配信され、TVアンテ
ナ31により受信されると、EPG用DB24の保持内
容がこの受信した最新の番組案内データと推奨番組デー
タとに更新される。但し、番組案内データと推奨番組デ
ータとは、放送波に限らず、電話回線等の任意の手段に
より配信されてもよい。
The EPG DB 24 holds program guide data as shown in FIG. 5 (a) and recommended program data as shown in FIG. 5 (b). For example, when a broadcast wave is distributed in the same manner as the content like a CS digital broadcast and received by the TV antenna 31, the content stored in the EPG DB 24 is updated to the received latest program guide data and recommended program data. You. However, the program guide data and the recommended program data are not limited to broadcast waves, and may be distributed by any means such as a telephone line.

【0045】なお、EPG用DB24は、セットトップ
ボックス20内に無くてもよく、例えばTV装置30側
に設けられたものを用いてもよい。また、EPG用DB
24に限らず、セットトップボックス20内の各要素2
1〜29は、適宜、TV装置30側に設けてもよい。す
なわち、各要素21〜29の配置を適宜変更しても、全
体として同様な機能を持つものであれば、本発明の範囲
に包含される。
The EPG DB 24 may not be provided in the set-top box 20, but may be provided, for example, on the TV device 30 side. DB for EPG
24, each element 2 in the set-top box 20
1 to 29 may be provided on the TV device 30 side as appropriate. That is, even if the arrangement of each of the elements 21 to 29 is appropriately changed, as long as they have the same function as a whole, they are included in the scope of the present invention.

【0046】ここで、番組案内データは、各チャンネル
毎に、時刻情報(少なくとも開始時刻)と番組内容
(例、タイトル、出演者、有料/無料、概略等)との組
を示すものであり、通常のラテ欄的な内容を示してい
る。なお、番組案内データは、図5(a)では各チャン
ネルを各行に配置し、各時刻情報を各列に配置したが、
これに限らず、各時刻情報を各行に配置し、各チャンネ
ルを各列に配置してもよい。
Here, the program guide data indicates a set of time information (at least the start time) and program contents (eg, title, cast, paid / free, outline, etc.) for each channel. It shows the contents of a normal latte column. In the program guide data, in FIG. 5A, each channel is arranged in each row, and each time information is arranged in each column.
The present invention is not limited to this, and each time information may be arranged in each row, and each channel may be arranged in each column.

【0047】推奨番組データは、システムオペレータが
視聴者に推奨する番組を示すデータであり、具体的に
は、少なくとも時刻情報、チャンネル及び番組タイトル
の組からなり、所望により、前述した番組内容(出演
者、有料/無料、概略等)を有してもよい。なお、推奨
番組データは、操作性向上の観点から、1画面内に収ま
ることが好ましい。また、推奨番組データは、推奨内容
には限定がなく、例えば、同一時刻情報における複数の
チャンネルと番組タイトルとの組のように、同一時間帯
には視聴不可能な推奨番組の組合せを提示してもよい。
The recommended program data is data indicating a program recommended by the system operator to the viewer. More specifically, the recommended program data comprises at least a set of time information, a channel, and a program title. Person, paid / free, outline, etc.). It is preferable that the recommended program data be contained within one screen from the viewpoint of improving operability. The recommended program data is not limited to the recommended contents, and presents a combination of recommended programs that cannot be viewed in the same time zone, such as a set of a plurality of channels and a program title in the same time information. You may.

【0048】赤外線受信装置25は、リモコン装置10
から送信された赤外線信号を受信し、電気的な符号化信
号として音声認識装置26に送出する機能をもってい
る。なお、赤外線信号の受信の際にも、前述同様の赤外
線データ通信規格IrDA等を使用すればよい。
The infrared receiving device 25 is
Has a function of receiving the infrared signal transmitted from the voice recognition device 26 and transmitting it to the speech recognition device 26 as an electric coded signal. The infrared data communication standard IrDA or the like may be used when receiving the infrared signal.

【0049】音声認識装置26は、赤外線受信装置25
から入力された符号化信号と最も近似する音声符号化デ
ータを認識用音声DB21から検索し、得られた索引値
をナビゲーションアプリケーション27に送出する機能
をもっている。
The voice recognition device 26 includes an infrared receiving device 25
Has a function of searching the speech DB 21 for recognition for speech coded data that is most similar to the coded signal input from, and transmitting the obtained index value to the navigation application 27.

【0050】ナビゲーションアプリケーション27は、
TV画面でのGUIアプリケーションであり、音声認識
装置26から受けた索引値に基づいて、(i)キャラク
タ動作DB22a内の動作データ、(ii)キャラクタ音
声DB22b内の音声符号化データ、(iii)キャラク
タ音声DB22b内の音声の文字データ及びグラフィッ
クスライブラリ23内のフキダシデータの組合せ、(i
v)EPG用DB24内の番組案内データ又は推奨番組
データを選択する機能と、選択結果を映像・音声ミキシ
ング装置29に送出する機能と、音声認識装置26から
受けた索引値に基づいて、TV制御装置28の制御を選
択する機能とをもっている。
The navigation application 27
A GUI application on a TV screen, based on an index value received from the voice recognition device 26, (i) motion data in the character motion DB 22a, (ii) voice encoded data in the character voice DB 22b, and (iii) character A combination of voice character data in the voice DB 22b and balloon data in the graphics library 23, (i
v) A function of selecting program guide data or recommended program data in the EPG DB 24, a function of transmitting the selection result to the video / audio mixing device 29, and a TV control based on the index value received from the voice recognition device 26. And a function of selecting control of the device 28.

【0051】なお、ナビゲーションアプリケーション2
7は、EPG用DB24内の番組案内データを選択する
場合、音声認識装置26から受けた索引値に基づいて、
番組案内データの内容を部分的に選択してもよい。例え
ば、番組案内データのうち、索引値に該当する時刻情報
及び/又はチャンネルの部分のみを選択してもよい。
The navigation application 2
7 selects the program guide data in the EPG DB 24 based on the index value received from the voice recognition device 26.
The contents of the program guide data may be partially selected. For example, only the time information and / or the channel portion corresponding to the index value may be selected from the program guide data.

【0052】TV制御装置28は、図示しないTVチュ
ーナを有し、ナビゲーションアプリケーション27によ
り選択された制御に応じ、TV装置30に対し、チャン
ネルの切替え及び音声ボリュームの増減等を行なう機能
をもっている。
The TV control device 28 has a TV tuner (not shown), and has a function of switching the channel and increasing / decreasing the audio volume with respect to the TV device 30 in accordance with the control selected by the navigation application 27.

【0053】映像・音声ミキシング装置29は、TV制
御装置28のTVチューナにより得られるTV映像信号
及びTV音声信号と、ナビゲーションアプリケーション
27により得られる(i)〜(iv)の各データとを映像
毎及び音声毎に合成し、合成結果をTV装置30に出力
する機能をもっている。
The video / audio mixing device 29 converts the TV video signal and the TV audio signal obtained by the TV tuner of the TV control device 28 and the data (i) to (iv) obtained by the navigation application 27 for each video. And a function of synthesizing each sound and outputting the synthesis result to the TV device 30.

【0054】なお、このようなセットトップボックス2
0は、例えば図6に示す如き、ソフトウェア構成により
実現してもよい。すなわち、基本ソフトウェアとしての
オペレーティングシステムOS20aと、上位アプリケ
ーションとしてのナビゲーション・アプリケーション2
7との間に、ミドルウエアとして、各ソフトウェア(赤
外線通信25、キャラクタ音声DB22b、キャラクタ
動作DB22a、映像・音声ミキシング29、TV制御
28、グラフィックスライブラリ23)が位置するソフ
トウェア構成としてもよい。
Note that such a set-top box 2
0 may be realized by a software configuration as shown in FIG. 6, for example. That is, the operating system OS 20a as the basic software and the navigation application 2 as the upper application
The software configuration in which each software (infrared communication 25, character voice DB 22b, character motion DB 22a, video / audio mixing 29, TV control 28, graphics library 23) is located as middleware between the software and the middleware.

【0055】TV装置30は、周知のテレビジョン装置
であり、セットトップボックス20から受ける映像デー
タに基づいてTV画面を表示し、セットトップボックス
20から受ける音声データに基づいて音声を出力するも
のである。
The TV device 30 is a well-known television device, and displays a TV screen based on video data received from the set-top box 20 and outputs audio based on audio data received from the set-top box 20. is there.

【0056】次に、以上のように構成された対人会話型
ナビゲーション装置の動作を図7のフローチャートを用
いて説明する。リモコン装置10は、図8に示すよう
に、視聴者40により、発話ボタン11が押操作される
と、マイクロホン12が音声取得待機状態になる(ST
1)。
Next, the operation of the interpersonal conversational navigation device configured as described above will be described with reference to the flowchart of FIG. As shown in FIG. 8, when the utterance button 11 is pressed by the viewer 40, the remote control device 10 puts the microphone 12 into a sound acquisition standby state (ST).
1).

【0057】ここで、視聴者40は、図9に示すよう
に、自然言語、あるいはそれに近い言語(単語等)によ
り、リモコン装置10のマイクロホン12に向かって話
す。
Here, as shown in FIG. 9, the viewer 40 speaks into the microphone 12 of the remote control device 10 in a natural language or a language (word or the like) similar thereto.

【0058】リモコン装置11では、視聴者40が話し
た音声41として、例えば「今日のお勧め番組は?」が
マイクロホン12から入力される(ST2)。なお、視
聴者12の話す音声としては、番組案内に関するものに
限らず、日常会話であってもよい。
In the remote control device 11, for example, "What is today's recommended program?" Is input from the microphone 12 as the voice 41 spoken by the viewer 40 (ST2). The voice spoken by the viewer 12 is not limited to the voice related to the program guide, but may be a daily conversation.

【0059】この音声「今日のお勧め番組は?」は、マ
イクロホン12により電気信号として赤外線符号化装置
13へ入力されると、デジタル符号化により符号化信号
に変換される(ST3)。
When this sound "What is today's recommended program?" Is input as an electrical signal to the infrared encoder 13 by the microphone 12, it is converted into an encoded signal by digital encoding (ST3).

【0060】符号化信号は、赤外線送出装置14により
赤外線信号に変換されて送出され、セットトップボック
ス20の赤外線受信装置25に受信される(ST4)。
The coded signal is converted into an infrared signal by the infrared transmitting device 14 and transmitted, and received by the infrared receiving device 25 of the set-top box 20 (ST4).

【0061】赤外線受信装置25は、この赤外線信号を
電気的な符号化信号に変換して音声認識装置26に入力
する(ST5)。
The infrared receiving device 25 converts this infrared signal into an electric coded signal and inputs it to the speech recognition device 26 (ST5).

【0062】音声認識装置26は、この符号化信号に基
づいて、図2に示した如き認識用音声DB21内の最も
近似する音声符号化データを検索し、得られた音声符号
化データ「今日のお勧め番組は?」に対応する索引値
“2”を取得する(ST6)。
The speech recognition device 26 searches for the most similar speech encoded data in the speech DB 21 for recognition as shown in FIG. 2 based on the encoded signal, and obtains the obtained speech encoded data “today's. An index value "2" corresponding to "What is the recommended program?" Is obtained (ST6).

【0063】音声認識装置26は、索引値“2”をナビ
ゲーションアプリケーション27に送出する(ST
7)。
The voice recognition device 26 sends the index value “2” to the navigation application 27 (ST)
7).

【0064】ナビゲーションアプリケーション27は、
索引値“2”に基づいて、図3に示した如きキャラクタ
動作DB22aから動作データ“画面右から歩いて登場
し、…ポーズをとる”を選択する(ST8)。なお、キ
ャラクタ及びポーズの例としては、図10に示す形態が
ある。
The navigation application 27
Based on the index value "2", the motion data "appear walking from the right side of the screen and take a pose" is selected from the character motion DB 22a as shown in FIG. 3 (ST8). FIG. 10 shows an example of the character and the pose.

【0065】ここで、選択される動作データは、常に同
一の動作データに限られず、索引値に応じた複数の動作
データのうち、ランダムに選択された動作データとなっ
ている。これにより、キャラクタ動作がランダム性をも
つので、より親しみ易いキャラクタを作ることができ
る。
Here, the selected operation data is not always limited to the same operation data, but is operation data that is randomly selected from a plurality of operation data corresponding to the index value. This makes it possible to create a more familiar character because the character action has randomness.

【0066】また、ナビゲーションアプリケーション2
7は、索引値“2”に基づいて、図4に示した如きキャ
ラクタ音声DB22bから音声符号化データ“010010…
0101(今日のお勧め番組はこれだよ!)”を選択する
(ST9)。このキャラクタ音声も同様に、常に同一の
音声に限られず、索引値に応じた複数の音声符号化デー
タのうち、ランダムに選択された音声符号化データとな
っている。
The navigation application 2
7 is based on the index value “2”, and the voice coded data “010010...” Is read from the character voice DB 22b as shown in FIG.
0101 (This is today's recommended program!) ”(ST9). Similarly, this character voice is not always limited to the same voice, but may be one of a plurality of voice encoded data corresponding to the index value. The audio encoded data is randomly selected.

【0067】また、ナビゲーションアプリケーション2
7は、索引値“2”に基づいて、TV制御装置28の制
御を選択するが(ST10)、この索引値“2”は推奨
番組の問合せであり、チャンネル制御及び/又は音声ボ
リューム制御が不要なので、何も選択されない。
The navigation application 2
7 selects the control of the TV control device 28 based on the index value "2" (ST10). This index value "2" is an inquiry for a recommended program, and does not require channel control and / or audio volume control. So nothing is selected.

【0068】また、ナビゲーションアプリケーション2
7は、索引値“2”に基づいて、図4に示した如きキャ
ラクタ音声DB22b内の文字データ“今日のお勧め番
組はこれだよ!”とグラフィックスライブラリ23内の
フキダシデータの組合せを選択し、且つ、図5(b)に
示した如き、EPG用DB24内の推奨番組データを選
択する(ST11)。
Further, the navigation application 2
7 selects a combination of character data "Today's recommended program is this!" And character data in the graphics library 23 in the character voice DB 22b as shown in FIG. 4 based on the index value "2". Then, the recommended program data in the EPG DB 24 is selected as shown in FIG. 5B (ST11).

【0069】そして、ナビゲーションアプリケーション
27は、これらステップST8,ST9及びST11の
選択結果を映像・音声ミキシング装置29に送出する。
Then, the navigation application 27 sends the selection results of steps ST8, ST9 and ST11 to the video / audio mixing device 29.

【0070】映像・音声ミキシング装置29は、図10
〜図13に示すように、ナビゲーションアプリケーショ
ンから受けた動作データD1、文字データD2とフキダ
シデータD3の組合せ、及び推奨番組データD4をTV
放送の元画面データD5に合成することにより、図13
に示す合成後のTV画面D6を表示するための映像デー
タを作成してTV装置30に送出する(ST12)。
The video / audio mixing device 29 is the same as that shown in FIG.
As shown in FIG. 13, the operation data D1, the combination of the character data D2 and the balloon data D3 received from the navigation application, and the recommended program data D4 are transmitted to the TV.
By combining with the original screen data D5 of the broadcast, FIG.
The video data for displaying the synthesized TV screen D6 shown in (1) is created and transmitted to the TV device 30 (ST12).

【0071】また同時に、映像・音声ミキシング装置2
9は、TV放送の音声に代えて、ナビゲーションアプリ
ケーション27から受けたキャラクタの音声符号化デー
タをTV装置30に送出する(ST13)。
At the same time, the video / audio mixing device 2
No. 9 transmits to the TV device 30 voice encoded data of the character received from the navigation application 27, instead of the TV broadcast voice (ST13).

【0072】TV装置30は、この映像データに基づい
て図13に示すようにTV画面を表示し、同様に音声デ
ータに基づいてキャラクタ音声を出力する。
The TV device 30 displays a TV screen based on the video data as shown in FIG. 13, and similarly outputs a character voice based on the voice data.

【0073】このとき、画面上のキャラクタは、キャラ
クタ動作DBにおける索引値に対応する動作をもったア
ニメーションとして表示される。また、キャラクタ音声
は、キャラクタ音声DBにおける索引値に対応する音声
として出力される。
At this time, the character on the screen is displayed as an animation having a motion corresponding to the index value in the character motion DB. The character voice is output as a voice corresponding to the index value in the character voice DB.

【0074】以下、ステップST1〜ST13を繰り返
すことにより、あたかも人(視聴者)とTV画面内のキ
ャラクタ(擬似的な人)の会話によるコミュニケーショ
ンによって番組案内が進行する。また、番組案内以外に
も、キャラクタとの日常会話を楽しむことができ、擬似
的コミュニケーションを図ることができる。
Thereafter, by repeating steps ST1 to ST13, the program guide proceeds as if by communication between a person (viewer) and a character (pseudo person) in the TV screen. In addition to the program guide, daily conversation with the character can be enjoyed, and pseudo communication can be achieved.

【0075】また、キャラクタは、番組案内中であれば
番組案内の完了後に自動的に消去され、日常会話中であ
れば所定のボタン操作により消去される。
The character is automatically deleted after the completion of the program guide during the program guide, and is deleted by a predetermined button operation during the daily conversation.

【0076】上述したように本実施形態によれば、音声
入力に基づいて番組案内を行なうので、機械操作の不慣
れな人にも容易に操作できるように、操作性を向上でき
る。
As described above, according to the present embodiment, since the program guide is performed based on the voice input, the operability can be improved so that even a person who is unfamiliar with machine operation can easily operate.

【0077】また、キャラクタを用いて番組案内を行な
うので、従来の視聴者 対 製品のヒューマンインタフ
ェースから脱却し、視聴者 対 キャラクタ(擬似的
人)の快適で優しいヒューマンインタフェースを提供す
ることができる。
Further, since the program guide is performed by using the character, it is possible to provide a comfortable and gentle human interface between the viewer and the character (pseudo-person), deviating from the conventional human interface between the viewer and the product.

【0078】例えばキャラクタと会話する構成により、
老人や年配者、手、指等の不自由な人々といった機械操
作に不慣れと考えられる人々でも容易に操作できる。
For example, by a configuration in which a conversation is made with a character,
Even people who are unfamiliar with machine operation, such as the elderly, the elderly, people with disabilities such as hands and fingers, can easily operate the machine.

【0079】また、番組案内やTV操作以外の会話を存
在させることにより、キャラクタをより親しみ易くさ
せ、視聴者の心を癒すような副次効果を得ることができ
る。
Further, by having conversations other than the program guide and TV operation, it is possible to make the character more familiar and to obtain a secondary effect that heals the viewer's heart.

【0080】そして、このようなキャラクタを持つヒュ
ーマンインターフェースにより、TV自体の付加価値を
向上でき、視聴者の購買意欲を促すことができる。
[0080] The added value of the TV itself can be improved by the human interface having such characters, and the viewer can be motivated to purchase.

【0081】なお、本発明に近い技術としては、カーナ
ビゲーションで実現済の対人会話型ナビゲーションがあ
る。このカーナビゲーションの対人会話型ナビゲーショ
ンは、本発明と同様に音声認識と画面上のキャラクタに
よる案内を行なうが、本発明とは異なり、交通安全の観
点から画面に注目させないように、次のような性質
(a)(b)を持つ。 (a)許容される言語表現が狭い。カーナビゲーション
に特化しており、例えば挨拶などの日常会話が全く存在
しない。 (b)画面上のキャラクタは、静止画又はほぼ静止画で
あり、動きが無い。
As a technique close to the present invention, there is interpersonal conversation type navigation realized by car navigation. This interpersonal conversation navigation of the car navigation performs voice recognition and guidance by characters on the screen in the same manner as the present invention. However, unlike the present invention, the following screen is provided so as not to pay attention to the screen from the viewpoint of traffic safety. It has properties (a) and (b). (A) Allowed linguistic expressions are narrow. It is specialized in car navigation, and there is no daily conversation such as greeting. (B) The character on the screen is a still image or almost a still image, and does not move.

【0082】一方、本発明は、画面に注目することが前
提の技術であり、次のような性質(A)(B)をもつ。 (A)許容される言語表現が広い。また、番組案内に特
化せず、日常会話にも対応している。 (B)画面上のキャラクタがアニメーションにより動作
することができる。
On the other hand, the present invention is a technique on the premise that attention is paid to the screen, and has the following properties (A) and (B). (A) Allowable linguistic expressions are wide. Also, it does not specialize in program guides, but also supports everyday conversations. (B) Characters on the screen can operate by animation.

【0083】従って本発明は、これら(A)(B)によ
り、従来とは異なり、癒しの時代の電子的番組案内EP
Gを実現させることができる。
Therefore, the present invention is different from the prior art in that the electronic program guide EP in the era of healing is different from the conventional ones.
G can be realized.

【0084】これに加え、ナビゲーションアプリケーシ
ョン27が索引値に基づいて、番組案内データの内容を
部分的に選択する。これにより、ラテ欄的な過大な番組
案内データに対し、視聴者の要求により、番組案内デー
タを絞り込むことができ、多チャンネル時代の電子的番
組案内EPGを実現させることができる。
In addition, the navigation application 27 partially selects the contents of the program guide data based on the index value. As a result, the program guide data can be narrowed down at the request of the viewer for the excessively large program guide data in the latte column, and the electronic program guide EPG in the multi-channel era can be realized.

【0085】また、手元に存在すると思われるリモコン
装置10にマイクロホン12を搭載することにより、音
声認識率、使い勝手等の向上を図ることができる。
Further, by mounting the microphone 12 on the remote control device 10 which is considered to be present at hand, it is possible to improve the voice recognition rate, the usability, and the like.

【0086】なお、上記各実施形態に記載した手法は、
コンピュータに実行させることのできるプログラムとし
て、磁気ディスク(フロッピー(登録商標)ディスク、
ハードディスクなど)、光ディスク(CD−ROM、D
VDなど)、光磁気ディスク(MO)、半導体メモリな
どの記憶媒体に格納して頒布することもできる。
The method described in each of the above embodiments is
Magnetic disks (floppy (registered trademark) disks,
Hard disk, etc.), optical disk (CD-ROM, D
VD, etc.), a magneto-optical disk (MO), and a storage medium such as a semiconductor memory.

【0087】また、この記憶媒体としては、プログラム
を記憶でき、かつコンピュータが読み取り可能な記憶媒
体であれば、その記憶形式は何れの形態であっても良
い。
The storage medium may take any form as long as it can store a program and can be read by a computer.

【0088】また、記憶媒体からコンピュータにインス
トールされたプログラムの指示に基づきコンピュータ上
で稼働しているOS(オペレーティングシステム)や、
データベース管理ソフト、ネットワークソフト等のMW
(ミドルウェア)等が本実施形態を実現するための各処
理の一部を実行しても良い。
Also, an OS (Operating System) running on the computer based on the instructions of the program installed in the computer from the storage medium,
MW for database management software, network software, etc.
(Middleware) or the like may execute a part of each process for realizing the present embodiment.

【0089】さらに、本発明における記憶媒体は、コン
ピュータと独立した媒体に限らず、LANやインターネ
ット等により伝送されたプログラムをダウンロードして
記憶または一時記憶した記憶媒体も含まれる。
Further, the storage medium in the present invention is not limited to a medium independent of a computer, but also includes a storage medium in which a program transmitted through a LAN, the Internet or the like is downloaded and stored or temporarily stored.

【0090】また、記憶媒体は1つに限らず、複数の媒
体から本実施形態における処理が実行される場合も本発
明における記憶媒体に含まれ、媒体構成は何れの構成で
あっても良い。
Further, the number of storage media is not limited to one, and the case where the processing in the present embodiment is executed from a plurality of media is also included in the storage medium of the present invention, and any media configuration may be used.

【0091】尚、本発明におけるコンピュータは、記憶
媒体に記憶されたプログラムに基づき、本実施形態にお
ける各処理を実行するものであって、パソコン等の1つ
からなる装置、複数の装置がネットワーク接続されたシ
ステム等の何れの構成であっても良い。
The computer according to the present invention executes each processing in the present embodiment based on a program stored in a storage medium. An apparatus such as a personal computer and a plurality of apparatuses are connected to a network. Any configuration such as a system described above may be used.

【0092】また、本発明におけるコンピュータとは、
パソコンに限らず、情報処理機器に含まれる演算処理装
置、マイコン等も含み、プログラムによって本発明の機
能を実現することが可能な機器、装置を総称している。
The computer in the present invention is
It is not limited to a personal computer, but also includes a processing device, a microcomputer, and the like included in an information processing device, and generically refers to a device and a device capable of realizing the functions of the present invention by a program.

【0093】なお、本願発明は、上記実施形態に限定さ
れるものでなく、実施段階ではその要旨を逸脱しない範
囲で種々に変形することが可能である。例えば上記実施
形態では、認識用音声DB21及び音声認識装置26を
セットトップボックス20に収容した場合を例に挙げて
説明したが、これに限らず、認識用音声DB21及び音
声認識装置26をリモコン装置10内の赤外線符号化装
置13と赤外線送出装置14との間に配置し、音声認識
機能をリセット装置10側に持たせた構成としても、本
発明を同様に実施して同様の効果を得ることができる。
The present invention is not limited to the above-described embodiment, and can be variously modified in the implementation stage without departing from the gist of the invention. For example, in the above-described embodiment, the case where the recognition voice DB 21 and the voice recognition device 26 are accommodated in the set-top box 20 has been described as an example. However, the present invention is not limited thereto. The present invention can be implemented in the same manner and the same effect can be obtained even when the reset device 10 is provided with a voice recognition function provided between the infrared encoding device 13 and the infrared transmitting device 14 in the device 10. Can be.

【0094】また、上記実施形態及びこの変形例では、
リモコン装置10を視聴者が把持するものとしたが、こ
れに限らず、発話ボタン11、マイクロホン12、赤外
線符号化装置13及び赤外線送出装置14を収容した筐
体と、この筐体に取り付けられ、人間の手首部分に着脱
するためのリストバンド部とを備えたリモコン装置10
に変形しても、本発明と同様の効果を得ることができ、
さらに、リモコン装置を探す手間が省けると共に、腕時
計との融合などにより、使い勝手の向上を図ることがで
きる。
In the above embodiment and this modification,
The remote control device 10 is assumed to be held by the viewer. However, the present invention is not limited to this. A housing containing the utterance button 11, the microphone 12, the infrared encoding device 13, and the infrared transmitting device 14, Remote control device 10 having wristband part for attaching and detaching to and from human wrist
Even if it is transformed to, the same effect as the present invention can be obtained,
Further, the trouble of searching for the remote control device can be omitted, and the usability can be improved by fusing it with a wristwatch.

【0095】また、上記実施形態では、キャラクタを番
組案内時及び日常会話時といった必要な時のみ表示させ
る場合を説明したが、これに限らず、ゲーム市場におけ
る育成ゲームのペット等のソフトウェアにより、キャラ
クタを常時表示させる構成としてもよい。なお、この育
成ゲームの場合、TV番組視聴中にはキャラクタをリモ
コン装置の表示部等に移動させ、番組案内時にはキャラ
クタをTV画面内に戻してもよい。
Further, in the above-described embodiment, the case where the character is displayed only when necessary, such as at the time of program guidance and daily conversation, has been described. However, the present invention is not limited to this. May be displayed at all times. In the case of this training game, the character may be moved to a display unit or the like of the remote control device while watching the TV program, and the character may be returned to the TV screen at the time of program guidance.

【0096】また、各実施形態は可能な限り適宜組み合
わせて実施してもよく、その場合、組み合わされた効果
が得られる。さらに、上記各実施形態には種々の段階の
発明が含まれており、開示される複数の構成用件におけ
る適宜な組み合わせにより種々の発明が抽出され得る。
例えば実施形態に示される全構成要件から幾つかの構成
要件が省略されることで発明が抽出された場合には、そ
の抽出された発明を実施する場合には省略部分が周知慣
用技術で適宜補われるものである。
Further, the embodiments may be combined as appropriate as far as possible, and in this case, the combined effects can be obtained. Further, the above embodiments include inventions at various stages, and various inventions can be extracted by appropriate combinations of a plurality of disclosed configuration requirements.
For example, when an invention is extracted by omitting some constituent elements from all constituent elements described in the embodiment, when implementing the extracted invention, the omitted part is appropriately supplemented by well-known conventional techniques. It is something to be done.

【0097】その他、本発明はその要旨を逸脱しない範
囲で種々変形して実施できる。
In addition, the present invention can be variously modified and implemented without departing from the gist thereof.

【0098】[0098]

【発明の効果】以上説明したように本発明によれば、機
械操作の不慣れな人にも容易に操作できるように、操作
性を向上させることができる。
As described above, according to the present invention, the operability can be improved so that a person unfamiliar with machine operation can easily operate the machine.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態に係る対人会話型ナビゲー
ション装置及びその周辺構成を示す模式図
FIG. 1 is a schematic diagram showing an interpersonal conversational navigation device according to an embodiment of the present invention and its peripheral configuration.

【図2】同実施形態における認識用音声DBを説明する
ための模式図
FIG. 2 is a schematic diagram illustrating a recognition voice DB according to the embodiment;

【図3】同実施形態におけるキャラクタ動作DBを説明
するための模式図
FIG. 3 is a schematic diagram for explaining a character motion DB according to the embodiment;

【図4】同実施形態におけるキャラクタ音声DBを説明
するための模式図
FIG. 4 is a schematic diagram for explaining a character voice DB in the embodiment.

【図5】同実施形態における番組案内データ及び推奨番
組データを説明するための模式図
FIG. 5 is a schematic diagram for explaining program guide data and recommended program data in the embodiment.

【図6】同実施形態におけるソフトウェア構成例を説明
するための模式図
FIG. 6 is a schematic diagram illustrating an example of a software configuration according to the embodiment;

【図7】同実施形態における動作を説明するためのフロ
ーチャート
FIG. 7 is a flowchart for explaining the operation in the embodiment;

【図8】同実施形態における動作を説明するための模式
FIG. 8 is a schematic diagram for explaining the operation in the embodiment.

【図9】同実施形態における動作を説明するための模式
FIG. 9 is a schematic diagram for explaining the operation in the embodiment.

【図10】同実施形態におけるキャラクタの動作データ
を説明するための模式図
FIG. 10 is a schematic diagram for explaining motion data of the character in the embodiment.

【図11】同実施形態における文字データとフキダシデ
ータの組合せ及び推奨番組データを説明するための模式
FIG. 11 is a schematic diagram for explaining a combination of character data and balloon data and recommended program data in the embodiment.

【図12】同実施形態におけるTV放送の元画面を説明
するための模式図
FIG. 12 is a schematic diagram for explaining an original screen of a TV broadcast in the embodiment.

【図13】同実施形態における合成後のTV画面を説明
するための模式図
FIG. 13 is a schematic diagram for explaining a TV screen after composition in the embodiment.

【符号の説明】[Explanation of symbols]

10…リモコン装置 11…発話ボタン 12…マイクロホン 13…赤外線符号化装置 14…赤外線送出装置 20…セットトップボックス 21…認識用音声DB 22a…キャラクタ動作DB 22b…キャラクタ音声DB 23…グラフィックスライブラリ 24…EPG用DB 25…赤外線受信装置 26…音声認識装置 27…ナビゲーションアプリケーション 28…TV制御装置 29…映像・音声ミキシング装置 30…TV装置 31…TVアンテナ D1…動作データD1 D2…文字データD2 D3…フキダシデータD3 D4…推奨番組データD4 D5…元画面 D6…TV画面 REFERENCE SIGNS LIST 10 remote control device 11 utterance button 12 microphone 13 infrared encoder 14 infrared transmitter 20 set-top box 21 recognition voice DB 22 a character motion DB 22 b character voice DB 23 graphics library 24 EPG DB 25 ... Infrared receiver 26 ... Speech recognition device 27 ... Navigation application 28 ... TV control device 29 ... Video / sound mixing device 30 ... TV device 31 ... TV antenna D1 ... Operation data D1 D2 ... Character data D2 D3 ... Bubble Data D3 D4 ... Recommended program data D4 D5 ... Original screen D6 ... TV screen

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 TV装置に接続又は搭載され、前記TV
装置のTV画面上でTV番組を案内するための対人会話
型ナビゲーション装置であって、 音声入力された言語に基づいて、前記TV画面の映像デ
ータと番組案内データ又は推奨番組データとを合成する
対人会話型ナビゲーション装置。
1. A TV connected to or mounted on a TV device,
An interpersonal conversational navigation device for guiding a TV program on a TV screen of the device, the interpersonal navigation device synthesizing video data of the TV screen with program guide data or recommended program data based on a language input by voice. Interactive navigation device.
【請求項2】 請求項1に記載の対人会話型ナビゲーシ
ョン装置において、 前記言語の認識結果毎に、所定のキャラクタ動作を表示
するための動作データが登録されたキャラクタ動作デー
タベースと、 前記言語の認識結果毎に、所定のキャラクタ音声を出力
するための音声データが登録されたキャラクタ音声デー
タベースと、 前記音声入力された言語を認識するための音声認識手段
と、 前記音声認識手段による認識結果に基づいて、予め配信
された番組案内データ又は推奨番組データを選択し、前
記キャラクタ動作データベースから動作データを選択す
ると共に、前記キャラクタ音声データベースから音声デ
ータを選択するデータ選択手段と、 前記データ選択手段により選択された動作データと番組
案内データ又は推奨番組データとを各々TV画面の映像
データに合成し、合成結果を出力する画面合成手段と、 前記データ選択手段により選択された音声データを現在
のTV音声データに合成又は交替して出力する音声合成
手段とを備えたことを特徴とする対人会話型ナビゲーシ
ョン装置。
2. The interpersonal interactive navigation device according to claim 1, wherein a character motion database in which motion data for displaying a predetermined character motion is registered for each of the language recognition results, and the language recognition. For each result, a character voice database in which voice data for outputting a predetermined character voice is registered, a voice recognition unit for recognizing the language in which the voice is input, and a recognition result obtained by the voice recognition unit Data selection means for selecting pre-distributed program guide data or recommended program data, selecting motion data from the character motion database, and selecting voice data from the character voice database; Action data and program guide data or recommended program data Screen synthesizing means for synthesizing video data of the V screen and outputting a synthesis result; and voice synthesizing means for synthesizing or replacing the audio data selected by the data selecting means with current TV audio data and outputting the same. An interpersonal conversational navigation device characterized by the following.
【請求項3】 請求項2に記載の対人会話型ナビゲーシ
ョン装置において、 前記音声認識手段は、前記音声入力された言語に対し、
予め登録された複数の言語のうち、最も近い言語を認識
結果とすることにより、異句同意表現の複数の言語に対
し、同一の認識結果を得ることを特徴とする対人会話型
ナビゲーション装置。
3. The interpersonal conversational navigation device according to claim 2, wherein the voice recognition unit is configured to:
An interpersonal conversational navigation apparatus characterized in that the closest language among a plurality of languages registered in advance is used as a recognition result, so that the same recognition result is obtained for a plurality of languages having a consonant expression.
【請求項4】 請求項2又は請求項3に記載の対人会話
型ナビゲーション装置において、 前記データ選択手段は、前記音声認識手段による認識結
果に基づいて、前記番組案内データを部分的に選択する
ことを特徴とする対人会話型ナビゲーション装置。
4. The interpersonal navigation device according to claim 2, wherein the data selection unit partially selects the program guide data based on a recognition result by the voice recognition unit. A personal conversational navigation device characterized by the following.
【請求項5】 請求項2乃至請求項4のいずれか1項に
記載の対人会話型ナビゲーション装置において、 前記キャラクタ音声データベースは、前記番組案内デー
タ又は推奨番組データに関する音声データと、日常会話
に関する音声データとが登録されていることを特徴とす
る対人会話型ナビゲーション装置。
5. The interpersonal conversation type navigation device according to claim 2, wherein the character voice database includes voice data relating to the program guide data or recommended program data and voice relating to daily conversation. An interpersonal navigation device characterized in that data and data are registered.
【請求項6】 請求項2乃至請求項5のいずれか1項に
記載の対人会話型ナビゲーション装置において、 前記キャラクタ動作は、少なくとも目又は口を有するキ
ャラクタに関する動作であることを特徴とする対人会話
型ナビゲーション装置。
6. The interpersonal conversation type navigation device according to claim 2, wherein the character operation is an operation relating to a character having at least eyes or a mouth. Type navigation device.
【請求項7】 請求項1乃至請求項6のいずれか1項に
記載の対人会話型ナビゲーション装置に用いられるリモ
コン装置であって、 音声入力された言語を電気信号に変換するマイクロホン
と、 前記マイクロホンにより得られた電気信号を符号化し、
この符号化結果に基づいて赤外線信号を送信する赤外線
送信手段と、 を備えたことを特徴とするリモコン装置。
7. The remote control device used in the interpersonal navigation device according to claim 1, wherein the microphone converts a speech input language into an electric signal, and the microphone. Encoding the electrical signal obtained by
A remote control device, comprising: an infrared transmitting unit that transmits an infrared signal based on the encoding result.
【請求項8】 請求項7に記載のリモコン装置におい
て、 前記マイクロホン及び前記赤外線送信手段を収容した筐
体と、 前記筐体に取り付けられ、人間の手首部分に着脱するた
めのリストバンド部を備えたことを特徴とするリモコン
装置。
8. The remote control device according to claim 7, further comprising: a housing accommodating the microphone and the infrared transmitting means; and a wristband unit attached to the housing and attached to and detached from a human wrist. A remote control device, characterized in that:
JP2001132952A 2001-04-27 2001-04-27 Personal interactive type navigation system Pending JP2002330365A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001132952A JP2002330365A (en) 2001-04-27 2001-04-27 Personal interactive type navigation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001132952A JP2002330365A (en) 2001-04-27 2001-04-27 Personal interactive type navigation system

Publications (1)

Publication Number Publication Date
JP2002330365A true JP2002330365A (en) 2002-11-15

Family

ID=18980892

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001132952A Pending JP2002330365A (en) 2001-04-27 2001-04-27 Personal interactive type navigation system

Country Status (1)

Country Link
JP (1) JP2002330365A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006330486A (en) * 2005-05-27 2006-12-07 Kenwood Corp Speech synthesizer, navigation device with same speech synthesizer, speech synthesizing program, and information storage medium stored with same program
JP2008219285A (en) * 2007-03-01 2008-09-18 Nintendo Co Ltd Video content display program and video content display device
JP2010177939A (en) * 2009-01-28 2010-08-12 Nintendo Co Ltd Information processing system, program and information processing device
JP2012157064A (en) * 2010-12-28 2012-08-16 Sharp Corp Program information notification device, television receiver, program information notification method, program information notification program and recording medium
JP2015220698A (en) * 2014-05-21 2015-12-07 株式会社ソニー・コンピュータエンタテインメント Information processing apparatus and information processing method
US9415302B2 (en) 2009-01-28 2016-08-16 Nintendo Co., Ltd. Storage medium for storing program capable of improving degree of freedom and effect of content provided by sponsor and information processing device
US9492754B2 (en) 2009-01-28 2016-11-15 Nintendo Co., Ltd. Method, system, and storage medium for displaying distributed media content in a calendar screen
WO2018097089A1 (en) * 2016-11-24 2018-05-31 Groove X株式会社 Autonomously acting robot changing pupils
JP2018147455A (en) * 2017-03-07 2018-09-20 シャープ株式会社 Display device, television receiver, display control method, display control program, control apparatus, control method, control program, and recording medium
US10311447B2 (en) 2009-01-28 2019-06-04 Nintendo Co., Ltd. Storage medium for storing program capable of ensuring that evaluation of content is made after watching thereof, information processing device, and information processing system

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006330486A (en) * 2005-05-27 2006-12-07 Kenwood Corp Speech synthesizer, navigation device with same speech synthesizer, speech synthesizing program, and information storage medium stored with same program
JP2008219285A (en) * 2007-03-01 2008-09-18 Nintendo Co Ltd Video content display program and video content display device
US9827497B2 (en) 2009-01-28 2017-11-28 Nintendo Co., Ltd. Information processing system relating to content distribution, storage medium for storing program directed thereto, and information processing device
US10311447B2 (en) 2009-01-28 2019-06-04 Nintendo Co., Ltd. Storage medium for storing program capable of ensuring that evaluation of content is made after watching thereof, information processing device, and information processing system
US9199171B2 (en) 2009-01-28 2015-12-01 Nintendo Co., Ltd. Information processing system relating to content distribution, storage medium for storing program directed thereto, and information processing device
JP2010177939A (en) * 2009-01-28 2010-08-12 Nintendo Co Ltd Information processing system, program and information processing device
US9415302B2 (en) 2009-01-28 2016-08-16 Nintendo Co., Ltd. Storage medium for storing program capable of improving degree of freedom and effect of content provided by sponsor and information processing device
US9492754B2 (en) 2009-01-28 2016-11-15 Nintendo Co., Ltd. Method, system, and storage medium for displaying distributed media content in a calendar screen
JP2012157064A (en) * 2010-12-28 2012-08-16 Sharp Corp Program information notification device, television receiver, program information notification method, program information notification program and recording medium
JP2015220698A (en) * 2014-05-21 2015-12-07 株式会社ソニー・コンピュータエンタテインメント Information processing apparatus and information processing method
WO2018097089A1 (en) * 2016-11-24 2018-05-31 Groove X株式会社 Autonomously acting robot changing pupils
JPWO2018097089A1 (en) * 2016-11-24 2019-02-28 Groove X株式会社 Autonomous robot that changes eyes
GB2571027A (en) * 2016-11-24 2019-08-14 Groove X Inc Autonomously acting robot changing pupils
GB2571027B (en) * 2016-11-24 2022-08-10 Groove X Inc Autonomously acting robot that changes pupil
US11623347B2 (en) 2016-11-24 2023-04-11 Groove X, Inc. Autonomously acting robot that changes pupil image of the autonomously acting robot
JP2018147455A (en) * 2017-03-07 2018-09-20 シャープ株式会社 Display device, television receiver, display control method, display control program, control apparatus, control method, control program, and recording medium

Similar Documents

Publication Publication Date Title
US11172260B2 (en) Speech interface
JP3644955B2 (en) Conversation device, conversation master device, conversation slave device, conversation control method, and conversation control program
US5815196A (en) Videophone with continuous speech-to-subtitles translation
US7221405B2 (en) Universal closed caption portable receiver
EP3633671B1 (en) Audio guidance generation device, audio guidance generation method, and broadcasting system
KR100474252B1 (en) system for providing electronics program guide and method thereof
CA2754173C (en) Adaptive videodescription player
JP2002041276A (en) Interactive operation-supporting system, interactive operation-supporting method and recording medium
CA2398875A1 (en) Apparatus and methods for providing television speech in a selected language
JP2002330365A (en) Personal interactive type navigation system
US20080300012A1 (en) Mobile phone and method for executing functions thereof
KR100669269B1 (en) Television broadcast transmitter/receiver and method of transmitting/receiving a television broadcast
CN115359796A (en) Digital human voice broadcasting method, device, equipment and storage medium
JP2004177712A (en) Apparatus and method for generating interaction script
JP2002108601A (en) Information processing system, device and method
JP4326686B2 (en) Broadcast program character information distribution system, broadcast program character information distribution server, and broadcast program character information distribution method
JP2002305697A (en) Audio providing device for electronic program guide and its audio receiver
JP2006048218A (en) Voice moving image responding method and voice moving image responding system
WO2006135191A1 (en) Character input method to use return path server of interactive tv
JPH10322617A (en) Audio/video device
CN114898683A (en) Immersive reading implementation method and system, terminal equipment and storage medium
JP2006010845A (en) Synthesized speech uttering device and program thereof, and data set generating device for speech synthesis, and program thereof
KR20090074659A (en) Method of offering a caption information
JP2000217045A (en) Program reception terminal device
JP2002247531A (en) Image processing system