JP2001296881A - 情報処理装置および方法、並びに記録媒体 - Google Patents

情報処理装置および方法、並びに記録媒体

Info

Publication number
JP2001296881A
JP2001296881A JP2000112872A JP2000112872A JP2001296881A JP 2001296881 A JP2001296881 A JP 2001296881A JP 2000112872 A JP2000112872 A JP 2000112872A JP 2000112872 A JP2000112872 A JP 2000112872A JP 2001296881 A JP2001296881 A JP 2001296881A
Authority
JP
Japan
Prior art keywords
voice
user interface
command
electronic device
definition information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000112872A
Other languages
English (en)
Inventor
Masato Shimakawa
真人 島川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000112872A priority Critical patent/JP2001296881A/ja
Priority to US09/834,504 priority patent/US6993486B2/en
Publication of JP2001296881A publication Critical patent/JP2001296881A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2816Controlling appliance services of a home automation network by calling their functionalities
    • H04L12/282Controlling appliance services of a home automation network by calling their functionalities based on user interaction within the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/30User interface
    • G08C2201/31Voice input
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Abstract

(57)【要約】 【課題】 音声認識装置と音声入力インターフェースを
統一して、音声コマンドによりネットワーク上の複数の
電子機器を制御できるようにする。 【解決手段】 音声UI定義管理部32は、音声UI定義情
報を取得し、XMLパーサ22aおよび音声認識辞書生成
部22bを介して、音声UI定義情報記憶部41に音声
認識辞書を記憶させる。音声認識制御部24aは、音声
入力部2から入力される音声コマンドを、音声認識辞書
を参照して認識し、候補となるUIコマンドをUIコマンド
決定部24に出力する。UIコマンド決定部24は、UIコ
マンド履歴を参照し、所定のUIコマンドを選択して、IE
EE1394AV/Cコマンド変換部25に出力する。IEEE1394AV
/Cコマンド変換部25は、入力されたUIコマンドをAV/C
コマンドに変換し、所定の電子機器に出力する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、情報処理装置およ
び方法、並びに記録媒体に関し、特に、単一の音声認識
装置と統一されたユーザインタフェースにより、複数の
電子機器を統合して制御できるようにした情報処理装置
および方法、並びに記録媒体に関する。
【0002】
【従来の技術】音声によりコマンドを送り、電子機器を
制御する音声認識技術が普及しつつある。音声認識技術
とは、ユーザが発する音声が、どのような言葉であるの
かを認識する技術であり、例えば、この認識された言葉
に対応するコマンドに基づいて、電子機器を制御する装
置などに応用されている。
【0003】例えば、カーナビゲーション装置などに使
用する場合、ユーザが、そのマイクロフォンなどのユー
ザインタフェース装置に、音声コマンドとして「しんじ
ゅく」を入力すると、カーナビゲーション装置は、マイ
クロフォンから入力された音声を、内蔵された音声認識
装置で解析し、入力された音声が「新宿」という言葉で
あり、これが地名であることを認識する。カーナビゲー
ション装置は、予め設定されたプログラムにより、認識
した地名である「新宿」を目的地としたルート探索を実
行し、現在位置から最適なルートを探索して、表示す
る。
【0004】
【発明が解決しようとする課題】しかしながら、上記の
ような構成では、個々の電子機器に音声認識装置を内蔵
させ、個別にユーザからの指示を受付ける形態がとられ
ているため、複数の電子機器を音声により制御する場
合、制御したい電子機器の数だけ、音声認識装置を設け
る必要があり、現実的な装置を構成することができない
という課題があった。
【0005】また、この課題を解決する為に、音声認識
装置をネットワーク上に設けることが提案されたが、例
えば、マイクロフォンなどのユーザインタフェース自体
は、各電子機器に設けられる必要があるので、統一的な
ユーザインタフェースを実現することが困難であるとい
う課題があった。
【0006】さらに、新たな電子機器を設けようとする
と、対応する音声認識装置およびインタフェース装置を
新たに設けなければならないという課題があった。
【0007】さらにまた、上記の構成では、個々の電子
機器に内蔵された音声認識装置により、個別にユーザか
らの指示を受付けるようにされているため、ユーザイン
タフェースが不統一になると共に、複数機器を統合した
コントロールが不可能であるという課題があった。
【0008】本発明はこのような状況に鑑みてなされた
ものであり、単一の音声認識装置と統一されたユーザイ
ンタフェースにより、複数の電子機器を統合して制御で
きるようにするものである。
【0009】
【課題を解決するための手段】本発明の情報処理装置
は、ネットワークに接続された電子機器を制御するユー
ザインタフェースコマンドと、ユーザにより入力される
音声コマンドとの対応関係が定義された音声ユーザイン
タフェース定義情報を取得する音声ユーザインタフェー
ス定義情報取得手段と、音声ユーザインタフェース定義
情報取得手段により取得された音声ユーザインタフェー
ス定義情報を記憶する記憶手段と、ユーザにより入力さ
れた電子機器を制御する音声コマンドを認識する音声認
識手段と、音声認識手段により認識された音声コマンド
に対応するユーザインタフェースコマンドを、記憶手段
により記憶された音声ユーザインタフェース定義情報に
基づいて決定する決定手段と、決定手段により決定され
たユーザインタフェースコマンドにより、電子機器を制
御する制御手段とを備えることを特徴とする。
【0010】前記音声ユーザインタフェース定義情報
は、電子機器のID情報に対応させるようにすることがで
きる。
【0011】前記音声ユーザインタフェース定義情報に
は、電子機器の動作状態毎に対応可能な、音声コマン
ド、ユーザインタフェースコマンド、および、ユーザイ
ンタフェースコマンドに対応した動作をしたときの動作
状態の遷移先の情報を含ませるようにすることができ
る。
【0012】前記決定手段には、電子機器の動作状態を
認識する動作状態認識手段をさらに設けることができ、
動作状態認識手段により認識した電子機器の動作状態に
基づいて、音声認識手段により認識された音声コマンド
に対応するユーザインタフェースコマンドを、音声ユー
ザインタフェース定義情報に基づいて決定するようにさ
せることができる。
【0013】前記電子機器のID情報を取得するID情報取
得手段をさらに設けることができ、音声ユーザインタフ
ェース定義情報取得手段には、ID情報取得手段により取
得された電子機器のID情報に基づいて、対応する音声ユ
ーザインタフェース定義情報を取得させるようにするこ
とができる。
【0014】前記ID情報には、ノードID、機器ID、機種
ID、または、機器タイプIDを含ませるようにすることが
できる。
【0015】ここでノードIDとはネットワーク上で個々
の機器を識別するためのID,機器IDとは製造番号のよう
な機器の個体毎に設けられたID, 機種IDとは型名のよう
な同じ機能を持つ機器の集合に対応して設けられたID,
機器タイプIDとは例えばTV,ビデオなどのように同種の
機能を持つ機器ごとに設定されたIDを示す。
【0016】前記音声ユーザインタフェース定義情報取
得手段には、ノードID, 機器ID、機種ID、機器タイプID
の順位で、機器に対応する音声ユーザインタフェース定
義情報の取得を試みさせるようにすることができる。
【0017】前記ネットワークに接続された電子機器の
接続状態を検出する接続状態検出手段をさらに設けるこ
とができ、音声ユーザインタフェース定義情報取得手段
には、接続状態検出手段により検出された電子機器の接
続状態に基づいて、音声ユーザインタフェース定義情報
取得及び破棄を行うようにさせることができる。
【0018】前記ネットワークに接続された電子機器を
選択する選択手段をさらに設けることができ、決定手段
には、選択手段により選択された電子機器に対する音声
ユーザインタフェース定義情報のみに基づいて決定させ
るようにすることができる。
【0019】決定手段により検索されたユーザインタフ
ェースコマンドを履歴として記憶するユーザインタフェ
ースコマンド履歴記憶手段をさらに設けることができ、
決定手段により決定されたユーザインタフェースコマン
ドにより制御すべき、ネットワークに接続された電子機
器が特定できない場合、ユーザに電子機器を問い合わ
せ、問い合わせ結果に基づく電子機器を制御するか、ま
たは、ユーザインタフェースコマンド履歴記憶手段によ
り記憶された、最近制御された電子機器を制御するよう
にすることができる。
【0020】また、任意に音声ユーザインタフェース定
義情報を生成する音声ユーザインタフェース定義情報生
成手段をさらに設けることができ、音声ユーザインタフ
ェース定義情報取得手段には、インターネット上のサー
バ、記録媒体、または、音声ユーザインタフェース定義
情報生成手段より音声ユーザインタフェース定義情報を
取得させるようにすることができる。
【0021】本発明の情報処理方法は、ネットワークに
接続された電子機器を制御するユーザインタフェースコ
マンドと、ユーザにより入力される音声コマンドとの対
応関係が定義された音声ユーザインタフェース定義情報
を取得する音声ユーザインタフェース定義情報取得ステ
ップと、音声ユーザインタフェース定義情報取得ステッ
プの処理で取得された音声ユーザインタフェース定義情
報を記憶する記憶ステップと、ユーザにより入力された
電子機器を制御する音声コマンドを認識する音声認識ス
テップと、音声認識ステップの処理で認識された音声コ
マンドに対応するユーザインタフェースコマンドを、記
憶ステップの処理で記憶された音声ユーザインタフェー
ス定義情報に基づいて決定する決定ステップと、決定ス
テップの処理で決定されたユーザインタフェースコマン
ドにより、電子機器を制御する制御ステップとを含むこ
とを特徴とする。
【0022】本発明の記録媒体のプログラムは、ネット
ワークに接続された電子機器を制御するユーザインタフ
ェースコマンドと、ユーザにより入力される音声コマン
ドとの対応関係が定義された音声ユーザインタフェース
定義情報の取得を制御する音声ユーザインタフェース定
義情報取得制御ステップと、音声ユーザインタフェース
定義情報取得制御ステップの処理で取得された音声ユー
ザインタフェース定義情報の記憶を制御する記憶制御ス
テップと、ユーザにより入力された電子機器を制御する
音声コマンドの認識を制御する音声認識制御ステップ
と、音声認識制御ステップの処理で認識された音声コマ
ンドに対応するユーザインタフェースコマンドの、記憶
ステップの処理で記憶された音声ユーザインタフェース
定義情報に基づく決定処理を制御する決定制御ステップ
と、決定制御ステップの処理で決定されたユーザインタ
フェースコマンドにより、電子機器を制御する制御ステ
ップとを含むことを特徴とする。
【0023】本発明の情報処理装置および方法、並びに
記録媒体においては、ネットワークに接続された電子機
器を制御するユーザインタフェースコマンドと、ユーザ
により入力される音声コマンドとの対応関係が定義され
た音声ユーザインタフェース定義情報が取得され、取得
された音声ユーザインタフェース定義情報が記憶され、
ユーザにより入力された電子機器を制御する音声コマン
ドが認識され、認識された音声コマンドに対応するユー
ザインタフェースコマンドが、記憶された音声ユーザイ
ンタフェース定義情報かに基づき決定され、検索された
ユーザインタフェースコマンドにより、電子機器が制御
される。
【0024】
【発明の実施の形態】図1は、本発明に係る音声認識装
置1の一実施の形態の構成を示す図である。音声認識装
置1のIEEE(Institute of Electrical and Electronic
Engineers)1394ネットワークコントローラ21は、IE
EE1394ネットワーク3のインタフェースとして機能し、
IEEE1394ネットワーク3に接続されたテレビジョン受像
機(TV)4、セットトップボックス(Set Top Box:ST
B)5、DVD(Digital VersatileDisk)記録再生装置(D
VD)6、および、DVC(Digital Video Camera)7と、
データを授受する。
【0025】IEEE1394ネットワークコントローラ21に
は、機器接続検出部21aが設けられており、IEEE1394
ネットワーク3上に接続された電子機器の1394Node ID
を検出し、音声UI(User Interface)定義管理部32に
出力する。
【0026】音声UI定義管理部32は、利用する音声UI
定義情報の追加・削除に関する全体の動作を制御してい
る。また、音声UI定義管理部32は、機器接続検出部2
1aより入力された1394Node IDに基づいて、IEEE1394
ネットワーク上に接続された電子機器の接続状態を把握
する。さらに、音声UI定義管理部32は、音声UI定義
情報変換部22に対して、テキスト形式のXML(eXtensi
ble Markup Language)で記述された音声UI定義情報
を、IEEE1394ネットワーク3上のTV4、STB5、DVD6、
DVC7から取得したり、ネットワークコントローラ27
およびTCP/IPネットワーク(インターネット)8を介し
てWWW(World Wide Web)サーバ9から取得したり、ド
ライブ28に装着された磁気ディスク101、光ディス
ク102、光磁気ディスク103、または、半導体メモ
リ104から取得したり、ROM26、HDD(Hard Disk Dr
ive)29、音声UI定義情報生成部30から取得するよ
うに指示をする。また、このとき音声UI定義管理部32
は同時に機器接続検出部21aからの電子機器の各種 I
Dも供給する。音声UI定義情報は、電子機器の動作状態
毎に、受付ける音声コマンドと、それに対応するUIコマ
ンドを決定するための情報を記録したものである。尚、
XMLについては、後述する。
【0027】XMLパーサ22aは、音声UI定義管理部3
2から供給され、XMLで記述された音声UI定義情報を解
釈し、その解釈結果を、音声UI定義管理部32から供給
されたID情報と共に、音声認識辞書生成部22bに出力
する。
【0028】音声認識辞書生成部22bは、XMLパーサ
22aから供給された音声UIファイルの解釈結果と、電
子機器の1394Node IDに基づいて、音声認識辞書41a,
41b, 41c, 41dを生成し、音声UI定義情報記憶
部41に出力する。音声認識辞書は、音声UI定義情報に
基づいて、各電子機器毎に生成され、その電子機器の動
作状態毎に、受付ける音声コマンドと、それに対応する
UIコマンドを決定するための情報を記録した内容を、後
述する音声認識制御部24aが音声認識の際に利用する
フォーマットに変換したものである。尚、音声認識辞書
については後述する。
【0029】音声認識部23の音声UI定義情報記憶部
41は、音声UI定義管理部32により制御され、音声
UI定義情報変換部22の音声認識辞書生成部22bから
供給された音声認識辞書41を、対応するそれぞれの電
子機器の1394Node IDと共に記憶する。
【0030】音声認識制御部24aは音声認識部23の
全体の動作を制御している。音声認識制御部24aは音
声認識辞書を用いて、HMM(Hidden Markov Model:隠れ
マルコフモデル)と呼ばれる音声認識手法により、音声
入力部2のマイクロフォン(MIC)2bから無線通信部
2a,31を介して入力される音声コマンドを認識す
る。なお、音声認識方法は、HMM以外の方法であっても
よい。
【0031】さらに、音声認識制御部24aは音声コマ
ンドを送る電子機器が指定された場合については、機器
のID情報に基づいて、音声認識辞書として使用する辞書
を、対応する音声認識辞書のみを使用するように制限す
る。
【0032】さらにまた、音声認識制御部24aは、認
識された音声コマンドの候補となる音声認識結果のう
ち、上位10位までの候補をUIコマンド決定部24に出
力する。尚、この例においては、音声認識制御部24a
は、音声認識結果のうち、上位10位までの候補をUIコ
マンド決定部24bに出力するようにしているが、上位
何位までを出力させるかは、任意に設定できるようにし
てもよい。
【0033】UIコマンド決定部24bは、音声認識制御
部24aより入力された音声認識結果の上位10位まで
の候補を必要に応じてUIコマンド履歴24cに照合し、
最適とされる音声認識結果をUIコマンドとして決定す
る。UIコマンド決定部24bは、その決定されたUIコマ
ンドをIEEE1394AV/Cコマンド変換部25に出力する。
【0034】IEEE1394AV/Cコマンド変換部25は、UIコ
マンド決定部24bから入力されたUIコマンドをAV/Cコ
マンドに変換し、IEEE1394ネットワークコントローラ2
1およびIEEE 1394ネットワーク3を介して、所定の電
子機器に出力する。
【0035】ROM26には、XMLで記述された、各電子機
器に共通な、必要最低限のコマンドが記述された音声UI
定義情報が、データベースとして記録されている。音声
UI定義管理部32は、他の方法によって対応する音声U
I定義情報を取得できないときには、機器接続検出部2
1aからのID情報に基づいて、ROM26に記録された音
声UI定義情報を取得するように音声UI定義情報変換部
22に指示を行う。
【0036】ネットワークコントローラ27は、音声UI
定義管理部32の指示に基づいて音声UI定義情報変換
部22によって制御され、TCP/IPネットワーク(インタ
ーネット)8を介して、所定のWWWサーバ9にアクセス
し、WWWサーバ9のHDD9aに記録された、電子機器の音
声UI定義情報を取得する。
【0037】ドライブ28は、音声UI定義管理部32の
指示に基づいて音声UI定義情報変換部22によって制
御され、装着される磁気ディスク101、光ディスク1
02、光磁気ディスク103、または、半導体メモリ1
04に記録された、電子機器の音声UI定義情報を読み出
す。HDD29は、音声UI定義管理部32の指示に基づい
て音声UI定義情報変換部22によって制御され、記録
された音声UI定義情報を読み出す。また、磁気ディスク
101、光ディスク102、光磁気ディスク103、半
導体メモリ104、HDD29には、IEEE1394ネットワー
クコントローラ21、または、ネットワークコントロー
ラ27を介して、音声UI定義情報変換部22に読み込ま
れた音声UI定義情報を記録し、再び、必要に応じてそれ
を読み出すようにしてもよい。
【0038】ユーザ問い合せ型の音声UI定義情報生成部
30は、上記のいずれの方法でも、音声UI定義情報が入
手できない場合、または、ユーザが特に音声UI定義情報
を生成できるように設定された場合に使用され、音声入
力部2の液晶表示部2cに音声UI定義情報のエディタを
表示させ、ユーザの、MIC2bからの入力や選択ボタン
2dの操作に基づいて音声UI定義情報を生成し、無線通
信部2a,31を介して入力された信号に基づいて、音
声UI定義情報変換部22に出力する。
【0039】音声認識装置を使用するユーザにより保持
される音声入力部2では、MIC2bから入力される各種
の音声コマンドや、選択ボタン2dが操作されることに
より発生される信号が、無線通信部2aを介して、無線
で音声認識装置1の無線通信部31に出力される。ま
た、音声入力部2の液晶表示部2cは、音声UI定義情報
を生成するエディタを表示する。ユーザは、この表示に
基づいて、音声UI定義情報を編集し、生成することがで
きる。また、音声入力部2の液晶表示部2cには、音声
認識制御部24aにより、特定の電子機器に対するUIコ
マンドが特定できなかった場合、その候補となる電子機
器が表示される。この表示により、ユーザは、選択ボタ
ン2dを操作して、UIコマンドの対象となる電子機器を
特定することができる。
【0040】IEEE1394ネットワーク3に接続されたTV
4、STB5、DVD6、および、DVC7には、CPU(Central
Processing Unit)、記憶部(HDDやメモリなど)、およ
び、通信部(いずれも図示せず)が設けられており、各
電子機器は、そのCPUにより制御され、IEEE1394ネット
ワーク3を介して、TV4の記憶部に記憶されている1394
Node ID4a、機器ID4b、機種ID4c、または、機器
タイプID4d、STB5の記憶部に記憶されている1394Nod
e ID5a、機器ID5b、機種ID5c、または、機器タイ
プID5d、DVD6の記憶部に記憶されている1394Node ID
6a、機器ID6b、機種ID6c、機器タイプID6d、ま
たは、音声UI定義情報6e、DVC7の記憶部に記憶され
ている1394Node ID7a、機器ID7b、機種ID7c、ま
たは、機器タイプID7dを、それぞれ、(IEEE1394ネッ
トワークに対応した)通信部から、IEEEネットワーク3
を介して、音声認識装置1のIEEE1394ネットワークコン
トローラ21に送信する。
【0041】1394Node ID4a乃至7aは、IEEE1394ネ
ットワーク3上のIDであり、IEEE1394ネットワーク3に
接続される毎に(バスリセットされる毎に)付されるID
である。機器IDは、各電子機器を認識する為のIDであ
り、例えば製造メーカや型式番号、製造番号などの組み
合わせによって構成され、その電子機器を一意に決定す
ることを可能とする。この例においては、IEEE1394ネッ
トワーク3によりネットワークが構成されているので、
各種の処理では、1394Node IDが使用されているが、例
えば、機器を接続するネットワークが、IEEE1394ネット
ワーク3以外のもので構成された場合、機器IDを各電
子機器を認識するIDとして使用してもよい。
【0042】機種IDは、各電子機器の機種を認識する為
のIDであり、例えば製造メーカ、型式番号などの組み合
わせによって構成される。機器タイプIDは電子機器の種
別を大まかに分類するためのIDであり、例えば、その電
子機器が、TVであるか、STBであるか、といったことが
認識される。
【0043】この例においては、DVD6にのみ、専用の
音声UI定義情報6eが保持されており、ネットワークを
介してこの音声UI定義情報が直接取得され、その他の
機器については上記ID情報に基づいて適切な音声UI定
義情報を取得することによって動作するようになってい
る。
【0044】次に、音声UI定義情報について説明する。
音声UI定義情報の最も単純な形式は、状態毎に受付可能
な音声コマンド、UIコマンド、および、遷移先State
(状態)の対応関係を組合せにしたものである。図2
は、DVC7の音声UI定義情報の概念図を示している。例
えば、この音声UI定義情報のState0の場合、音声コマ
ンドとして受付可能な音声コマンドは、「電源オン」と
「電源を入れて」の2つである。これらの音声コマンド
が対応するUIコマンドは、いずれも「Power On」であ
る。遷移先Stateに示されるように、DVC7は、「Power
On」の処理を実行すると、その状態は、State0からSta
te1に遷移する。この関係が、図3に示されている。図
3に示すように、このState0の場合、「電源オン」と
「電源を入れて」という音声コマンドに対応した電源を
入れるといった処理ができ、状態は、図中の番号1で示
すように、State0からState1に遷移する。
【0045】また、State1の場合、受付可能な音声コ
マンドは、「電源オフ」、「電源を切って」、および
「再生」である。音声コマンドの「電源オフ」、「電源
を切って」に対応するUIコマンドは、「Power Off」で
あり、音声コマンドの「再生」に対応するUIコマンド
は、「Play」である。DVC7は、「Power Off」を実行す
ると、図中の番号2で示すように、State1からState0
に遷移し、「Play」を実行すると、図中の番号3で示す
ように、State1からState2に遷移する。
【0046】さらに、State2の場合、受付可能な音声
コマンドは、「停止」であり、対応するUIコマンドは、
「Stop」となり、これが実行されると、状態は、図中の
番号4で示すように、State2からState1に遷移する。
【0047】このように、電子機器の状態により、受付
可能な音声コマンドが限定されており、さらに、その音
声コマンドにより、その状態も、決まった状態に遷移す
る。このため、音声認識制御部24aは、音声認識する
際に、この状態に基づいて、その状態でしか受付けられ
ない音声コマンドに関してだけが有効となるように、音
声認識処理を行う。
【0048】次に、この音声UI定義情報を実際に記述す
るためのXMLベースのフォーマットについて説明する。
図2に示すように状態がState0乃至2の場合の音声UI
定義情報をXMLで記述したものを以下に示す。
【0049】 1 <音声UI定義> 2 <定義クラス>機種</定義クラス> 3 <ID>MDX-001</ID> 4 <Date>1999/12/17</Date> 5 <State数>3</State数> 6 <State NO=0> 7 <コマンド> 8 <音声コマンド>電源オン</音声コマンド> 9 <音声コマンド>電源を入れて</音声コマンド> 10 <UIコマンド>Power On</UIコマンド> 11 <遷移先State>1</遷移先State> 12 </コマンド> 13 </State> 14 <State NO=1> 15 <コマンド> 16 <音声コマンド>電源オフ</音声コマンド> 17 <音声コマンド>電源を切って</音声コマンド> 18 <UIコマンド>Power Off</UIコマンド> 19 <遷移先State>0</遷移先State> 20 </コマンド> 21 <コマンド> 22 <音声コマンド>再生</音声コマンド> 23 <UIコマンド>Play</UIコマンド> 24 <遷移先State>2</遷移先State> 25 </コマンド> 26 </State> 27 <State NO=2> 28 <コマンド> 29 <音声コマンド>停止</音声コマンド> 30 <UIコマンド>Stop</UIコマンド> 31 <遷移先State>1</遷移先State> 32 </コマンド> 33 </State> 34 </音声UI定義>
【0050】以上に示すように、XMLは、記述内容を示
すタグと呼ばれる「<」と「>」で囲まれた中に、内容を
表記しており、各コマンドは、<***>と</***>で囲まれ
た中に記述される。例えば、第3行目に示すように、<I
D>と</ID>で囲まれた中に示される内容は、IDであるこ
とを示し、その間に記述された「MDX-001」が、実際のI
Dである。以下に、各行の記述内容について説明する。
【0051】第1行目は、第34行目までに記述されて
いる内容が、音声UI定義情報であることを示している。
第2行目は、この音声UI定義情報が、機種IDに基づいて
定義されているものであることを記述している。第3行
目は、この音声UI定義情報が、機種ID「MDX-001」に、
対応しているものであることを記述している。
【0052】第4行目は、この音声UI定義情報が生成さ
れた日付が、「1999年12月17日」であることを
記述している。第5行目は、この音声UI定義情報で扱う
状態数(State数)を示しており、図2に示したよう
に、ここでは、状態数は、State0乃至2の合計3つの
状態を示すことが記述されている。
【0053】第6行目は、それ以降においては、状態
が、State0である場合に使用されるコマンドについて
記述することを示している。第7行目は、それ以降の行
で、コマンドについて記述することを示している。第8
行目は、State0の状態で、音声コマンドとして「電源
オン」が、受付けられることを記述している。また、第
9行目も、第8行目と同様に、「電源を入れて」が音声
コマンドとして受付けられることを記述している。
【0054】第10行目は、第8行目と第9行目に記述
された「電源オン」、「電源を入れて」の音声コマンド
が、認識されたとき、対応するUIコマンドとして「Powe
r On」が出力されることが記述されている。第11行目
は、「Power On」のコマンドを実行したとき、状態が、
State0からState1に遷移することが記述されている。
第12行目は、第7行目の「コマンド」の記述の括りを
示している。第13行目は、第6行目のState0の場合
の記述の括りを示している。
【0055】第14行目は、状態が、State1の場合に
ついて、以下に記述することを示している。第15行目
は、以下にコマンドについて記述することを示してい
る。第16行目および第17行目は、音声コマンドとし
て「電源オフ」、「電源を切って」が、State1の状態
で受付けられることを記述している。
【0056】第18行目は、音声コマンドとして、「電
源オフ」、「電源を切って」が、認識されたとき、所定
の電子機器に「Power Off」のUIコマンドを出力するこ
とが記述されている。第19行目は、「Power Off」のU
Iコマンドが、実行されたときの状態が、State1からSt
ate0に遷移することが記述されている。第20行目
は、第15行目の「コマンド」の記述の括りを示してい
る。
【0057】第21行目は、以下にコマンドの記述があ
ることを示している。第22行目は、状態が、State1
の場合、音声コマンドとして「再生」が、受付けられる
ことが記述されている。第23行目は、音声コマンドと
して「再生」が、認識されたとき、実行されるUIコマン
ドとして「Play」が出力されることを記述している。第
24行目は、UIコマンド「Play」が、実行されることに
より、状態が、State1からState2に遷移することが記
述されている。第25行目は、第21行目の「コマン
ド」の記述の括りを示している。第26行目は、第14
行目のState1の記述の括りを示している。
【0058】第27行目は、以下にState2の状態の場
合について、記述されていることを示している。第28
行目は、以下にコマンドの記述があることを示してい
る。第29行目は、State2の場合、音声コマンドとし
て「停止」が受付けられることを記述している。第30
行目は、音声コマンドとして「停止」を認識したとき
に、UIコマンドとして「Stop」を出力することを記述し
ている。第31行目は、UIコマンドとして「Stop」を実
行したとき、状態が、State2からState1に遷移するこ
とが記述されている。第32行目は、第28行目の「コ
マンド」の括りを示している。第33行目は、第27行
目のState2の場合の記述の括りを示している。第34
行目は、第1行目の「音声UI定義」の記述の括りを示し
ている。
【0059】音声UI定義情報は、以上のように記述さ
れ、XMLパーサ22aにより認識され、認識結果が音声
認識辞書生成部22bに出力される。音声認識辞書生成
部22bは、この認識結果に基づいて、音声認識制御部
24aが、音声認識の際に使用する認識情報とコマンド
情報を含む内部フォーマットに変換し、電子機器毎に音
声認識辞書として出力する。従って、音声認識制御部2
4aの処理は、この音声UI定義情報に基づいた処理とな
る。
【0060】次に、音声認識辞書について説明する。音
声認識辞書は、上述のように電子機器毎に音声UI定義情
報から生成され、音声認識制御部に適した内部フォーマ
ットに変換されたものである。図1に示すように、音声
認識辞書41a乃至41dは、音声UI定義情報記憶部
41に記憶される。例えば、それぞれ音声認識辞書41
aが、TV4の機器IDに、音声認識辞書41bが、STB5
の機器IDに、音声認識辞書41cが、DVD6の機器ID
に、音声認識辞書41dが、DVC7の機器IDにそれぞれ
対応していた場合、音声認識制御部24aは、音声認識
辞書41a乃至41dに基づいて認識処理を行う。
【0061】次に、図4のフローチャートを参照して、
音声認識装置1が、IEEE1394ネットワーク3に接続され
た電子機器に対応する音声認識辞書を生成する処理につ
いて説明する。
【0062】ステップS1において、音声UI定義管理部
32は、IEEE1394ネットワークコントローラ21の機器
接続検出部21aに、IEEE1394ネットワーク3に接続が
開始された電子機器の有無を問い合わせる。ステップS
1において、機器接続検出部21aから接続が開始され
た電子機器がないとの応答があった場合、その処理は、
ステップS2に進む。
【0063】ステップS2において、音声UI定義管理部
32は、機器接続検出部21aに、接続が解除された電
子機器の有無を問い合わせる。ステップS2において、
接続が解除された電子機器はないと判定された場合、そ
の処理は、ステップS1の処理に戻り、接続が解除され
た電子機器があると判定された場合、その処理は、ステ
ップS3に進む。
【0064】ステップS3において、音声UI定義管理部
32は、接続が解除された電子機器の機器IDを受け取
り、これに基づいて、接続が解除された電子機器の機器
IDに対応する音声認識辞書を音声UI定義情報記憶部か
ら削除し(または、使用不可のフラグを設定し)、ステ
ップS1の処理に戻る。
【0065】ステップS1において、接続を開始した電
子機器があると判定された場合、ステップS4におい
て、音声UI定義管理部32は、IEEE1394ネットワークコ
ントローラ21経由で電子機器の音声UI定義情報が取得
できるか否かを判定する。ステップS4において、IEEE
1394ネットワークコントローラ21経由で、音声UI定義
情報が取得できないとの応答があったと判定された場
合、その処理は、ステップS5に進む。
【0066】ステップS5において、音声UI定義管理部
32は、ネットワークコントローラ27を介して、イン
ターネット8上のWWWサーバ9から音声UI定義情報を
取得できるか否かを判定し、取得できないとの応答があ
ったと判定した場合、その処理は、ステップS6に進
む。
【0067】ステップS6において、音声UI定義管理部
32は、ドライブ28またはHDD29から音声UI定義情
報が取得できるか否かを判定する。ステップS6におい
て、ドライブ28またはHDD29から音声UI定義情報が
取得できないと判定された場合、その処理は、ステップ
S7の処理に進む。
【0068】ステップS7において、音声UI定義管理部
32は、ユーザ問い合せによる音声UI定義情報生成を行
う設定になっているか否かを判定する。ステップS7に
おいて、ユーザ問い合せによる音声UI定義情報生成を行
う設定になっていないと判定された場合、その処理は、
ステップS8に進む。
【0069】ステップS8において、音声UI定義管理部
32は、ROM26に問い合わせ、入手したTVの1394Node
IDに対応する必要最低限の音声UI定義情報を取得し、XM
Lパーサ22aに出力する。ステップS9において、XML
パーサ22aは、入力された音声UI定義情報を解析し、
その解析結果を音声認識辞書生成部22bに出力する。
音声認識辞書生成部22bは、入力された解析結果か
ら、音声認識辞書を生成し、1394Node IDと共に音声認
識部23の音声認識制御部24aに出力する。音声認識
制御部24aは、入力された音声認識辞書を音声UI定
義情報記憶部41に出力し、ステップS1の処理に戻り
それ以降の処理が繰り返される。
【0070】ステップS4において、例えば、DVD6が
接続開始された場合、DVD6は、音声UI定義情報6eを
備えているので、音声UI定義管理部32は、IEEE1394ネ
ットワークコントローラ21から音声UI定義情報が取得
可能であると判定し、その処理は、ステップS11に進
む。
【0071】ステップS11において、音声UI定義管理
部32は、IEEE1394ネットワークコントローラ21を介
してDVD6の音声UI定義情報6eを取得し、XMLパーサ2
2aに出力し、その処理は、ステップS9に進む。
【0072】ステップS5において、ネットワーク上の
WWWサーバ9から音声UI定義情報を取得できると判定
された場合、その処理は、ステップS12に進む。
【0073】ステップS12において、音声UI定義管理
部32は、ネットワークコントローラ27を制御し、TC
P/IPネットワーク(インターネット)8を介して、WWW
サーバ9にアクセスし、そのHDD9aに記録された音声U
I定義情報を取得し、XMLパーサ22aに出力し、その処
理は、ステップS9に進む。
【0074】ステップS6において、ドライブ28また
はHDD29から音声UI定義情報が取得できると判定され
た場合、その処理は、ステップS13に進む。
【0075】ステップS13において、音声UI定義管理
部32は、ドライブ28に装着されている磁気ディスク
101、光ディスク102、光磁気ディスク103、若
しくは、半導体メモリ104、または、HDD29にアク
セスし、音声UI定義情報を取得し、XMLパーサ22aに
出力し、その処理は、ステップS9に進む。
【0076】ステップS7において、ユーザ問い合せに
よる音声UI定義情報を生成させる設定になっている場
合、その処理は、ステップS14に進む。
【0077】ステップS14において、音声UI定義管理
部32は、ユーザ問い合せ型の音声UI定義情報生成部3
0に問い合わせて、音声UI定義情報を生成させる。この
とき、音声UI定義情報生成部30は、無線通信部31,
2aを介して音声入力部2に問い合せ、音声UI定義情報
を生成する為のエディタを液晶表示部2cに表示させ
る。このとき、例えば、図2に示されていたような音声
UI定義情報を生成する場合、図5に示すように、液晶表
示部2cにはエディタが表示され、ユーザは、各状態と
遷移先の関係を音声コマンドとUIコマンドを記述するこ
とで音声UI定義情報を生成する。
【0078】すなわち、図5に示すように、状態(Stat
e)を描き、各種State間を結ぶ矢印により状態遷移を示
す。その際、矢印の傍らに、各状態で受付可能な音声コ
マンドとUIコマンドを併記することで、音声UI定義情報
を生成する。この例に、おいては、この音声UI定義情報
のState0の場合、音声コマンドとして受付可能な音声
コマンドは、「電源オン」と「電源を入れて」の2つで
ある。これらの音声コマンドが対応するUIコマンドは、
いずれも「Power On」である。遷移先Stateに示される
ように、DVC7は、「Power On」の処理を実行すると、
その状態は、State0からState1に遷移する。
【0079】また、State1の場合、受付可能な音声コ
マンドは、「電源オフ」、「電源を切って」、および
「再生」である。音声コマンドの「電源オフ」、「電源
を切って」に対応するUIコマンドは、「Power Off」で
あり、音声コマンドの「再生」に対応するUIコマンド
は、「Play」である。DVC7は、「Power Off」を実行す
ると、State1からState0に遷移し、「Play」を実行す
ると、State1からState2に遷移する。
【0080】さらに、State2の場合、受付可能な音声
コマンドは、「停止」であり、対応するUIコマンドは、
「Stop」となり、これが実行されると、状態は、図中の
番号4で示すように、State2からState1に遷移する。
【0081】その後、生成された音声UI定義情報は、無
線通信部2a,31および音声定義ファイル生成部30
を介して音声UI定義管理部32に出力される。そこで、
音声UI定義管理部32は、取得した音声UI定義情報をXM
Lパーサ22aに出力し、その処理は、ステップS9に
進む。
【0082】次に、図6のフローチャートを参照して、
音声認識処理について説明する。ここで、音声認識装置
1上では、図4のフローチャートの処理により、既に、
IEEE1394ネットワーク3上に接続された各電子機器の音
声認識辞書が、音声UI定義情報記憶部41に記憶され
ているものとする。
【0083】音声入力部2のMIC2bからユーザによ
り、音声コマンドが入力されると処理が開始される。ス
テップS21において、音声認識制御部24aは、無線
通信部31より入力された音声コマンドを、音声UI定
義情報記憶部41に記憶された音声認識辞書41a乃至
dに基づいて認識処理を行い、所定のコマンドとみなさ
れる上位10位までのUIコマンド候補をUIコマンド決定
部24bに出力する。
【0084】ステップS22において、UIコマンド決定
部24bは、対象電子機器とUIコマンドを決定できたが
否かを判定し、対象電子機器とUIコマンドを決定するこ
とができたと判定した場合、その処理は、ステップS2
3に進む。
【0085】ステップS23において、UIコマンド決定
部24bは、所定の電子機器のUIコマンドをIEEE1394AV
/Cコマンド変換部25に出力する。ステップS24にお
いて、IEEE11394AV/Cコマンド変換部25は、入力され
たUIコマンドを、AV/Cコマンドに変換し、IEEE1394ネッ
トワーク3を介して、所定の電子機器に出力する。
【0086】ステップS22において、対象電子機器と
UIコマンドが決定できなかったと判定された場合、ステ
ップS25において、UIコマンド決定部24bは、UIコ
マンドが決定できたか否かを判定し、UIコマンドが決定
できたと判定した場合、すなわち、対象電子機器が、複
数になってしまったような場合、その処理は、ステップ
S26に進む。
【0087】ステップS26において、UIコマンド決定
部24bは、候補となる電子機器を出力する。ステップ
S27において、UIコマンド決定部24bは、無線通信
部31,2aを介して、音声入力部2の液晶表示部2c
に候補となる電子機器として、例えば、DVD6とDVC7が
候補となる電子機器としてあげられた場合、図7に示す
ように、音声入力部2の液晶表示部2cに表示される。
ユーザは、この表示に基づいて、選択ボタン2dを操作
して、「DVD」か「DVC」のいずれかを選択する。この選
択ボタンは、図7に示すようなボタンでもよいし、ま
た、タブレット式のボタンでもよい。さらに、液晶表示
部2cをタッチパネルとして、液晶表示部を触れること
で決定するようにしてもよい。そして、UIコマンド決定
部24bは、候補の電子機器がいずれであるかについて
の選択結果を受信した後、ステップS23以降の処理が
繰り返される。
【0088】ステップS25において、コマンドが決定
できなかったと判定された場合、すなわち、全く認識で
きなかった場合、ステップS28において、音声認識制
御部24aは、再入力を求める表示を音声入力部2の液
晶表示部2cに表示させ、再び、ステップS1以降の処
理を繰り返す。
【0089】ステップS25において、UIコマンドが決
定したと判定された場合、UIコマンド決定部24bは、
UIコマンド履歴を用いて、対象機器を最近使用した電子
機器とするようにしてもよい。
【0090】以上においては、IEEE1394AV/Cコマンド変
換部25は、AV/Cコマンドを生成し、出力するのみであ
るが、例えば、電子機器から動作完了を示すAV/Cレスポ
ンスを受信するようにし、さらに、音声認識制御部24
aに出力するようにしてもよい。
【0091】また、以上においては、電子機器を接続す
るネットワークとして、IEEE1394を用いた例について説
明したが、ネットワークは、これ以外のものを使用して
もよく、その際、1394Node IDが使用できないことにな
るが、機器IDを、1394Node IDと同様に使用したり、あ
るいはそのネットワーク上のIDを1394NodeIDに代えて利
用すれば、ネットワーク上に、接続された電子機器を識
別することができる。
【0092】さらに、以上においては、各種IDは、電子
機器に予め付されたものとして説明してきたが、例え
ば、音声UI定義管理部32が、接続された電子機器に対
して、IDを付するようにしてもよい。また、機器ID、機
種ID、および、機器タイプIDのいずれも、保持していな
い電子機器を使用する場合、ユーザが音声UI定義情報を
生成した後、音声UI定義管理部32が、IDを付するよう
にすることで、上記と同様の操作が可能となる。
【0093】さらにまた、音声認識辞書を記憶する音声
UI定義情報記憶部41が、必要に応じて、音声認識辞
書を削除する場合、キャッシュメモリをさらに設けて、
そこに、移動させることで、一度は削除された音声認識
辞書が必要となったときに、そのキャッシュメモリから
読み込むようにすれば、音声認識辞書の生成処理を省く
ことができ、その処理を高速化することができる。
【0094】以上によれば、複数の電子機器を単一の音
声認識装置とユーザインタフェースにより制御できるよ
うにすることが可能となる。
【0095】上述した一連の処理は、ハードウェアによ
り実行させることもできるが、ソフトウェアにより実行
させることもできる。一連の処理をソフトウェアにより
実行させる場合には、そのソフトウェアを構成するプロ
グラムが、専用のハードウェアに組み込まれているコン
ピュータ、または、各種のプログラムをインストールす
ることで、各種の機能を実行させることが可能な、例え
ば汎用のパーソナルコンピュータなどに記録媒体からイ
ンストールされる。
【0096】この記録媒体は、図1に示すように音声認
識装置1に予め組み込まれた状態でユーザに提供され
る、プログラムが記録されているHDD29だけではな
く、コンピュータとは別に、ユーザにプログラムを提供
するために配布される、プログラムが記録されている磁
気ディスク101(フロッピー(登録商標)ディスクを
含む)、光ディスク102(CD-ROM(Compact Disk-Read
Only Memory),DVD(Digital Versatile Disk)を含
む)、光磁気ディスク103(MD(Mini-Disk)を含
む)、もしくは半導体メモリ104(Memory Stickを含
む)などよりなるパッケージメディアにより構成され
る。
【0097】尚、本明細書において、記録媒体に記録さ
れるプログラムを記述するステップは、記載された順序
に沿って時系列的に行われる処理は、もちろん、必ずし
も時系列的に処理されなくとも、並列的あるいは個別に
実行される処理を含むものである。
【0098】
【発明の効果】本発明の情報処理装置および方法、並び
に記録媒体によれば、ネットワークに接続された電子機
器を制御するユーザインタフェースコマンドと、ユーザ
により入力される音声コマンドとの対応関係が定義され
た音声ユーザインタフェース定義情報を取得し、取得し
た音声ユーザインタフェース定義情報を記憶し、ユーザ
により入力した電子機器を制御する音声コマンドが認識
し、認識した音声コマンドに対応するユーザインタフェ
ースコマンドを、記憶した音声ユーザインタフェース定
義情報から検索し、検索したユーザインタフェースコマ
ンドにより、電子機器を制御するようにしたので、単一
の音声認識装置と統一されたユーザインタフェースによ
り、複数の電子機器を統合して制御することが可能とな
る。
【図面の簡単な説明】
【図1】本発明を適用した音声認識装置のブロック図で
ある。
【図2】音声UI定義情報を説明する図である。
【図3】状態の遷移を説明する図である。
【図4】音声認識辞書を生成する処理を説明するフロー
チャートである。
【図5】音声UI定義情報を生成するときのエディタの表
示例である。
【図6】音声認識処理を説明するフローチャートであ
る。
【図7】UIコマンドの対象となる電子機器の候補を選択
するときの表示例である。
【符号の説明】
1 音声認識装置,2 音声入力部,2a 無線通信
部,2b MIC,2c液晶表示部,2d 選択ボタン,
3 IEEE1394ネットワーク,4 TV,4a 1394Node I
D,4b 機器ID,4c 機種ID,4d 機器タイプI
D,5 STB,5a1394Node ID,5b 機器ID,5c
機種ID,5d 機器タイプID,6 DVD,6a 1394Nod
e ID,6b 機器ID,6c 機種ID,6d 機器タイプ
ID,7 DVC,7a 1394Node ID,7b 機器ID,7c
機種ID,7d 機器タイプID,8 TCP/IPネットワー
ク,9 WWWサーバ,9a HDD,21 IEEE1394ネット
ワークコントローラ,21a 機器接続検出部,21
b,22 音声UI定義情報変換部,22a XMLパー
サ,22b 音声認識辞書生成部,23 音声認識部,
24 UI制御部, 24a 音声認識制御部,24b U
Iコマンド決定部,24c UIコマンド履歴,25 I
EEE1394AV/Cコマンド変換部,26 ROM,27ネットワ
ークコントローラ,28 ドライブ,29 HDD,30
音声UI定義情報生成部,31 無線通信部,41 音
声UI定義情報記憶部,41a乃至41d 音声認識辞
書,101 磁気ディスク,102 光ディスク,10
3 光磁気ディスク,104 半導体メモリ
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 3/00 561H

Claims (14)

    【特許請求の範囲】
  1. 【請求項1】 ユーザにより入力された音声コマンドに
    より、ネットワークを介して接続された電子機器を制御
    する情報処理装置において、 前記ネットワークに接続された電子機器を制御するユー
    ザインタフェースコマンドと、前記ユーザにより入力さ
    れる音声コマンドとの対応関係が定義された音声ユーザ
    インタフェース定義情報を取得する音声ユーザインタフ
    ェース定義情報取得手段と、 前記音声ユーザインタフェース定義情報取得手段により
    取得された前記音声ユーザインタフェース定義情報を記
    憶する記憶手段と、 前記ユーザにより入力された電子機器を制御する音声コ
    マンドを認識する音声認識手段と、 前記音声認識手段により認識された音声コマンドに対応
    するユーザインタフェースコマンドを、前記記憶手段に
    より記憶された音声ユーザインタフェース定義情報に基
    づいて決定する決定手段と、 前記決定手段により決定されたユーザインタフェースコ
    マンドにより、前記電子機器を制御する制御手段とを備
    えることを特徴とする情報処理装置。
  2. 【請求項2】 前記音声ユーザインタフェース定義情報
    は、前記電子機器のID情報に対応していることを特徴と
    する請求項1に記載の情報処理装置。
  3. 【請求項3】 前記音声ユーザインタフェース定義情報
    は、前記電子機器の動作状態毎に対応可能な、音声コマ
    ンド、ユーザインタフェースコマンド、および、前記ユ
    ーザインタフェースコマンドに対応した動作をしたとき
    の動作状態の遷移先の情報を含むことを特徴とする請求
    項1に記載の情報処理装置。
  4. 【請求項4】 前記決定手段は、前記電子機器の動作状
    態を認識する動作状態認識手段をさらに備え、 前記動作状態認識手段により認識した前記電子機器の動
    作状態に基づいて、前記音声認識手段により認識された
    音声コマンドに対応するユーザインタフェースコマンド
    を、前記音声ユーザインタフェース定義情報に基づいて
    決定することを特徴とする請求項3に記載の情報処理装
    置。
  5. 【請求項5】 前記音声ユーザインタフェース定義情報
    取得手段は、インターネット上のサーバ、または、記録
    媒体より前記音声ユーザインタフェース定義情報を取得
    することを特徴とする請求項1に記載の情報処理装置。
  6. 【請求項6】 前記電子機器のID情報を取得するID情報
    取得手段をさらに備え、 前記音声ユーザインタフェース情報取得手段は、前記ID
    情報取得手段により取得された前記電子機器のID情報に
    基づいて、対応する前記音声ユーザインタフェース定義
    情報を取得することを特徴とする請求項1に記載の情報
    処理装置。
  7. 【請求項7】 前記ID情報は、ノードID、機器ID、機種
    ID、または、機器タイプIDを含むことを特徴とする請求
    項6に記載の情報処理装置。
  8. 【請求項8】 前記音声ユーザインタフェース情報取得
    手段は、前記ID情報取得手段により取得された前記電子
    機器のID情報のうち、ノードID、機器ID、機種ID、機器
    タイプIDの順位で、対応する前記音声ユーザインタフェ
    ース定義情報を取得することを特徴とする請求項6に記
    載の情報処理装置。
  9. 【請求項9】 前記ネットワークに接続された電子機器
    の接続状態を検出する接続状態検出手段をさらに備え、 前記音声ユーザインタフェース情報取得手段は、前記接
    続状態検出手段により検出された電子機器の接続状態に
    基づいて、対応する前記音声ユーザインタフェース定義
    情報を取得・削除することを特徴とする請求項1に記載
    の情報処理装置。
  10. 【請求項10】 前記ネットワークに接続された電子機
    器をユーザによって選択させる選択手段をさらに備え、 前記決定手段は、前記選択手段で選択された機器に対応
    する前記音声ユーザインタフェース定義情報にのみ基づ
    いて決定を行う機能を有することを特徴とする請求項1
    に記載の情報処理装置。
  11. 【請求項11】 前記決定手段により決定されたユーザ
    インタフェースコマンドを履歴として記憶するユーザイ
    ンタフェースコマンド履歴記憶手段をさらに備え、 前記決定手段により決定されたユーザインタフェースコ
    マンドにより制御すべき、前記ネットワークに接続され
    た電子機器が特定できない場合、ユーザに電子機器を問
    い合わせ、問い合わせ結果に基づく電子機器を制御する
    か、または、ユーザインタフェースコマンド履歴記憶手
    段により記憶された、最近制御された電子機器を制御す
    ることを特徴とする請求項1に記載の情報処理装置。
  12. 【請求項12】 任意に音声ユーザインタフェース定義
    情報を生成する音声ユーザインタフェース定義情報生成
    手段をさらに備え、 前記音声ユーザインタフェース定義情報取得手段は、音
    声ユーザインタフェース定義情報生成手段より前記音声
    ユーザインタフェース定義情報を取得することを特徴と
    する請求項1に記載の情報処理装置。
  13. 【請求項13】 ユーザにより入力された音声コマンド
    により、ネットワークを介して接続された電子機器を制
    御する情報処理装置の情報処理方法において、 前記ネットワークに接続された電子機器を制御するユー
    ザインタフェースコマンドと、前記ユーザにより入力さ
    れる音声コマンドとの対応関係が定義された音声ユーザ
    インタフェース定義情報を取得する音声ユーザインタフ
    ェース定義情報取得ステップと、 前記音声ユーザインタフェース定義情報取得ステップの
    処理で取得された前記音声ユーザインタフェース定義情
    報を記憶する記憶ステップと、 前記ユーザにより入力された電子機器を制御する音声コ
    マンドを認識する音声認識ステップと、 前記音声認識ステップの処理で認識された音声コマンド
    に対応するユーザインタフェースコマンドを、前記記憶
    ステップの処理で記憶された音声ユーザインタフェース
    定義情報に基づいて決定する決定ステップと、 前記決定ステップの処理で決定されたユーザインタフェ
    ースコマンドにより、前記電子機器を制御する制御ステ
    ップとを含むことを特徴とする情報処理方法。
  14. 【請求項14】 ユーザにより入力された音声コマンド
    により、ネットワークを介して接続された電子機器を制
    御する情報処理装置を制御するプログラムであって、 前記ネットワークに接続された電子機器を制御するユー
    ザインタフェースコマンドと、前記ユーザにより入力さ
    れる音声コマンドとの対応関係が定義された音声ユーザ
    インタフェース定義情報の取得を制御する音声ユーザイ
    ンタフェース定義情報取得制御ステップと、 前記音声ユーザインタフェース定義情報取得制御ステッ
    プの処理で取得された前記音声ユーザインタフェース定
    義情報の記憶を制御する記憶制御ステップと、 前記ユーザにより入力された電子機器を制御する音声コ
    マンドの認識を制御する音声認識制御ステップと、 前記音声認識制御ステップの処理で認識された音声コマ
    ンドに対応するユーザインタフェースコマンドの、前記
    記憶ステップの処理で記憶された音声ユーザインタフェ
    ース定義情報に基づいた決定を制御する決定制御ステッ
    プと、 前記決定制御ステップの処理で検索されたユーザインタ
    フェースコマンドにより、前記電子機器を制御する制御
    ステップとを含むことを特徴とするコンピュータが読み
    取り可能なプログラムが記録されている記録媒体。
JP2000112872A 2000-04-14 2000-04-14 情報処理装置および方法、並びに記録媒体 Pending JP2001296881A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2000112872A JP2001296881A (ja) 2000-04-14 2000-04-14 情報処理装置および方法、並びに記録媒体
US09/834,504 US6993486B2 (en) 2000-04-14 2001-04-13 Speech command recognition apparatus, method, and storage medium used therewith for controlling a plurality of electronic devices over a network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000112872A JP2001296881A (ja) 2000-04-14 2000-04-14 情報処理装置および方法、並びに記録媒体

Publications (1)

Publication Number Publication Date
JP2001296881A true JP2001296881A (ja) 2001-10-26

Family

ID=18624945

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000112872A Pending JP2001296881A (ja) 2000-04-14 2000-04-14 情報処理装置および方法、並びに記録媒体

Country Status (2)

Country Link
US (1) US6993486B2 (ja)
JP (1) JP2001296881A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100438838B1 (ko) * 2002-01-29 2004-07-05 삼성전자주식회사 대화 포커스 추적 기능을 가진 음성명령 해석장치 및 방법
JP2005234332A (ja) * 2004-02-20 2005-09-02 Honda Motor Co Ltd 電子機器制御装置
JP2006208461A (ja) * 2005-01-25 2006-08-10 Honda Motor Co Ltd 音声認識型機器制御装置
JP2008117400A (ja) * 2006-11-02 2008-05-22 Storz Endoskop Produktions Gmbh 情報リソースを定義するために拡張マークアップ言語を用いるデバイス制御システム
US8060368B2 (en) 2005-12-07 2011-11-15 Mitsubishi Electric Corporation Speech recognition apparatus
WO2015029379A1 (ja) * 2013-08-29 2015-03-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 機器制御方法、表示制御方法及び購入決済方法
JP2016502355A (ja) * 2012-12-03 2016-01-21 クゥアルコム・インコーポレイテッドQualcomm Incorporated オートメ−ションシステムの音声制御された構成
JP2017142651A (ja) * 2016-02-10 2017-08-17 大日本印刷株式会社 携帯型デバイス及びプログラム
US10586554B2 (en) 2012-11-09 2020-03-10 Samsung Electronics Co., Ltd. Display apparatus, voice acquiring apparatus and voice recognition method thereof
KR20200095442A (ko) * 2012-11-09 2020-08-10 삼성전자주식회사 디스플레이장치, 음성취득장치 및 그 음성인식방법
KR20210068353A (ko) * 2020-07-29 2021-06-09 삼성전자주식회사 디스플레이장치, 음성취득장치 및 그 음성인식방법

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7213265B2 (en) * 2000-11-15 2007-05-01 Lockheed Martin Corporation Real time active network compartmentalization
US7225467B2 (en) 2000-11-15 2007-05-29 Lockheed Martin Corporation Active intrusion resistant environment of layered object and compartment keys (airelock)
US7324947B2 (en) 2001-10-03 2008-01-29 Promptu Systems Corporation Global speech user interface
US7184960B2 (en) * 2002-06-28 2007-02-27 Intel Corporation Speech recognition command via an intermediate mobile device
US20070061884A1 (en) * 2002-10-29 2007-03-15 Dapp Michael C Intrusion detection accelerator
US20040083466A1 (en) * 2002-10-29 2004-04-29 Dapp Michael C. Hardware parser accelerator
US7080094B2 (en) * 2002-10-29 2006-07-18 Lockheed Martin Corporation Hardware accelerated validating parser
US7146643B2 (en) * 2002-10-29 2006-12-05 Lockheed Martin Corporation Intrusion detection accelerator
US20040172234A1 (en) * 2003-02-28 2004-09-02 Dapp Michael C. Hardware accelerator personality compiler
US7426585B1 (en) * 2004-01-22 2008-09-16 Quartet Technology, Inc. Smart cables
US20060020444A1 (en) * 2004-07-26 2006-01-26 Cousineau Leo E Ontology based medical system for data capture and knowledge representation
US20060020493A1 (en) * 2004-07-26 2006-01-26 Cousineau Leo E Ontology based method for automatically generating healthcare billing codes from a patient encounter
US20060020466A1 (en) * 2004-07-26 2006-01-26 Cousineau Leo E Ontology based medical patient evaluation method for data capture and knowledge representation
US20060020465A1 (en) * 2004-07-26 2006-01-26 Cousineau Leo E Ontology based system for data capture and knowledge representation
US20060020447A1 (en) * 2004-07-26 2006-01-26 Cousineau Leo E Ontology based method for data capture and knowledge representation
JP2007178927A (ja) * 2005-12-28 2007-07-12 Canon Inc 情報検索装置および方法
US7792678B2 (en) * 2006-02-13 2010-09-07 Hon Hai Precision Industry Co., Ltd. Method and device for enhancing accuracy of voice control with image characteristic
US8311836B2 (en) * 2006-03-13 2012-11-13 Nuance Communications, Inc. Dynamic help including available speech commands from content contained within speech grammars
US8725729B2 (en) * 2006-04-03 2014-05-13 Steven G. Lisa System, methods and applications for embedded internet searching and result display
US8279171B2 (en) * 2006-07-06 2012-10-02 Panasonic Corporation Voice input device
US8056070B2 (en) * 2007-01-10 2011-11-08 Goller Michael D System and method for modifying and updating a speech recognition program
US8620652B2 (en) * 2007-05-17 2013-12-31 Microsoft Corporation Speech recognition macro runtime
KR100905586B1 (ko) * 2007-05-28 2009-07-02 삼성전자주식회사 로봇에서의 원거리 음성 인식을 위한 마이크의 성능 평가시스템 및 방법
DE102007044792B4 (de) * 2007-09-19 2012-12-13 Siemens Ag Verfahren, Steuergerät und System zur Steuerung oder Bedienung
KR20090107365A (ko) * 2008-04-08 2009-10-13 엘지전자 주식회사 이동 단말기 및 그 메뉴 제어방법
US20150106089A1 (en) * 2010-12-30 2015-04-16 Evan H. Parker Name Based Initiation of Speech Recognition
KR101590332B1 (ko) 2012-01-09 2016-02-18 삼성전자주식회사 영상장치 및 그 제어방법
KR101917182B1 (ko) * 2012-04-30 2019-01-24 삼성전자주식회사 영상처리장치, 음성취득장치, 그 음성인식방법 및 음성인식시스템
WO2013192535A1 (en) * 2012-06-22 2013-12-27 Johnson Controls Technology Company Multi-pass vehicle voice recognition systems and methods
CN105814628B (zh) * 2013-10-08 2019-12-10 三星电子株式会社 用于基于装置信息来执行语音识别的方法和设备
EP2958010A1 (en) * 2014-06-20 2015-12-23 Thomson Licensing Apparatus and method for controlling the apparatus by a user
JP6501217B2 (ja) * 2015-02-16 2019-04-17 アルパイン株式会社 情報端末システム
KR20180043627A (ko) * 2016-10-20 2018-04-30 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치를 제어하는 방법
WO2020079941A1 (ja) * 2018-10-15 2020-04-23 ソニー株式会社 情報処理装置及び情報処理方法、並びにコンピュータプログラム
JP2021145788A (ja) * 2020-03-17 2021-09-27 ソニー・オリンパスメディカルソリューションズ株式会社 制御装置および医療用観察システム
US11798549B2 (en) * 2021-03-19 2023-10-24 Mitel Networks Corporation Generating action items during a conferencing session

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63126063A (ja) * 1986-11-14 1988-05-30 Sharp Corp 音声入力機能付きワ−ドプロセツサ
JPH057385A (ja) * 1991-06-27 1993-01-14 Sharp Corp 音声認識リモコン装置
JPH05249988A (ja) * 1992-03-06 1993-09-28 Nippondenso Co Ltd 音声認識制御装置
JPH1027089A (ja) * 1996-07-11 1998-01-27 Fuji Xerox Co Ltd コンピュータ操作支援装置
JPH10164673A (ja) * 1996-10-03 1998-06-19 Matsushita Electric Ind Co Ltd リモコンにおける被制御装置選択装置
JPH11232074A (ja) * 1998-02-17 1999-08-27 Matsushita Electric Ind Co Ltd ネットワーク装置およびコントロール端末およびネットワーク端末
JPH11237896A (ja) * 1998-02-24 1999-08-31 Clarion Co Ltd 音声認識による制御装置及び方法、制御対象ユニット、音声認識による制御を用いるシステム並びに音声認識による制御用プログラムを記録した記録媒体

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5129072A (en) * 1989-03-08 1992-07-07 Hewlett-Packard Company System for minimizing initiator processor interrupts by protocol controller in a computer bus system
US5375063A (en) * 1991-09-20 1994-12-20 Clemson University Apparatus and method for voice controlled apparel machine
US5890122A (en) * 1993-02-08 1999-03-30 Microsoft Corporation Voice-controlled computer simulateously displaying application menu and list of available commands
US6052666A (en) * 1995-11-06 2000-04-18 Thomson Multimedia S.A. Vocal identification of devices in a home environment
US6219703B1 (en) * 1996-10-31 2001-04-17 Motorola, Inc. Method and apparatus for constructing a device management information base in a network management station
JP3466857B2 (ja) * 1997-03-06 2003-11-17 株式会社東芝 辞書更新方法および辞書更新システム
WO1998055992A1 (de) * 1997-06-06 1998-12-10 BSH Bosch und Siemens Hausgeräte GmbH Haushaltsgerät, insbesondere elektrisch betriebenes haushaltsgerät
DE69712485T2 (de) * 1997-10-23 2002-12-12 Sony Int Europe Gmbh Sprachschnittstelle für ein Hausnetzwerk
US6240347B1 (en) * 1998-10-13 2001-05-29 Ford Global Technologies, Inc. Vehicle accessory control with integrated voice and manual activation
US6584439B1 (en) * 1999-05-21 2003-06-24 Winbond Electronics Corporation Method and apparatus for controlling voice controlled devices
US6308157B1 (en) * 1999-06-08 2001-10-23 International Business Machines Corp. Method and apparatus for providing an event-based “What-Can-I-Say?” window
US6219645B1 (en) * 1999-12-02 2001-04-17 Lucent Technologies, Inc. Enhanced automatic speech recognition using multiple directional microphones

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63126063A (ja) * 1986-11-14 1988-05-30 Sharp Corp 音声入力機能付きワ−ドプロセツサ
JPH057385A (ja) * 1991-06-27 1993-01-14 Sharp Corp 音声認識リモコン装置
JPH05249988A (ja) * 1992-03-06 1993-09-28 Nippondenso Co Ltd 音声認識制御装置
JPH1027089A (ja) * 1996-07-11 1998-01-27 Fuji Xerox Co Ltd コンピュータ操作支援装置
JPH10164673A (ja) * 1996-10-03 1998-06-19 Matsushita Electric Ind Co Ltd リモコンにおける被制御装置選択装置
JPH11232074A (ja) * 1998-02-17 1999-08-27 Matsushita Electric Ind Co Ltd ネットワーク装置およびコントロール端末およびネットワーク端末
JPH11237896A (ja) * 1998-02-24 1999-08-31 Clarion Co Ltd 音声認識による制御装置及び方法、制御対象ユニット、音声認識による制御を用いるシステム並びに音声認識による制御用プログラムを記録した記録媒体

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100438838B1 (ko) * 2002-01-29 2004-07-05 삼성전자주식회사 대화 포커스 추적 기능을 가진 음성명령 해석장치 및 방법
JP2005234332A (ja) * 2004-02-20 2005-09-02 Honda Motor Co Ltd 電子機器制御装置
JP4503310B2 (ja) * 2004-02-20 2010-07-14 本田技研工業株式会社 電子機器制御装置
JP2006208461A (ja) * 2005-01-25 2006-08-10 Honda Motor Co Ltd 音声認識型機器制御装置
JP4628803B2 (ja) * 2005-01-25 2011-02-09 本田技研工業株式会社 音声認識型機器制御装置
US8060368B2 (en) 2005-12-07 2011-11-15 Mitsubishi Electric Corporation Speech recognition apparatus
JP4846734B2 (ja) * 2005-12-07 2011-12-28 三菱電機株式会社 音声認識装置
JP2008117400A (ja) * 2006-11-02 2008-05-22 Storz Endoskop Produktions Gmbh 情報リソースを定義するために拡張マークアップ言語を用いるデバイス制御システム
US8037179B2 (en) 2006-11-02 2011-10-11 Storz Endoskop Produktions Gmbh Device control system employing extensible markup language for defining information resources
US10586554B2 (en) 2012-11-09 2020-03-10 Samsung Electronics Co., Ltd. Display apparatus, voice acquiring apparatus and voice recognition method thereof
KR20200095442A (ko) * 2012-11-09 2020-08-10 삼성전자주식회사 디스플레이장치, 음성취득장치 및 그 음성인식방법
US11727951B2 (en) 2012-11-09 2023-08-15 Samsung Electronics Co., Ltd. Display apparatus, voice acquiring apparatus and voice recognition method thereof
KR102262050B1 (ko) 2012-11-09 2021-06-09 삼성전자 주식회사 디스플레이장치, 음성취득장치 및 그 음성인식방법
JP2016502355A (ja) * 2012-12-03 2016-01-21 クゥアルコム・インコーポレイテッドQualcomm Incorporated オートメ−ションシステムの音声制御された構成
US9852733B2 (en) 2013-08-29 2017-12-26 Panasonic Intellectual Property Corporation Of America Device control method, display control method, and purchase settlement method
WO2015029379A1 (ja) * 2013-08-29 2015-03-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 機器制御方法、表示制御方法及び購入決済方法
US10152976B2 (en) 2013-08-29 2018-12-11 Panasonic Intellectual Property Corporation Of America Device control method, display control method, and purchase settlement method
JPWO2015029379A1 (ja) * 2013-08-29 2017-03-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 機器制御方法、表示制御方法及び購入決済方法
JP2017142651A (ja) * 2016-02-10 2017-08-17 大日本印刷株式会社 携帯型デバイス及びプログラム
KR20210068353A (ko) * 2020-07-29 2021-06-09 삼성전자주식회사 디스플레이장치, 음성취득장치 및 그 음성인식방법
KR102403803B1 (ko) 2020-07-29 2022-05-30 삼성전자 주식회사 디스플레이장치, 음성취득장치 및 그 음성인식방법
KR20220073723A (ko) * 2020-07-29 2022-06-03 삼성전자주식회사 디스플레이장치, 음성취득장치 및 그 음성인식방법
KR102501655B1 (ko) 2020-07-29 2023-02-21 삼성전자주식회사 디스플레이장치, 음성취득장치 및 그 음성인식방법

Also Published As

Publication number Publication date
US6993486B2 (en) 2006-01-31
US20020013710A1 (en) 2002-01-31

Similar Documents

Publication Publication Date Title
JP2001296881A (ja) 情報処理装置および方法、並びに記録媒体
JP6952184B2 (ja) ビューに基づく音声インタラクション方法、装置、サーバ、端末及び媒体
WO2016206494A1 (zh) 语音控制方法、装置和移动终端
EP3251115B1 (en) Updating language understanding classifier models for a digital personal assistant based on crowd-sourcing
US9953648B2 (en) Electronic device and method for controlling the same
JP6440513B2 (ja) 音声認識機能を用いた情報提供方法および機器の制御方法
KR101309794B1 (ko) 디스플레이 장치, 디스플레이 장치의 제어 방법 및 대화형 시스템
EP1333426B1 (en) Voice command interpreter with dialog focus tracking function and voice command interpreting method
US20140350933A1 (en) Voice recognition apparatus and control method thereof
US9230559B2 (en) Server and method of controlling the same
KR20180046208A (ko) 음성 명령에 기초하여 애플리케이션을 실행하는 방법 및 장치
JP7059929B2 (ja) 情報処理装置
KR20140089863A (ko) 디스플레이 장치, 및 이의 제어 방법, 그리고 음성 인식 시스템의 디스플레이 장치 제어 방법
WO2005094437A2 (en) System and method for automatically cataloguing data by utilizing speech recognition procedures
JP2003233452A (ja) ジェスチャコマンド入力装置
KR20140055502A (ko) 방송 수신 장치, 서버 및 그 제어 방법
KR20150068003A (ko) 대화형 시스템, 이의 제어 방법, 대화형 서버 및 이의 제어 방법
WO2001050454A1 (fr) Regleur de dispositif, systeme de reglage de dispositif et support enregistre comportant le programme de reglage de dispositif
JP2000231427A (ja) マルチモーダル情報解析装置
JP2019056913A (ja) 音声認識機能を用いた情報提供方法および機器の制御方法
WO2022217621A1 (zh) 语音交互的方法和装置
KR20140138011A (ko) 음성 인식 장치 및 그 제어 방법
JP2001075968A (ja) 情報検索方法及びそれを記録した記録媒体
JP2002149181A (ja) 機器制御システム
US20030101057A1 (en) Method for serving user requests with respect to a network of devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110413

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110609