JP2001216326A - 情報処理装置及び方法並びに記録媒体 - Google Patents

情報処理装置及び方法並びに記録媒体

Info

Publication number
JP2001216326A
JP2001216326A JP2000027363A JP2000027363A JP2001216326A JP 2001216326 A JP2001216326 A JP 2001216326A JP 2000027363 A JP2000027363 A JP 2000027363A JP 2000027363 A JP2000027363 A JP 2000027363A JP 2001216326 A JP2001216326 A JP 2001216326A
Authority
JP
Japan
Prior art keywords
vocabulary
voice
extracting
information processing
natural language
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000027363A
Other languages
English (en)
Inventor
Masanori Omote
雅則 表
Kazuhiko Tajima
和彦 田島
Hironaga Tsutsumi
洪長 包
Atsuo Hiroe
厚夫 廣江
Hideki Kishi
秀樹 岸
Masatoshi Takeda
正資 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000027363A priority Critical patent/JP2001216326A/ja
Publication of JP2001216326A publication Critical patent/JP2001216326A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Toys (AREA)
  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

(57)【要約】 【課題】人は、発想を容易には行い難い問題があった。 【解決手段】入力した自然言語から必要な語彙を抽出
し、当該抽出した語彙と関連する関連語彙を、複数の語
彙についての関連語彙が格納されたデータベースから連
続的に検出して出力するようにした。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は情報処理装置及び方
法並びに記録媒体に関し、例えばペットロボットに適用
して好適なものである。
【0002】
【従来の技術】従来、人間には物事を発想する能力が備
わっている。そして人類は、この能力を活用して、文化
及び文明を進化させてきた。
【0003】
【発明が解決しようとする課題】ところが発想は、外界
からの刺激なしには簡単にできるわけではない。そして
この刺激は、主として書物や、音楽及び会話などの視覚
的及び聴覚的な情報によるものである。
【0004】本発明は以上の点を考慮してなされたもの
で、人の発想を支援し得る情報処理装置及び方法並びに
記憶媒体を提案しようとするものである。
【0005】
【課題を解決するための手段】かかる課題を解決するた
め本発明においては、情報処理装置において、入力した
自然言語から必要な語彙を抽出する語彙抽出手段と、複
数の語彙について、当該語彙と関連する関連語彙を記憶
する記憶手段と、記憶手段に記憶された関連語彙のなか
から、語彙抽出手段により抽出された語彙と関連する関
連語彙を連続的に検索して出力する関連語彙検索手段と
を設けるようにした。この結果この情報処理装置では、
入力した自然言語に関連する関連語彙を連続的に出力す
ることができる。
【0006】また本発明においては、情報処理方法にお
いて、複数の語彙について、当該語彙と関連する関連語
彙を記憶する第1のステップと、入力した自然言語から
必要な語彙を抽出する第2のステップと、第1のステッ
プにおいて記憶した関連語彙のなかから、第2のステッ
プにおいて抽出した語彙と関連する関連語彙を連続的に
検索して出力する第3のステップとを設けるようにし
た。この結果この情報処理方法によれば、入力した自然
言語に関連する関連語彙を連続的に出力することができ
る。
【0007】さらに本発明においては、記憶媒体におい
て、入力した自然言語から必要な語彙を抽出する第1の
ステップと、複数の語彙について関連語彙が格納された
データベースから第1のステップにおいて抽出した語彙
と関連する関連語彙を連続的に検索して出力する第2の
ステップとを有する情報処理プログラムを記録するよう
にした。この結果この記録媒体に記録された情報処理プ
ログラムによれば、入力した自然言語に関連する関連語
彙を連続的に出力することができる。
【0008】
【発明の実施の形態】以下図面について、本発明の一実
施の形態を詳述する。
【0009】(1)本実施の形態によるロボットの構成 図1において、1は全体として本発明を適用したペット
ロボットを示し、全体として一般家庭において飼育され
る犬や猫のような4足歩行型動物と似た形状に形成され
ている。
【0010】すなわちかかるペットロボット1において
は、胴体部ユニット2の前後左右にそれぞれ脚部ユニッ
ト3A〜3Dが連結されると共に、胴体部ユニット2の
前端部及び後端部にそれぞれ頭部ユニット4及び尻尾部
ユニット5が連結されている。
【0011】この場合胴体部ユニット2には、図2に示
すように、このペットロボット1全体の動作を制御する
コントローラ10と、このペットロボット1の動力源と
なるバッテリ11と、バッテリセンサ12及び熱センサ
13となどが収納されている。
【0012】また頭部ユニット4には、このペットロボ
ット1の「耳」に相当するマイクロホン14と、「目」
に相当するCCD(Charge Coupled Device )カメラ1
5と、タッチセンサ16と、「口」に相当するスピーカ
17となどがそれぞれ所定位置に配設されている。
【0013】さらに各脚部ユニット3A〜3Dの関節部
分や、各脚部ユニット3A〜3D及び胴体部ユニット2
の各連結部分、頭部ユニット4及び胴体部ユニット2の
連結部分、並びに尻尾部ユニット5における尻尾5Aの
付け根部分などには、それぞれ自由度数分のアクチュエ
ータ181 〜18n が配設されている。
【0014】そして頭部ユニット4のマイクロホン14
は、ユーザから図示しないサウンドコマンダを介して音
階として与えられる「歩け」、「伏せ」又は「ボールを
追いかけろ」等の指令音を集音し、得られた音声信号S
1をコントローラ10に送出する。またCCDカメラ1
5は、周囲の状況を撮像し、得られた画像信号S2をコ
ントローラ10に送出する。
【0015】さらにタッチセンサ16は、図1において
明らかなように、頭部ユニット4の上部に配設されてお
り、ユーザからの「なでる」や「たたく」といった物理
的な働きかけにより受けた圧力を検出し、検出結果を圧
力検出信号S3としてコントローラ10に送出する。
【0016】さらに胴体部ユニット2のバッテリセンサ
12は、バッテリ11のエネルギー残量を検出し、検出
結果をバッテリ残量検出信号S4としてコントローラ1
0に送出し、熱センサ13は、ペットロボット1内部の
熱を検出して検出結果を熱検出信号S5としてコントロ
ーラ10に送出する。
【0017】コントローラ10は、CPU(Central Pr
ocessing Unit )と、ROM(ReadOnly Memory)及び
RAM(Random Access Memory)等からなるメモリ10
Aとを有するマイクロコンピュータ構成でなり、マイク
ロホン14、CCDカメラ15、タッチセンサ16、バ
ッテリセンサ12及び熱センサ13から与えられる音声
信号S1、画像信号S2、圧力検出信号S3、バッテリ
残量検出信号S4及び熱検出信号S5と、メモリ10A
に格納された制御プログラムとに基づいて、周囲の状況
や、ユーザからの指令及び働きかけの有無などを判断す
る。
【0018】そしてコントローラ10は、この判断結果
と、メモリ10Aに格納された制御プログラムとに基づ
いて続く行動を決定し、決定結果に基づいて必要なアク
チュエータ181 〜18n を駆動させることにより、頭
部ユニット4を上下左右に振らせたり、尻尾部ユニット
5の尻尾5Aを動かせたり、各脚部ユニット3A〜3D
を駆動して歩行させるなどの行動を行わせる。
【0019】またこの際コントローラ10は、必要に応
じて所定の音声信号S7を生成してこれをスピーカ17
に与えることにより当該音声信号S7に基づく音声を外
部に出力させたり、このペットロボット1の「目」の位
置に設けられた図示しないLED(Light Emitting Dio
de)を点滅させる。
【0020】このようにしてこのペットロボット1にお
いては、周囲の状況及び制御プログラム等に基づいて自
律的に行動し得るようになされている。
【0021】(2)発想支援モード時におけるコントロ
ーラ10の処理 次にこのペットロボット1に搭載された発想支援機能に
ついて説明する。このペットロボット1は、動作モード
として上述のような自律動作モードの他に発想支援モー
ドを有しており、コントローラ10がメモリ10Aに格
納されたプログラムに基づいて後述のような処理をソフ
トウェア的に行うことにより、当該発想支援モード時に
はユーザの発話内容に関連した事物や事柄を連続して無
作為に音声として出力するようにしてユーザの発想を支
援し得るようになされている。
【0022】図3は、このような発想支援モード時にお
けるコントローラ10の処理を機能的に分けて表したも
のである。この図3からも明らかなように、発想支援モ
ード時におけるコントローラ10の機能は、音声認識部
20、言語処理部21、対話管理部22及び音声合成部
23に分けることができる。
【0023】この場合、音声認識部20は、マイクロホ
ン14から与えられる音声信号S1に基づき得られるユ
ーザが発した音声(入力音声)の認識処理を行い、認識
結果を言語処理部21に出力する。
【0024】より具体的には音声認識部20は、まずマ
イクロホン14から与えられる音声信号S1をディジタ
ル変換し、かくして得られたディジタル信号である音声
データD1から例えば短時間パワー及び自己相関分析を
組み合わせた所定の方法を用いて音声区間を抽出する。
【0025】続いて音声認識部20は、このようにして
抽出した各音声区間について、MFCC(Mel Frequenc
y Cepstral Coefficients )分析処理を用いて特徴パラ
メータ(特徴ベクトル)を抽出する。なおこのような特
徴パラメータを抽出する手法としては、MFCC分析処
理以外にも、バンドパスフィルタなどを用いた簡単な方
法や、差分値などを組み合わせた特徴量にする方法など
を利用することができる。
【0026】次いで音声認識部20は、このようにして
抽出した特徴パラメータを用い、メモリ10A(図2)
に予め格納されている音響モデルデータベース24、辞
書データベース25及び文法データベース26を参照し
て、入力音声を認識する。
【0027】すなわち音響モデルデータベース24は、
音声認識する音声の言語における個々の音素や音節など
の音響的な特徴を表す音響モデルを記憶している。そし
てこの実施の形態においては、音響モデルとしてHMM
(Hidden Markov Model )が用いられている。また辞書
データベース25は、認識対象の各単語についての発音
に関する情報(音韻情報)が記述された単語辞書を記憶
している。さらに文法データベース26は、辞書データ
ベース25の単語辞書に登録されている各単語がどのよ
うに連鎖する(つながる)かを記述した文法規則を記憶
している。なおこの文法規則としては、例えば文脈自由
文法(CFG)や、統計的な単語連鎖確率(N−gra
m)などに基づく規則などを用いることができる。
【0028】そして音声認識部20は、各音声区間につ
いて、特徴パラメータに基づき、辞書データベース25
の単語辞書を参照して、音響モデルデータベース24の
音響モデルを接続することで単語の音響モデル(単語モ
デル)を生成すると共に、生成した単語モデルを文法デ
ータベース26の文法規則を参照しながら順次接続し、
そのようにして接続された単語モデルを用いてHMM法
によって入力音声を認識し、認識結果を単語グラフ形式
のテキストでなる文字情報D1として言語処理部21に
出力する。
【0029】なおこの実施の形態の場合、音声認識部2
0においては、辞書データベース25の単語辞書の内容
を予備選択するようになされ、これにより音声の各フレ
ームにおける照合個数を減らして認識を高速化させ得る
ようになされている。
【0030】言語処理部21においては、音声認識部2
0から与えられる文字情報D1について、複数の単語か
らなる句(フレーズ)単位にまで解析する処理を行う。
すなわち言語処理部21は、文字情報D1対して形態素
解析処理を行った後、当該解析結果に基づいてチャート
パーザ(chart parser)に基づく方法で、予めメモリ1
0A(図2)に格納された辞書データベース27及び解
析用文法データベース28を用いて、ボトムアップ法で
複数の単語が接続されてなる句を作成する。
【0031】具体的に辞書データベース27には、その
一例を図4に示すように、いわゆるS式を用いた表現で
各種単語についてその意味を表す単語意味情報が格納さ
れている。ここでS式とは、例えば“()”や
“ 〔〕”等の括弧で複数のトークンを囲む表現形式で
ある。この単語意味情報は、単語のカテゴリを表す「SY
N 」、単語の意味的な分類を表す「TYPE」及び単語の構
文的な分類を示す「SEM 」からなる意味情報と、単語の
発音を示す「VAL 」からなる。
【0032】また解析用文法データベース28には、そ
の一例を図5に示すように、複数の単語を接続すること
で句単位に解析するための文法規則がS式を用いた表現
形式で記述されている。ここで図5において、「?T」、
「?X」、「?TT 」、「?Y」は、各分類における意味内容
等を示す変数である。この文法規則は、例えば[SYN N]
[TYPE ?T] [VAL ?X]で表現される単語と、[SYN CASE GE
N] [VAL no] で表現される単語が順次配列されていると
きには、[SYN NP] [TYPE ?TT] [SEM ?T] [VAL(?X no ?
Y]で表現されるように各単語を接続してなる句となるよ
うにボトムアップすることを示している。
【0033】そして言語処理部21は、形態素解析を行
った文字情報D1に対して上述のような処理を行うこと
によってフレーム列を作成すると共に、所定の方法を用
いてこのフレーズ列及び当該フレーム列により表される
意味内容を確定し、かくして得られたフレームグラフ形
式の句情報D2を対話管理部22に送出する。なお句情
報D2の一例を以下に示す。
【0034】 (([SYN N] [TYPE 場所] [SEM もの] [VAL 茶碗]) ([SYN ?] [TYPE 目標] [SEM 話題] [VAL には]) ([SYN ADV] [ATTR 容量] [VAL どれくらい]) ([SYN VP] [TYPE 質問] [VAL 入ったっけなぁ])) 対話管理部22は、言語処理部21から与えられる句情
報D2と、予めメモリ10A(図2)に格納された知識
データベース29とを用いてユーザに対する応答文を作
成し、これを音声合成部23に送出する。
【0035】具体的に、知識データベース29には、ユ
ーザがペットロボット1と家庭環境又はオフィス環境に
おいて対話できるように、そのような場におかれている
ことの多い物体に関連する語彙(以下、このようにある
第1の語彙に関連する第2の語彙を、第1の語彙の関連
語彙と呼ぶ)が、その属性及び属性値の組で登録されて
いる。例えば家庭環境設定の場合、 名称:茶碗 材質:陶器 容量:230 〔cc〕 というように物体(茶碗)が登録され、これと同様にし
て家庭環境に存在する可能性のあるものが多数登録され
ている。
【0036】そして対話管理部22は、言語処理部21
から与えられる句情報D2の意味内容を抽出(すなわち
必要な語彙を抽出)すると共に当該抽出した語彙と関連
する関連語彙を知識データベース29から無作為に探し
出す。
【0037】例えば対話管理部22は、言語処理部21
から与えられる句情報D2が上述した以下 (([SYN N] [TYPE 場所] [SEM もの] [VAL 茶碗]) ([SYN ?] [TYPE 目標] [SEM 話題] [VAL には]) ([SYN ADV] [ATTR 容量] [VAL どれくらい]) ([SYN VP] [TYPE 質問] [VAL 入ったっけなぁ])) のようなものであった場合には、これが茶碗の容量に関
する疑問であることを分析する。
【0038】そして対話管理部22は、この分析結果に
基づいて例えば茶碗に関連する語彙を知識データベース
29から無作為に探し出す。例えば上述の例であれば、
このとき知識データベース29において、茶碗に 材質:陶器、容量:230 〔cc〕 という語彙が関連付けられているのでこれらの語彙(関
連語彙)が読み出される。
【0039】そして対話管理部22は、このようにして
読み出した各関連語彙を用いて応答文を順次作成すると
共に、当該読み出した各関連語彙についてさらにこれら
関連語彙と関連する関連語彙を検索し、検出された関連
語彙を用いて応答文を作成して、その文字列でなるテキ
ストデータを応答文情報D3として音声合成部23に出
力する。
【0040】なおこの実施の形態の場合において、対話
管理部22は、例えば (([SYN N] [TYPE 材質] [SEM こと] [VAL 材質]) ([SYN ?] [TYPE 問いかけ] [SEM 話題] [VAL は])) や、 (([SYN N] [TYPE 材質] [SEM こと] [VAL 陶器]) ([SYN ?] [TYPE 問いかけ] [SEM 話題] [VAL は])) のように、「〜は?」というテンプレートに、上述の検
索により得られた関連語彙を入れるようにして応答文を
生成する。
【0041】音声合成部23は、対話管理部22から与
えられる応答文情報D3に基づいて音声信号S6を生成
し、これをスピーカ17(図2)に送出することにより
当該応答文情報D3に基づく応答文を音声として出力さ
せる。
【0042】このようにしてこのペットロボット1にお
いては、発想支援モード時、ユーザの発話内容に関連し
た語彙(関連語彙)を連続して無作為に音声として出力
する。
【0043】(3)各機能ブロックの処理 次に上述の音声認識部20、言語処理部21及び対話管
理部22の処理について説明する。まず音声認識部20
は、図6に示す音声区間検出処理手順RT1に従って音
声データの音声区間を抽出する。
【0044】すなわち音声認識部20は、この音声区間
検出処理処理手順RT1をステップSP0において開始
後、続くステップSP1において短時間パワー及び自己
相関分析を組み合わせた所定の方法を用いて音声データ
を監視し、音声を検知するのを待ち受ける。
【0045】そして音声認識部20は、やがて音声を検
知することによりこのステップSP1において肯定結果
を得ると、ステップSP2に進んで音声データを音声認
識部20における次段のオブジェクトに出力し、この後
ステップSP3に進んで音声の終了を検知したか否かを
判断する。
【0046】音声認識部20は、このステップSP3に
おいて否定結果を得ると、ステップSP2に戻り、この
後ステップSP3において肯定結果を得るまでステップ
SP2−SP3−SP2のループを繰り返す。
【0047】そして音声認識部20は、1つの音声区間
が終了することによりステップSP3において肯定結果
を得るとステップSP1に戻り、この後音声を検出する
ごとに同様の処理を繰り返すことにより音声データの音
声区間を順次抽出する。
【0048】一方、音声認識部20は、図7に示す音声
認識処理手順RT2に従って各音声区間における入力音
声を認識する。
【0049】すなわち音声認識部20は、この音声認識
処理手順RT2をステップSP10において開始後、続
くステップSP11において上述の音声区間検出処理処
理手順RT1(図6)に従って抽出した音声区間の音声
データの入力を待ち受ける。
【0050】そして音声認識部20は、やがて音声デー
タが入力すると、続くステップSP11において入力し
た音声データに対してMFCC処理を施すことにより、
その音声区間の特徴パラメータを抽出する。
【0051】続いて音声認識部20は、この特徴パラメ
ータに基づき、音響モデルデータベース24、辞書デー
タベース25及び文法データベース26を用いて、上述
のようにしてこの音声区間の音声データをデコードする
ことによりテキストデータを作成する。
【0052】また音声認識部20は、続くステップSP
14において、音声区間と間違えて検出されたノイズ区
間を排除するため、その音声区間の特徴パラメータを用
いてコンフィデンスメジャー(Confidence Mesure )を
計算し、当該計算結果に基づいて当該音声区間のテキス
トデータを棄却するか否かを判断する。
【0053】そして音声認識部20は、このステップS
P14で肯定結果を得た場合(すなわちその音声区間が
実はノイズ区間であると判断した場合)にはステップS
P11に戻り、これに対して否定結果を得た場合(すな
わちその音声区間がノイズ区間でないと判断した場合)
にはステップSP15に進んで音声認識の結果文を確定
する。
【0054】続いて音声認識部20は、ステップSP1
6に進んでこの音声認識の結果文でなる単語グラフ形式
の文字情報D1を言語処理部21に送出してステップS
P11に戻り、この後ステップSP11〜ステップSP
16について、上述と同様の処理を繰り返す。
【0055】一方、言語処理部21は、音声認識部20
から与えられる音声認識結果でなる文字情報D1に基づ
いて、図8に示す句情報作成処理手順RT3に従って句
情報D2を作成する。
【0056】すなわち言語処理部21は、この句情報作
成処理手順RT3をステップSP30において開始後、
続くステップSP31において文字情報D1を形態素解
析することにより当該文字情報D1に基づく文を単語ご
とに分割し、この後ステップSP32に進んで上述のよ
うなボトムアップパーザを用いた単一化(unification
)処理により、文字情報D1に基づく文について構文
及び意味解析を行う。
【0057】続いて言語処理部21は、ステップSP3
3に進んでフレーズ列と、文字情報D1に基づく文の意
味内容とを確定すると共に、続くステップSP34にお
いてステップSP33における確定結果でなるフレーズ
グラフ形式の句情報D2を対話管理部22に送出する。
なおこのときのフレーズ列及び意味内容の確定方法とし
ては、辞書データベース28の単語辞書において予め単
語に意味の距離を定義しておき、これを利用する方法を
用いることができる。
【0058】そして言語処理部21は、この後ステップ
SP31に戻り、さらにこの後音声認識部20から文字
情報D1が与えられるごとに同様の処理を繰り返す。
【0059】これに対して対話管理部22は、言語処理
部21から与えられる句情報D2に基づき、図9に示す
応答文作成処理手順RT4に従って応答文を作成する。
【0060】すなわち対話管理部22は、この応答文作
成処理手順RT4をステップSP40において開始後、
続くステップSP41において言語処理部21から与え
られる句情報D2から意味を抽出(必要な語彙を抽出)
する。
【0061】続いて対話管理部22は、ステップSP4
2に進んでステップSP41において抽出した語彙の関
連語彙を知識データベース29で検索した後、ステップ
SP43に進んで関連語彙を検出できなかったか否か
(検索処理を終了するか否か)を判断する。
【0062】そして対話管理部22は、関連語彙が検出
できたことによりステップSP43において肯定結果を
得ると、ステップSP44に進んでこの語彙を用いて上
述のようにして応答文を作成する。
【0063】さらに対話管理部22は、この後ステップ
SP45に進んでこれを音声合成部23に送出した後ス
テップSP41に戻り、この後ステップSP44におい
て否定結果を得るまでステップSP41〜ステップSP
45を繰り返す。
【0064】そして対話管理部22は、やがて関連語彙
を検出し得なくなることによりステップSP43におい
て肯定結果を得ると、ステップSP46に進んでこの応
答文作成処理手順RT4を終了する。
【0065】(4)本実施の形態の動作及び効果 以上の構成において、このペットロボット1は、発想支
援モード時、ユーザから発せられた語彙の関連語彙を連
続的に「(関連語彙)は?」の応答形式で順次音声出力
する。
【0066】従ってこのペットロボット1によれば、当
該ペットロボット1の音声出力を刺激として、ユーザに
当該ユーザの発話に関連する事柄を容易に発想させるこ
とができ、ユーザの発想を支援することができる。
【0067】以上の構成によれば、ユーザの発話を音声
認識し、認識結果に基づいて関連語彙を連続して順次音
声出力するようにしたことにより、ユーザに刺激を与え
ることができ、かくしてユーザの発想を支援し得るペッ
トロボットを実現できる。
【0068】(5)他の実施の形態 なお上述の実施の形態においては、本発明を図1のよう
に構成されたペットロボット1に適用するようにした場
合について述べたが、本発明はこれに限らず、例えばヒ
ューマノイドタイプのロボット装置や、通常のパーソナ
ルコンピュータ等の各種情報処理装置にも広く適用する
ことができる。
【0069】また上述の実施の形態においては、本発明
を、自然言語を音声として入力する情報処理装置(ペッ
トロボット1)に適用するようにした場合について述べ
たが、本発明はこれに限らず、例えばキーボードを介し
て直接テキストデータとして入力する情報処理装置にも
適用することができる。
【0070】さらに上述の実施の形態においては、関連
語彙を音声出力するようにした場合について述べたが、
本発明はこれに限らず、モニタ等に文字として表示する
ようにしても良い。
【0071】さらに上述の実施の形態においては、各関
連語彙を単に対応する語彙と対応付けて知識データベー
ス29に格納しておくようにした場合について述べた
が、本発明はこれに限らず、例えば各関連語彙を、対応
する語彙との意味的な距離を定義して格納しておき、対
話管理部22がこの対応する語彙との意味的な距離に基
づいて関連性の高いものから順番に利用して応答文を作
成し、これを音声合成部に送出するようにしても良い。
【0072】さらに上述の実施の形態においては、対話
管理部22が知識データベース29から関連語彙が検索
できなくなるまで検索処理を行うようにした場合につい
て述べたが、本発明はこれに限らず、検索処理を予め設
定された回数だけ行うようにしても良い。
【0073】さらに上述の実施の形態においては、入力
した自然言語から必要な語彙を抽出する語彙抽出手段
と、メモリ10Aに記憶された関連語彙のなかから、語
彙抽出手段により抽出された語彙と関連する関連語彙を
連続的に検索して出力する関連語彙検索手段と、音声入
力手段(本実施の形態においてはスピーカ17)を介し
て入力した音声を認識して、自然言語を作成する音声認
識手段とを同じ1つのコントローラ10を用いて構成す
るようにした場合について述べたが、本発明はこれに限
らず、これら語彙抽出手段、関連語彙検索手段及び音声
認識手段を別の演算処理手段により構成するようにして
も良い。またこれらをそれぞれハードウェア的に構成す
るようにしても良い。
【0074】さらに上述の実施の形態においては、複数
の語彙について、当該語彙と関連する関連語彙を記憶す
る記憶手段をメモリ10Aにより構成するようにした場
合について述べたが、本発明はこれに限らず、ハードデ
ィスク、光磁気ディスク又は磁気ディスク等のディスク
状記録媒体や、磁気テープ等のテープ状記録媒体などこ
の他種々の記憶手段を広く適用することができる。
【0075】
【発明の効果】上述のように本発明によれば、情報処理
装置において、入力した自然言語から必要な語彙を抽出
する語彙抽出手段と、複数の語彙について、当該語彙と
関連する関連語彙を記憶する記憶手段と、記憶手段に記
憶された関連語彙のなかから、語彙抽出手段により抽出
された語彙と関連する関連語彙を連続的に検索して出力
する関連語彙検索手段とを設けるようにしたことによ
り、入力した自然言語に関連する関連語彙を連続的に出
力することができ、かくしてユーザの発想を支援し得る
情報処理装置を実現できる。
【0076】また本発明においては、情報処理方法にお
いて、複数の語彙について、当該語彙と関連する関連語
彙を記憶する第1のステップと、入力した自然言語から
必要な語彙を抽出する第2のステップと、第1のステッ
プにおいて記憶した関連語彙のなかから、第2のステッ
プにおいて抽出した語彙と関連する関連語彙を連続的に
検索して出力する第3のステップとを設けるようにした
ことにより、入力した自然言語に関連する関連語彙を連
続的に出力することができ、かくしてユーザの発想を支
援し得る情報処理方法を実現できる。
【0077】さらに本発明においては、記憶媒体におい
て、入力した自然言語から必要な語彙を抽出する第1の
ステップと、複数の語彙について関連語彙が格納された
データベースから第1のステップにおいて抽出した語彙
と関連する関連語彙を連続的に検索して出力する第2の
ステップとを有する情報処理プログラムを記録するよう
にしたことにより、この記録媒体に記録された情報処理
プログラムによれば、入力した自然言語に関連する関連
語彙を連続的に出力することができ、かくしてユーザの
発想を支援し得る記録媒体を実現できる。
【図面の簡単な説明】
【図1】本発明を適用したペットロボットの構成を示す
斜視図である。
【図2】図1に示すペットロボットの回路構成を示すブ
ロック図である。
【図3】発想支援モード時におけるコントローラの処理
の説明に供するブロック図である。
【図4】辞書データベースにおける単語辞書の説明に供
する概念図である。
【図5】文法データベースにおける文法規則の説明に供
する概念図である。
【図6】音声区間検出処理手順を示すフローチャートで
ある。
【図7】音声認識処理手順を示すフローチャートであ
る。
【図8】句情報作成処理手順を示すフローチャートであ
る。
【図9】応答文作成処理手順を示すフローチャートであ
る。
【符号の説明】
1……ペットロボット、10……コントローラ、10A
……メモリ、14……マイク、17……スピーカ、20
……音声認識部、21……言語処理部、22……対話管
理部、23……音声合成部、24……音響モデルデータ
ベース、25、27……辞書データベース、26、28
……文法データベース、29……知識データベース。
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 13/00 G06F 15/401 310A 9A001 15/00 15/403 330C G10L 3/00 E 551B (72)発明者 包 洪長 東京都品川区北品川6丁目7番35号ソニー 株式会社内 (72)発明者 廣江 厚夫 東京都品川区北品川6丁目7番35号ソニー 株式会社内 (72)発明者 岸 秀樹 東京都品川区北品川6丁目7番35号ソニー 株式会社内 (72)発明者 武田 正資 東京都品川区北品川6丁目7番35号ソニー 株式会社内 Fターム(参考) 2C150 CA02 DA02 DA05 DA23 DF01 DG21 ED42 ED47 ED49 ED52 ED55 ED59 EF16 EF21 EF23 EF28 EH07 EH08 FA01 FA03 5B009 KB01 RD03 VA09 5B075 ND03 NK02 NK32 NK44 PQ04 UU40 5D015 KK02 5D045 AA20 9A001 BB06 EE02 FF03 HH13 HH17 HH18 HH19 HH34 KK62

Claims (12)

    【特許請求の範囲】
  1. 【請求項1】入力した自然言語から必要な語彙を抽出す
    る語彙抽出手段と、 複数の語彙について、当該語彙と関連する関連語彙を記
    憶する記憶手段と、 上記記憶手段に記憶された上記関連語彙のなかから、上
    記語彙抽出手段により抽出された上記語彙と関連する上
    記関連語彙を連続的に検索して出力する関連語彙検索手
    段とを具えることを特徴とする情報処理装置。
  2. 【請求項2】各上記関連語彙は、対応する上記語彙との
    意味的な距離が定義されて上記記憶手段に記憶され、 上記関連語彙検索出力手段は、上記関連語彙を、当該関
    連語彙に定義された対応する上記語彙との上記意味的な
    距離に基づいて、関連性の高い順に出力することを特徴
    とする請求項1に記載の情報処理装置。
  3. 【請求項3】上記関連語彙検索手段から出力される上記
    関連語彙を、音声として外部出力する音声出力手段を具
    えることを特徴とする請求項1に記載の情報処理装置。
  4. 【請求項4】音声を入力する音声入力手段と、 上記音声入力手段を介して入力した上記音声を認識し
    て、上記自然言語を作成する音声認識手段とを具えるこ
    とを特徴とする請求項1に記載の情報処理装置。
  5. 【請求項5】複数の語彙について、当該語彙と関連する
    関連語彙を記憶する第1のステップと、 入力した自然言語から必要な語彙を抽出する第2のステ
    ップと、 上記第1のステップにおいて記憶した上記関連語彙のな
    かから、上記第2のステップにおいて抽出した上記語彙
    と関連する上記関連語彙を連続的に検索して出力する第
    3のステップとを具えることを特徴とする情報処理方
    法。
  6. 【請求項6】上記第1のステップでは、各上記関連語彙
    を、対応する上記語彙との意味的な距離を定義して記憶
    し、 上記第3のステップでは、上記関連語彙を、当該関連語
    彙に定義された対応する上記語彙との上記意味的な距離
    に基づいて、関連性の高い順に出力することを特徴とす
    る請求項5に記載の情報処理方法。
  7. 【請求項7】上記第3のステップにおいて検索された上
    記関連語彙を、音声として外部出力する第4のステップ
    を具えることを特徴とする請求項5に記載の情報処理方
    法。
  8. 【請求項8】上記第2のステップは、 音声を入力する音声入力ステップと、 上記音声入力手段を介して入力した上記音声を認識し
    て、上記自然言語を作成する音声認識ステップと、 作成された上記自然言語から必要な語彙を抽出する語彙
    抽出ステップとを具えることを特徴とする請求項5に記
    載の情報処理方法。
  9. 【請求項9】自然言語から必要な語彙を抽出する第1の
    ステップと、 複数の語彙について関連語彙が格納されたデータベース
    から上記第1のステップにおいて抽出した上記語彙と関
    連する上記関連語彙を連続的に検索して出力する第2の
    ステップとを有する情報処理プログラムが記録されたこ
    とを特徴とする記録媒体。
  10. 【請求項10】上記データベースには、各上記関連語彙
    が、対応する上記語彙との意味的な距離が定義されて格
    納され、 上記第2のステップでは、上記関連語彙を、当該関連語
    彙に定義された対応する上記語彙との上記意味的な距離
    に基づいて、関連性の高い順に出力することを特徴とす
    る請求項9に記載の記録媒体。
  11. 【請求項11】上記第2のステップにおいて検索された
    上記関連語彙を、音声として外部出力する第3のステッ
    プを具えることを特徴とする請求項9に記載の記録媒
    体。
  12. 【請求項12】上記第1のステップは、 音声を入力する音声入力ステップと、 上記音声入力手段を介して入力した上記音声を認識し
    て、上記自然言語を作成する音声認識ステップと、 作成された上記自然言語から必要な語彙を抽出する語彙
    抽出ステップとを具えることを特徴とする請求項9に記
    載の記録媒体。
JP2000027363A 2000-01-31 2000-01-31 情報処理装置及び方法並びに記録媒体 Pending JP2001216326A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000027363A JP2001216326A (ja) 2000-01-31 2000-01-31 情報処理装置及び方法並びに記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000027363A JP2001216326A (ja) 2000-01-31 2000-01-31 情報処理装置及び方法並びに記録媒体

Publications (1)

Publication Number Publication Date
JP2001216326A true JP2001216326A (ja) 2001-08-10

Family

ID=18552945

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000027363A Pending JP2001216326A (ja) 2000-01-31 2000-01-31 情報処理装置及び方法並びに記録媒体

Country Status (1)

Country Link
JP (1) JP2001216326A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006139134A (ja) * 2004-11-12 2006-06-01 Pioneer Electronic Corp 音声出力制御装置、音声出力制御システム、それらの方法、それらのプログラム、および、それらのプログラムを記録した記録媒体
JP2006145891A (ja) * 2004-11-19 2006-06-08 Pioneer Electronic Corp 音声処理装置、音声処理方法、音声処理用プログラム及び記録媒体
WO2007060780A1 (ja) * 2005-11-22 2007-05-31 Nec Corporation 発想支援装置、発想支援方法および発想支援用プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006139134A (ja) * 2004-11-12 2006-06-01 Pioneer Electronic Corp 音声出力制御装置、音声出力制御システム、それらの方法、それらのプログラム、および、それらのプログラムを記録した記録媒体
JP2006145891A (ja) * 2004-11-19 2006-06-08 Pioneer Electronic Corp 音声処理装置、音声処理方法、音声処理用プログラム及び記録媒体
JP4718163B2 (ja) * 2004-11-19 2011-07-06 パイオニア株式会社 音声処理装置、音声処理方法、音声処理用プログラム及び記録媒体
WO2007060780A1 (ja) * 2005-11-22 2007-05-31 Nec Corporation 発想支援装置、発想支援方法および発想支援用プログラム

Similar Documents

Publication Publication Date Title
JP4510953B2 (ja) 音声認識におけるノンインタラクティブ方式のエンロールメント
US7720683B1 (en) Method and apparatus of specifying and performing speech recognition operations
JP4458321B2 (ja) 感情認識方法および感情認識装置
EP0974141B1 (en) Extensible speech recognition system that provides a user with audio feedback
US20170133038A1 (en) Method and apparatus for keyword speech recognition
JP6980603B2 (ja) 話者モデル作成システム、認識システム、プログラムおよび制御装置
JP2003255991A (ja) 対話制御システム、対話制御方法及びロボット装置
JP2003316386A (ja) 音声認識方法および音声認識装置および音声認識プログラム
JP2001188555A (ja) 情報処理装置および方法、並びに記録媒体
JP2002304190A (ja) 発音変化形生成方法及び音声認識方法
JP2004090109A (ja) ロボット装置およびロボット装置の対話方法
JP2001215993A (ja) 対話処理装置および対話処理方法、並びに記録媒体
Pulasinghe et al. Modular fuzzy-neuro controller driven by spoken language commands
US11195522B1 (en) False invocation rejection for speech processing systems
JP2004101901A (ja) 音声対話装置及び音声対話プログラム
JP2001188779A (ja) 情報処理装置および方法、並びに記録媒体
JP3468572B2 (ja) 対話処理装置
Ström Continuous speech recognition in the WAXHOLM dialogue system
JP2001216326A (ja) 情報処理装置及び方法並びに記録媒体
JP2001209644A (ja) 情報処理装置および情報処理方法、並びに記録媒体
JP2001188782A (ja) 情報処理装置および方法、並びに記録媒体
JP2009116075A (ja) 音声認識装置
JP2002372988A (ja) 認識辞書作成装置及び棄却辞書及び棄却辞書の生成方法
JP2005283646A (ja) 音声認識率推定装置
JP2001255887A (ja) 音声認識装置、音声認識方法及び音声認識方法を記録した媒体