JPWO2004027527A1 - 対話型装置 - Google Patents

対話型装置 Download PDF

Info

Publication number
JPWO2004027527A1
JPWO2004027527A1 JP2004538008A JP2004538008A JPWO2004027527A1 JP WO2004027527 A1 JPWO2004027527 A1 JP WO2004027527A1 JP 2004538008 A JP2004538008 A JP 2004538008A JP 2004538008 A JP2004538008 A JP 2004538008A JP WO2004027527 A1 JPWO2004027527 A1 JP WO2004027527A1
Authority
JP
Japan
Prior art keywords
user
behavior pattern
unit
pattern
proposed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004538008A
Other languages
English (en)
Inventor
山本 真一
真一 山本
山本 浩司
浩司 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Publication of JPWO2004027527A1 publication Critical patent/JPWO2004027527A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H70/00ICT specially adapted for the handling or processing of medical references
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Toys (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

生体センサを人体に装着することなく、ユーザの健康状態に応じた行動パターンを決定することが可能な対話型装置1を提供する。対話型装置1は、ユーザの健康状態を把握する把握手段50bと、ユーザの健康状態に応じた行動パターンを決定する行動パターン決定手段50cと、その行動パターンの実行を指示する実行指示手段50gと、その行動パターンの実行を指示する前に、その行動パターンをユーザに音声で提案する提案手段50eと、提案された行動パターンに対するユーザの返事が提案された行動パターンを受け入れるという返事か否かを判定する提案承諾判定手段50fとを備えている。実行指示手段50gは、ユーザの返事が提案された行動パターンを受け入れるという返事であると判定された場合に、提案された行動パターンの実行を指示する。

Description

本発明は、ユーザとの対話を行うことが可能な対話型装置に関する。
生態情報を監視して逐次居住者の好みのオーディオ信号を当該居住者の現在の生活状態及び体調に応じたレベルに調整して再生する音響装置が開示されている(例えば、特許文献1を参照)。この音響装置は、部屋に設置されたセンサによって居住者の生活状態を把握し、居住者が装着する携帯送受信機(生体センサを含む)からの識別情報、生態情報を監視して逐次居住者の好みのオーディオ信号を当該居住者の現在の生活状態及び体調に応じたレベルに調整して再生する。
特許文献1:特開平11−221196号公報
しかし、上記特許文献1に記載の従来技術では、生体情報などを取得するために居住者は携帯送受信機を装着する必要があり、居住者にとって装着の煩わしさのため大変不便であるとともに、部屋に設置されたセンサによって居住者は生活を常々監視されていることになり、不快な思いをするといった課題があった。
本発明は、生体センサを人体に装着することなく、ユーザの健康状態に応じた行動パターンを決定することが可能な対話型装置を提供することを目的とする。
本発明の対話型装置は、ユーザの健康状態を把握する把握手段と、前記把握手段によって把握された前記ユーザの健康状態に応じた行動パターンを決定する決定手段と、前記決定手段によって決定された行動パターンの実行を指示する実行指示手段と、前記決定手段によって決定された行動パターンの実行を指示する前に、前記ユーザに前記行動パターンを音声で提案する提案手段と、前記提案された行動パターンに対する前記ユーザの返事が前記提案された行動パターンを受け入れるという返事か否かを判定する判定手段とを備え、前記実行指示手段は、前記ユーザの返事が前記提案された行動パターンを受け入れるという返事であると判定された場合に、前記提案された行動パターンの実行を指示し、これにより上記目的が達成される。
前記把握手段は、前記ユーザの発話に基づいて前記ユーザの健康状態を把握してもよい。
前記把握手段は、前記ユーザが発するキーワードに基づいて前記ユーザの健康状態を把握してもよい。
前記決定手段によって決定された行動パターンの実行を指示する前に、前記ユーザに前記行動パターンを提案する必要があるか否かを判定する提案要否判定手段をさらに備え、前記提案手段は、前記行動パターンの実行を指示する前に前記ユーザに前記行動パターンを提案する必要があると判定された場合に、前記ユーザに前記行動パターンを音声で提案してもよい。
前記提案要否判定手段は、前記行動パターンに予め割り当てられた提案の要否を示すフラグの値に応じて提案の要否を判定してもよい。
前記提案要否判定手段は、前記行動パターンが実行された実行回数の時間分布に基づいて提案の要否を判定してもよい。
前記決定手段は、優先順位がそれぞれ割り当てられた複数の行動パターンのうちの1つを前記ユーザの健康状態に応じた行動パターンとして決定し、その行動パターンが前記ユーザに受け入れられたか否かに応じて、その行動パターンに割り当てられた優先順位を変動させてもよい。
前記ユーザの健康状態に応じた行動パターンを記憶する記憶手段をさらに備え、前記決定手段は、前記記憶手段に記憶された行動パターンを用いて前記行動パターンを決定してもよい。
前記提案手段によって前記ユーザに提案される行動パターンは、再生機器で再生するコンテンツの選択を含んでもよい。
前記コンテンツは、音声データと映像データと照明制御データとを含み、前記再生機器が照明制御データに基づいて照明装置の光量および光色の少なくとも一方を変化させてもよい。
前記対話型装置は、エージェント機能および移動機能のうちの少なくとも1つの機能を有していてもよい。
前記ユーザの健康状態は、前記ユーザの感情および前記ユーザの体調のうちの少なくとも一方を表してもよい。
本発明の対話型装置は、ユーザが発する音声を音声信号に変換する音声入力部と、前記音声入力部から出力される音声信号に基づいてユーザが発した言葉を認識する音声認識部と、前記ユーザが発すると予想される言葉が予め登録され、前記登録されている言葉と前記ユーザの健康状態との対応関係を保持している対話データベースと、前記音声認識部によって認識された言葉と前記対話データベースに登録されている言葉とを照合し、その照合結果に応じて前記ユーザの健康状態を決定することによって、前記ユーザの健康状態を把握する把握手段と、前記ユーザの健康状態と対話型装置の行動パターンとの対応関係を保持している行動パターンテーブルに基づいて、前記把握手段によって把握された前記ユーザの健康状態に応じた行動パターンを決定する決定手段と、前記決定手段によって決定された行動パターンの実行を指示する実行指示手段と、前記決定手段によって決定された行動パターンの実行を指示する前に、前記把握手段の出力結果と前記決定手段の出力結果とに基づいて提案文を合成し、前記ユーザに前記行動パターンを音声で提案する提案手段と、前記提案された行動パターンに対する前記ユーザの返事が前記提案された行動パターンを受け入れるという返事か否かを判定する判定手段とを備え、前記実行指示手段は、前記ユーザの返事が前記提案された行動パターンを受け入れるという返事であると判定された場合に、前記提案された行動パターンの実行を指示し、これにより上記目的が達成される。
前記提案された行動パターンに対して前記ユーザから逆提案された行動パターンを受け取る手段と、前記逆提案された行動パターンを前記対話型装置が実行可能であるか否かを判定する手段と、前記逆提案された行動パターンを前記対話型装置が実行可能であると判定された場合に、前記行動パターンテーブルに保持されている前記ユーザの健康状態と前記対話型装置の行動パターンとの対応関係を更新する手段とをさらに備えていてもよい。
図1は、本発明の対話型装置の一例としてのロボット1の外観を示す図である。
図2は、ロボット1の内部構成の一例を示す図である。
図3は、対話データベース140に格納されているユーザが発するキーワードとユーザの健康状態との関係の一例を示す図である。
図4は、情報データベース160に格納されているユーザの健康状態とロボット1の行動パターンとの関係の一例を示す図である。
図5は、ロボット1がユーザの健康状態を把握し、ユーザの健康状態に適合した行動パターンの実行を指示する処理の手順の一例を示すフローチャートである。
図6は、音声データおよび/または映像データと照明制御データとの同期再生を可能にする再生装置2100の構成の一例を示す図である。
図7は、音声認識部40の内部構成の一例を示す図である。
図8aは、図2に示される処理部50の内部構成の一例を示す図である。
図8bは、図2に示される処理部50の内部構成の他の例を示す図である。
図8cは、図2の処理部50の内部構成の他の例を示す図である。
図9は、提案手段50eによる提案文の作成方法の一例を説明するための図である。
図10は、提案要否判定手段50dの内部構成の一例を示す図である。
図11は、行動提案要否テーブル162の構造の一例を示す図である。
以下、図面を参照しながら本発明の実施の形態を説明する。
本明細書では、「ユーザの健康状態」とは、ユーザの感情およびユーザの体調のうちの少なくとも一方を表すものとする。「ユーザ」とは、対話型装置の所有者をいうものとする。
図1は、本発明の対話型装置の一例としてのロボット1の外観を示す。ロボット1は、ユーザと対話を行うことが可能なように構成されている。
図1に示されるロボット1は、「目」に相当するカメラ10と、「口」に相当するスピーカ110およびアンテナ62と、「耳」に相当するマイク30およびアンテナ62と、「首」や「腕」に相当する可動部180とを有している。
ロボット1は、自らが移動することを可能にする移動部160を有する自律走行型ロボット(移動式ロボット)であってもよいし、自らが移動することができないタイプのものであってもよい。
ロボット1が移動することを可能にするメカニズムとしては任意のメカニズムを採用することができる。例えば、ロボット1は、手足に設置されたローラの回転を制御することによって前進、後退するように構成されていてもよいし、タイヤ式や脚式などの移動式ロボットでもよい。ロボット1は、人のような二足直立歩行を行う動物を模倣した人間型ロボットでもよいし、4足歩行の動物を模倣したペット型ロボットでもよい。
なお、対話型装置の一例として、対話型のロボットを説明したが、対話型装置はこれに限定されない。対話型装置は、ユーザと対話を行うことが可能なように構成された任意の装置であり得る。対話型装置は、例えば、対話型の玩具であってもよいし、対話型携帯機器(携帯電話を含む)であってもよいし、対話型のエージェントであってもよい。
対話型のエージェントは、インターネットのような情報空間を動き回り、情報検索、フィルタリング、スケジュール調整などの情報処理を人間の代わりに行ってくれる機能(ソフトウェアエージェントの機能)を有していることが好ましい。対話型のエージェントはあたかも人間であるかのように人間と対話をするため、擬人化エージェントと呼ばれることもある。
対話型装置は、エージェント機能および移動機能のうちの少なくとも1つの機能を有していてもよい。
図2は、ロボット1の内部構成の一例を示す。
画像認識部20は、カメラ10(画像入力部)から画像を取り込み、その取り込んだ画像を認識し、その認識結果を処理部50に出力する。
音声認識部40は、マイク30(音声入力部)から音声を取り込み、その取り込んだ音声を認識し、その認識結果を処理部50に出力する。
図7は、音声認識部40の内部構成の一例を示す。
音声入力部30(マイク)によって、音声が音声信号波形に変換される。音声信号波形は、音声認識部40に出力される。音声認識部40は、音声検出手段71と、比較演算手段72と、認識手段73と、登録音声データベース74とを含む。
音声検出手段71は、音声入力部30から入力された音声信号波形が一定基準を満たす波形部分を実際にユーザが発声した音声区間として切り出し、その区間の音声信号波形を音声波形として比較演算手段72に出力する。ここで、音声区間を切り出す一定基準とは、例えば、一般的に人間の音声帯域である1kHz以下の周波数帯域における信号波形のパワーが一定レベル以上であるということがあげられる。
登録音声データベース74には、ユーザが発話すると予測される言葉に対する音声波形とその言葉が予め対応付けられて登録されている。
比較演算手段72は、音声検出手段71から入力された音声波形と登録音声データベース74に登録されている音声波形とを順次、比較し、登録音声データベース74に登録された音声波形毎に類似度を算出し、その算出結果を認識手段73に出力する。ここで、2つの音声波形を比較する手法としては、音声波形をフーリエ変換等の周波数分析した後の各周波数におけるパワー成分の差分合計を比較する手法を採用してもよいし、周波数分析した後、さらに極座標変換したケプストラム特徴量やメルケプストラム特徴量において時間的伸縮を考慮したDPマッチングを行う手法を採用してもよい。また、比較演算の効率化のために、登録音声データベース74に登録されている音声波形を比較演算手段72で用いる比較要素(例えば、各周波数のパワー成分)としてもよい。また、登録音声データベース74に登録されている音声波形には、ユーザの咳払いやうなり声等、発声を意図しない場合の音声波形を登録し、対応する言葉として「意図しない発声」として登録しておく。これによって、ユーザが意図した発声と意図しない発声とを区別することが可能となる。
認識手段73は、比較演算手段72から入力される各音声波形毎の類似度のうち、最も高い類似度を持つ音声波形を検出し、登録音声データベース74から検出された音声波形に対応する言葉を決定することにより、音声波形を文字に変換し、その文字を処理部50に出力する。各類似度に大きな差異が見られない場合には、入力音声はノイズであると判断して、音声波形から文字への変換を行わない。あるいは、「ノイズ」という文字に変換してもよい。
図8aは、図2に示される処理部50の内部構成の一例を示す。
処理部50(処理手段50a)は、音声認識部40による音声認識結果に基づいて対話データベース140を検索し、応答文を生成する。この応答文は、音声合成部100に出力される。音声合成部100は、応答文を音声に合成する。合成された音声は、スピーカなどの音声出力部110から出力される。
対話データベース140には、対話のパターンや応答文の生成規則が格納されている。さらに、対話データベース140には、ユーザが発する言葉(キーワード)とユーザの健康状態との関係が格納されている。
図3は、対話データベース140に格納されているユーザが発するキーワードとユーザの健康状態との関係の一例を示す。
図3に示される例では、ユーザが発するキーワードとユーザの健康状態との関係は表の形式で表現されている。例えば、この表の行31は、「眠い」、「しんどい」、「食欲がない」というキーワードと「疲れ」というユーザの健康状態(体調)とが対応づけられていることを示す。この表の行32は、「やった!」、「最高!」というキーワードと「喜び」というユーザの健康状態(感情)とが対応づけられていることを示す。
なお、ユーザが発するキーワードとユーザの健康状態との関係を表現する方法は図3に示される方法に限定されない。ユーザが発するキーワードとユーザの健康状態との関係は任意の方法で表現され得る。
処理部50(把握手段50b)は、音声認識部40による音声認識結果からキーワードを抽出し、そのキーワードを用いて対話データベース140を検索する。その結果、処理部50(把握手段50b)は、そのキーワードからユーザの健康状態を把握する。例えば、音声認識結果から抽出されたキーワードが「眠い」、「しんどい」、「食欲がない」のうちの1つであった場合には、処理部50(把握手段50b)は、図3に示される表を参照してユーザの健康状態が「疲れ」の状態であると判定する。
なお、上述したキーワードを用いる方法に代えて、または、上述したキーワードを用いる方法に加えて、音声認識結果に基づいてユーザの音声の強さまたは張りのレベルを検出することにより、ユーザの健康状態を把握するようにしてもよい。例えば、処理部50(把握手段50b)がユーザの音声の強さまたは張りのレベルが所定のレベル以下であることを検出した場合には、処理部50(把握手段50b)は、ユーザの健康状態が「疲れ」の状態であると判定する。
なお、音声認識部40による音声認識結果に加えて、画像認識部20による画像認識結果を用いてユーザの健康状態を把握するようにしてもよい。あるいは、画像認識部20による画像認識結果を単独で用いてユーザの健康状態を把握するようにしてもよい。例えば、処理部50(把握手段50b)がユーザがまばたきする頻度が多いこと(または、ユーザがあくびをしたこと)を検出した場合には、処理部50(把握手段50b)は、ユーザの健康状態が「疲れ」の状態であると判定する。
このように、処理部50(把握手段50b)は、ユーザの発話に基づいて、または、画像認識結果に基づいて、ユーザの健康状態を把握する把握手段として機能する。
情報データベース160には、今日の天気やニュースなどの情報や、各種一般常識などの知識や、ロボット1のユーザ(所有者)に関する情報(例えば、性別、年齢、名前、職業、性格、趣味、生年月日などの情報)や、ロボット1に関する情報(例えば、型番、内部構成などの情報)が格納されている。今日の天気やニュースなどの情報は、例えば、ロボット1が外部から送受信部60(通信部)および処理部50を介して取得され、情報データベース160に格納される。さらに、情報データベース160には、ユーザの健康状態と行動パターンとの関係が行動パターンテーブル161として格納されている。
図4は、情報データベース160に格納されている行動パターンテーブル161の一例を示す。行動パターンテーブル161は、ユーザの健康状態とロボット1の行動パターンとの関係を定義する。
図4に示される例では、ユーザの健康状態とロボット1の行動パターンとの関係は表の形式で表現されている。例えば、この表の行41は、「疲れ」というユーザの健康状態とロボット1の3つの行動パターンとが対応づけられていることを示す。3つの行動パターンは、以下のとおりである。
1)コンテンツの選択、再生:「癒し」「催眠」効果を発揮するコンテンツ(ソフト)を選択し、その選択されたコンテンツ(ソフト)を再生機器で再生する
2)風呂の準備:ユーザに入浴を勧めるために風呂の準備をする
3)飲食物のレシピの選択、調理:「食欲を増進させる」「滋養の高い」飲食物のレシピを選択し、その選択されたレシピに従って飲食物を調理する
また、この表の行42は、「喜び」というユーザの健康状態と「バンザイのジェスチャ」というロボット1の行動パターンとが対応づけられていることを示す。
なお、ユーザの健康状態とロボット1の行動パターンとの関係を表現する方法は図4に示される方法に限定されない。ユーザの健康状態とロボット1の行動パターンとの関係は任意の方法で表現され得る。
ロボット1の行動パターンの例としては、ユーザの健康状態に適合したコンテンツ(ソフト)を選択しその選択されたコンテンツ(ソフト)を再生機器で再生すること、ユーザの健康状態に適合した飲食物のレシピを選択しその選択されたレシピに従って飲食物を調理すること、風呂の準備をすること、笑いを取るための小話を実演することなどが挙げられる。
処理部50(行動パターン決定手段50c)は、把握手段50bから出力されるタイミング信号t1に応答して対話データベース140を検索することによって把握されたユーザの健康状態を用いて情報データベース160(行動パターンテーブル161)を検索する。その結果、処理部50(行動パターン決定手段50c)は、ユーザの健康状態に応じたロボット1の行動パターンを決定する。例えば、ユーザの健康状態が「疲れ」の状態である場合には、処理部50(行動パターン決定手段50c)は、図4に示される表(行動パターンテーブル161)を参照して、「疲れ」の状態に対応して定義されている3つの行動パターンのうちの1つをロボット1の行動パターンとして決定する。
ここで、処理部50(行動パターン決定手段50c)は、様々な態様で、3つの行動パターンのうちの1つをロボット1の行動パターンとして決定することができる。例えば、3つの行動パターンのそれぞれに優先順位が予め割り当てられている場合には、その優先順位の高いものから順にロボット1の行動パターンとして決定することができる。その優先順位を時間帯に応じて変動させるようにしてもよい。例えば、18:00〜22:00の時間帯は「風呂の準備」の優先順位を最も高くし、6:00〜8:00、11:00〜13:00、17:00〜19:00の時間帯は「飲食物のレシピの選択、調理」の優先順位を最も高くし、その他の時間帯は「コンテンツの選択、再生」の優先順位を最も高くするようにしてもよい。
このように、処理部50(行動パターン決定手段50c)は、把握手段50bによって把握されたユーザの健康状態に応じた行動パターンを決定する決定手段として機能する。
処理部50(実行指示手段50g)は、行動パターン決定手段50cから出力されるタイミング信号t2に応答して、決定された行動パターンに応じた制御信号を生成し、その制御信号を動作制御部120に出力する。
動作制御部120は、処理部50(実行指示手段50g)から出力される制御信号に応じて各種のアクチュエータ130を駆動する。これにより、ロボット1を所望の態様で動作させることが可能になる。
例えば、決定された行動パターンが「バンザイのジェスチャ」である場合には、動作制御部120は、処理部50(実行指示手段50g)から出力される制御信号に従って、ロボット1の「腕」を上下させるアクチュエータ(アクチュエータ130の一部)を駆動する。あるいは、決定された行動パターンが「コンテンツの選択、再生」である場合には、動作制御部120は、処理部50(実行指示手段50g)から出力される制御信号に従って、ディスクを把持し把持したディスクを再生機器にセットするようにロボット1の「手の指」(把持手段)を制御するアクチュエータ(アクチュエータ130の一部)を駆動するようにしてもよい。例えば、複数のディスクは所定の順にラックに整理されて収納されているものとする。
このように、処理部50(実行指示手段50g)は、行動パターン決定手段50cによって決定された行動パターンの実行を動作制御部120に指示する実行指示手段として機能する。
あるいは、決定された行動パターンが「風呂の準備」である場合には、処理部50(実行指示手段50g)は、給湯制御装置にリモートコントロール信号を送信するようにリモートコントロール部70を制御してもよい。給湯制御装置は、リモートコントロール信号に応じて風呂桶に適温の湯を適量だけ供給する(あるいは、風呂桶に適量の水を供給した後、その水が適温の湯になるまで加熱する)。この場合には、処理部50(実行指示手段50g)は、行動パターン決定手段50cによって決定された行動パターンの実行をリモートコントロール部70に指示する実行指示手段として機能する。
あるいは、決定された行動パターンが「コンテンツの選択、再生」である場合には、処理部50(実行指示手段50g)は、再生機器にリモートコントロール信号を送信するようにリモートコントロール部70を制御してもよい。再生機器は、リモートコントロール信号に応じて再生機器にセットされているディスクの中からコンテンツを選択し、再生する。再生機器が複数のディスクをセット可能なディスクチェンジャーに接続されている場合には、その再生機器はリモートコントロール信号に応じてその複数のディスクの中からコンテンツを選択し、再生するようにしてもよい。なお、複数のディスクのすべての曲を含む選曲リストを処理部50内のメモリに格納しておくようにしてもよいし、再生機器がディスクのヘッダ部からそのディスクの選曲リストを読み取り、送受信部60経由で処理部50内のメモリに格納するようにしてもよい。この場合には、処理部50(実行指示手段50g)は、行動パターン決定手段50cによって決定された行動パターンの実行をリモートコントロール部70に指示する実行指示手段として機能する。
図8bは、図2に示される処理部50の内部構成の他の例を示す。図8bに示される例では、処理部50(提案手段50e)は、決定された行動パターンの実行を指示する前に、ユーザにその行動パターンを音声で提案する。例えば、決定された行動パターンが「風呂の準備」である場合には、行動パターン決定手段50cから出力されるタイミング信号t2に応答して、処理部50(提案手段50e)は、対話データベース140を参照して、「お疲れのようですね。お風呂の準備をいたしましょうか?」という疑問文(提案文)を生成し、音声合成部100に出力するようにすればよい。音声合成部100は、その疑問文を音声に合成する。合成された音声は、音声出力部110から出力される。
次に、図9を参照して提案手段50eによる提案文の作成方法を説明する。提案手段50eは内部に提案文合成部を備えている。対話データベース140は提案文フォーマットデータベースを内部に備えており、この提案文フォーマットデータベースには、複数の提案表現に対応する複数の提案文フォーマットが記録保持されている。ここで、「提案表現」とは、例えば、図9の例で示すような「Aですね。Bしましょうか?」、「Aのようですが、Bしてもいいですか?」というような、提案する動機となった原因(A)とそれに対する対応(B)を示す文章表現のことである。
まず、提案手段(提案文合成部)50eは、把握手段50bから入力される「把握された健康状態」と、行動パターン決定手段50cから入力される「決定された行動パターン」とに基づいて、提案文フォーマットデータベースから前記「把握された健康状態」に合う提案文フォーマットを選択する。次に、提案手段(提案文合成部)50eは、「把握された健康状態」を提案文フォーマットのAに、「決定された行動パターン」を提案文フォーマットのBに挿入することで提案文を合成する。例えば、「把握された健康状態」が「疲れ」であり、「決定された行動パターン」が「風呂の準備」である場合には、提案手段(提案文合成部)50eは、「お疲れのようですね。お風呂の準備をいたしましょうか?」という提案文を合成する。提案文は、音声合成部100に出力される。音声合成部100は、提案文を音声に合成する。合成された音声は音声出力部110から出力される。
このように、処理部50(提案手段50e)は、対話データベース(提案文フォーマットデータベース)140と音声合成部100と音声出力部110とを用いて、行動パターン決定手段50cによって決定された行動パターンの実行を指示する前に、ユーザにその行動パターンを音声で提案する提案手段として機能する。
ユーザは、ロボット1からの提案に対してその提案を受け入れるか、または、受け入れないかの返事をする。例えば、ユーザは、その提案を受け入れる(Yes)という意思表示として「はい」、「そやな」、「そうしてくれ」などの返事をし、その提案を受け入れない(No)という意思表示として「いいえ」、「いらん」、「その必要なし」などの返事をするものとする。このような返事のパターンは対話データベース140に予め格納しておくものとする。
処理部50(提案承諾判定手段50f)は、提案手段50eから出力されるタイミング信号t5に応答して音声認識部40による音声認識結果を対話データベース140を参照して分析することにより、ユーザからの返事が提案を受け入れる(Yes)という返事なのか、提案を受け入れない(No)という返事なのかを判定する。
このように、処理部50(提案承諾判定手段50f)は、音声認識部40と対話データベース140とを用いて、提案された行動パターンに対するユーザの返事がその提案された行動パターンを受け入れるという返事か否かを判定する提案承諾判定手段として機能する。
図8cは、図2に示される処理部50の内部構成の他の例を示す。決定された行動パターンの実行を指示する前に、ユーザにその行動パターンを提案する必要があるか否かを判定するようにしてもよい。例えば、図4に示される表の各行動パターンに提案の要否を示すフラグを予め割り当てた図11に示す行動提案要否テーブル162を予め設定しておくことにより、処理部50(提案要否判定手段50d)は、そのフラグの値に応じて提案の要否を判定することができる。例えば、処理部50(提案要否判定手段50d)は、行動パターンに割り当てられたフラグの値が”1”である場合には、その行動パターンの実行を指示する前にその行動パターンをユーザに提案し、行動パターンに割り当てられたフラグの値が”0”である場合には、その行動パターンの実行を指示する前にその行動パターンをユーザに提案しない。
例えば、「風呂の準備」という行動パターンについては、ユーザへの事前の提案は要とされることが好ましい。ユーザが風呂に入りたいか否かはそのときの気分に負うところが大きく、ユーザへの事前の提案を不要とするとおしつけがましくなってしまうおそれがあるからである。例えば、「バイザイのジェスチャ」という行動パターンについては、ユーザへの事前の提案は不要とされることが好ましい。ユーザにいちいち断ってから万歳をしたのでは気がぬけてしまうおそれがあるからである。
このように、処理部50(提案要否判定手段50d)は、情報データベース160(行動提案要否テーブル162)を用いて、決定された行動パターンの実行を指示する前に、ユーザにその行動パターンを提案する必要があるか否かを判定する提案要否判定手段として機能する。
行動パターンが実行される時間帯が決まっている場合や、その行動パターンが頻繁に実行される場合には、ユーザにその行動パターンをいちいち提案することは望まれないことが多い。逆に、普段ほとんど実行されないような行動パターンの場合には、その行動パターンの実行を指示する前にその行動パターンをユーザに提案することによってユーザがその行動パターンの実行を望んでいるか否かを確認することが望ましい。
図10を参照して、上述した機能を実現する提案要否判定手段50dを説明する。時間分布記録保持部90は、時刻計測部91と、積算部92と、時間分布データベース93とを含む。提案要否判定手段50dは内部に比較決定部を備えている。時刻計測部91は、実行指示手段50gの入力を受け、行動パターンが実行された時刻を計測し、積算部92に出力する。時間分布データベース93は、時刻毎に各行動パターンが実行された回数を記録保持しており、積算部92は、時刻計測部91からの入力を受ける毎に、計測された時刻における時間分布データベース93に記録された実行回数に1回分を積算していく。このようにして時間分布記録保持部90は、時刻毎に実行された行動パターンの履歴情報を蓄えていく。提案要否判定手段(比較決定部)50dは、予め設定された値を持ち、行動パターン決定手段50cからの入力を受けた際に、その時刻(もしくは時間帯)におけるその行動パターンの過去の実行回数を時間分布記録保持部90から参照し、前記予め設定された値と比較する。比較決定部は、その行動パターンの過去の実行回数が予め設定された値より小さい場合には、その行動パターンを提案をする必要があると判定し、その行動パターンの過去の実行回数が予め設定された値より大きい場合には、その行動パターンを提案をする必要がないと判定する。その判定結果は、提案要否判定手段50dの判定結果として提案要否判定手段50dから出力する。
このように、提案要否判定手段50dは、行動パターンが実行された実行回数の時間分布に基づいて提案の要否を判定する。
図5は、ロボット1がユーザの健康状態を把握し、ユーザの健康状態に適合した行動パターンの実行を指示する処理の手順を示す。
ステップST1:ユーザの健康状態が把握される。
例えば、処理部50(把握手段50b)は、音声認識部40による音声認識結果からキーワードを抽出し、そのキーワードを用いて対話データベース140を検索する。その結果、処理部50(把握手段50b)は、そのキーワードからユーザの健康状態を把握することができる。
以下にユーザとロボット1との対話の例を示す。ここで、Uはユーザの発話を示し、Sはロボット1の発話を示す。
U:今日はしんどい〜。
S:そのようですね。
このように、ユーザが「眠い」、「しんどい」、「食欲がない」といったキーワードを発話した場合には、処理部50(把握手段50b)は、ユーザの健康状態を「疲れ」の状態であると判定する。
ステップST2:ステップST1において把握されたユーザの健康状態に応じた行動パターンが決定される。
例えば、処理部50(行動パターン決定手段50c)は、ユーザの健康状態を用いて情報データベース160(行動パターンテーブル161)を検索する。その結果、処理部50(行動パターン決定手段50c)は、ユーザの健康状態に対応する行動パターンを決定することができる。行動パターンは、ユーザの要望を推定したものとして予め設定されていることが好ましい。
ステップST3:ステップST2において決定された行動パターンの実行を指示する前に、提案要否判定手段50dによってその行動パターンをユーザに提案する必要があるか否かが判定される。
ステップST3の判定結果が「Yes」である場合には処理はステップST4に進み、ステップST3の判定結果が「No」である場合には処理はステップST6に進む。
ステップST4:提案手段50eによってステップST2において決定された行動パターンの実行を指示する前に、その行動パターンがユーザに提案される。
以下にユーザとロボット1との対話の例を示す。ここで、Uはユーザの発話を示し、Sはロボット1の発話を示す。
S:お疲れのようですね。それでは癒し効果のあるコンテンツ(ソフト)を再生しましょうか?
U:頼むわ。
ステップST5:提案承諾判定手段50fによってステップST4においてロボット1が提案した行動パターンをユーザが受け入れる返答をしたか否かが判定される。
ステップST5の判定結果が「Yes」である場合には処理はステップST6に進み、ステップST5の判定結果が「No」である場合には処理はステップST7に進む。
ステップST6:実行指示手段50gによってステップST2において決定された行動パターンの実行が指示される。
ステップST7:提案された行動パターンとユーザが提案を受け入れなかった(リジェクトした)こととが履歴情報として情報データベース160に格納される。
この履歴情報は、ステップST2において次回からの行動パターンの内容を決定する際に参照される。ユーザが受け入れなかった行動パターンに割り当てられた優先順位を低くするようにしてもよい。
なお、ステップST7に代えて、または、ステップST7に加えて、ステップST5においてユーザが提案を受け入れた場合に、提案された行動パターンとユーザが提案を受け入れた(アクセプトした)こととを履歴情報として情報データベース160に格納するようにしてもよい。この履歴情報は、ステップST2において次回からの行動パターンの内容を決定する際に参照される。ユーザが受け入れた行動パターンに割り当てられた優先順位を高くするようにしてもよい。
このように、提案された行動パターンがユーザに受け入れられたか否かに応じて、その行動パターンに割り当てられた優先順位を変動させることが好ましい。これにより、ユーザの癖などを行動パターンの決定に反映させることができる。その結果、ロボット1によって決定される行動パターンがユーザの健康状態に実際に適合する割合を向上させることが可能になる。
なお、ステップST5においてユーザが提案を受け入れなかった場合には、ユーザが逆提案をするようにしてもよい。この場合、ロボット1は、その逆提案を受け取り、その逆提案が実行可能であるか否かを判定する。その逆提案が実行可能であると判定された場合には、ロボット1は、情報データベース160に格納されているユーザの健康状態とロボット1の行動パターンとの関係を更新した上で(例えば、図4に示される表の行動パターンの優先順位を変更した上で、または、図4に示される表に新たな行動パターンを追加した上で)、その逆提案の実行を指示する。その逆提案が実行可能でないと判定された場合には、ロボット1は、「その逆提案を実行することはできません」という旨をユーザに通知する。このように、ユーザから逆提案を行うことにより、ユーザの癖などを行動パターンの決定に反映させることができる。その結果、ロボット1によって決定される行動パターンがユーザの健康状態に実際に適合する割合を向上させることが可能になる。
なお、図5においてステップST3を省略してもよい。この場合には、ユーザの健康状態に応じて決定されたすべての行動パターンについて、その行動パターンの実行を指示する前に、その行動パターンがユーザに提案されることになる。
また、図5においてステップST3、ST4、ST5、ST7を省略してもよい。この場合には、ユーザの健康状態に応じて決定されたすべての行動パターンがユーザからの返事を待つことなく即時に行動パターンの実行が指示されることになる。
以上のように、本実施の形態によれば、ユーザの健康状態が把握され、ユーザの健康状態に応じた行動パターンが決定される。これにより、ユーザは各種センサを装着する煩わしさから解放される。さらに、ユーザはロボットを自分の健康状態を心配してくれる存在(良き友)と感じるようになる。
さらに、行動パターンの実行を指示する前に、その行動パターンをユーザに提案する形式を採用してもよい。この場合には、ユーザがその提案を受け入れるか否かの最終権限を有することになるため、その提案を受け入れることをロボットから強制されることがなく、ユーザの裁量の自由度が大きい。これにより、ロボットの暴走を抑えることができるとともに、ロボットをユーザフレンドリな存在として身近に感じることが可能になる。
日本能率協会総合研究所が行ったアンケートによれば、コンシューマが描く夢のロボットは「より本物に近いペットロボット」がトップ人気であった。人間と居住空間を共にする生活密着型の共生又はエンターティンメント型のロボットが待望されている。
本発明の対話型装置の一例としてのロボットは、生活密着型のフレンドリでかつ役に立つロボットであることが理解できよう。このようなロボットはユーザの生活を助け、ユーザの良き友になり得る。
なお、再生機器で再生されるコンテンツ(ソフト)は、映像データ、音声データ、照明制御データのうちの少なくとも1つを含んでいてもよい。記録媒体(DVDなど)に記録されている映像データを再生することに同期して記録媒体に記録されている音声データを再生することが可能である。さらに、記録媒体(DVDなど)に記録されている音声データおよび/または映像データを再生することに同期して記録媒体に記録されている照明制御データを再生することが可能である。このような同期再生により、「癒し」効果や「催眠」効果の高いコンテンツ(ソフト)を実現することが可能になる。
図6は、音声データおよび/または映像データと照明制御データとの同期再生を可能にする再生装置2100の構成例を示す。再生装置2100に音声出力装置(例えば、スピーカ)と映像出力装置(例えば、TV)と照明装置とを接続することにより、再生装置2100は、記録媒体によって提供される音楽および/または映像に連動して照明装置の照明パターン(例えば、照明装置の光量および光色の少なくとも一方)を変化させることが可能になる。
再生装置2100は、コントローラ2220と、インタフェースコントローラ(I/Fコントローラ)2230と、読み取り部2120とを含む。
コントローラ2220は、I/Fコントローラ2230に入力されるユーザからの操作コマンドや復号化部2140から供給される制御信号に基づいて、再生装置2100の全体の動作を制御する。
I/Fコントローラ2230は、ユーザの操作(例えば、リモートコントロール部70(図2)からのリモートコントロール信号)を検知して、その操作に対応する操作コマンド(例えば、再生コマンド)をコントローラ2220に出力する。
読み取り部2120は、記録媒体2110に記録された情報を読み取る。
記録媒体2110は、典型的には、DVD(Digital Versatile Disk)である。しかし、記録媒体2110はDVDに限定されない。記録媒体2110は、任意のタイプの記録媒体であり得る。ただし、以下の説明では、記録媒体2110がDVDである場合を例にとり説明することにする。この場合には、読み取り部2120は、例えば、光ピックアップである。
記録媒体2110に記録されているデータのフォーマットとして、DVD−Video規格に準拠したフォーマットを改変したフォーマットが使用される。すなわち、VOBUの中に、ライティングパック(L_PCK:Lighting Pack)が新たに設けられたフォーマットが使用される。L_PCKのデータは、プレゼンテーションデータに同期して照明制御データを出力するためのデータである。
MPEG−2(Moving Picture Experts Group 2)は、広範囲なアプリケーションに対応するために、任意の数の符号化されたストリームを多重化し、それぞれのストリームを同期をとりながら再生するための方式として2種類の方式を規定している。その2種類の方式とは、プログラムストリーム(PS:Program Stream)方式と、トランスポートストリーム(TS:Transport Stream)方式とである。DVDなどのデジタルストレージメディアでは、プログラムストリーム(PS:Program Stream)方式が採用されている。以下の説明では、MPEG−2に規定されているプログラムストリーム(PS:Program Stream)方式を「MPEG−PS方式」と略記し、MPEG−2に規定されているトランスポートストリーム(TS:Transport Stream)方式を「MPEG−TS方式」と略記する。
NV_PCK、A_PCK、V_PCK、SP_PCKは、いずれも、MPEG−PS方式に準拠したフォーマットを採用している。従って、L_PCKも、MPEG−PS方式に準拠したフォーマットを採用することとする。
再生装置2100は、ストリームデータ生成部2130と、復号化部2140とをさらに含む。
ストリームデータ生成部2130は、読み取り部2120の出力に基づいて、符号化されたAVデータと符号化された照明制御データとを含むストリームデータを生成する。ここで、「符号化されたAVデータ」とは、符号化された音声データおよび符号化された映像データのうちの少なくとも一方を含むデータをいう。
ストリームデータ生成部2130によって生成されるストリームデータは、MPEG−PS方式に準拠したフォーマットを有している。このようなストリームデータは、例えば、DVD2120に記録されている情報をRF信号の形式で受け取り、そのRF信号をデジタル化して増幅し、EFMおよび復調処理を施すことにより得られる。ストリームデータ生成部2130の構成は公知のものと同一にすることができるので、ここでは詳しい説明を省略する。
復号化部2140は、分解部2150と、AVデータ復号化部2160と、照明制御データ復号化部2170と、STC生成部2180と、同期コントローラ(制御部)2190とを含む。
分解部2150は、ストリームデータ生成部2130から、MPEG−PS方式に準拠したフォーマットを有するストリームデータを受け取り、そのストリームデータを符号化されたAVデータと符号化された照明制御データとに分解する。このような分解は、PESパケットヘッダ中の識別コード(stream_id)を参照することによって行われる。分解部2150は、例えば、デマルチプレクサである。
AVデータ復号化部2160は、符号化されたAVデータを復号化することによりAVデータを出力する。ここで、「AVデータ」とは、音声データおよび映像データのうちの少なくとも一方を含むデータをいう。
AVデータ復号化部2160は、分解部2150から出力される符号化された映像データを一時的に格納するビデオバッファ2161と、符号化された映像データを復号化することにより、映像データを出力するビデオデコーダ2162と、分解部2150から出力される符号化された音声データを一時的に格納するオーディオバッファ2163と、符号化された音声データを復号化することにより、音声データを出力するオーディオデコーダ2164とを含む。
照明制御データ復号化部2170は、符号化された照明制御データを復号化することにより照明制御データを出力する。ここで、「照明制御データ」とは、照明装置に含まれる複数の画素を制御するためのデータである。
照明制御データ復号化部2170は、分解部2150から出力される符号化された照明制御データを一時的に格納する照明バッファ2171と、符号化された照明制御データを復号化することにより、照明制御データを出力する照明デコーダ2172とを含む。
STC生成部2180は、STC(Syetem Time Clock)を生成する。STCは、SCRに基づいて27MHzの基準クロックの周波数を調整する(すなわち、増減させる)ことによって得られる。STCは、データを符号化したときに用いられた基準時間を符号化データを復号化する際に再現したものである。
同期コントローラ2190は、AVデータ復号化部2160がAVデータを出力するタイミングと照明制御データ復号化部2170が照明制御データを出力するタイミングとが同期するように、AVデータ復号化部2160と照明制御データ復号化部2170とを制御する。
このような同期再生の制御は、例えば、STCとPTSとが一致したときにビデオデコーダ2162から映像データのアクセスユニットが出力されるようにビデオデコーダ2162を制御し、STCとPTSとが一致したときにオーディオデコーダ2164から音声データのアクセスユニットが出力されるようにオーディオデコーダ2164を制御し、STCとPTSとが一致したときに照明デコーダ2172から照明制御データのアクセスユニットが出力されるように照明デコーダ2172を制御することによって達成される。
同期コントローラ2190は、AVデータ復号化部2160がAVデータを復号化するタイミングと照明制御データ復号化部2170が照明制御データを復号化するタイミングとが同期するように、AVデータ復号化部2160と照明制御データ復号化部2170とを制御するようにしてもよい。
このような同期再生の制御は、例えば、STCとDTSとが一致したときにビデオデコーダ2162によって映像データのアクセスユニットが復号化されるようにビデオデコーダ2162を制御し、STCとDTSとが一致したときにオーディオデコーダ2164によって音声データのアクセスユニットが復号化されるようにオーディオデコーダ2164を制御し、STCとDTSとが一致したときに照明デコーダ2172によって照明制御データのアクセスユニットが復号化されるように照明デコーダ2172を制御することによって達成される。
このように、映像データ、音声データ、照明制御データのアクセスユニットを出力するタイミングの制御に加えて、または、映像データ、音声データ、照明制御データのアクセスユニットを出力するタイミングの制御に代えて、映像データ、音声データ、照明制御データのアクセスユニットを復号化するタイミングの制御を行うようにしてもよい。アクセスユニットを出力するタイミング(順序)とアクセスユニットを復号化するタイミング(順序)とが異なる場合があるからである。このような制御により、映像データ、音声データ、照明制御データを同期再生することが可能になる。
ビデオデコーダ2162から出力される映像データは、NTSCエンコーダ2200を介して外部機器(例えば、TV)に出力される。ビデオデコーダ2162とTVとは、再生装置2100の出力端子2240を介して直接的に接続されてもよいし、ホームLANを介して間接的に接続されてもよい。
オーディオデコーダ2164から出力される音声データは、デジタル/アナログコンバータ(DAC)2210を介して外部機器(例えば、スピーカ)に出力される。オーディオデコーダ2164とスピーカとは、再生装置2100の出力端子2250を介して直接的に接続されてもよいし、ホームLANを介して間接的に接続されてもよい。
照明デコーダ2172から出力される照明制御データは、外部機器(例えば、照明装置)に出力される。照明デコーダ2172と照明装置とは、再生装置2100の出力端子2260を介して直接的に接続されてもよいし、ホームLANを介して間接的に接続されてもよい。
なお、ストリームデータ生成部2130によって生成されるストリームデータは、符号化された副映像データを含んでいてもよいし、ナビゲーションデータを含んでいてもよい。例えば、ストリームデータが符号化された副映像データとナビゲーションデータとを含む場合には、分解部2150は、そのストリームデータを符号化された副映像データとナビゲーションデータとに分解する。図6には示されていないが、復号化部2140は、ナビパック回路と、サブピクチャデコーダと、クローズドキャプションデータデコーダとをさらに含んでいてもよい。ナビパック回路は、ナビゲーションデータを処理することにより制御信号を生成し、その制御信号をコントローラ2220に出力する。サブピクチャデコーダは、符号化された副映像データを復号化することにより副映像データをNTSCエンコーダ2200に出力する。クローズドキャプションデータデコーダは、符号化された映像データに含まれる符号化されたクローズドキャプションデータを復号化することによりクローズドキャプションデータをNTSCエンコーダ2200に出力する。これらの回路の機能は公知であり、本発明の主題には関係しないので詳しい説明を省略する。このように、復号化部2140は、図6に示されていない公知の構成を含んでいてもよい。
以上説明したように、図6に示される再生装置2100によれば、記録媒体に記録されている音声データおよび/または映像データを再生することに同期して、その記録媒体に記録されている照明制御データを再生することが可能な再生装置が提供される。この再生装置に音声出力装置(例えば、スピーカ)と映像出力装置(例えば、TV)と照明装置とを接続することにより、記録媒体によって提供される音楽および/または映像に連動して照明パターンを変化させることが可能になる。「癒し」効果のある照明パターンの例としては、木漏れ日を表現した照明パターンを挙げることができる。
以上のように、本発明の対話型装置によれば、ユーザの健康状態が把握され、ユーザの健康状態に応じた行動パターンが決定される。これにより、ユーザは各種センサを装着する煩わしさから解放される。さらに、ユーザは対話型装置を自分の健康状態を心配してくれる存在(良き友)と感じるようになる。その結果、対話型装置の価値を高めることになり、ユーザの対話型装置に対する満足感、所有欲を高めることになる。
本発明は、ユーザとの対話を行うことが可能な対話型装置に関する。
生態情報を監視して逐次居住者の好みのオーディオ信号を当該居住者の現在の生活状態及び体調に応じたレベルに調整して再生する音響装置が開示されている(例えば、特許文献1を参照)。この音響装置は、部屋に設置されたセンサによって居住者の生活状態を把握し、居住者が装着する携帯送受信機(生体センサを含む)からの識別情報、生態情報を監視して逐次居住者の好みのオーディオ信号を当該居住者の現在の生活状態及び体調に応じたレベルに調整して再生する。
特開平11−221196号公報
しかし、上記特許文献1に記載の従来技術では、生体情報などを取得するために居住者は携帯送受信機を装着する必要があり、居住者にとって装着の煩わしさのため大変不便であるとともに、部屋に設置されたセンサによって居住者は生活を常々監視されていることになり、不快な思いをするといった課題があった。
本発明は、生体センサを人体に装着することなく、ユーザの健康状態に応じた行動パターンを決定することが可能な対話型装置を提供することを目的とする。
発明の開示
本発明の対話型装置は、ユーザの健康状態を把握する把握手段と、前記把握手段によって把握された前記ユーザの健康状態に応じた行動パターンを決定する決定手段と、前記決定手段によって決定された行動パターンの実行を指示する実行指示手段と、前記決定手段によって決定された行動パターンの実行を指示する前に、前記ユーザに前記行動パターンを音声で提案する提案手段と、前記提案された行動パターンに対する前記ユーザの返事が前記提案された行動パターンを受け入れるという返事か否かを判定する判定手段とを備え、前記実行指示手段は、前記ユーザの返事が前記提案された行動パターンを受け入れるという返事であると判定された場合に、前記提案された行動パターンの実行を指示し、これにより上記目的が達成される。
前記把握手段は、前記ユーザの発話に基づいて前記ユーザの健康状態を把握してもよい。
前記把握手段は、前記ユーザが発するキーワードに基づいて前記ユーザの健康状態を把握してもよい。
前記決定手段によって決定された行動パターンの実行を指示する前に、前記ユーザに前記行動パターンを提案する必要があるか否かを判定する提案要否判定手段をさらに備え、前記提案手段は、前記行動パターンの実行を指示する前に前記ユーザに前記行動パターンを提案する必要があると判定された場合に、前記ユーザに前記行動パターンを音声で提案してもよい。
前記提案要否判定手段は、前記行動パターンに予め割り当てられた提案の要否を示すフラグの値に応じて提案の要否を判定してもよい。
前記提案要否判定手段は、前記行動パターンが実行された実行回数の時間分布に基づいて提案の要否を判定してもよい。
前記決定手段は、優先順位がそれぞれ割り当てられた複数の行動パターンのうちの1つを前記ユーザの健康状態に応じた行動パターンとして決定し、その行動パターンが前記ユーザに受け入れられたか否かに応じて、その行動パターンに割り当てられた優先順位を変動させてもよい。
前記ユーザの健康状態に応じた行動パターンを記憶する記憶手段をさらに備え、前記決定手段は、前記記憶手段に記憶された行動パターンを用いて前記行動パターンを決定してもよい。
前記提案手段によって前記ユーザに提案される行動パターンは、再生機器で再生するコンテンツの選択を含んでもよい。
前記コンテンツは、音声データと映像データと照明制御データとを含み、前記再生機器が照明制御データに基づいて照明装置の光量および光色の少なくとも一方を変化させてもよい。
前記対話型装置は、エージェント機能および移動機能のうちの少なくとも1つの機能を有していてもよい。
前記ユーザの健康状態は、前記ユーザの感情および前記ユーザの体調のうちの少なくとも一方を表してもよい。
本発明の対話型装置は、ユーザが発する音声を音声信号に変換する音声入力部と、前記音声入力部から出力される音声信号に基づいてユーザが発した言葉を認識する音声認識部と、前記ユーザが発すると予想される言葉が予め登録され、前記登録されている言葉と前記ユーザの健康状態との対応関係を保持している対話データベースと、前記音声認識部によって認識された言葉と前記対話データベースに登録されている言葉とを照合し、その照合結果に応じて前記ユーザの健康状態を決定することによって、前記ユーザの健康状態を把握する把握手段と、前記ユーザの健康状態と対話型装置の行動パターンとの対応関係を保持している行動パターンテーブルに基づいて、前記把握手段によって把握された前記ユーザの健康状態に応じた行動パターンを決定する決定手段と、前記決定手段によって決定された行動パターンの実行を指示する実行指示手段と、前記決定手段によって決定された行動パターンの実行を指示する前に、前記把握手段の出力結果と前記決定手段の出力結果とに基づいて提案文を合成し、前記ユーザに前記行動パターンを音声で提案する提案手段と、前記提案された行動パターンに対する前記ユーザの返事が前記提案された行動パターンを受け入れるという返事か否かを判定する判定手段とを備え、前記実行指示手段は、前記ユーザの返事が前記提案された行動パターンを受け入れるという返事であると判定された場合に、前記提案された行動パターンの実行を指示し、これにより上記目的が達成される。
前記提案された行動パターンに対して前記ユーザから逆提案された行動パターンを受け取る手段と、前記逆提案された行動パターンを前記対話型装置が実行可能であるか否かを判定する手段と、前記逆提案された行動パターンを前記対話型装置が実行可能であると判定された場合に、前記行動パターンテーブルに保持されている前記ユーザの健康状態と前記対話型装置の行動パターンとの対応関係を更新する手段とをさらに備えていてもよい。
以下、図面を参照しながら本発明の実施の形態を説明する。
本明細書では、「ユーザの健康状態」とは、ユーザの感情およびユーザの体調のうちの少なくとも一方を表すものとする。「ユーザ」とは、対話型装置の所有者をいうものとする。
図1は、本発明の対話型装置の一例としてのロボット1の外観を示す。ロボット1は、ユーザと対話を行うことが可能なように構成されている。
図1に示されるロボット1は、「目」に相当するカメラ10と、「口」に相当するスピーカ110およびアンテナ62と、「耳」に相当するマイク30およびアンテナ62と、「首」や「腕」に相当する可動部180とを有している。
ロボット1は、自らが移動することを可能にする移動部160を有する自律走行型ロボット(移動式ロボット)であってもよいし、自らが移動することができないタイプのものであってもよい。
ロボット1が移動することを可能にするメカニズムとしては任意のメカニズムを採用することができる。例えば、ロボット1は、手足に設置されたローラの回転を制御することによって前進、後退するように構成されていてもよいし、タイヤ式や脚式などの移動式ロボットでもよい。ロボット1は、人のような二足直立歩行を行う動物を模倣した人間型ロボットでもよいし、4足歩行の動物を模倣したペット型ロボットでもよい。
なお、対話型装置の一例として、対話型のロボットを説明したが、対話型装置はこれに限定されない。対話型装置は、ユーザと対話を行うことが可能なように構成された任意の装置であり得る。対話型装置は、例えば、対話型の玩具であってもよいし、対話型携帯機器(携帯電話を含む)であってもよいし、対話型のエージェントであってもよい。
対話型のエージェントは、インターネットのような情報空間を動き回り、情報検索、フィルタリング、スケジュール調整などの情報処理を人間の代わりに行ってくれる機能(ソフトウェアエージェントの機能)を有していることが好ましい。対話型のエージェントはあたかも人間であるかのように人間と対話をするため、擬人化エージェントと呼ばれることもある。
対話型装置は、エージェント機能および移動機能のうちの少なくとも1つの機能を有していてもよい。
図2は、ロボット1の内部構成の一例を示す。
画像認識部20は、カメラ10(画像入力部)から画像を取り込み、その取り込んだ画像を認識し、その認識結果を処理部50に出力する。
音声認識部40は、マイク30(音声入力部)から音声を取り込み、その取り込んだ音声を認識し、その認識結果を処理部50に出力する。
図7は、音声認識部40の内部構成の一例を示す。
音声入力部30(マイク)によって、音声が音声信号波形に変換される。音声信号波形は、音声認識部40に出力される。音声認識部40は、音声検出手段71と、比較演算手段72と、認識手段73と、登録音声データベース74とを含む。
音声検出手段71は、音声入力部30から入力された音声信号波形が一定基準を満たす波形部分を実際にユーザが発声した音声区間として切り出し、その区間の音声信号波形を音声波形として比較演算手段72に出力する。ここで、音声区間を切り出す一定基準とは、例えば、一般的に人間の音声帯域である1kHz以下の周波数帯域における信号波形のパワーが一定レベル以上であるということがあげられる。
登録音声データベース74には、ユーザが発話すると予測される言葉に対する音声波形とその言葉が予め対応付けられて登録されている。
比較演算手段72は、音声検出手段71から入力された音声波形と登録音声データベース74に登録されている音声波形とを順次、比較し、登録音声データベース74に登録された音声波形毎に類似度を算出し、その算出結果を認識手段73に出力する。ここで、2つの音声波形を比較する手法としては、音声波形をフーリエ変換等の周波数分析した後の各周波数におけるパワー成分の差分合計を比較する手法を採用してもよいし、周波数分析した後、さらに極座標変換したケプストラム特徴量やメルケプストラム特徴量において時間的伸縮を考慮したDPマッチングを行う手法を採用してもよい。また、比較演算の効率化のために、登録音声データベース74に登録されている音声波形を比較演算手段72で用いる比較要素(例えば、各周波数のパワー成分)としてもよい。また、登録音声データベース74に登録されている音声波形には、ユーザの咳払いやうなり声等、発声を意図しない場合の音声波形を登録し、対応する言葉として「意図しない発声」として登録しておく。これによって、ユーザが意図した発声と意図しない発声とを区別することが可能となる。
認識手段73は、比較演算手段72から入力される各音声波形毎の類似度のうち、最も高い類似度を持つ音声波形を検出し、登録音声データベース74から検出された音声波形に対応する言葉を決定することにより、音声波形を文字に変換し、その文字を処理部50に出力する。各類似度に大きな差異が見られない場合には、入力音声はノイズであると判断して、音声波形から文字への変換を行わない。あるいは、「ノイズ」という文字に変換してもよい。
図8aは、図2に示される処理部50の内部構成の一例を示す。
処理部50(処理手段50a)は、音声認識部40による音声認識結果に基づいて対話データベース140を検索し、応答文を生成する。この応答文は、音声合成部100に出力される。音声合成部100は、応答文を音声に合成する。合成された音声は、スピーカなどの音声出力部110から出力される。
対話データベース140には、対話のパターンや応答文の生成規則が格納されている。さらに、対話データベース140には、ユーザが発する言葉(キーワード)とユーザの健康状態との関係が格納されている。
図3は、対話データベース140に格納されているユーザが発するキーワードとユーザの健康状態との関係の一例を示す。
図3に示される例では、ユーザが発するキーワードとユーザの健康状態との関係は表の形式で表現されている。例えば、この表の行31は、「眠い」、「しんどい」、「食欲がない」というキーワードと「疲れ」というユーザの健康状態(体調)とが対応づけられていることを示す。この表の行32は、「やった!」、「最高!」というキーワードと「喜び」というユーザの健康状態(感情)とが対応づけられていることを示す。
なお、ユーザが発するキーワードとユーザの健康状態との関係を表現する方法は図3に示される方法に限定されない。ユーザが発するキーワードとユーザの健康状態との関係は任意の方法で表現され得る。
処理部50(把握手段50b)は、音声認識部40による音声認識結果からキーワードを抽出し、そのキーワードを用いて対話データベース140を検索する。その結果、処理部50(把握手段50b)は、そのキーワードからユーザの健康状態を把握する。例えば、音声認識結果から抽出されたキーワードが「眠い」、「しんどい」、「食欲がない」のうちの1つであった場合には、処理部50(把握手段50b)は、図3に示される表を参照してユーザの健康状態が「疲れ」の状態であると判定する。
なお、上述したキーワードを用いる方法に代えて、または、上述したキーワードを用いる方法に加えて、音声認識結果に基づいてユーザの音声の強さまたは張りのレベルを検出することにより、ユーザの健康状態を把握するようにしてもよい。例えば、処理部50(把握手段50b)がユーザの音声の強さまたは張りのレベルが所定のレベル以下であることを検出した場合には、処理部50(把握手段50b)は、ユーザの健康状態が「疲れ」の状態であると判定する。
なお、音声認識部40による音声認識結果に加えて、画像認識部20による画像認識結果を用いてユーザの健康状態を把握するようにしてもよい。あるいは、画像認識部20による画像認識結果を単独で用いてユーザの健康状態を把握するようにしてもよい。例えば、処理部50(把握手段50b)がユーザがまばたきする頻度が多いこと(または、ユーザがあくびをしたこと)を検出した場合には、処理部50(把握手段50b)は、ユーザの健康状態が「疲れ」の状態であると判定する。
このように、処理部50(把握手段50b)は、ユーザの発話に基づいて、または、画像認識結果に基づいて、ユーザの健康状態を把握する把握手段として機能する。
情報データベース160には、今日の天気やニュースなどの情報や、各種一般常識などの知識や、ロボット1のユーザ(所有者)に関する情報(例えば、性別、年齢、名前、職業、性格、趣味、生年月日などの情報)や、ロボット1に関する情報(例えば、型番、内部構成などの情報)が格納されている。今日の天気やニュースなどの情報は、例えば、ロボット1が外部から送受信部60(通信部)および処理部50を介して取得され、情報データベース160に格納される。さらに、情報データベース160には、ユーザの健康状態と行動パターンとの関係が行動パターンテーブル161として格納されている。
図4は、情報データベース160に格納されている行動パターンテーブル161の一例を示す。行動パターンテーブル161は、ユーザの健康状態とロボット1の行動パターンとの関係を定義する。
図4に示される例では、ユーザの健康状態とロボット1の行動パターンとの関係は表の形式で表現されている。例えば、この表の行41は、「疲れ」というユーザの健康状態とロボット1の3つの行動パターンとが対応づけられていることを示す。3つの行動パターンは、以下のとおりである。
1)コンテンツの選択、再生:「癒し」「催眠」効果を発揮するコンテンツ(ソフト)を選択し、その選択されたコンテンツ(ソフト)を再生機器で再生する
2)風呂の準備:ユーザに入浴を勧めるために風呂の準備をする
3)飲食物のレシピの選択、調理:「食欲を増進させる」「滋養の高い」飲食物のレシピを選択し、その選択されたレシピに従って飲食物を調理する
また、この表の行42は、「喜び」というユーザの健康状態と「バンザイのジェスチャ」というロボット1の行動パターンとが対応づけられていることを示す。
なお、ユーザの健康状態とロボット1の行動パターンとの関係を表現する方法は図4に示される方法に限定されない。ユーザの健康状態とロボット1の行動パターンとの関係は任意の方法で表現され得る。
ロボット1の行動パターンの例としては、ユーザの健康状態に適合したコンテンツ(ソフト)を選択しその選択されたコンテンツ(ソフト)を再生機器で再生すること、ユーザの健康状態に適合した飲食物のレシピを選択しその選択されたレシピに従って飲食物を調理すること、風呂の準備をすること、笑いを取るための小話を実演することなどが挙げられる。
処理部50(行動パターン決定手段50c)は、把握手段50bから出力されるタイミング信号t1に応答して対話データベース140を検索することによって把握されたユーザの健康状態を用いて情報データベース160(行動パターンテーブル161)を検索する。その結果、処理部50(行動パターン決定手段50c)は、ユーザの健康状態に応じたロボット1の行動パターンを決定する。例えば、ユーザの健康状態が「疲れ」の状態である場合には、処理部50(行動パターン決定手段50c)は、図4に示される表(行動パターンテーブル161)を参照して、「疲れ」の状態に対応して定義されている3つの行動パターンのうちの1つをロボット1の行動パターンとして決定する。
ここで、処理部50(行動パターン決定手段50c)は、様々な態様で、3つの行動パターンのうちの1つをロボット1の行動パターンとして決定することができる。例えば、3つの行動パターンのそれぞれに優先順位が予め割り当てられている場合には、その優先順位の高いものから順にロボット1の行動パターンとして決定することができる。その優先順位を時間帯に応じて変動させるようにしてもよい。例えば、18:00〜22:00の時間帯は「風呂の準備」の優先順位を最も高くし、6:00〜8:00、11:00〜13:00、17:00〜19:00の時間帯は「飲食物のレシピの選択、調理」の優先順位を最も高くし、その他の時間帯は「コンテンツの選択、再生」の優先順位を最も高くするようにしてもよい。
このように、処理部50(行動パターン決定手段50c)は、把握手段50bによって把握されたユーザの健康状態に応じた行動パターンを決定する決定手段として機能する。
処理部50(実行指示手段50g)は、行動パターン決定手段50cから出力されるタイミング信号t2に応答して、決定された行動パターンに応じた制御信号を生成し、その制御信号を動作制御部120に出力する。
動作制御部120は、処理部50(実行指示手段50g)から出力される制御信号に応じて各種のアクチュエータ130を駆動する。これにより、ロボット1を所望の態様で動作させることが可能になる。
例えば、決定された行動パターンが「バンザイのジェスチャ」である場合には、動作制御部120は、処理部50(実行指示手段50g)から出力される制御信号に従って、ロボット1の「腕」を上下させるアクチュエータ(アクチュエータ130の一部)を駆動する。あるいは、決定された行動パターンが「コンテンツの選択、再生」である場合には、動作制御部120は、処理部50(実行指示手段50g)から出力される制御信号に従って、ディスクを把持し把持したディスクを再生機器にセットするようにロボット1の「手の指」(把持手段)を制御するアクチュエータ(アクチュエータ130の一部)を駆動するようにしてもよい。例えば、複数のディスクは所定の順にラックに整理されて収納されているものとする。
このように、処理部50(実行指示手段50g)は、行動パターン決定手段50cによって決定された行動パターンの実行を動作制御部120に指示する実行指示手段として機能する。
あるいは、決定された行動パターンが「風呂の準備」である場合には、処理部50(実行指示手段50g)は、給湯制御装置にリモートコントロール信号を送信するようにリモートコントロール部70を制御してもよい。給湯制御装置は、リモートコントロール信号に応じて風呂桶に適温の湯を適量だけ供給する(あるいは、風呂桶に適量の水を供給した後、その水が適温の湯になるまで加熱する)。この場合には、処理部50(実行指示手段50g)は、行動パターン決定手段50cによって決定された行動パターンの実行をリモートコントロール部70に指示する実行指示手段として機能する。
あるいは、決定された行動パターンが「コンテンツの選択、再生」である場合には、処理部50(実行指示手段50g)は、再生機器にリモートコントロール信号を送信するようにリモートコントロール部70を制御してもよい。再生機器は、リモートコントロール信号に応じて再生機器にセットされているディスクの中からコンテンツを選択し、再生する。再生機器が複数のディスクをセット可能なディスクチェンジャーに接続されている場合には、その再生機器はリモートコントロール信号に応じてその複数のディスクの中からコンテンツを選択し、再生するようにしてもよい。なお、複数のディスクのすべての曲を含む選曲リストを処理部50内のメモリに格納しておくようにしてもよいし、再生機器がディスクのヘッダ部からそのディスクの選曲リストを読み取り、送受信部60経由で処理部50内のメモリに格納するようにしてもよい。この場合には、処理部50(実行指示手段50g)は、行動パターン決定手段50cによって決定された行動パターンの実行をリモートコントロール部70に指示する実行指示手段として機能する。
図8bは、図2に示される処理部50の内部構成の他の例を示す。図8bに示される例では、処理部50(提案手段50e)は、決定された行動パターンの実行を指示する前に、ユーザにその行動パターンを音声で提案する。例えば、決定された行動パターンが「風呂の準備」である場合には、行動パターン決定手段50cから出力されるタイミング信号t2に応答して、処理部50(提案手段50e)は、対話データベース140を参照して、「お疲れのようですね。お風呂の準備をいたしましょうか?」という疑問文(提案文)を生成し、音声合成部100に出力するようにすればよい。音声合成部100は、その疑問文を音声に合成する。合成された音声は、音声出力部110から出力される。
次に、図9を参照して提案手段50eによる提案文の作成方法を説明する。提案手段50eは内部に提案文合成部を備えている。対話データベース140は提案文フォーマットデータベースを内部に備えており、この提案文フォーマットデータベースには、複数の提案表現に対応する複数の提案文フォーマットが記録保持されている。ここで、「提案表現」とは、例えば、図9の例で示すような「Aですね。Bしましょうか?」、「Aのようですが、Bしてもいいですか?」というような、提案する動機となった原因(A)とそれに対する対応(B)を示す文章表現のことである。
まず、提案手段(提案文合成部)50eは、把握手段50bから入力される「把握された健康状態」と、行動パターン決定手段50cから入力される「決定された行動パターン」とに基づいて、提案文フォーマットデータベースから前記「把握された健康状態」に合う提案文フォーマットを選択する。次に、提案手段(提案文合成部)50eは、「把握された健康状態」を提案文フォーマットのAに、「決定された行動パターン」を提案文フォーマットのBに挿入することで提案文を合成する。例えば、「把握された健康状態」が「疲れ」であり、「決定された行動パターン」が「風呂の準備」である場合には、提案手段(提案文合成部)50eは、「お疲れのようですね。お風呂の準備をいたしましょうか?」という提案文を合成する。提案文は、音声合成部100に出力される。音声合成部100は、提案文を音声に合成する。合成された音声は音声出力部110から出力される。
このように、処理部50(提案手段50e)は、対話データベース(提案文フォーマットデータベース)140と音声合成部100と音声出力部110とを用いて、行動パターン決定手段50cによって決定された行動パターンの実行を指示する前に、ユーザにその行動パターンを音声で提案する提案手段として機能する。
ユーザは、ロボット1からの提案に対してその提案を受け入れるか、または、受け入れないかの返事をする。例えば、ユーザは、その提案を受け入れる(Yes)という意思表示として「はい」、「そやな」、「そうしてくれ」などの返事をし、その提案を受け入れない(No)という意思表示として「いいえ」、「いらん」、「その必要なし」などの返事をするものとする。このような返事のパターンは対話データベース140に予め格納しておくものとする。
処理部50(提案承諾判定手段50f)は、提案手段50eから出力されるタイミング信号t5に応答して音声認識部40による音声認識結果を対話データベース140を参照して分析することにより、ユーザからの返事が提案を受け入れる(Yes)という返事なのか、提案を受け入れない(No)という返事なのかを判定する。
このように、処理部50(提案承諾判定手段50f)は、音声認識部40と対話データベース140とを用いて、提案された行動パターンに対するユーザの返事がその提案された行動パターンを受け入れるという返事か否かを判定する提案承諾判定手段として機能する。
図8cは、図2に示される処理部50の内部構成の他の例を示す。決定された行動パターンの実行を指示する前に、ユーザにその行動パターンを提案する必要があるか否かを判定するようにしてもよい。例えば、図4に示される表の各行動パターンに提案の要否を示すフラグを予め割り当てた図11に示す行動提案要否テーブル162を予め設定しておくことにより、処理部50(提案要否判定手段50d)は、そのフラグの値に応じて提案の要否を判定することができる。例えば、処理部50(提案要否判定手段50d)は、行動パターンに割り当てられたフラグの値が”1”である場合には、その行動パターンの実行を指示する前にその行動パターンをユーザに提案し、行動パターンに割り当てられたフラグの値が”0”である場合には、その行動パターンの実行を指示する前にその行動パターンをユーザに提案しない。
例えば、「風呂の準備」という行動パターンについては、ユーザへの事前の提案は要とされることが好ましい。ユーザが風呂に入りたいか否かはそのときの気分に負うところが大きく、ユーザへの事前の提案を不要とするとおしつけがましくなってしまうおそれがあるからである。例えば、「バイザイのジェスチャ」という行動パターンについては、ユーザへの事前の提案は不要とされることが好ましい。ユーザにいちいち断ってから万歳をしたのでは気がぬけてしまうおそれがあるからである。
このように、処理部50(提案要否判定手段50d)は、情報データベース160(行動提案要否テーブル162)を用いて、決定された行動パターンの実行を指示する前に、ユーザにその行動パターンを提案する必要があるか否かを判定する提案要否判定手段として機能する。
行動パターンが実行される時間帯が決まっている場合や、その行動パターンが頻繁に実行される場合には、ユーザにその行動パターンをいちいち提案することは望まれないことが多い。逆に、普段ほとんど実行されないような行動パターンの場合には、その行動パターンの実行を指示する前にその行動パターンをユーザに提案することによってユーザがその行動パターンの実行を望んでいるか否かを確認することが望ましい。
図10を参照して、上述した機能を実現する提案要否判定手段50dを説明する。時間分布記録保持部90は、時刻計測部91と、積算部92と、時間分布データベース93とを含む。提案要否判定手段50dは内部に比較決定部を備えている。時刻計測部91は、実行指示手段50gの入力を受け、行動パターンが実行された時刻を計測し、積算部92に出力する。時間分布データベース93は、時刻毎に各行動パターンが実行された回数を記録保持しており、積算部92は、時刻計測部91からの入力を受ける毎に、計測された時刻における時間分布データベース93に記録された実行回数に1回分を積算していく。このようにして時間分布記録保持部90は、時刻毎に実行された行動パターンの履歴情報を蓄えていく。提案要否判定手段(比較決定部)50dは、予め設定された値を持ち、行動パターン決定手段50cからの入力を受けた際に、その時刻(もしくは時間帯)におけるその行動パターンの過去の実行回数を時間分布記録保持部90から参照し、前記予め設定された値と比較する。比較決定部は、その行動パターンの過去の実行回数が予め設定された値より小さい場合には、その行動パターンを提案をする必要があると判定し、その行動パターンの過去の実行回数が予め設定された値より大きい場合には、その行動パターンを提案をする必要がないと判定する。その判定結果は、提案要否判定手段50dの判定結果として提案要否判定手段50dから出力する。
このように、提案要否判定手段50dは、行動パターンが実行された実行回数の時間分布に基づいて提案の要否を判定する。
図5は、ロボット1がユーザの健康状態を把握し、ユーザの健康状態に適合した行動パターンの実行を指示する処理の手順を示す。
ステップST1:ユーザの健康状態が把握される。
例えば、処理部50(把握手段50b)は、音声認識部40による音声認識結果からキーワードを抽出し、そのキーワードを用いて対話データベース140を検索する。その結果、処理部50(把握手段50b)は、そのキーワードからユーザの健康状態を把握することができる。
以下にユーザとロボット1との対話の例を示す。ここで、Uはユーザの発話を示し、Sはロボット1の発話を示す。
U:今日はしんどい〜。
S:そのようですね。
このように、ユーザが「眠い」、「しんどい」、「食欲がない」といったキーワードを発話した場合には、処理部50(把握手段50b)は、ユーザの健康状態を「疲れ」の状態であると判定する。
ステップST2:ステップST1において把握されたユーザの健康状態に応じた行動パターンが決定される。
例えば、処理部50(行動パターン決定手段50c)は、ユーザの健康状態を用いて情報データベース160(行動パターンテーブル161)を検索する。その結果、処理部50(行動パターン決定手段50c)は、ユーザの健康状態に対応する行動パターンを決定することができる。行動パターンは、ユーザの要望を推定したものとして予め設定されていることが好ましい。
ステップST3:ステップST2において決定された行動パターンの実行を指示する前に、提案要否判定手段50dによってその行動パターンをユーザに提案する必要があるか否かが判定される。
ステップST3の判定結果が「Yes」である場合には処理はステップST4に進み、ステップST3の判定結果が「No」である場合には処理はステップST6に進む。
ステップST4:提案手段50eによってステップST2において決定された行動パターンの実行を指示する前に、その行動パターンがユーザに提案される。
以下にユーザとロボット1との対話の例を示す。ここで、Uはユーザの発話を示し、Sはロボット1の発話を示す。
S:お疲れのようですね。それでは癒し効果のあるコンテンツ(ソフト)を再生しましょうか?
U:頼むわ。
ステップST5:提案承諾判定手段50fによってステップST4においてロボット1が提案した行動パターンをユーザが受け入れる返答をしたか否かが判定される。
ステップST5の判定結果が「Yes」である場合には処理はステップST6に進み、ステップST5の判定結果が「No」である場合には処理はステップST7に進む。
ステップST6:実行指示手段50gによってステップST2において決定された行動パターンの実行が指示される。
ステップST7:提案された行動パターンとユーザが提案を受け入れなかった(リジェクトした)こととが履歴情報として情報データベース160に格納される。
この履歴情報は、ステップST2において次回からの行動パターンの内容を決定する際に参照される。ユーザが受け入れなかった行動パターンに割り当てられた優先順位を低くするようにしてもよい。
なお、ステップST7に代えて、または、ステップST7に加えて、ステップST5においてユーザが提案を受け入れた場合に、提案された行動パターンとユーザが提案を受け入れた(アクセプトした)こととを履歴情報として情報データベース160に格納するようにしてもよい。この履歴情報は、ステップST2において次回からの行動パターンの内容を決定する際に参照される。ユーザが受け入れた行動パターンに割り当てられた優先順位を高くするようにしてもよい。
このように、提案された行動パターンがユーザに受け入れられたか否かに応じて、その行動パターンに割り当てられた優先順位を変動させることが好ましい。これにより、ユーザの癖などを行動パターンの決定に反映させることができる。その結果、ロボット1によって決定される行動パターンがユーザの健康状態に実際に適合する割合を向上させることが可能になる。
なお、ステップST5においてユーザが提案を受け入れなかった場合には、ユーザが逆提案をするようにしてもよい。この場合、ロボット1は、その逆提案を受け取り、その逆提案が実行可能であるか否かを判定する。その逆提案が実行可能であると判定された場合には、ロボット1は、情報データベース160に格納されているユーザの健康状態とロボット1の行動パターンとの関係を更新した上で(例えば、図4に示される表の行動パターンの優先順位を変更した上で、または、図4に示される表に新たな行動パターンを追加した上で)、その逆提案の実行を指示する。その逆提案が実行可能でないと判定された場合には、ロボット1は、「その逆提案を実行することはできません」という旨をユーザに通知する。このように、ユーザから逆提案を行うことにより、ユーザの癖などを行動パターンの決定に反映させることができる。その結果、ロボット1によって決定される行動パターンがユーザの健康状態に実際に適合する割合を向上させることが可能になる。
なお、図5においてステップST3を省略してもよい。この場合には、ユーザの健康状態に応じて決定されたすべての行動パターンについて、その行動パターンの実行を指示する前に、その行動パターンがユーザに提案されることになる。
また、図5においてステップST3、ST4、ST5、ST7を省略してもよい。この場合には、ユーザの健康状態に応じて決定されたすべての行動パターンがユーザからの返事を待つことなく即時に行動パターンの実行が指示されることになる。
以上のように、本実施の形態によれば、ユーザの健康状態が把握され、ユーザの健康状態に応じた行動パターンが決定される。これにより、ユーザは各種センサを装着する煩わしさから解放される。さらに、ユーザはロボットを自分の健康状態を心配してくれる存在(良き友)と感じるようになる。
さらに、行動パターンの実行を指示する前に、その行動パターンをユーザに提案する形式を採用してもよい。この場合には、ユーザがその提案を受け入れるか否かの最終権限を有することになるため、その提案を受け入れることをロボットから強制されることがなく、ユーザの裁量の自由度が大きい。これにより、ロボットの暴走を抑えることができるとともに、ロボットをユーザフレンドリな存在として身近に感じることが可能になる。
日本能率協会総合研究所が行ったアンケートによれば、コンシューマが描く夢のロボットは「より本物に近いペットロボット」がトップ人気であった。人間と居住空間を共にする生活密着型の共生又はエンターテインメント型のロボットが待望されている。
本発明の対話型装置の一例としてのロボットは、生活密着型のフレンドリでかつ役に立つロボットであることが理解できよう。このようなロボットはユーザの生活を助け、ユーザの良き友になり得る。
なお、再生機器で再生されるコンテンツ(ソフト)は、映像データ、音声データ、照明制御データのうちの少なくとも1つを含んでいてもよい。記録媒体(DVDなど)に記録されている映像データを再生することに同期して記録媒体に記録されている音声データを再生することが可能である。さらに、記録媒体(DVDなど)に記録されている音声データおよび/または映像データを再生することに同期して記録媒体に記録されている照明制御データを再生することが可能である。このような同期再生により、「癒し」効果や「催眠」効果の高いコンテンツ(ソフト)を実現することが可能になる。
図6は、音声データおよび/または映像データと照明制御データとの同期再生を可能にする再生装置2100の構成例を示す。再生装置2100に音声出力装置(例えば、スピーカ)と映像出力装置(例えば、TV)と照明装置とを接続することにより、再生装置2100は、記録媒体によって提供される音楽および/または映像に連動して照明装置の照明パターン(例えば、照明装置の光量および光色の少なくとも一方)を変化させることが可能になる。
再生装置2100は、コントローラ2220と、インタフェースコントローラ(I/Fコントローラ)2230と、読み取り部2120とを含む。
コントローラ2220は、I/Fコントローラ2230に入力されるユーザからの操作コマンドや復号化部2140から供給される制御信号に基づいて、再生装置2100の全体の動作を制御する。
I/Fコントローラ2230は、ユーザの操作(例えば、リモートコントロール部70(図2)からのリモートコントロール信号)を検知して、その操作に対応する操作コマンド(例えば、再生コマンド)をコントローラ2220に出力する。
読み取り部2120は、記録媒体2110に記録された情報を読み取る。
記録媒体2110は、典型的には、DVD(Digital Versatile Disk)である。しかし、記録媒体2110はDVDに限定されない。記録媒体2110は、任意のタイプの記録媒体であり得る。ただし、以下の説明では、記録媒体2110がDVDである場合を例にとり説明することにする。この場合には、読み取り部2120は、例えば、光ピックアップである。
記録媒体2110に記録されているデータのフォーマットとして、DVD−Video規格に準拠したフォーマットを改変したフォーマットが使用される。すなわち、VOBUの中に、ライティングパック(L_PCK:Lighting Pack)が新たに設けられたフォーマットが使用される。L_PCKのデータは、プレゼンテーションデータに同期して照明制御データを出力するためのデータである。
MPEG−2(Moving Picture Experts Group 2)は、広範囲なアプリケーションに対応するために、任意の数の符号化されたストリームを多重化し、それぞれのストリームを同期をとりながら再生するための方式として2種類の方式を規定している。その2種類の方式とは、プログラムストリーム(PS:Program Stream)方式と、トランスポートストリーム(TS:Transport Stream)方式とである。DVDなどのデジタルストレージメディアでは、プログラムストリーム(PS:Program Stream)方式が採用されている。以下の説明では、MPEG−2に規定されているプログラムストリーム(PS:Program Stream)方式を「MPEG−PS方式」と略記し、MPEG−2に規定されているトランスポートストリーム(TS:Transport Stream)方式を「MPEG−TS方式」と略記する。
NV_PCK、A_PCK、V_PCK、SP_PCKは、いずれも、MPEG−PS方式に準拠したフォーマットを採用している。従って、L_PCKも、MPEG−PS方式に準拠したフォーマットを採用することとする。
再生装置2100は、ストリームデータ生成部2130と、復号化部2140とをさらに含む。
ストリームデータ生成部2130は、読み取り部2120の出力に基づいて、符号化されたAVデータと符号化された照明制御データとを含むストリームデータを生成する。ここで、「符号化されたAVデータ」とは、符号化された音声データおよび符号化された映像データのうちの少なくとも一方を含むデータをいう。
ストリームデータ生成部2130によって生成されるストリームデータは、MPEG−PS方式に準拠したフォーマットを有している。このようなストリームデータは、例えば、DVD2120に記録されている情報をRF信号の形式で受け取り、そのRF信号をデジタル化して増幅し、EFMおよび復調処理を施すことにより得られる。ストリームデータ生成部2130の構成は公知のものと同一にすることができるので、ここでは詳しい説明を省略する。
復号化部2140は、分解部2150と、AVデータ復号化部2160と、照明制御データ復号化部2170と、STC生成部2180と、同期コントローラ(制御部)2190とを含む。
分解部2150は、ストリームデータ生成部2130から、MPEG−PS方式に準拠したフォーマットを有するストリームデータを受け取り、そのストリームデータを符号化されたAVデータと符号化された照明制御データとに分解する。このような分解は、PESパケットヘッダ中の識別コード(stream_id)を参照することによって行われる。分解部2150は、例えば、デマルチプレクサである。
AVデータ復号化部2160は、符号化されたAVデータを復号化することによりAVデータを出力する。ここで、「AVデータ」とは、音声データおよび映像データのうちの少なくとも一方を含むデータをいう。
AVデータ復号化部2160は、分解部2150から出力される符号化された映像データを一時的に格納するビデオバッファ2161と、符号化された映像データを復号化することにより、映像データを出力するビデオデコーダ2162と、分解部2150から出力される符号化された音声データを一時的に格納するオーディオバッファ2163と、符号化された音声データを復号化することにより、音声データを出力するオーディオデコーダ2164とを含む。
照明制御データ復号化部2170は、符号化された照明制御データを復号化することにより照明制御データを出力する。ここで、「照明制御データ」とは、照明装置に含まれる複数の画素を制御するためのデータである。
照明制御データ復号化部2170は、分解部2150から出力される符号化された照明制御データを一時的に格納する照明バッファ2171と、符号化された照明制御データを復号化することにより、照明制御データを出力する照明デコーダ2172とを含む。
STC生成部2180は、STC(Syetem Time Clock)を生成する。STCは、SCRに基づいて27MHzの基準クロックの周波数を調整する(すなわち、増減させる)ことによって得られる。STCは、データを符号化したときに用いられた基準時間を符号化データを復号化する際に再現したものである。
同期コントローラ2190は、AVデータ復号化部2160がAVデータを出力するタイミングと照明制御データ復号化部2170が照明制御データを出力するタイミングとが同期するように、AVデータ復号化部2160と照明制御データ復号化部2170とを制御する。
このような同期再生の制御は、例えば、STCとPTSとが一致したときにビデオデコーダ2162から映像データのアクセスユニットが出力されるようにビデオデコーダ2162を制御し、STCとPTSとが一致したときにオーディオデコーダ2164から音声データのアクセスユニットが出力されるようにオーディオデコーダ2164を制御し、STCとPTSとが一致したときに照明デコーダ2172から照明制御データのアクセスユニットが出力されるように照明デコーダ2172を制御することによって達成される。
同期コントローラ2190は、AVデータ復号化部2160がAVデータを復号化するタイミングと照明制御データ復号化部2170が照明制御データを復号化するタイミングとが同期するように、AVデータ復号化部2160と照明制御データ復号化部2170とを制御するようにしてもよい。
このような同期再生の制御は、例えば、STCとDTSとが一致したときにビデオデコーダ2162によって映像データのアクセスユニットが復号化されるようにビデオデコーダ2162を制御し、STCとDTSとが一致したときにオーディオデコーダ2164によって音声データのアクセスユニットが復号化されるようにオーディオデコーダ2164を制御し、STCとDTSとが一致したときに照明デコーダ2172によって照明制御データのアクセスユニットが復号化されるように照明デコーダ2172を制御することによって達成される。
このように、映像データ、音声データ、照明制御データのアクセスユニットを出力するタイミングの制御に加えて、または、映像データ、音声データ、照明制御データのアクセスユニットを出力するタイミングの制御に代えて、映像データ、音声データ、照明制御データのアクセスユニットを復号化するタイミングの制御を行うようにしてもよい。アクセスユニットを出力するタイミング(順序)とアクセスユニットを復号化するタイミング(順序)とが異なる場合があるからである。このような制御により、映像データ、音声データ、照明制御データを同期再生することが可能になる。
ビデオデコーダ2162から出力される映像データは、NTSCエンコーダ2200を介して外部機器(例えば、TV)に出力される。ビデオデコーダ2162とTVとは、再生装置2100の出力端子2240を介して直接的に接続されてもよいし、ホームLANを介して間接的に接続されてもよい。
オーディオデコーダ2164から出力される音声データは、デジタル/アナログコンバータ(DAC)2210を介して外部機器(例えば、スピーカ)に出力される。オーディオデコーダ2164とスピーカとは、再生装置2100の出力端子2250を介して直接的に接続されてもよいし、ホームLANを介して間接的に接続されてもよい。
照明デコーダ2172から出力される照明制御データは、外部機器(例えば、照明装置)に出力される。照明デコーダ2172と照明装置とは、再生装置2100の出力端子2260を介して直接的に接続されてもよいし、ホームLANを介して間接的に接続されてもよい。
なお、ストリームデータ生成部2130によって生成されるストリームデータは、符号化された副映像データを含んでいてもよいし、ナビゲーションデータを含んでいてもよい。例えば、ストリームデータが符号化された副映像データとナビゲーションデータとを含む場合には、分解部2150は、そのストリームデータを符号化された副映像データとナビゲーションデータとに分解する。図6には示されていないが、復号化部2140は、ナビパック回路と、サブピクチャデコーダと、クローズドキャプションデータデコーダとをさらに含んでいてもよい。ナビパック回路は、ナビゲーションデータを処理することにより制御信号を生成し、その制御信号をコントローラ2220に出力する。サブピクチャデコーダは、符号化された副映像データを復号化することにより副映像データをNTSCエンコーダ2200に出力する。クローズドキャプションデータデコーダは、符号化された映像データに含まれる符号化されたクローズドキャプションデータを復号化することによりクローズドキャプションデータをNTSCエンコーダ2200に出力する。これらの回路の機能は公知であり、本発明の主題には関係しないので詳しい説明を省略する。このように、復号化部2140は、図6に示されていない公知の構成を含んでいてもよい。
以上説明したように、図6に示される再生装置2100によれば、記録媒体に記録されている音声データおよび/または映像データを再生することに同期して、その記録媒体に記録されている照明制御データを再生することが可能な再生装置が提供される。この再生装置に音声出力装置(例えば、スピーカ)と映像出力装置(例えば、TV)と照明装置とを接続することにより、記録媒体によって提供される音楽および/または映像に連動して照明パターンを変化させることが可能になる。「癒し」効果のある照明パターンの例としては、木漏れ日を表現した照明パターンを挙げることができる。
以上のように、本発明の対話型装置によれば、ユーザの健康状態が把握され、ユーザの健康状態に応じた行動パターンが決定される。これにより、ユーザは各種センサを装着する煩わしさから解放される。さらに、ユーザは対話型装置を自分の健康状態を心配してくれる存在(良き友)と感じるようになる。その結果、対話型装置の価値を高めることになり、ユーザの対話型装置に対する満足感、所有欲を高めることになる。
図1は、本発明の対話型装置の一例としてのロボット1の外観を示す図である。 図2は、ロボット1の内部構成の一例を示す図である。 図3は、対話データベース140に格納されているユーザが発するキーワードとユーザの健康状態との関係の一例を示す図である。 図4は、情報データベース160に格納されているユーザの健康状態とロボット1の行動パターンとの関係の一例を示す図である。 図5は、ロボット1がユーザの健康状態を把握し、ユーザの健康状態に適合した行動パターンの実行を指示する処理の手順の一例を示すフローチャートである。 図6は、音声データおよび/または映像データと照明制御データとの同期再生を可能にする再生装置2100の構成の一例を示す図である。 図7は、音声認識部40の内部構成の一例を示す図である。 図8aは、図2に示される処理部50の内部構成の一例を示す図である。 図8bは、図2に示される処理部50の内部構成の他の例を示す図である。 図8cは、図2の処理部50の内部構成の他の例を示す図である。 図9は、提案手段50eによる提案文の作成方法の一例を説明するための図である。 図10は、提案要否判定手段50dの内部構成の一例を示す図である。 図11は、行動提案要否テーブル162の構造の一例を示す図である。

Claims (14)

  1. ユーザの健康状態を把握する把握手段と、
    前記把握手段によって把握された前記ユーザの健康状態に応じた行動パターンを決定する決定手段と、
    前記決定手段によって決定された行動パターンの実行を指示する実行指示手段と、
    前記決定手段によって決定された行動パターンの実行を指示する前に、前記ユーザに前記行動パターンを音声で提案する提案手段と、
    前記提案された行動パターンに対する前記ユーザの返事が前記提案された行動パターンを受け入れるという返事か否かを判定する判定手段と
    を備え、
    前記実行指示手段は、前記ユーザの返事が前記提案された行動パターンを受け入れるという返事であると判定された場合に、前記提案された行動パターンの実行を指示する、対話型装置。
  2. 前記把握手段は、前記ユーザの発話に基づいて前記ユーザの健康状態を把握する、請求の範囲第1項に記載の対話型装置。
  3. 前記把握手段は、前記ユーザが発するキーワードに基づいて前記ユーザの健康状態を把握する、請求の範囲第2項に記載の対話型装置。
  4. 前記決定手段によって決定された行動パターンの実行を指示する前に、前記ユーザに前記行動パターンを提案する必要があるか否かを判定する提案要否判定手段をさらに備え、
    前記提案手段は、前記行動パターンの実行を指示する前に前記ユーザに前記行動パターンを提案する必要があると判定された場合に、前記ユーザに前記行動パターンを音声で提案する、請求の範囲第1項に記載の対話型装置。
  5. 前記提案要否判定手段は、前記行動パターンに予め割り当てられた提案の要否を示すフラグの値に応じて提案の要否を判定する、請求の範囲第4項に記載の対話型装置。
  6. 前記提案要否判定手段は、前記行動パターンが実行された実行回数の時間分布に基づいて提案の要否を判定する、請求の範囲第4項に記載の対話型装置。
  7. 前記決定手段は、優先順位がそれぞれ割り当てられた複数の行動パターンのうちの1つを前記ユーザの健康状態に応じた行動パターンとして決定し、その行動パターンが前記ユーザに受け入れられたか否かに応じて、その行動パターンに割り当てられた優先順位を変動させる、請求の範囲第1項に記載の対話型装置。
  8. 前記ユーザの健康状態に応じた行動パターンを記憶する記憶手段をさらに備え、
    前記決定手段は、前記記憶手段に記憶された行動パターンを用いて前記行動パターンを決定する、請求の範囲第1項に記載の対話型装置。
  9. 前記提案手段によって前記ユーザに提案される行動パターンは、再生機器で再生するコンテンツの選択を含む、請求の範囲第1項に記載の対話型装置。
  10. 前記コンテンツは、音声データと映像データと照明制御データとを含み、前記再生機器が照明制御データに基づいて照明装置の光量および光色の少なくとも一方を変化させる、請求の範囲第9項に記載の対話型装置。
  11. 前記対話型装置は、エージェント機能および移動機能のうちの少なくとも1つの機能を有している、請求の範囲第1項に記載の対話型装置。
  12. 前記ユーザの健康状態は、前記ユーザの感情および前記ユーザの体調のうちの少なくとも一方を表す、請求の範囲第1項に記載の対話型装置。
  13. ユーザが発する音声を音声信号に変換する音声入力部と、
    前記音声入力部から出力される音声信号に基づいてユーザが発した言葉を認識する音声認識部と、
    前記ユーザが発すると予想される言葉が予め登録され、前記登録されている言葉と前記ユーザの健康状態との対応関係を保持している対話データベースと、
    前記音声認識部によって認識された言葉と前記対話データベースに登録されている言葉とを照合し、その照合結果に応じて前記ユーザの健康状態を決定することによって、前記ユーザの健康状態を把握する把握手段と、
    前記ユーザの健康状態と対話型装置の行動パターンとの対応関係を保持している行動パターンテーブルに基づいて、前記把握手段によって把握された前記ユーザの健康状態に応じた行動パターンを決定する決定手段と、
    前記決定手段によって決定された行動パターンの実行を指示する実行指示手段と、
    前記決定手段によって決定された行動パターンの実行を指示する前に、前記把握手段の出力結果と前記決定手段の出力結果とに基づいて提案文を合成し、前記ユーザに前記行動パターンを音声で提案する提案手段と、
    前記提案された行動パターンに対する前記ユーザの返事が前記提案された行動パターンを受け入れるという返事か否かを判定する判定手段と
    を備え、
    前記実行指示手段は、前記ユーザの返事が前記提案された行動パターンを受け入れるという返事であると判定された場合に、前記提案された行動パターンの実行を指示する、対話型装置。
  14. 前記提案された行動パターンに対して前記ユーザから逆提案された行動パターンを受け取る手段と、
    前記逆提案された行動パターンを前記対話型装置が実行可能であるか否かを判定する手段と、
    前記逆提案された行動パターンを前記対話型装置が実行可能であると判定された場合に、前記行動パターンテーブルに保持されている前記ユーザの健康状態と前記対話型装置の行動パターンとの対応関係を更新する手段と
    をさらに備えた、請求の範囲第13項に記載の対話型装置。
JP2004538008A 2002-09-20 2003-09-19 対話型装置 Pending JPWO2004027527A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2002276121 2002-09-20
JP2002276121 2002-09-20
PCT/JP2003/012040 WO2004027527A1 (ja) 2002-09-20 2003-09-19 対話型装置

Publications (1)

Publication Number Publication Date
JPWO2004027527A1 true JPWO2004027527A1 (ja) 2006-01-19

Family

ID=32025058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004538008A Pending JPWO2004027527A1 (ja) 2002-09-20 2003-09-19 対話型装置

Country Status (5)

Country Link
US (1) US20060100880A1 (ja)
EP (1) EP1542101A1 (ja)
JP (1) JPWO2004027527A1 (ja)
CN (1) CN1701287A (ja)
WO (1) WO2004027527A1 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040073690A1 (en) 2002-09-30 2004-04-15 Neil Hepworth Voice over IP endpoint call admission
US7359979B2 (en) 2002-09-30 2008-04-15 Avaya Technology Corp. Packet prioritization and associated bandwidth and buffer management techniques for audio over IP
US7978827B1 (en) 2004-06-30 2011-07-12 Avaya Inc. Automatic configuration of call handling based on end-user needs and characteristics
JP4741500B2 (ja) * 2004-09-14 2011-08-03 パナソニック株式会社 機器制御装置、機器、機器制御装置の制御方法、プログラムおよび機器制御システム
JP4677543B2 (ja) * 2005-05-24 2011-04-27 株式会社国際電気通信基礎技術研究所 表情付け音声発生装置
JP2007094544A (ja) * 2005-09-27 2007-04-12 Fuji Xerox Co Ltd 情報検索システム
US20090197504A1 (en) * 2008-02-06 2009-08-06 Weistech Technology Co., Ltd. Doll with communication function
JP5255888B2 (ja) * 2008-04-08 2013-08-07 日本電信電話株式会社 花粉症状診断装置、花粉症状診断支援方法及び花粉症状診断システム
US8218751B2 (en) 2008-09-29 2012-07-10 Avaya Inc. Method and apparatus for identifying and eliminating the source of background noise in multi-party teleconferences
JP5201050B2 (ja) * 2009-03-27 2013-06-05 ブラザー工業株式会社 会議支援装置、会議支援方法、会議システム、会議支援プログラム
WO2011144675A1 (en) * 2010-05-19 2011-11-24 Sanofi-Aventis Deutschland Gmbh Modification of operational data of an interaction and/or instruction determination process
KR101759190B1 (ko) * 2011-01-04 2017-07-19 삼성전자주식회사 휴대용 무선 단말기에서 통화 중 위급상황을 신고하기 위한 방법 및 장치
US9084312B2 (en) 2011-12-07 2015-07-14 Comcast Cable Communications, Llc Dynamic ambient lighting
JP5776544B2 (ja) * 2011-12-28 2015-09-09 トヨタ自動車株式会社 ロボットの制御方法、ロボットの制御装置、及びロボット
JP5904021B2 (ja) * 2012-06-07 2016-04-13 ソニー株式会社 情報処理装置、電子機器、情報処理方法、及びプログラム
JP2014059764A (ja) * 2012-09-18 2014-04-03 Sharp Corp 自走式制御機器、自走式制御機器の制御方法、外部機器制御システム、自走式制御機器制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体
US9380443B2 (en) 2013-03-12 2016-06-28 Comcast Cable Communications, Llc Immersive positioning and paring
JP6145302B2 (ja) * 2013-05-14 2017-06-07 シャープ株式会社 電子機器
JP2015184563A (ja) * 2014-03-25 2015-10-22 シャープ株式会社 対話型家電システム、サーバ装置、対話型家電機器、家電システムが対話を行なうための方法、当該方法をコンピュータに実現させるためのプログラム
JP6530906B2 (ja) * 2014-11-28 2019-06-12 マッスル株式会社 パートナーロボットおよびその遠隔制御システム
GB2564821A (en) * 2016-05-20 2019-01-23 Groove X Inc Autonomous action robot and computer program
JP2018049358A (ja) * 2016-09-20 2018-03-29 株式会社イシダ 健康管理システム
CN108305640A (zh) * 2017-01-13 2018-07-20 深圳大森智能科技有限公司 智能机器人主动服务方法与装置
KR101999657B1 (ko) * 2017-09-22 2019-07-16 주식회사 원더풀플랫폼 챗봇을 이용한 사용자 케어 시스템
WO2020017165A1 (ja) * 2018-07-20 2020-01-23 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
CN109117233A (zh) * 2018-08-22 2019-01-01 百度在线网络技术(北京)有限公司 用于处理信息的方法和装置
JP2020185618A (ja) * 2019-05-10 2020-11-19 株式会社スター精機 機械動作方法,機械動作設定方法及び機械動作確認方法
JP6842514B2 (ja) * 2019-08-22 2021-03-17 東芝ライフスタイル株式会社 冷蔵庫を用いた安否確認システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6249720B1 (en) * 1997-07-22 2001-06-19 Kabushikikaisha Equos Research Device mounted in vehicle
US6606598B1 (en) * 1998-09-22 2003-08-12 Speechworks International, Inc. Statistical computing and reporting for interactive speech applications
US6405170B1 (en) * 1998-09-22 2002-06-11 Speechworks International, Inc. Method and system of reviewing the behavior of an interactive speech recognition application
US6697457B2 (en) * 1999-08-31 2004-02-24 Accenture Llp Voice messaging system that organizes voice messages based on detected emotion
JP2001148889A (ja) * 1999-11-19 2001-05-29 Daiwa House Ind Co Ltd 住宅内機器の統括操作システム
US6526382B1 (en) * 1999-12-07 2003-02-25 Comverse, Inc. Language-oriented user interfaces for voice activated services
JP2001188784A (ja) * 1999-12-28 2001-07-10 Sony Corp 会話処理装置および方法、並びに記録媒体
JP2001249945A (ja) * 2000-03-07 2001-09-14 Nec Corp 感情生成方法および感情生成装置
JP2002123289A (ja) * 2000-10-13 2002-04-26 Matsushita Electric Ind Co Ltd 音声対話装置
US6975988B1 (en) * 2000-11-10 2005-12-13 Adam Roth Electronic mail method and system using associated audio and visual techniques

Also Published As

Publication number Publication date
WO2004027527A1 (ja) 2004-04-01
CN1701287A (zh) 2005-11-23
US20060100880A1 (en) 2006-05-11
EP1542101A1 (en) 2005-06-15

Similar Documents

Publication Publication Date Title
JPWO2004027527A1 (ja) 対話型装置
CN1237505C (zh) 模拟人际交互并利用相关数据装载外部数据库的用户接口/娱乐设备
EP1415218B1 (en) Environment-responsive user interface / entertainment device that simulates personal interaction
US8324492B2 (en) Musically interacting devices
US20030187653A1 (en) Action teaching apparatus and action teaching method for robot system, and storage medium
CN109036388A (zh) 一种基于对话设备的智能语音交互方法
KR20060112601A (ko) 키 생성 방법 및 키 생성 장치
JP2007041988A (ja) 情報処理装置および方法、並びにプログラム
JP2015518680A (ja) 受動的に検知された聴衆反応に基づくメディア・プログラムの提示制御
EP1341155A3 (en) Information processing apparatus and method with speech synthesis function
JP2005051654A (ja) コンテンツ再生方法、コンテンツ再生装置、コンテンツ記録方法、コンテンツ記録メディア
CN1806755A (zh) 再现内容数据的方法和装置
JP2007034664A (ja) 感情推定装置および方法、記録媒体、および、プログラム
JP4622384B2 (ja) ロボット、ロボット制御装置、ロボットの制御方法およびロボットの制御用プログラム
CN101357269A (zh) 一种智能玩具及其使用方法
JP2006099195A (ja) 視聴コンテンツ提供システム及び視聴コンテンツ提供方法
CN104851436B (zh) 一种用于移动终端的声控音乐播放系统及其播放方法
JP4411900B2 (ja) 電子機器間の相互成長システム、電子機器及びロボット装置
CN109213892A (zh) 一种音频播放方法、装置、设备及存储介质
US8574020B2 (en) Animated interactive figure and system
US20060084047A1 (en) System and method of segmented language learning
JP2021026261A (ja) 情報処理システム、方法およびプログラム
JP4516944B2 (ja) カラオケ歌唱補助システム
JP4485966B2 (ja) カラオケシステム
US20230154498A1 (en) System and method for providing advanced content interactivity features

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080501

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080630

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080723