JP4635486B2 - 概念獲得装置及びその方法、並びにロボット装置及びその行動制御方法 - Google Patents

概念獲得装置及びその方法、並びにロボット装置及びその行動制御方法 Download PDF

Info

Publication number
JP4635486B2
JP4635486B2 JP2004191935A JP2004191935A JP4635486B2 JP 4635486 B2 JP4635486 B2 JP 4635486B2 JP 2004191935 A JP2004191935 A JP 2004191935A JP 2004191935 A JP2004191935 A JP 2004191935A JP 4635486 B2 JP4635486 B2 JP 4635486B2
Authority
JP
Japan
Prior art keywords
concept
person
positive
attribute information
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004191935A
Other languages
English (en)
Other versions
JP2006012082A (ja
Inventor
理 花形
浩明 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004191935A priority Critical patent/JP4635486B2/ja
Publication of JP2006012082A publication Critical patent/JP2006012082A/ja
Application granted granted Critical
Publication of JP4635486B2 publication Critical patent/JP4635486B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、外界から得られた情報と装置内部に記憶されている知識とに基づいて新しい概念を獲得する概念獲得装置及びその方法、並びに概念に基づいて行動するロボット装置及びその行動制御方法に関する。
論理に基づく帰納推論を行うシステム(ILP:Inductive Logic Programing)が90年代後半にStephen Muggletonらによって開発された(例えば、非特許文献1参照。)。ILPは、多くの事例から共通するルールを導き出すシステムである。このILPは、事例として正しい例(正例)と間違った例(負例)が与えられることにより、これらの正負例を事例に関連する背景知識に基づいて組み合わせ、多くの事例が成り立つ仮説を作り出す。作り出された仮説は、概念と呼ばれる。このようにして実現されたILPとして、Progolと呼ばれるシステムがある。
Stephen Muggleton, Luc De Raedt,"Inductive Logic Programming : Theory And Methods", Journal of Logic Programming, 1994, pp.629-679
しかしながら、Progolでは、求めようとする概念(目標概念)、背景知識及び正負例はプログラムで与えることになっており、どのように目標概念、背景知識及び正負例を選択するか決まっておらず、新しい概念を自動的に獲得することができなかった。
したがって、Progolがロボット装置に組み込まれた場合であっても、新しい概念を獲得することができず、概念に対応した動作を行うことができなかった。
本発明は、このような従来の実情に鑑みて提案されたものであり、外界から得られた情報と装置内部に記憶されている知識とに基づいて新しい概念を獲得する概念獲得装置及びその方法、並びに概念に基づいて行動するロボット装置及びその行動制御方法を提供することを目的とする。
そこで、上述した目的を達成するために、本発明に係る概念獲得装置は、画像から人の顔を認識し、人物IDを出力するとともに、顔の特徴を抽出し、顔の特徴を示す属性情報を出力する顔認識手段と、音声から発話内容を認識し、テキスト文章を出力する音声認識手段と、上記属性情報に基づいて顔の特徴の有無を示す正負例を上記人物ID毎に生成するとともに、上記テキスト文章に基づいて発話内容と同じ意味又は反対の意味を示す正負例を上記人物ID毎に生成する正負例生成手段と、上記属性情報又は上記テキスト文章に基づいて目標概念を決定する目標概念決定手段と、上記目標概念に対して上記正負例を組み合わせ、最も多くの人物IDに対して事例が成り立つものを概念として獲得する概念獲得手段とを有することを特徴としている。
また、本発明に係る概念獲得方法は、顔認識手段により、画像から人の顔を認識し、人物IDを出力するとともに、顔の特徴を抽出し、顔の特徴を示す属性情報を出力する顔認識工程と、音声認識手段により、音声から発話内容を認識し、テキスト文章を出力する音声認識工程と、情報処理装置により、上記属性情報又は上記テキスト文章に基づいて目標概念を決定する目標概念決定工程と、情報処理装置により、上記属性情報に基づいて顔の特徴の有無を示す正負例を上記人物ID毎に生成するとともに、上記テキスト文章に基づいて発話内容と同じ意味又は反対の意味を示す正負例を上記人物ID毎に生成する正負例生成工程と、情報処理装置により、上記目標概念に対して上記正負例を組み合わせ、最も多くの人物IDに対して事例が成り立つものを概念として獲得する概念獲得工程とを有することを特徴としている。
また、本発明に係るロボット装置は、自律的な動作が可能なロボット装置において、画像から人の顔を認識し、人物IDを出力するとともに、顔の特徴を抽出し、顔の特徴を示す属性情報を出力する顔認識手段と、音声から発話内容を認識し、テキスト文章を出力する音声認識手段と、上記属性情報に基づいて顔の特徴の有無を示す正負例を上記人物ID毎に生成するとともに、上記テキスト文章に基づいて発話内容と同じ意味又は反対の意味を示す正負例を上記人物ID毎に生成する正負例生成手段と、上記属性情報又は上記テキスト文章に基づいて目標概念を決定する目標概念決定手段と、上記目標概念に対して上記正負例を組み合わせ、最も多くの人物IDに対して事例が成り立つものを概念として獲得する概念獲得手段と、上記概念獲得手段にて獲得した概念を記憶する知識記憶手段とを有することを特徴としている。
また、本発明に係るロボット装置の行動制御方法は、顔認識手段により、画像から人の顔を認識し、人物IDを出力するとともに、顔の特徴を抽出し、顔の特徴を示す属性情報を出力する顔認識工程と、音声認識手段により、音声から発話内容を認識し、テキスト文章を出力する音声認識工程と、情報処理装置により、上記属性情報又は上記テキスト文章に基づいて目標概念を決定する目標概念決定工程と、情報処理装置により、上記属性情報に基づいて顔の特徴の有無を示す正負例を上記人物ID毎に生成するとともに、上記テキスト文章に基づいて発話内容と同じ意味又は反対の意味を示す正負例を上記人物ID毎に生成する正負例生成工程と、情報処理装置により、上記目標概念に対して上記正負例を組み合わせ、最も多くの人物IDに対して事例が成り立つものを概念として獲得する概念獲得工程と、情報処理装置により、上記概念獲得工程にて獲得した概念を記憶手段に記憶する知識記憶工程とを有することを特徴としている。
本発明によれば、外界から得られた情報より目標概念を決定し、正負例を生成することができるため、正負例を組み合わせて新しい概念を獲得することができる。
また、外界から得られた情報よりロボット装置の行動に反映させる概念を識別し、行動を選択することができるため、どのような場面でも概念に対応した行動をとることができる。
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。この実施の形態は、本発明を、外界から得られた知識と装置内部に記憶されている知識とに基づいて新しい概念を獲得し、行動に反映させる2足歩行タイプのロボット装置に適用したものである。このロボット装置は、住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットであり、人間が行う基本的な動作を表出できるエンターテインメントロボットでもある。以下では先ず、このようなロボット装置の構成について説明し、次いで、このロボット装置の概念獲得方法及び行動制御方法について詳細に説明する。
(1)ロボット装置の構成
先ず、本実施の形態におけるロボット装置の構成について説明する。図1に示すように、本実施の形態におけるロボット装置1は、体幹部ユニット2の所定の位置に頭部ユニット3が連結されるとともに、左右2つの腕部ユニット4R/Lと、左右2つの脚部ユニット5R/Lが連結されて構成されている(但し、R及びLの各々は、右及び左の各々を示す接尾辞である。以下において同じ。)。
このロボット装置1が具備する関節自由度構成を図2に模式的に示す。頭部ユニット3を支持する首関節は、首関節ヨー軸101と、首関節ピッチ軸102と、首関節ロール軸103という3自由度を有している。
また、上肢を構成する各々の腕部ユニット4R/Lは、肩関節ピッチ軸107と、肩関節ロール軸108と、上腕ヨー軸109と、肘関節ピッチ軸110と、前腕ヨー軸111と、手首関節ピッチ軸112と、手首関節ロール軸113と、手部114とで構成される。手部114は、実際には、複数本の指を含む多関節・多自由度構造体である。但し、手部114の動作は、ロボット装置1の姿勢制御や歩行制御に対する寄与や影響が少ないので、本明細書ではゼロ自由度と仮定する。したがって、各腕部ユニット4R/Lは、7自由度で構成される。
また、体幹部ユニット2は、体幹ピッチ軸104と、体幹ロール軸105と、体幹ヨー軸106という3自由度を有する。
また、下肢を構成する各々の脚部ユニット5R/Lは、股関節ヨー軸115と、股関節ピッチ軸116と、股関節ロール軸117と、膝関節ピッチ軸118と、足首関節ピッチ軸119と、足首関節ロール軸120と、足部121とで構成される。本明細書中では、股関節ピッチ軸116と股関節ロール軸117の交点は、ロボット装置1の股関節位置を定義する。人体の足部は、実際には多関節・多自由度の足底を含んだ構造体であるが、ロボット装置1の足部121は、ゼロ自由度とする。したがって、各脚部ユニット5R/Lは、6自由度で構成される。
以上を総括すれば、ロボット装置1全体としては、合計で3+7×2+3+6×2=32自由度を有することになる。但し、エンターテインメント向けのロボット装置1が必ずしも32自由度に限定される訳ではない。設計・制作上の制約条件や要求仕様等に応じて、自由度すなわち関節数を適宜増減することができることはいうまでもない。
上述したようなロボット装置1が持つ各自由度は、実際にはアクチュエータを用いて実装される。外観上で余分な膨らみを排してヒトの自然体形状に近似させること、2足歩行という不安定構造体に対して姿勢制御を行うことなどの要請から、アクチュエータは小型且つ軽量であることが好ましい。
図3には、ロボット装置1の制御システム構成を模式的に示している。図3に示すように、制御システムは、ユーザ入力などに動的に反応して情緒判断や感情表現を司る思考制御モジュール200と、アクチュエータ350の駆動などロボット装置1の全身協調運動を制御する運動制御モジュール300とで構成される。
思考制御モジュール200は、情緒判断や感情表現に関する演算処理を実行するCPU(Central Processing Unit)211や、RAM(Random Access Memory)212、ROM(Read Only Memory)213、及び外部記憶装置(ハード・ディスク・ドライブなど)214で構成され、モジュール内で自己完結した処理を行うことができる独立駆動型の情報処理装置である。
この思考制御モジュール200は、画像入力装置251から入力される画像データや音声入力装置252から入力される音声データなど、外界からの刺激などに従って、ロボット装置1の現在の感情や意思を決定する。ここで、画像入力装置251は、例えばCCD(Charge Coupled Device)カメラを左右に1つずつ備えており、また、音声入力装置252は、例えばマイクロホンを複数備えている。また、思考制御モジュール200は、スピーカを備える音声出力装置253を介して、音声を出力することができる。
また、思考制御モジュール200は、意思決定に基づいた動作又は行動シーケンス、すなわち四肢の運動を実行するように、運動制御モジュール300に対して指令を発行する。
一方の運動制御モジュール300は、ロボット装置1の全身協調運動を制御するCPU311や、RAM312、ROM313、及び外部記憶装置(ハード・ディスク・ドライブなど)314で構成され、モジュール内で自己完結した処理を行うことができる独立駆動型の情報処理装置である。外部記憶装置314には、例えば、オフラインで算出された歩行パターンや目標とするZMP軌道、その他の行動計画を蓄積することができる。ここで、ZMPとは、歩行中の床反力によるモーメントがゼロとなる床面上の点のことであり、また、ZMP軌道とは、例えばロボット装置1の歩行動作期間中にZMPが動く軌跡を意味する。なお、ZMPの概念並びにZMPを歩行ロボットの安定度判別規範に適用する点については、Miomir Vukobratovic 著“LEGGED LOCOMOTION ROBOTS”(加藤一郎外著『歩行ロボットと人工の足』(日刊工業新聞社))に記載されている。
運動制御モジュール300には、図2に示したロボット装置1の全身に分散するそれぞれの関節自由度を実現するアクチュエータ350、体幹部ユニット2の姿勢や傾斜を計測する姿勢センサ351、左右の足底の離床又は着床を検出する接地確認センサ352,353、バッテリなどの電源を管理する電源制御装置354などの各種の装置が、バス・インターフェース(I/F)301経由で接続されている。ここで、姿勢センサ351は、例えば加速度センサとジャイロ・センサの組み合わせによって構成され、接地確認センサ352,353は、近接センサ又はマイクロ・スイッチなどで構成される。
思考制御モジュール200と運動制御モジュール300とは、共通のプラットフォーム上で構築され、両者間はバス・インターフェース201,301を介して相互接続されている。
運動制御モジュール300では、思考制御モジュール200から指示された行動を体現すべく、各アクチュエータ350による全身協調運動を制御する。すなわち、CPU311は、思考制御モジュール200から指示された行動に応じた動作パターンを外部記憶装置314から取り出し、又は内部的に動作パターンを生成する。そして、CPU311は、指定された動作パターンに従って、足部運動、ZMP軌道、体幹運動、上肢運動、腰部水平位置及び高さなどを設定するとともに、これらの設定内容に従った動作を指示する指令値を各アクチュエータ350に転送する。
また、CPU311は、姿勢センサ351の出力信号によりロボット装置1の体幹部ユニット2の姿勢や傾きを検出するとともに、各接地確認センサ352,353の出力信号により各脚部ユニット5R/Lが遊脚又は立脚の何れの状態であるかを検出することによって、ロボット装置1の全身協調運動を適応的に制御することができる。
また、CPU311は、ZMP位置が常にZMP安定領域の中心に向かうように、ロボット装置1の姿勢や動作を制御する。
さらに、運動制御モジュール300は、思考制御モジュール200において決定された意思通りの行動がどの程度発現されたか、すなわち処理の状況を、思考制御モジュール200に返すようになっている。
このようにしてロボット装置1は、制御プログラムに基づいて自己及び周囲の状況を判断し、自律的に行動することができる。
(2)概念獲得方法
次に、本実施の形態における概念獲得方法について説明する。図4は、本実施の形態における概念獲得装置40を示すブロック図である。概念獲得装置40を搭載したロボット装置1は、外界の情報を取得するセンサに図3に示す画像入力装置251に設けられたCCDカメラ41と音声入力装置252に設けられたマイクロホン43とを用いることができる。なお、ここではILP(Inductive Logic Programming)システムの1つであるProgolを用いて概念を獲得する方法を説明する。
概念獲得装置40は、CCDカメラ41で撮像された画像から人の顔を認識し、その顔の特徴を示す属性情報とその顔の人物IDとを出力する顔認識器42と、マイクロホン43で集音した音声から発話内容を認識し、発話内容のテキスト文章を出力する音声認識器44と、顔認識器42から入力された属性情報又は音声認識器44から入力されたテキスト文章より正負例データベース46を参照して正例又は負例を生成するFact生成器45と、音声認識器44から入力されたテキスト文章より目標概念データベース48を参照して目標概念を決定する目標概念決定器47と、Fact生成器45で生成された正負例及び目標概念決定器47で決定された目標概念から背景知識データベース50を参照して新しい概念を獲得する概念獲得器49と、概念獲得器49で獲得した概念を記憶する知識記憶器51とを備えている。
顔認識器42は、例えば平均的な正面顔のテンプレート画像を使用し、CCDカメラ41から入力された画像と、テンプレート画像との相関を求めることにより、顔検出を行う。そして、検出した顔の人物IDを識別し、顔の特徴、例えば、髭が生えているか、眼鏡をかけているかなどを示す属性情報を人物IDとともに出力する。また、顔認識器42は、新しい顔を検出した場合、その顔に人物IDを付すとともに、その顔の特徴を抽出し、人物IDと属性情報とを出力する。顔認識器42から出力された人物ID及び属性情報は、Fact生成器44に入力される。
音声認識器44は、マイクロホン43で集音した音声から発話内容を認識し、発話内容のテキスト文章をFact生成器45及び目標概念決定器47に出力する。
Fact生成器45は、音声認識器44から入力されたテキスト文章より正負例を生成する。この際、Fact生成器45は、正負例データベース46に格納された正負例決定ルールを参照し、正例又は負例を生成する。この正負例決定ルールは、入力されたテキスト文章に対応して正例又は負例を生成するように規定されている。例えば、「わたしはらーめんがすきです」と入力されたテキスト文章に対しては正例である記述like(person, ramen)を生成するように規定され、その反対の意味を表す、例えば「わたしはらーめんがすきではありません」、「わたしはらーめんがきらいです」などと入力されたテキスト文章に対しては負例である記述not like(person, ramen)を生成するように規定されている。ここで、personには顔認識器42で認識された人のIDが入力される。
また、Fact生成器45は、顔認識器42から入力された属性情報に基づいて正負例を生成する。例えば、眼鏡をかけている人という属性情報が入力された場合には、正例である記述megane(person)を生成し、眼鏡をかけていない人という属性情報が入力された場合には、負例である記述not megane(person)を生成する。Fact生成器45は、生成した正負例を概念獲得器49に出力する。
目標概念決定器47は、音声認識器44から入力されたテキスト文章を、目標概念データベース48に格納された目標概念決定ルールと比較して、合致したものを目標概念として決定する。目標概念決定ルールは、入力されたテキスト文章に対応して目標概念を決定するように規定されている。例えば、「わたしはらーめんがすきです」と入力されたテキストに対しては、likeを目標概念とするように規定されている。目標概念決定器47は、決定した目標概念を概念獲得器49に出力する。
概念獲得器49は、背景知識データベース50に格納された背景ルールで規定された正負例を組み合わせて最も多くの事例が成り立つ仮説を作り出す。そして、作り出された仮説を概念として獲得する。背景ルールには、目標概念に関する概念を獲得するために利用される正負例が規定されている。例えば、目標概念決定器47から入力された目標概念likeに対しては、Fact生成器45から出力された髭が生えているか否か、眼鏡をかけているか否かなどの正負例を利用するように規定されている。概念獲得器49は、獲得した概念を知識記憶器51に出力する。
知識記憶器51は、概念獲得器49で獲得された概念を記憶する。記憶された概念は、後述するロボット装置1の行動に反映される。
次に、本実施の形態におけるロボット装置1の概念獲得方法について、具体的な例を示して説明する。図5は、本実施の形態におけるロボット装置1の概念獲得方法を説明するフローチャートである。
先ず、人が、例えば「私はラーメンが好きです。」とロボット装置1のCCDカメラ41の前で話しかける(ステップS51)。顔認識器42は、CCDカメラ41で撮像された顔画像より話しかけた人物を特定する(ステップS52)。この際、顔認識器42は、人物IDと髭が生えているか否か、眼鏡をかけているか否か等の属性情報とを次のようなテーブル型式で出力する。
人物ID:p1
髭:true
眼鏡:false
ステップS51にて、マイクロホン43から入力された音声は、音声認識器44にて発話内容が認識され、テキスト文章が出力される(ステップS53)。
目標概念決定器47は、ステップS53にて認識されたテキスト文章と目標概念データベース48に格納された目標概念決定ルールとを比較し、目標概念として決定する(ステップS54)。例えば、目標概念データベース48には、次のような目標概念決定ルールが格納されているとする。
ルール:わたしはXがすきです ,like
ルール:わたしはXがすきではありません ,like
ルール:わたしはXがきらいです ,like
そして、例えば「わたしはらーめんがすきです。」とステップS53で認識された場合、目標概念決定器47は、その発話内容に対応する目標概念決定ルールに従ってlikeを目標概念として決定する。
Fact生成器45は、ステップS53で認識されたテキスト文章に対応する正負例決定ルールに従い、正負例を生成する(ステップS55)。例えば、正負例データベース46には、次のような正負例決定ルールが格納されているとする。
ルール:わたしはTARGETがすきです ,like(person, TARGET)
ルール:わたしはTARGETがすきではありません ,not(like(person, TARGET))
ルール:わたしはTARGETがきらいです ,not(like(person, TARGET))
ここで、TARGETには、テキスト文章に応じて様々な要素が入力される。そして、Fact生成器45は、、ステップS53にて、例えば「わたしはらーめんがすきです。」と認識されたテキスト文章に対応する正負例決定ルールに従って、正例であるlike(person, ramen)を生成する。
また、Fact生成器45は、顔認識器42から出力された属性情報に基づいて、正負例を生成する。例えば、髭が生えている場合、正例であるhige(person)を生成し、髭が生えていない場合、負例であるnot hige(person)を生成する。
以上、ステップS51からステップS55までを順次繰り返し行い、正負例を生成する。例えば、p1からp9までのIDの人が、ラーメン及びうどんの好き嫌いについて話した場合、正負例は次のように生成される。
like(p1, ramen). not like(p1, udon). not hige(p1). not megane(p1).
not like(p2, ramen). like(p2, udon). hige(p2). not megane(p2).
like(p3, ramen). not like(p3, udon). not hige(p3). megane(p3).
like(p4, ramen). not like(p4, udon). not hige(p4). megane(p4).
not like(p5, ramen). not like(p5, udon). hige(p5). megane(p5).
like(p6, ramen). not like(p6, udon). not hige(p6). megane(p6).
not like(p7, ramen). like(p7, udon). hige(p7). not megane(p7).
not like(p8, ramen). like(p8, udon). hige(p8). not megane(p8).
not like(p9, ramen). not like(p9, udon). not hige(p9). not megane(p9).
ここで、例えば1段目のp1の人について説明すれば、顔には髭も眼鏡もなく、ラーメンが好きで、うどんが嫌いな人であることを示している。
概念獲得器49は、背景知識データベース50に格納された複数のルールの中からステップS54で決定された目標概念に関するルール、例えば次に示すようなlikeに関するルールを取り出す。
modeh(1, like(+person, #food))
modeb(1, hige (+person))
modeb(1, megane (+person))
modeb(1, not hige(+person)))
modeb(1, not (megane(+person,)))
modeb(*,+any, +any)
ここで、modeh(1, like(+person, #food))の記述は、食べ物#foodに対する目標概念likeについてmodebに記述されている正負例の分類規則を見つけるように規定したものである。また、modeb(*,+any, +any)の記述は、modebに記述されている正負例を組み合わせて分類できるように規定したものである。なお、ラーメン及びうどんについては、背景知識データベース50に食べ物であることが記述されているものとする。
このようにステップS55で得られた正負例を組み合わせて最も多くの事例が成り立つ仮説を作り出し、概念を獲得する(ステップS56)。例えば、上述のp1からp9までのIDの人が、ラーメン及びうどんの好き嫌いについて話した場合、次のような概念を獲得する。
like(A, ramen)←not hige(A)
like(A, udon)←not(megane(A))and hige(A)
ここで、like(A, ramen)←not hige(A)の記述は、「髭を生やしていない人はラーメンが好きである」という概念を表すものである。これは、髭を生やしていない人であるp1、p3、p4、p6及びp9のうち、ラーメンが好きではない人はp9のみであるという事実に基づくものである。また、like(A, udon)←not(megane(A))and hige(A)の記述は、「眼鏡をかけておらず、且つ髭を生やしている人は、うどんが好きである」という概念を表すものである。これは、眼鏡をかけておらず、且つ髭を生やしている人であるp2、p7及びp8は、皆うどんが好きであるという事実に基づくものである。
ステップS56にて獲得した概念は、知識記憶器51に記憶される(ステップS57)。
なお、ステップS51において、人がロボット装置1のCCDカメラ41の前で話しかける際に、顔を撮像することとしたが、ロボット装置1が話しかけている人の方向を検知し、その方向にCCDカメラ41を向けて顔を撮像するようにしてもよい。
また、ステップS54において、音声認識器44で認識されたテキスト文章に基づいて目標概念を決定することとしたが、顔認識器42で認識された顔の属性情報に基づいて目標概念を決定するようにしてもよい。例えば、眼鏡をかけている人という属性情報が入力された場合、視力について目標概念を決定するようにしておき、例えば、「視力が著しく悪い人は眼鏡をかけている」という概念を獲得してもよい。
(3)行動制御方法
本実施の形態における行動制御方法について説明する。図6は、本実施の形態におけるロボット装置1の行動制御に関わる部分を示すブロック図である。ロボット装置1の行動制御に関わる部分は、外界の情報を取得するセンサとして図3に示す画像入力装置251に設けられたCCDカメラ61を用いることができる。
行動制御に関わる部分は、CCDカメラ61で撮像された画像から人の顔を識別し、その人のIDとその人の顔の特徴を示す属性情報とを出力する顔認識器62と、知識記憶器64に記憶された概念が真か偽かを顔認識器62から入力された属性情報に基づいて識別する概念識別器63と、概念識別器63にて真であると識別された概念を反映させるロボット装置1の行動を行動選択データベース66に基づいて選択する行動選択器65と、音声波形を合成する音声合成器67と、合成された音声波形を出力するスピーカ68とを備えている。
顔認識器62は、例えば平均的な正面顔のテンプレート画像を使用し、CCDカメラ61から入力された画像と、テンプレート画像との相関を求めることにより、顔検出を行う。そして、検出した顔の人物IDを識別し、顔の特徴、例えば、髭が生えているか、眼鏡をかけているかなどを示す属性情報を人物IDとともに出力する。また、顔認識器62は、新しい顔を検出した場合、その顔に人物IDを付すとともに、その顔の特徴を抽出し、人物IDと属性情報とを出力する。顔認識器62から出力された人物ID及び属性情報は、概念識別器63に入力される。
概念識別器63は、顔認識器62から入力された属性情報に基づいて知識記憶器64に記憶された概念が真か偽かを識別する。そして、真であると識別された概念をロボット装置1に反映させる概念として行動選択器65に出力する。
知識記憶器64は、上述した概念獲得装置40で獲得された概念が記憶されている。
行動選択器65は、概念識別器63にて真であると識別された概念を反映させるロボット装置1の行動を、行動選択データベース66に格納された行動選択ルールに基づいて選択する。行動選択ルールは、概念識別器63にて真であると識別された概念に対応する行動が規定されている。
音声合成器67は、行動選択器65にて発話行動が選択された場合、テキスト文章などを音声波形に合成する。合成された音声波形はスピーカ68から出力される。
次に、本実施の形態におけるロボット装置1の行動制御方法について、図7のフローチャートを参照して説明する。なお、ここでは、ロボット装置1がこれまでに会ったことのない人物に遭遇した場合の行動制御例について説明する。
先ず、顔認識器62は、新しい顔が検出された場合、CCDカメラ61で撮像された顔画像より話しかけた人物を特定する(ステップS71)。この際、顔認識器62は、人物IDと髭が生えているか否か、眼鏡をかけているか否か等の属性情報とを次のようなテーブル型式で出力する。なお、顔認識器62は、新しい顔を検出した場合、人物IDを付すこととしているが、本実施の形態のロボット装置1の行動制御方法においては、必ずしも必要なものではない。
人物ID:p10
髭:false
眼鏡:false
概念識別器63は、顔認識器62から入力された属性情報に基づいて知識記憶器64に記憶された概念が真か偽かを識別する(ステップS72)。そして、真である概念をロボット装置1の行動に反映させる概念として行動選択器65に出力する。例えば、人物IDp10の属性情報に基づいて、次のような概念が知識記憶器64から取得される。
like(A, ramen)←not hige(A)
like(A, udon)←not(megane(A))and hige(A)
ここで、人物IDp10の属性情報を元に概念が真か偽かを識別する。人物IDp10の属性情報よりlike(p10, ramen)が真となることから、この概念をロボット装置1の行動に反映させる概念として行動選択器65に出力する。
行動選択器65は、ステップS72で真と識別された概念を反映させるロボット装置1の行動を選択する(ステップS73)。この選択は、概念識別器63にて真と識別された概念に対応した行動が規定された行動選択ルールに基づいて行われる。例えば、like(A, ramen)←not hige(A)が真であると識別された場合には、次のような行動選択ルールに基づいて行動が選択される。
like(P, OBJ), speak(Pさん”は”OBJ”がすきなんだね”)
行動選択器65は、行動識別子speakに基づいて発話行動を選択し、speak(“あなた は らーめん がすきなんだね”)を音声合成器67に出力する。ここでは、顔認識器62が新しい顔を検出し、人物名を知らないため、“Pさん”には“あなた”が挿入される。なお、人物名を知っている場合は、“Pさん”に人物IDで識別された人物名が挿入される。
音声合成器67では、行動選択器65で発話行動が選択された場合、行動選択器65から入力されたテキスト文章を音声波形に変換し、スピーカ68を介して出力する(ステップS74)。したがって、本例では、ロボット装置1が、人物IDp10の人に「あなたは、ラーメンが好きなんだね」と話す。
このように、ロボット装置1の行動制御方法によれば、CCDカメラ61で撮像された画像情報に基づいて知識記憶器64に記憶された概念から真となる概念を識別し、その概念に対応した行動を選択することができるため、ロボット装置1は、概念に基づいて自律的に行動することができる。
本実施の形態のロボット装置1によれば、外界から入力された画像、音声等の情報から新しい概念を作り出すことができるだけでなく、その概念に基づいて行動することができる。したがって、ロボット装置1が、本実施の形態のように未知の場面に遭遇した場合、それまでの経験を元に概念を獲得していれば、例えば画像情報から真となる概念を識別し、その概念に基づいて適切な行動することができる。
なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。本実施の形態では、獲得した概念を発話行動に反映させることとしたが、これに限定されるものではなく、例えば、「髭を生やしている人は、ダンスが好きである」という概念に対し、髭が生えている属性情報が入力された場合、ロボット装置1がダンスをするようにしてもよい。
本実施の形態におけるロボット装置の構成を示す模式図である。 本実施の形態におけるロボット装置が具備する関節自由度の構成を示す模式図である。 本実施の形態におけるロボット装置の制御システムの構成を示すブロック図である。 本実施の形態における概念獲得装置を示すブロック図である。 本実施の形態における概念獲得方法を説明するフローチャートである。 本実施の形態におけるロボット装置の行動制御方法に関わる部分を示すブロック図である。 本実施の形態におけるロボット装置の行動制御方法を説明するフローチャートである。
符号の説明
40 概念獲得装置、 41 CCDカメラ、 42 顔認識器、 43 マイクロホン、 44 音声認識器、 45 Fact生成器、 46 正負例データベース、 47 目標概念決定器、 48 目標概念データベース、 49 概念獲得器、 50 背景知識データベース、 51 知識記憶器、 61 CCDカメラ、 62 顔認識器、 63 概念識別器、 64 知識記憶器、 65 行動選択器、 66 行動選択データベース、 67 音声合成器、 68 スピーカ

Claims (8)

  1. 画像から人の顔を認識し、人物IDを出力するとともに、顔の特徴を抽出し、顔の特徴を示す属性情報を出力する顔認識手段と、
    音声から発話内容を認識し、テキスト文章を出力する音声認識手段と、
    上記属性情報に基づいて顔の特徴の有無を示す正負例を上記人物ID毎に生成するとともに、上記テキスト文章に基づいて発話内容と同じ意味又は反対の意味を示す正負例を上記人物ID毎に生成する正負例生成手段と、
    上記属性情報又は上記テキスト文章に基づいて目標概念を決定する目標概念決定手段と、
    上記目標概念に対して上記正負例を組み合わせ、最も多くの人物IDに対して事例が成り立つものを概念として獲得する概念獲得手段と
    を有する概念獲得装置。
  2. 上記目標概念決定手段は、目標概念が予め規定されたデータベースを有し、該データベースの目標概念と上記属性情報又は上記テキスト文章とを比較し、合致したものを目標概念として決定する請求項1記載の概念獲得装置。
  3. 上記概念獲得手段にて獲得した概念を記憶する知識記憶手段を有する請求項1記載の概念獲得装置。
  4. 顔認識手段により、画像から人の顔を認識し、人物IDを出力するとともに、顔の特徴を抽出し、顔の特徴を示す属性情報を出力する顔認識工程と、
    音声認識手段により、音声から発話内容を認識し、テキスト文章を出力する音声認識工程と、
    情報処理装置により、上記属性情報又は上記テキスト文章に基づいて目標概念を決定する目標概念決定工程と、
    情報処理装置により、上記属性情報に基づいて顔の特徴の有無を示す正負例を上記人物ID毎に生成するとともに、上記テキスト文章に基づいて発話内容と同じ意味又は反対の意味を示す正負例を上記人物ID毎に生成する正負例生成工程と、
    情報処理装置により、上記目標概念に対して上記正負例を組み合わせ、最も多くの人物IDに対して事例が成り立つものを概念として獲得する概念獲得工程と
    を有する概念獲得方法。
  5. 自律的な動作が可能なロボット装置において、
    画像から人の顔を認識し、人物IDを出力するとともに、顔の特徴を抽出し、顔の特徴を示す属性情報を出力する顔認識手段と、
    音声から発話内容を認識し、テキスト文章を出力する音声認識手段と、
    上記属性情報に基づいて顔の特徴の有無を示す正負例を上記人物ID毎に生成するとともに、上記テキスト文章に基づいて発話内容と同じ意味又は反対の意味を示す正負例を上記人物ID毎に生成する正負例生成手段と、
    上記属性情報又は上記テキスト文章に基づいて目標概念を決定する目標概念決定手段と、
    上記目標概念に対して上記正負例を組み合わせ、最も多くの人物IDに対して事例が成り立つものを概念として獲得する概念獲得手段と、
    上記概念獲得手段にて獲得した概念を記憶する知識記憶手段と
    を有するロボット装置。
  6. 上記属性情報に基づいて上記知識記憶手段に記憶された概念の真偽を識別する概念識別手段と、
    上記概念識別手段にて真であると識別された概念を反映させる行動を選択する行動選択手段とを有する請求項5記載のロボット装置。
  7. 上記目標概念決定手段は、目標概念が予め規定されたデータベースを有し、該データベースの目標概念と上記属性情報又は上記テキスト文章とを比較し、合致したものを目標概念として決定する請求項5記載のロボット装置。
  8. 顔認識手段により、画像から人の顔を認識し、人物IDを出力するとともに、顔の特徴を抽出し、顔の特徴を示す属性情報を出力する顔認識工程と、
    音声認識手段により、音声から発話内容を認識し、テキスト文章を出力する音声認識工程と、
    情報処理装置により、上記属性情報又は上記テキスト文章に基づいて目標概念を決定する目標概念決定工程と、
    情報処理装置により、上記属性情報に基づいて顔の特徴の有無を示す正負例を上記人物ID毎に生成するとともに、上記テキスト文章に基づいて発話内容と同じ意味又は反対の意味を示す正負例を上記人物ID毎に生成する正負例生成工程と、
    情報処理装置により、上記目標概念に対して上記正負例を組み合わせ、最も多くの人物IDに対して事例が成り立つものを概念として獲得する概念獲得工程と、
    情報処理装置により、上記概念獲得工程にて獲得した概念を記憶手段に記憶する知識記憶工程と
    を有するロボット装置の行動制御方法。
JP2004191935A 2004-06-29 2004-06-29 概念獲得装置及びその方法、並びにロボット装置及びその行動制御方法 Expired - Fee Related JP4635486B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004191935A JP4635486B2 (ja) 2004-06-29 2004-06-29 概念獲得装置及びその方法、並びにロボット装置及びその行動制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004191935A JP4635486B2 (ja) 2004-06-29 2004-06-29 概念獲得装置及びその方法、並びにロボット装置及びその行動制御方法

Publications (2)

Publication Number Publication Date
JP2006012082A JP2006012082A (ja) 2006-01-12
JP4635486B2 true JP4635486B2 (ja) 2011-02-23

Family

ID=35779240

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004191935A Expired - Fee Related JP4635486B2 (ja) 2004-06-29 2004-06-29 概念獲得装置及びその方法、並びにロボット装置及びその行動制御方法

Country Status (1)

Country Link
JP (1) JP4635486B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100444985C (zh) * 2004-11-19 2008-12-24 财团法人名古屋产业科学研究所 多螺距螺纹、多螺距螺纹的制造方法及制造装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080075932A (ko) * 2007-01-11 2008-08-20 (주)에이치씨아이랩 음성 및 영상 인식을 이용하여 주인을 알아보고 주인과대화형 인터페이스 및 상호 연동이 가능한 디지털 수족관장치 그 제어방법
WO2019051645A1 (zh) 2017-09-12 2019-03-21 深圳前海达闼云端智能科技有限公司 一种机器人动态学习方法、系统、机器人以及云端服务器

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2697101B1 (fr) * 1992-10-21 1994-11-25 Sextant Avionique Procédé de détection de la parole.
JP2788402B2 (ja) * 1993-11-17 1998-08-20 株式会社エイ・ティ・アール音声翻訳通信研究所 音声信号処理装置
FR2787902B1 (fr) * 1998-12-23 2004-07-30 France Telecom Modele et procede d'implementation d'un agent rationnel dialoguant, serveur et systeme multi-agent pour la mise en oeuvre

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100444985C (zh) * 2004-11-19 2008-12-24 财团法人名古屋产业科学研究所 多螺距螺纹、多螺距螺纹的制造方法及制造装置

Also Published As

Publication number Publication date
JP2006012082A (ja) 2006-01-12

Similar Documents

Publication Publication Date Title
JP6505748B2 (ja) 人間型ロボットとユーザーの間におけるマルチモード会話を実行する方法、前記方法を実装するコンピュータプログラム及び人間型ロボット
EP3623118B1 (en) Emotion recognizer, robot including the same, and server including the same
KR100988708B1 (ko) 학습 장치, 학습 방법 및 로봇 장치
JP7205148B2 (ja) ロボット、制御方法、及び、プログラム
JP4239635B2 (ja) ロボット装置、その動作制御方法、及びプログラム
US8315454B2 (en) Robot apparatus and method of controlling the behavior thereof
US7152050B2 (en) Learning system capable of performing additional learning and robot apparatus
JP4179230B2 (ja) ロボット装置及びその動作制御方法
CN113056315B (zh) 信息处理装置、信息处理方法和程序
JP7205533B2 (ja) 情報処理装置及び情報処理方法、並びにロボット装置
JP2019175432A (ja) 対話制御装置、対話システム、対話制御方法及びプログラム
JP4600736B2 (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
JP4635486B2 (ja) 概念獲得装置及びその方法、並びにロボット装置及びその行動制御方法
JP4649913B2 (ja) ロボット装置及びロボット装置の移動制御方法
JP4433273B2 (ja) ロボット装置及びロボット装置の制御方法
JP4281286B2 (ja) ロボット装置及びその制御方法
JP2003255990A (ja) 対話処理装置及び方法並びにロボット装置
JP2005231012A (ja) ロボット装置及びその制御方法
Bennewitz et al. Enabling a humanoid robot to interact with multiple persons
JP2003260681A (ja) ロボット装置及びその制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101008

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101026

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101108

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131203

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131203

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees