JP2001277163A - ロボットの制御装置及び制御方法 - Google Patents

ロボットの制御装置及び制御方法

Info

Publication number
JP2001277163A
JP2001277163A JP2000100795A JP2000100795A JP2001277163A JP 2001277163 A JP2001277163 A JP 2001277163A JP 2000100795 A JP2000100795 A JP 2000100795A JP 2000100795 A JP2000100795 A JP 2000100795A JP 2001277163 A JP2001277163 A JP 2001277163A
Authority
JP
Japan
Prior art keywords
robot
unit
action
user
action plan
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000100795A
Other languages
English (en)
Inventor
Yoshihiro Kuroki
義博 黒木
Kenzo Ishida
健蔵 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000100795A priority Critical patent/JP2001277163A/ja
Priority to US09/980,137 priority patent/US6556892B2/en
Priority to CN01801201.9A priority patent/CN1372505A/zh
Priority to PCT/JP2001/002894 priority patent/WO2001074549A1/ja
Publication of JP2001277163A publication Critical patent/JP2001277163A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39001Robot, manipulator control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39254Behaviour controller, robot have feelings, learns behaviour
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39376Hierarchical, learning, recognition and skill level and adaptation servo level
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40213Record history, log of instructions sent from task planner to path planner
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40496Hierarchical, learning, recognition level controls adaptation, servo level

Abstract

(57)【要約】 【課題】 「対話駆動」又は「自律駆動」を行う期間中
に異常や故障を発生したりトラブルに巻き込まれた場合
であってもその原因を究明することができる。 【解決手段】 ロボットに指令を与えるユーザを認証す
ることができる。あるいは認証できないユーザの顔や声
あるいはその他の生体上の特徴情報を抽出する。さら
に、ユーザから与えられた指令の内容と、ロボットが指
令に応じて取った行動や行動の実行時刻とを組み合わせ
て記録する。その他、ロボットの内部状態やセンサ入力
情報を併せて記録してもよい。後日、記録内容を解析す
ることによって、ロボットに起こった異常や故障、トラ
ブルの原因を究明することができる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、行動計画に従って
動作するロボットに係り、特に、音声や画像などの入力
に基づくユーザとの対話によって行動計画を立てたり、
ユーザ入力に頼らず自律的に行動計画を立てたりする行
動計画型ロボットに関する。
【0002】更に詳しくは、本発明は、「対話駆動」又
は「自律駆動」を行う期間中に異常や故障を発生したり
トラブルに巻き込まれた場合であってもその原因を究明
することができる行動計画型ロボットに関する。
【0003】
【従来の技術】電気的若しくは磁気的な作用を用いて人
間の動作に似せた運動を行う機械装置のことを「ロボッ
ト」という。ロボットの語源は、スラブ語の"ROBO
TA(奴隷機械)"に由来すると言われている。わが国で
は、ロボットが普及し始めたのは1960年代末からで
あるが、その多くは、工場における生産作業の自動化・
無人化などを目的としたマニピュレータや搬送ロボット
などの産業用ロボット(industrial robot)であった。
【0004】アーム式ロボットのように、ある特定の場
所に植設して用いるような据置きタイプのロボットは、
部品の組立・選別作業など固定的・局所的な作業空間で
のみ活動する。これに対し、移動式のロボットは、作業
空間は非限定的であり、所定の経路上または無経路上を
自在に移動して、所定の若しくは任意の人的作業を代行
したり、ヒトやイヌあるいはその他の生命体に置き換わ
る種々の幅広いサービスを提供することができる。なか
でも脚式の移動ロボットは、クローラ式やタイヤ式のロ
ボットに比し不安定で姿勢制御や歩行制御が難しくなる
が、階段や梯子の昇降や障害物の乗り越えや、整地・不
整地の区別を問わない柔軟な歩行・走行動作を実現でき
るという点で優れている。
【0005】最近では、イヌやネコのように4足歩行の
動物の身体メカニズムやその動作を模したペット型ロボ
ット、あるいは、ヒトのような2足直立歩行を行う動物
の身体メカニズムや動作をモデルにしてデザインされた
「人間形」若しくは「人間型」のロボット(humanoid r
obot)など、脚式移動ロボットに関する研究開発が進展
し、実用化への期待も高まってきている。
【0006】脚式移動ロボットの用途の1つとして、産
業活動・生産活動等における各種の難作業の代行が挙げ
られる。例えば、原子力発電プラントや火力発電プラン
ト、石油化学プラントにおけるメンテナンス作業、製造
工場における部品の搬送・組立作業、高層ビルにおける
清掃、火災現場その他における救助といったような危険
作業・難作業の代行などである。
【0007】また、脚式移動ロボットの他の用途とし
て、上述の作業支援というよりも、生活密着型、すなわ
ち人間との「共生」という用途が挙げられる。この種の
ロボットは、ヒトあるいはイヌ(ペット)などの比較的
知性の高い脚式歩行動物の動作メカニズムや感情表現を
エミュレートする。また、予め入力された動作パターン
を単に忠実に実行するだけではなく、相手の言葉や態度
(「褒める」とか「叱る」、「叩く」など)に呼応し
た、生き生きとした動作表現を実現することも要求され
る。
【0008】従来の玩具機械は、ユーザ操作と応答動作
との関係が固定的であり、玩具の動作をユーザの好みに
合わせて変更することはできない。この結果、ユーザは
同じ動作しか繰り返さない玩具をやがては飽きてしまう
ことになる。
【0009】これに対し、知的なロボットは、自律的な
思考及び動作制御を行うとともに、動作生成の時系列モ
デルに従って知的な動作を実行する。また、ロボットが
画像入力装置や音声入出力装置を装備し、画像処理や音
声処理を行うことにより、より高度な知的レベルで人間
とのリアリスティックなコミュニケーションを実現する
ことも可能となる。この際、ユーザ操作などの外部から
の刺激を検出したことに応答してこの時系列モデルを変
更する、すなわち「学習効果」を付与することによっ
て、ユーザにとって飽きない又は好みに適応した動作パ
ターンを提供することができる。また、ユーザは、一種
の育成シミュレーションをゲーム感覚で楽しむことがで
きる。
【0010】
【発明が解決しようとする課題】産業上の特定用途向け
ロボットの場合、ユーザ又はオペレータからはほとんど
一義的に解釈可能なコマンドを入力して実行すればよ
い。これは、情報処理機器がファイルのコピーや削除、
ファイル・オープンなど一義的なコマンドをコンソール
入力されたことに応答して、その通りに動作することに
類似する。
【0011】これに対し、共生型若しくはエンターティ
ンメント型のロボットの場合、上述したように、ユーザ
からの明示的又は限定的なコマンドのみならず、音声や
画像などの比較的抽象度の高い入力データに基づいて動
作する「対話駆動」を行ったり、さらにはユーザからの
コマンドや対話に頼ることなく(すなわちユーザから独
立して)ロボット自身が立てた行動計画に従って動作す
る「自律駆動」を行うことができる。
【0012】しかしながら、抽象的なユーザ入力を解釈
したり、ロボット独自のの思考制御を許容したり、動作
上の自由度や機能が高度化する分、故障やトラブルを引
き起こしたときにはその原因究明が一層困難になる。
【0013】一般の機械装置の場合、入力コマンドに対
する装置側の応答はほぼ1対1に対応するので、どのコ
マンドを入力又は実行したときに装置に異常が発生した
かを容易に特定することができる。
【0014】これに対し、上述のような「対話駆動」又
は「自律駆動」を行うタイプのロボットの場合、ユーザ
入力や外部事象に対するロボット上での解釈に幅がある
ため、異常や故障の原因が何に起因するのか判定が難し
くなる。さらに脚式移動ロボットであれば、任意の作業
空間を無経路的に歩き回るので、ユーザが常時監視する
ことはできない。したがって、ユーザの監視外に置かれ
た状況下で、何らかの故障が発生したりトラブルや事故
又は事件等に巻き込まれたとしても、ユーザはそのとき
ロボットに何が起こったのかを究明することは極めて難
しくなるであろう。
【0015】本発明の目的は、音声や画像などの入力に
基づくユーザとの対話によって行動計画を立てたり、ユ
ーザ入力に頼らず自律的に行動計画を立てたりすること
ができる、優れた行動計画型ロボットを提供することに
ある。
【0016】本発明の更なる目的は、対話駆動」又は
「自律駆動」を行う期間中に異常や故障を発生したりト
ラブルに巻き込まれた場合であってもその原因を究明す
ることができる、優れた行動計画型ロボットを提供する
ことにある。
【0017】
【課題を解決するための手段】本発明は、上記課題を参
酌してなされたものであり、複数の関節アクチュエータ
で構成され、行動計画に従って動作するタイプのロボッ
トの制御装置又は方法であって、前記ロボットの行動計
画を立てる行動計画部又はステップと、前記行動計画部
又はステップにより決定された行動計画に対応する動作
パターンを各関節アクチュエータの駆動により実現する
動作制御部又はステップと、前記動作制御部又はステッ
プによる動作実現状況を検出する検出部又はステップ
と、前記行動計画部又はステップによる行動計画と前記
検出部又はステップによる動作実現状況を含むログを記
録する記録部又はステップと、を具備することを特徴と
するロボットの制御装置又は方法である。
【0018】本発明に係るロボットの制御装置又は方法
は、さらに、ユーザからのコマンド又はデータを受容す
るユーザ入力部又はステップと、前記ユーザ入力部又は
ステップを介したユーザ入力コマンド又はデータに基づ
くユーザとの対話を管理する対話管理部又はステップを
含んでもよい。このような場合、前記行動計画部又はス
テップは、前記対話管理部又はステップにおける対話内
容に従って行動計画を立てることができ、また、前記記
録部又はステップは対話内容のログをとることができ
る。
【0019】また、前記ロボットの各部を診断する自己
診断部又はステップをさらに含んでもよい。このような
場合、前記記録部又はステップは自己診断結果のログを
とることができる。
【0020】また、前記ロボット周辺に居るユーザを認
証処理するユーザ認証部をさらに含んでもよい。このよ
うな場合、前記記録部又はステップはユーザ認証結果の
ログをとることができる。
【0021】また、前記行動計画部又はステップは、ユ
ーザとの対話に基づいて行動計画を立てる第1の動作方
式、又は、外的変化などに応じて決定される感情モデル
に基づいて行動計画を立てる第2の動作方式によって動
作可能であってもよい。このような場合、前記記録部又
はステップは行動計画部又はステップにおける動作方式
のログをとることができる。
【0022】
【作用】本発明に係るロボットは、脚式移動ロボットの
ように、任意の作業空間を無経路的に探索することがで
きる。この作業空間は、人間の住空間と共有することが
できる。また、本発明に係るロボットは、音声や画像な
どの入力に基づくユーザとの対話によって行動計画を立
てたり、さらには、ユーザ入力に頼らず自律的に行動計
画を立てたりすることができる。
【0023】ロボットに指令を与えるユーザを認証する
ことができる。あるいは認証できないユーザの顔や声あ
るいはその他の生体上の特徴情報を抽出する。さらに、
ユーザから与えられた指令の内容と、ロボットが指令に
応じて取った行動や行動の実行時刻とを組み合わせて、
一種のログとして記録しておく。その他、ロボットの内
部状態やセンサ入力情報を併せて記録してもよい。
【0024】後日、ログの内容を解析することによっ
て、ロボットに起こった異常や故障、トラブルの原因を
究明することができる。
【0025】また、異常時、故障時、トラブル時でなく
ても、ロボットが「何処で誰と何をしてきたのか」な
ど、ロボットの行動の履歴を調べることができる。ある
いは、行動の履歴を経験情報として管理して、「何処で
誰と何をしてきたのか」という情報をユーザとロボット
との対話の中から引き出せるように構成することができ
る。このようなロボットは、エンターティンメント指向
が高く、また、ユーザは一種の育成シミュレーションを
ゲーム感覚で楽しむことができる。
【0026】本発明のさらに他の目的、特徴や利点は、
後述する本発明の実施例や添付する図面に基づくより詳
細な説明によって明らかになるであろう。
【0027】
【発明の実施の形態】以下、図面を参照しながら本発明
の実施例を詳解する。
【0028】図1及び図2には、本発明の実施に供され
る脚式移動ロボット100が直立している様子を前方及
び後方の各々から眺望した様子を示している。この脚式
移動ロボット100は、「人間形」又は「人間型」と呼
ばれるタイプであり、後述するように、音声や画像など
の入力に基づくユーザとの対話によって行動計画を立て
たり、ユーザ入力に頼らず(すなわち、ユーザから独立
して)ロボット100が自律的に行動計画を立てたりす
ることができる。脚式移動ロボット100は、脚式移動
を行う左右2足の下肢と、体幹部と、左右の上肢と、頭
部とで構成される。
【0029】左右各々の下肢は、大腿部と、膝関節と、
脛部と、足首と、足平とで構成され、股関節によって体
幹部の略最下端にて連結されている。また、左右各々の
上肢は、上腕と、肘関節と、前腕とで構成され、肩関節
によって体幹部上方の左右各側縁にて連結されている。
また、頭部は、首関節によって体幹部の略最上端中央に
連結されている。
【0030】体幹部ユニット内には、図1及び図2上で
は見えていない制御部が配備されている。この制御部
は、脚式移動ロボット100を構成する各関節アクチュ
エータの駆動制御や各センサ(後述)などからの外部入
力を処理するコントローラ(主制御部)や、電源回路そ
の他の周辺機器類を搭載した筐体である。制御部は、そ
の他、遠隔操作用の通信インターフェースや通信装置を
含んでいてもよい。
【0031】図3には、本実施例に係る脚式移動ロボッ
ト100が具備する関節自由度構成を模式的に示してい
る。図示の通り、脚式移動ロボット100は、2本の腕
部と頭部1を含む上体と、移動動作を実現する2本の脚
部からなる下肢と、上肢と下肢とを連結する体幹部とで
構成される。
【0032】頭部1を支持する首関節は、首関節ヨー軸
2と、首関節ピッチ軸3と、首関節ロール軸4という3
自由度を有している。
【0033】また、各腕部は、肩関節ピッチ軸8と、肩
関節ロール軸9と、上腕ヨー軸10と、肘関節ピッチ軸
11と、前腕ヨー軸12と、手首関節ピッチ軸13と、
手首関節ロール軸14と、手部15とで構成される。手
部15は、実際には、複数本の指を含む多関節・多自由
度構造体である。但し、手部15の動作自体は、ロボッ
ト100の姿勢安定制御や歩行動作制御に対する寄与や
影響が少ないので、本明細書ではゼロ自由度と仮定す
る。したがって、左右の各腕部は7自由度を有するとす
る。
【0034】また、体幹部は、体幹ピッチ軸5と、体幹
ロール軸6と、体幹ヨー軸7という3自由度を有する。
【0035】また、下肢を構成する左右各々の脚部は、
股関節ヨー軸16と、股関節ピッチ軸17と、股関節ロ
ール軸18と、膝関節ピッチ軸19と、足首関節ピッチ
軸20と、関節ロール軸21と、足部(足底又は足平)
22とで構成される。人体の足部(足底)22は、実際
には多関節・多自由度の足底を含んだ構造体であるが、
本実施例に係る脚式移動ロボット100の足底はゼロ自
由度とする。したがって、左右の各脚部は6自由度で構
成される。
【0036】以上を総括すれば、本実施例に係る脚式移
動ロボット100全体としては、合計で3+7×2+3
+6×2=32自由度を有することになる。但し、脚式
移動ロボット100が必ずしも32自由度に限定される
訳ではない。設計・製作上の制約条件や要求仕様等に応
じて、自由度すなわち関節数を適宜増減することができ
ることは言うまでもない。
【0037】脚式移動ロボット100が持つ上述の各関
節自由度は、実際にはアクチュエータによる能動的な動
作として実現される。装置の外観上で余分な膨らみを排
してヒトの自然体形状に近似させることや、2足歩行と
いう不安定構造体に対して姿勢制御を行うことなどの種
々の要請から、関節アクチュエータは小型且つ軽量であ
ることが好ましい。本実施例では、ギア直結型で且つサ
ーボ制御系をワンチップ化してモータ・ユニットに内蔵
したタイプの小型ACサーボ・アクチュエータを搭載す
ることとした。なお、脚式ロボットに適用可能な小型A
Cサーボ・アクチュエータに関しては、例えば本出願人
に既に譲渡されている特願平11−33386号明細書
に開示されている。
【0038】図4には、本実施例に係る脚式移動ロボッ
ト100の制御システム構成を模式的に示している。同
図に示すように、該システムは、ユーザ入力などに動的
に反応して情緒判断や感情表現を司る思考制御モジュー
ル200と、関節アクチュエータの駆動などロボットの
全身協調運動を制御する運動制御モジュール300とで
構成される。
【0039】思考制御モジュール200は、情緒判断や
感情表現に関する演算処理を実行するCPU(Central
Processing Unit)211や、RAM(Random Access M
emory)212、ROM(Read Only Memory)213、
及び、外部記憶装置(ハード・ディスク・ドライブなど)
214で構成される、自己完結処理を行うことができる
独立した情報処理装置である。
【0040】思考制御モジュール200には、CCD
(Charge Coupled Device)カメラなどの画像入力装置
251や、マイクなどの音声入力装置252、スピーカ
などの音声出力装置253、LAN(Local Area Netwo
rk:図示しない)などを経由してロボット100外のシ
ステムとデータ交換を行う通信インターフェース254
など各種の装置が、バス・インターフェース201経由
で接続されている。
【0041】思考制御モジュール200では、画像入力
装置251から入力される視覚データや音声入力装置2
52から入力される聴覚データなど、外界からの刺激な
どに従って、脚式移動ロボット100の現在の感情や意
思を決定する。さらに、意思決定に基づいた振舞い又は
行動、すなわち四肢の運動を実行するように、運動制御
モジュール300に対して指令を発行する。
【0042】一方の運動制御モジュール300は、ロボ
ット100の全身協調運動を制御するCPU(Central
Processing Unit)311や、RAM(Random Access M
emory)312、ROM(Read Only Memory)313、
及び、外部記憶装置(ハード・ディスク・ドライブなど)
314で構成される、自己完結処理を行うことができる
独立した情報処理装置である。外部記憶装置314に
は、例えば、オフラインで算出された歩行パターンやZ
MP目標軌道、その他の行動計画を蓄積することができ
る(「ZMP」とは、歩行中の床反力によるモーメント
がゼロとなる床面上の点のことであり、また、「ZMP
軌道」とは、例えばロボット100の歩行動作期間中な
どにZMPが動く軌跡を意味する)。
【0043】運動制御モジュール300には、ロボット
100の全身に分散するそれぞれの関節自由度を実現す
る関節アクチュエータ(図3を参照のこと)、体幹部の
姿勢や傾斜を計測する姿勢センサ351、左右の足底の
離床又は着床を検出する接地確認センサ352及び35
3、バッテリなどの電源を管理する電源制御装置などの
各種の装置が、バス・インターフェース301経由で接
続されている。
【0044】運動制御モジュール300では、思考制御
モジュール200から指示された行動を体現すべく、各
関節アクチュエータによる全身協調運動を制御する。す
なわち、CPU311は、思考制御モジュール200か
ら指示された行動に応じた動作パターンを外部記憶装置
314から取り出し、又は、内部的に動作パターンを生
成する。そして、CPU311は、指定された動作パタ
ーンに従って、足部運動、ZMP(Zero Moment Poin
t)軌道、体幹運動、上肢運動、腰部水平位置及び高さ
などを設定するとともに、これらの設定内容に従った動
作を指示する指令値を各関節アクチュエータに転送す
る。
【0045】また、CPU311は、姿勢センサ351
の出力信号によりロボット100の体幹部分の姿勢や傾
きを検出するとともに、各接地確認センサ352及び3
53の出力信号により各可動脚が遊脚又は立脚のいずれ
の状態であるかを検出することによって、脚式移動ロボ
ット100の全身協調運動を適応的に制御することがで
きる。
【0046】さらに、運動制御モジュール300は、思
考制御モジュール200において決定された意思通りの
行動がどの程度体現されたか、すなわち処理の状況を、
思考制御モジュール200に返すようになっている。
【0047】思考制御モジュール200と運動制御モジ
ュール300は、共通のプラットフォーム上で構築さ
れ、両者間はバス・インターフェース201及び301
を介して相互接続されている。
【0048】本実施例に係る脚式移動ロボット100
は、ユーザから与えられた指令の内容と、ロボットが指
令に応じて取った行動や行動の実行時刻とを組み合わせ
て記録するようになっている。したがって、ユーザは、
後日、記録内容を解析することによって、ロボットに起
こった異常や故障、トラブルの原因を究明することがで
きる。また、異常時、故障時、トラブル時でなくても、
ロボットが「何処で誰と何をしてきたのか」など、ロボ
ットの行動の履歴を調べることができる。以下では、本
発明におけるロボットの行動履歴又は経験情報の記録管
理処理について説明する。
【0049】図5には、脚式移動ロボット100におい
て行動記録又は経験情報の記録処理を実現するための機
能ブロック構成の一例を図解している。同図に示すロボ
ット100は、音声や画像などの入力に基づくユーザと
の対話に追従して行動計画を立てる「対話駆動」方式の
動作を行うことができる。
【0050】脚式移動ロボット100は、ユーザ認証の
ために、指紋センサ111又は視覚センサ113のうち
少なくとも一方を利用する。
【0051】視覚センサ113は、例えば、頭部に搭載
されたCCD(Charge Coupled Device:電荷結合素
子)カメラなどの画像入力装置251を兼用することが
できる。この場合、1以上の登録ユーザの顔画像、ある
いはユーザの身体上の他の部位を映した画像、又は画像
から抽出された特徴情報をあらかじめ保管しておく。そ
して、認証処理部114は、視覚センサ113から入力
された顔画像等を画像処理するとともに、あらかじめ登
録された顔画像等又はその特徴情報と比較照合すること
により、正規ユーザか否かを認証処理する。
【0052】また、指紋センサ111は、図1〜図4に
は特に図示しないが、例えば頭部や肩部などユーザが指
先を置きやすい部位に指紋読取ヘッドを配設しておく。
そして、1以上の登録ユーザの指紋を認証情報としてあ
らかじめ保管しておく。そして、認証処理部112は、
指紋センサ111から入力された指紋情報を画像処理・
特徴抽出処理などするとともに、あらかじめ登録された
指紋と比較照合することにより、正規ユーザか否かを認
証処理する。なお、特開平3−18980号には、基準
となる指紋の画像データを保持する基準画像メモリと、
認証対象となる指紋の画像を入力する画像入力装置とを
備え、両画像を重ね合わせて一致度を見ることで指紋照
合を行うタイプの指紋照合装置について開示されてい
る。
【0053】指紋センサ111及び認証処理部112
は、指紋照合を明示的に要求したユーザに対してより正
確な認証処理を行うことができる。他方、視覚センサ1
13及び認証処理部114は、特にユーザが要求しない
場合であっても、カメラでユーザの姿を追跡して、ユー
ザが無意識のうちに認証処理を行うこともできる。ま
た、認証処理部112及び114は、ユーザの認証結果
を情報記録管理部125に転送することができる。
【0054】本実施例に係る脚式移動ロボット100
は、ユーザがコマンドやデータを入力するために、音声
認識部115、通信制御部116、画像認識部117、
コマンダ118という4通りの手段を提供している。
【0055】音声認識部115は、マイクなどの音声入
力部252と、音声認識処理可能なCPU211(又は
その他の演算処理回路)によって構成される。ユーザ
は、「走れ」、「○△を運べ」、「急げ」などの自然言
語形式又は抽象的なコマンドを音声で入力することがで
きる。音声認識部115はユーザの音声を認識し、さら
にコマンド解釈部119は音声認識結果に基づいてロボ
ット100に対するコマンドを理解・解析する。
【0056】また、通信制御部116は、通信インター
フェース254と、通信インターフェース254経由で
交換するコマンド又はデータの処理を行うCPU211
(又はその他の演算処理回路)によって構成される。通
信インターフェース254は、bluetoothやそ
の他の無線データ通信網経由で外部の情報端末(例えば
パーソナル・コンピュータなど。図示しない)と相互接
続している。ユーザは、このような情報端末上で、ロボ
ットなどの自動化機械が一義的に解釈可能な形式のコマ
ンド、あるいはそれよりも抽象的な形式のコマンドを、
コンソール入力して、ロボット100側に転送すること
ができる。通信制御部116において受信処理されたユ
ーザ・コマンドは、コマンド解釈部119において解釈
された後、対話管理部124に転送される。
【0057】画像認識部117は、CCDカメラなどの
画像入力部251と、画像認識処理可能なCPU211
(又はその他の演算処理回路)によって構成される。ユ
ーザは、身振りや手振り、ジェスチャなどでコマンドを
入力することができる。画像認識部117は画像認識
し、さらにコマンド解釈部119は認識結果に基づいて
コマンドとして理解・解析する。あるいは、ジェスチャ
ではなく、コマンドに対して一義的に割り当てられたサ
イバーコードなどの視認情報を画像入力することによっ
て、コマンドを入力するようにしてもよい。
【0058】コマンダ118は、図1〜図4には特に図
示しないが、脚式移動ロボット100の背中や腹部など
に搭載された、キー/ボタン操作可能なユーザ入力装
置、あるいは、リモート・コントローラ(図示しない)
として構成される。ユーザは、ロボットなどの自動化機
械が一義的に解釈可能な形式のコマンド、あるいはそれ
よりも抽象的な形式のコマンドを、コマンダ118上で
打ち込むことができる。コマンダ118上で入力された
ユーザ・コマンドは、コマンド解釈部119において解
釈された後、対話管理部124に転送される。
【0059】対話管理部124は、コマンド解釈部11
9経由で受け取った各種形式のコマンドを、時系列的に
管理することで、ユーザとの対話のコンテキストを理解
するとともに対話コンテキストの維持を図る。本実施例
では、対話管理部124は、ユーザとの対話内容を情報
記録管理部125に転送することができる。また、対話
管理部124は、ユーザ入力に応じた返事を音声合成部
120で生成した後スピーカで外部に音声出力したり、
通信制御部121経由で外部計算機システム(例えばユ
ーザ端末)上にコンソール出力(又はGUIを利用した
画像出力)を行うことができる。
【0060】音声合成部120は、スピーカなどの音声
出力装置253と、音声合成処理可能なCPU211
(又はその他の演算処理回路)によって構成される。ま
た、通信制御部121は、通信インターフェース254
と、通信インターフェース254経由で交換するコマン
ド又はデータの処理を行うCPU211(又はその他の
演算処理回路)によって構成される。
【0061】姿勢センサ130、温度センサ131、関
節角度センサ132、接触センサ133、力センサ13
4、電源管理部135、及び、通信制御検出部136
は、ロボット100の外界又は環境やその変化、動作実
行状況を検出するための機能モジュールである。
【0062】姿勢センサ130は、図4中の参照番号3
54に相当し、ロボット100の路面に対する姿勢を検
出することができる。また、関節角度センサ132は、
各関節アクチュエータ(図3を参照のこと)毎に配設さ
れた回転エンコーダに相当する。また、接触センサ13
3は、足部に配設された接地確認センサ352,352
に相当する。また、力センサ134は、図1〜図4には
図示しないが、ロボット100の全身の各部位に配設さ
れており、ユーザあるいは外界の障害物との接触を検出
するようになっている(例えば、本出願人に既に譲渡さ
れている特願平11−366175号明細書には、外装
部品の形式でロボットの全身各部に搭載することができ
るセンサ・モジュールについて開示されている)。
【0063】電源管理部135は、図4中の参照番号3
54に相当し、ロボット100の主電源であるバッテリ
の電源電圧、電流、電源容量などを監視するようになっ
ている。また、通信制御検出部136は、通信インター
フェース254と、通信インターフェース254経由で
交換するコマンド又はデータの処理を行うCPU211
(又はその他の演算処理回路)によって構成され、通信
コマンド又は通信データによる外界又は環境の変化を検
出するようになっている。
【0064】これらセンサ類で規定されるロボット10
0の環境要因は行動計画部127及び自己診断部129
に供給される。
【0065】行動計画部127は、対話管理部124に
おける対話のコンテキストや、各センサ機能モジュール
130…において規定されるロボット100の外界又は
環境などに従って、ロボット100の行動計画を立て
て、動作制御部128に対して行動の実現を命令する。
また、本実施例では、行動計画部127は、行動計画の
内容を情報記録管理部125に転送することができる。
【0066】動作制御部128は、行動計画部127に
よって指示された行動を実現すべく、各関節アクチュエ
ータ(図3及び図4を参照のこと)に対して回転指令や
各速度指令などの動作指令を発行する。この結果、予定
又は期待されるロボット100の行動が実現される。各
関節アクチュエータの回転位置は各関節角度センサ13
2によって測定され、フィードバック制御を行うことが
できる。
【0067】動作制御部128は、逐次命令される行動
を実現するための動作パターンをリアルタイムで動的に
生成してもよいが、歩行やその他の主要な動作パターン
の軌道計画をあらかじめ容易(すなわちオフラインで計
算)しておいてもよい。後者の場合、動作制御部128
は、行動計画部127から行動命令が発行されると、こ
れに該当する動作パターンの軌道計画を呼び出し、目標
軌道を適宜修正しながら行動を実現することができる。
なお、特開昭62−97006号公報には、予め記憶さ
れた歩行パターン・データを用いることで、制御プログ
ラムを簡素化するとともに、歩行パターンの各データ間
を密につなぐことができる多関節歩行ロボット制御装置
について開示されている。
【0068】自己診断部129は、姿勢センサ130、
温度センサ131、関節角度センサ132、接触センサ
133、力センサ134、電源管理部135、通信制御
検出部136などのセンサ類の検出出力を基に、計画さ
れた行動の実行状況、異常や故障、トラブルなど、ロボ
ット100内部の状況を自己診断するようになってい
る。また、本実施例では、自己診断部129は、自己診
断結果を情報記録管理部125に転送することができ
る。
【0069】情報記録管理部125は、各部から以下の
事柄を取得することができる。 (1)認証処理部112及び/又は114からのユーザ
認証情報 (2)対話管理部124において管理される対話内容又
は最新のユーザ・コマンド (3)対話内容又はユーザ・コマンドと、外界又は環境
の変化などによって決定される行動計画 (4)自己診断部129において診断された行動計画の
実行状況
【0070】そして、情報記録管理部125は、これら
のデータを組み合わせ、さらに時計126から供給され
る現在時刻といっしょにして、「行動履歴」又は「経験
情報」すなわち行動ログとして保存する。
【0071】行動ログは、例えば、情報記録管理部12
5のローカル・メモリ又はローカル・ディスク(図示し
ない)に不揮発的に保存される。あるいは、行動ログを
メモリ・ステックのようなカートリッジ式で挿抜可能な
記憶装置に格納しておけば、後でロボット100から取
り外して外部の計算機システム上で行動ログを解析処理
することができる。
【0072】また、情報記録管理部125に保存される
「行動履歴」又は「経験情報」は、時刻情報を用いて検
索することができる。あるいは、音声認識部115など
を介したロボット100との対話により引き出すことが
できる。
【0073】図6には、脚式移動ロボット100におい
て行動記録又は経験情報の記録処理を実現するための機
能ブロック構成に関する他の例を図解している。同図に
示すロボット100は、音声や画像などの入力に基づく
ユーザとの対話に追従して行動計画を立てる「対話駆
動」方式の他に、さらに、ユーザとの対話に頼らず自律
的に行動計画を立てる「自律駆動」方式の動作を行うこ
とができる。
【0074】脚式移動ロボット100は、ユーザ認証の
ために、指紋センサ111又は視覚センサ113のうち
少なくとも一方を利用する。視覚センサ113は、例え
ば、頭部に搭載されたCCD(Charge Coupled Devic
e:電荷結合素子)カメラなどの画像入力装置251を
兼用することができる。また、指紋センサ111は、図
1〜図4には特に図示しないが、例えば頭部や肩部など
ユーザが指先を置きやすい部位に指紋読取ヘッドを配設
しておく。
【0075】指紋センサ111及び認証処理部112
は、指紋照合を明示的に要求したユーザに対してより正
確な認証処理を行うことができる。他方、視覚センサ1
13及び認証処理部114は、特にユーザが要求しない
場合であっても、カメラでユーザの姿を追跡して、ユー
ザが無意識のうちに認証処理を行う。また、認証処理部
112及び114は、ユーザの認証結果を情報記録管理
部125に転送する。
【0076】また、脚式移動ロボット100は、ユーザ
がコマンドを入力するために、音声認識部115、通信
制御部116、画像認識部117、コマンダ118とい
う4通りの手段を提供している。
【0077】音声認識部115は、マイクなどの音声入
力装置252と、音声認識処理可能なCPU211(又
はその他の演算処理回路)によって構成される。ユーザ
が音声で入力すると、音声認識部115はユーザの音声
を認識し、さらにコマンド解釈部119は音声認識結果
に基づいてロボット100に対するコマンドを理解・解
析する。
【0078】また、通信制御部116は、通信インター
フェース254と、通信コマンド又はデータの処理を行
うCPU211(又はその他の演算処理回路)によって
構成される。通信インターフェース254は、無線デー
タ通信網経由で外部の情報端末(例えばパーソナル・コ
ンピュータ)と相互接続している。通信制御部116
は、ユーザが通信回線経由で転送するコマンドを受信処
理する。受信されたコマンドは、コマンド解釈部119
において解釈された後、対話管理部124に転送され
る。
【0079】画像認識部117は、CCDカメラなどの
画像入力部251と、画像認識処理可能なCPU211
(又はその他の演算処理回路)によって構成される。ユ
ーザは、身振りや手振り、ジェスチャなどの形式でユー
ザ・コマンドが入力されると、画像認識部117はこれ
を画像認識し、さらにコマンド解釈部119は認識結果
に基づいてコマンドとして理解・解析する。
【0080】コマンダ118は、脚式移動ロボット10
0上に搭載された、キー/ボタン操作可能なユーザ入力
装置、又は、リモート・コントローラ(図示しない)と
して構成される。ユーザは、ロボットが一義的に解釈可
能な形式のコマンドなどをコマンダ118上で打ち込む
ことができる。コマンダ118上で入力されたユーザ・
コマンドは、コマンド解釈部119において解釈された
後、対話管理部124に転送される。
【0081】対話管理部124は、コマンド解釈部11
9経由で受け取った各種形式のコマンドを、時系列的に
管理することで、ユーザとの対話のコンテキストを理解
するとともに対話コンテキストの維持を図る。対話管理
部124は、ユーザとの対話内容を情報記録管理部12
5に転送する。また、対話管理部124は、ユーザ入力
に応じた返事を音声合成部120で生成して、スピーカ
を介して外部に音声出力したり、あるいは通信制御部1
21経由で対話内容を外部計算機システム上に出力す
る。
【0082】音声合成部120は、スピーカなどの音声
出力装置253と、音声合成処理可能なCPU211
(又はその他の演算処理回路)によって構成される。ま
た、通信制御部121は、通信インターフェース254
と、通信インターフェース254経由で交換するコマン
ド又はデータの処理を行うCPU211(又はその他の
演算処理回路)によって構成される。
【0083】姿勢センサ130、温度センサ131、関
節角度センサ132、接触センサ133、力センサ13
4、電源管理部135、通信制御検出部136は、ロボ
ット100の外界又は環境やその変化を検出するための
機能モジュールである。
【0084】姿勢センサ130は、ロボット100の路
面に対する姿勢を検出する。また、関節角度センサ13
2は、各関節アクチュエータ毎に配設された回転エンコ
ーダに相当する。また、接触センサ133は、足部に配
設された接地確認センサ352,352に相当する。ま
た、力センサ134は、ロボット100の全身の各部位
に配設され、ユーザあるいは外界の障害物との接触を検
出する。電源管理部135は、ロボット100の主電源
であるバッテリの電源電圧、電流、電源容量などを監視
する。また、通信制御検出部136は、通信インターフ
ェース254と、通信コマンド又はデータの処理を行う
CPU211(又はその他の演算処理回路)によって構
成され、通信コマンド又は通信データによる外界又は環
境の変化を検出する。
【0085】これらセンサ類で規定されるロボット10
0の環境要因は自律行動計画部140及び自己診断部1
29に供給される。
【0086】自律行動計画部140は、上記センサ類か
らの入力データなどに基づく外的環境の変化などに基づ
いて、感情モデル状態マシン141内の感情モデルを決
定することで、自律的にロボット100の行動計画を立
てて、動作制御部128に対して行動の実現を命令す
る。また、自律行動計画部140は、行動計画の内容を
情報記録管理部125に転送することができる。(な
お、本出願人に既に譲渡されている特願平11−341
374号明細書には、動作に起因する感情本能モデルを
有し、入力情報に基づいて感情本能モデルを変化させて
動作をコントロールする脚式ロボットについて開示され
ている。)
【0087】動作制御部128は、自律行動計画部14
0によって指示された行動を実現すべく、各関節アクチ
ュエータに対して回転指令や各速度指令などの動作指令
を発行する。この結果、予定又は期待されるロボット1
00の行動が実現される。各関節アクチュエータの回転
位置は各関節角度センサ132によって測定され、フィ
ードバック制御を行うことができる。
【0088】動作制御部128は、逐次命令される行動
を実現するための動作パターンをリアルタイムで動的に
生成してもよいが、歩行やその他の主要な動作パターン
の軌道計画をあらかじめ容易しておいてもよい。
【0089】自己診断部129は、姿勢センサ130、
温度センサ131、関節角度センサ132、接触センサ
133、力センサ134、電源管理部135、通信制御
検出部136などのセンサ類の検出出力を基に、計画さ
れた行動の実行状況、異常や故障、トラブルなど、ロボ
ット100内部の状況を自己診断する。また、自己診断
部129は、自己診断結果を情報記録管理部125に転
送する。
【0090】情報記録管理部125は、各部から以下の
事柄を取得することができる。 (1)認証処理部112及び/又は114からのユーザ
認証情報 (2)対話管理部124において管理される対話内容又
は最新のユーザ・コマンド (3)感情モデルに従って自律行動計画部140が決定
した行動計画 (4)自己診断部129において診断された行動計画の
実行状況
【0091】そして、情報記録管理部125は、これら
のデータを組み合わせ、さらに時計126から供給され
る現在時刻といっしょにして、「行動履歴」又は「経験
情報」すなわち行動ログとして保存する。
【0092】行動ログは、例えば、情報記録管理部12
5のローカル・メモリ又はローカル・ディスク(図示し
ない)に不揮発的に保存される。あるいは、行動ログを
メモリ・ステックのようなカートリッジ式で挿抜可能な
記憶装置に格納しておけば、後でロボットから取り外し
て外部の計算機システム上で行動ログを解析処理するこ
とができる。
【0093】また、単一のロボット100が音声や画像
などの入力に基づくユーザとの対話に追従して行動計画
を立てる「対話駆動」方式と、ユーザとの対話に頼らず
自律的に行動計画を立てる「自律駆動」方式の双方の動
作方式をサポートする場合には、行動計画が対話駆動又
は自律駆動のいずれによるものかの識別情報を併せて記
録するようにしてもよい。
【0094】情報記録管理部125に保存される「行動
履歴」又は「経験情報」は、時刻情報を用いて検索する
ことができる。あるいは、音声認識部115などを介し
たロボット100との対話により引き出すことができ
る。
【0095】図7には、行動ログのデータ・フォーマッ
トを例示している。同図に示すように、1つのログは、
時刻フィールドと、ユーザ認証情報フィールドと、対話
内容フィールドと、行動計画フィールドと、動作モード
フィールドと、行動結果及び自己診断結果フィールドで
構成される。
【0096】時刻フィールドには、時計126から供給
される実時間が書き込まれる。また、ユーザ認証情報フ
ィールドには、指紋センサ111及び認証処理部11
2、あるいは、視覚センサ113及び認証処理部114
によって認証されたユーザ情報が書き込まれる。認証ユ
ーザは、対話動作上のコマンド発行元であることもあ
る。また、対話内容フィールドには、対話管理部124
で管理される対話内容が書き込まれる。
【0097】また、行動計画フィールドには、行動計画
部127又は自律行動計画部140によって立てられた
行動計画が書き込まれる。また、動作モード・フィール
ドには、現在のロボット100の行動計画が対話駆動又
は自律駆動のいずれの動作方式で決定されたかを識別す
る情報が書き込まれる。
【0098】また、行動結果及び自己診断結果フィール
ドには、各関節角度センサ132の出力に基づいて算出
された動作実現状況や、その他の各センサ出力に基づい
て判定される自己診断結果(故障状況など)が書き込ま
れる。
【0099】上述したようなデータを含む行動ログを解
析することによって、ロボット100の行動や、異常、
事故、トラブル発生時の要因などを推定することができ
るという点を充分に理解されたい。
【0100】図8には、本実施例に係るロボット100
がとることができる動作状態を示している。同図に示す
ように、本実施例に係るロボット100は、能動駆動と
受動駆動という状態を持つことができる。
【0101】受動駆動では、ユーザから一義的に解釈さ
れるコマンドを受け取って、その指示通りにのみ動作を
実行し、ロボット100が持つ思考や感情などの内部地
謡は全く機能しない。
【0102】例えば、「歩け」というユーザ指示に対し
て、あらかじめ蓄積された歩行パターンを読み出して、
歩行動作を実現する駆動状態が受動駆動に相当する。こ
のような場合、ロボット100の制御機能は、姿勢安定
制御や外乱などに伴う目標軌道の修正などを行うが、思
考や感情は作用せず、ユーザとの対話は成立しない(又
は不要である)。
【0103】したがって、受動駆動状態では、図7に示
す行動ログのうち、対話内容フィールドには、入力され
たコマンドがそのまま書き込まれる。また、ロボット1
00自身は行動計画を立てないので、行動計画フィール
ドはブランク又はデフォルト値が書き込まれる。また、
動作モード・フィールドには、受動駆動状態であること
を示す識別情報が書き込まれる。また、行動結果及び自
己診断結果フィールドには、各関節角度センサ132の
出力に基づいて算出された動作実現状況や、その他の各
センサ出力に基づいて判定される自己診断結果(故障状
況など)が書き込まれる。
【0104】また、能動状態では、音声や画像などの入
力に基づくユーザとの対話に追従して行動計画を立てる
「対話駆動」方式と、ユーザとの対話に頼らず自律的に
行動計画を立てる「自律駆動」方式という2通りの動作
状態がある。
【0105】ロボット100は、対話駆動方式又は自律
駆動方式のいずれか一方のみで動作するようにしてもよ
いし、両駆動方式間を双方向又は一方向で切り替え可能
であってもよい。例えば、最後のユーザ入力又は対話か
らの経過時間など所定の事象に発生により自律駆動方式
に遷移したり、あるいは、次のユーザ入力又は対話の発
生によって対話駆動方式に復帰するようにしてもよい。
【0106】図9には、能動駆動時におけるロボット1
00の動作シーケンスを模式的に示している。
【0107】対話駆動時には、ユーザ入力があると、こ
れを認識するとともにコマンドとして解釈して対話管理
する。また、対話を行うユーザは、指紋センサ又は視覚
センサを介して認証処理される。さらに、対話内容とセ
ンサ入力された外的環境に基づいて行動計画を立てて、
行動に対応する動作パターンを実行する。動作パターン
の実行状況はセンサ入力によって得られる。
【0108】したがって、対話駆動状態では、図7に示
す行動ログのうち、ユーザ認証情報フィールドには、ロ
ボット100との対話を行うユーザに関する認証情報が
書き込まれる。また、対話内容フィールドにはユーザと
の間で成立した対話内容が書き込まれる。また、行動計
画フィールドには、ロボット100が対話内容や外部環
境の変化に応じて決定した行動計画が書き込まれる。ま
た、動作モード・フィールドには、対話駆動状態である
ことを示す識別情報が書き込まれる。また、行動結果及
び自己診断結果フィールドには、各関節角度センサ13
2の出力に基づいて算出された動作実現状況や、その他
の各センサ出力に基づいて判定される自己診断結果(故
障状況など)が書き込まれる。
【0109】一方、自律駆動時には、ユーザ入力が途絶
えているか又はユーザ入力を受け付けず、したがってユ
ーザとの対話が成立していない。このような場合、ロボ
ット100は、ユーザとの対話に頼らず、センサ入力さ
れる外部環境の変化と感情モデルに基づいて自律的に行
動計画を立てる。そして、行動に対応する動作パターン
を実行し、動作パターンの実行状況はセンサ入力によっ
て得られる。自律駆動時には、周辺に居るユーザはコマ
ンド発行元ではないので、ユーザ認証を行っても行わな
くてもよい。
【0110】したがって、自律駆動状態では、図7示す
行動ログのうち、ユーザ認証情報フィールドには、周辺
に居るユーザの認証情報が書き込まれるか、又は、ブラ
ンク若しくはデフォルト値である。また、対話内容フィ
ールドには、入力されたコマンドがそのまま書き込まれ
る。また、行動計画フィールドには、ロボット100が
感情モデルや外部環境の変化に応じて決定した行動計画
が書き込まれる。また、動作モード・フィールドには、
自律駆動状態であることを示す識別情報が書き込まれ
る。また、行動結果及び自己診断結果フィールドには、
各関節角度センサ132の出力に基づいて算出された動
作実現状況や、その他の各センサ出力に基づいて判定さ
れる自己診断結果(故障状況など)が書き込まれる。
【0111】上述したようなデータを含む行動ログを解
析することによって、ロボット100が図8に示すいず
れの駆動状態であっても、ロボット100の行動や、異
常、事故、トラブル発生時の要因などを推定することが
できるという点を充分に理解されたい。
【0112】[追補]以上、特定の実施例を参照しなが
ら、本発明について詳解してきた。しかしながら、本発
明の要旨を逸脱しない範囲で当業者が該実施例の修正や
代用を成し得ることは自明である。すなわち、例示とい
う形態で本発明を開示してきたのであり、限定的に解釈
されるべきではない。本発明の要旨を判断するために
は、冒頭に記載した特許請求の範囲の欄を参酌すべきで
ある。
【0113】
【発明の効果】以上詳記したように、本発明によれば、
音声や画像などの入力に基づくユーザとの対話に追従し
て行動計画を立てたり、ユーザ入力に頼らず自律的に行
動計画を立てたりすることができる、優れた行動計画型
ロボットを提供することができる。
【0114】また、本発明によれば、「対話駆動」又は
「自律駆動」を行う期間中に異常や故障を発生したりト
ラブルに巻き込まれた場合であってもその原因を究明す
ることができる、優れた行動計画型ロボットを提供する
ことができる。
【0115】本発明に係るロボットは、ロボットに指令
を与えるユーザを認証することができる。あるいは認証
できないユーザの顔や声あるいはその他の生体上の特徴
情報を抽出する。さらに、ユーザから与えられた指令の
内容と、ロボットが指令に応じて取った行動や行動の実
行時刻とを組み合わせて記録する。その他、ロボットの
内部状態やセンサ入力情報を併せて記録してもよい。し
たがって、ユーザは、記録内容を解析することによっ
て、ロボットに起こった異常や故障、トラブルの原因を
究明することができる。
【図面の簡単な説明】
【図1】本発明の実施に供される脚式移動ロボット10
0を前方から眺望した様子を示た図である。
【図2】本発明の実施に供される脚式移動ロボット10
0を後方から眺望した様子を示た図である。
【図3】本実施例に係る脚式移動ロボット100が具備
する自由度構成モデルを模式的に示した図である。
【図4】本実施例に係る脚式移動ロボット100の制御
システム構成を模式的に示した図である。
【図5】本実施例に係る脚式移動ロボット100におい
て行動記録又は経験情報を記録する機能ブロック構成の
一例を模式的に示した図である。
【図6】本実施例に係る脚式移動ロボット100におい
て行動記録又は経験情報を記録する機能ブロック構成の
他の例を模式的に示した図である。
【図7】行動ログのデータ・フォーマット例を示した図
である。
【図8】本実施例に係るロボット100がとることがで
きる動作状態を示した図である。
【図9】能動駆動時におけるロボット100の動作シー
ケンスを模式的に示した図である。
【符号の説明】
1…頭部,2…首関節ヨー軸 3…首関節ピッチ軸,4…首関節ロール軸 5…体幹ピッチ軸,6…体幹ロール軸 7…体幹ヨー軸,8…肩関節ピッチ軸 9…肩関節ロール軸,10…上腕ヨー軸 11…肘関節ピッチ軸,12…前腕ヨー軸 13…手首関節ピッチ軸,14…手首関節ロール軸 15…手部,16…股関節ヨー軸 17…股関節ピッチ軸,18…股関節ロール軸 19…膝関節ピッチ軸,20…足首関節ピッチ軸 21…足首関節ロール軸,22…足部(足底) 100…脚式移動ロボット 200…思考制御モジュール 201…バス・インターフェース 211…CPU,212…RAM,213…ROM 214…外部記憶装置 251…画像入力装置(CCDカメラ) 252…音声入力装置(マイク) 253…音声出力装置(スピーカ) 254…通信インターフェース 300…運動制御モジュール 301…バス・インターフェース 311…CPU,312…RAM,313…ROM 314…外部記憶装置, 351…姿勢センサ 352,353…接地確認センサ 354…電源制御装置
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G05B 19/4155 G05B 19/4155 S G06N 3/00 550 G06N 3/00 550E Fターム(参考) 3F059 AA00 BA02 BB06 BC07 CA05 CA06 DA02 DA05 DA09 DB02 DB09 DC01 DC04 DC07 DD01 DD08 DD11 DD18 FA03 FA05 FB01 FB13 FB17 FB29 FC02 FC03 FC06 FC13 FC14 FC15 5H004 GA26 GB16 HA07 HB07 KD56 KD58 5H269 AB21 AB33 BB03 BB09 BB11 CC09 GG01 MM07 PP02 QE34 QE37 9A001 BB04 BB06 DZ15 FZ04 GZ09 HH05 HH19 HH34 HZ10 HZ15 HZ20 HZ22 HZ23 KK32 KK37 KK62 LL06

Claims (12)

    【特許請求の範囲】
  1. 【請求項1】複数の関節アクチュエータで構成され、行
    動計画に従って動作するタイプのロボットの制御装置で
    あって、 前記ロボットの行動計画を立てる行動計画部と、 前記行動計画部により決定された行動計画に対応する動
    作パターンを各関節アクチュエータの駆動により実現す
    る動作制御部と、 前記動作制御部による動作実現状況を検出する検出部
    と、 前記行動計画部による行動計画と前記検出部による動作
    実現状況を含むログを記録する記録部と、を具備するこ
    とを特徴とするロボットの制御装置。
  2. 【請求項2】さらに、ユーザからのコマンド又はデータ
    を受容するユーザ入力部と、前記ユーザ入力部を介した
    ユーザ入力コマンド又はデータに基づくユーザとの対話
    を管理する対話管理部とを含み、 前記行動計画部は、前記対話管理部における対話内容に
    従って行動計画を立てるとともに、前記記録部は対話内
    容のログをとることを特徴とする請求項1に記載のロボ
    ットの制御装置。
  3. 【請求項3】さらに、前記ロボットの各部を診断する自
    己診断部を含み、 前記記録部は自己診断結果のログをとることを特徴とす
    る請求項1に記載のロボットの制御装置。
  4. 【請求項4】さらに、前記ロボット周辺に居るユーザを
    認証処理するユーザ認証部を含み、 前記記録部はユーザ認証結果のログをとることを特徴と
    する請求項1に記載のロボットの制御装置。
  5. 【請求項5】前記行動計画部は、外的変化などに応じて
    決定される感情モデルに基づいて行動計画を立てること
    を特徴とする請求項1に記載のロボットの制御装置。
  6. 【請求項6】前記行動計画部は、ユーザとの対話に基づ
    いて行動計画を立てる第1の動作方式、又は、外的変化
    などに応じて決定される感情モデルに基づいて行動計画
    を立てる第2の動作方式によって動作可能であり、 前記記録部は行動計画部における動作方式のログをとる
    ことを特徴とする請求項1に記載のロボットの制御装
    置。
  7. 【請求項7】複数の関節アクチュエータで構成され、行
    動計画に従って動作するタイプのロボットの制御方法で
    あって、 前記ロボットの行動計画を立てる行動計画ステップと、 前記行動計画ステップにより決定された行動計画に対応
    する動作パターンを各関節アクチュエータの駆動により
    実現する動作制御ステップと、 前記動作制御ステップによる動作実現状況を検出する検
    出ステップと、 前記行動計画ステップによる行動計画と前記検出ステッ
    プによる動作実現状況を含むログを記録する記録ステッ
    プと、を具備することを特徴とするロボットの制御方
    法。
  8. 【請求項8】さらに、ユーザからのコマンド又はデータ
    を受容するユーザ入力ステップと、前記ユーザ入力ステ
    ップによるユーザ入力コマンド又はデータに基づくユー
    ザとの対話を管理する対話管理ステップとを含み、 前記行動計画ステップでは、前記対話管理部における対
    話内容に従って行動計画を立てるとともに、前記記録ス
    テップでは対話内容のログをとることを特徴とする請求
    項7に記載のロボットの制御方法。
  9. 【請求項9】さらに、前記ロボットの各部を診断する自
    己診断ステップを含み、 前記記録ステップでは自己診断結果のログをとることを
    特徴とする請求項7に記載のロボットの制御方法。
  10. 【請求項10】さらに、前記ロボット周辺に居るユーザ
    を認証処理するユーザ認証ステップを含み、 前記記録ステップではユーザ認証結果のログをとること
    を特徴とする請求項7に記載のロボットの制御方法。
  11. 【請求項11】前記行動計画ステップでは、外的変化な
    どに応じて決定される感情モデルに基づいて行動計画を
    立てることを特徴とする請求項7に記載のロボットの制
    御方法。
  12. 【請求項12】前記行動計画ステップでは、ユーザとの
    対話に基づいて行動計画を立てる第1の動作方式、又
    は、外的変化などに応じて決定される感情モデルに基づ
    いて行動計画を立てる第2の動作方式によって動作可能
    であり、 前記記録ステップでは行動計画ステップにおける動作方
    式のログをとることを特徴とする請求項7に記載のロボ
    ットの制御方法。
JP2000100795A 2000-04-03 2000-04-03 ロボットの制御装置及び制御方法 Pending JP2001277163A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2000100795A JP2001277163A (ja) 2000-04-03 2000-04-03 ロボットの制御装置及び制御方法
US09/980,137 US6556892B2 (en) 2000-04-03 2001-04-03 Control device and control method for robot
CN01801201.9A CN1372505A (zh) 2000-04-03 2001-04-03 机器人控制装置和方法
PCT/JP2001/002894 WO2001074549A1 (fr) 2000-04-03 2001-04-03 Procede et dispositif de commande d'un robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000100795A JP2001277163A (ja) 2000-04-03 2000-04-03 ロボットの制御装置及び制御方法

Publications (1)

Publication Number Publication Date
JP2001277163A true JP2001277163A (ja) 2001-10-09

Family

ID=18614942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000100795A Pending JP2001277163A (ja) 2000-04-03 2000-04-03 ロボットの制御装置及び制御方法

Country Status (4)

Country Link
US (1) US6556892B2 (ja)
JP (1) JP2001277163A (ja)
CN (1) CN1372505A (ja)
WO (1) WO2001074549A1 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003145456A (ja) * 2001-11-19 2003-05-20 Japan Science & Technology Corp 二脚歩行式人型ロボット
JP2003150186A (ja) * 2001-11-16 2003-05-23 Nippon Telegr & Teleph Corp <Ntt> ロボットシステム、ロボット制御方法、ロボット制御装置及びロボット制御プログラム
WO2003068454A1 (fr) * 2002-02-18 2003-08-21 Japan Science And Technology Agency Robot androide marchant sur deux jambes
WO2004071718A1 (ja) * 2002-01-18 2004-08-26 Honda Giken Kogyo Kabushiki Kaisha 移動ロボットの異常検知装置
JP2004299025A (ja) * 2003-04-01 2004-10-28 Honda Motor Co Ltd 移動ロボット制御装置、移動ロボット制御方法及び移動ロボット制御プログラム
WO2005014242A1 (ja) * 2003-08-12 2005-02-17 Advanced Telecommunications Research Institute International コミュニケーションロボット用制御システム
EP1518648A2 (en) 2003-09-29 2005-03-30 Fanuc Ltd Robot system capable of reproducing a situation of alarm
US7141443B2 (en) 2003-06-26 2006-11-28 Disco Corporation Semiconductor wafer dividing method utilizing laser beam
WO2008001492A1 (fr) * 2006-06-28 2008-01-03 Nec Corporation Automate, procédé et programme de commande d'automate
JP2010513039A (ja) * 2006-12-22 2010-04-30 アーベーベー・リサーチ・リミテッド コントロール・システム
JP2017007036A (ja) * 2015-06-23 2017-01-12 キヤノン株式会社 ロボットシステムの制御方法、およびロボットシステム
JPWO2016067474A1 (ja) * 2014-10-31 2017-08-03 株式会社タカラトミー ロボット玩具
JP2018001387A (ja) * 2016-07-08 2018-01-11 ロボットスタート株式会社 ロボット、プログラム、ロボットシステム及びサーバ
JP2018047536A (ja) * 2016-09-23 2018-03-29 カシオ計算機株式会社 ロボット、故障診断システム、故障診断方法及びプログラム
JP2019104087A (ja) * 2017-12-13 2019-06-27 カシオ計算機株式会社 デバイス制御装置、デバイス制御方法及びプログラム

Families Citing this family (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8788092B2 (en) 2000-01-24 2014-07-22 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US8412377B2 (en) 2000-01-24 2013-04-02 Irobot Corporation Obstacle following sensor scheme for a mobile robot
JP4480843B2 (ja) * 2000-04-03 2010-06-16 ソニー株式会社 脚式移動ロボット及びその制御方法、並びに、脚式移動ロボット用相対移動測定センサ
US6956348B2 (en) 2004-01-28 2005-10-18 Irobot Corporation Debris sensor for cleaning apparatus
US7571511B2 (en) 2002-01-03 2009-08-11 Irobot Corporation Autonomous floor-cleaning robot
US6690134B1 (en) 2001-01-24 2004-02-10 Irobot Corporation Method and system for robot localization and confinement
US8396592B2 (en) 2001-06-12 2013-03-12 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US7429843B2 (en) 2001-06-12 2008-09-30 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
JP2003103038A (ja) * 2001-09-28 2003-04-08 Ishikawajima Harima Heavy Ind Co Ltd ロボット競技システム
US9128486B2 (en) 2002-01-24 2015-09-08 Irobot Corporation Navigational control system for a robotic device
JP2004001162A (ja) * 2002-03-28 2004-01-08 Fuji Photo Film Co Ltd ペットロボット充電システム、受取装置、ロボット、及びロボットシステム
US7103447B2 (en) * 2002-09-02 2006-09-05 Sony Corporation Robot apparatus, and behavior controlling method for robot apparatus
US8386081B2 (en) 2002-09-13 2013-02-26 Irobot Corporation Navigational control system for a robotic device
US8428778B2 (en) 2002-09-13 2013-04-23 Irobot Corporation Navigational control system for a robotic device
EP1552908A4 (en) * 2002-10-11 2008-10-15 Fujitsu Ltd DEVICE FOR CREATING A ROBOT CONTROL ALGORITHM, PROGRAM FOR CREATING A ROBOT CONTROL ALGORITHM, ROBOT CONTROL PROGRAM AND ROBOT
JP4173790B2 (ja) * 2002-10-29 2008-10-29 東芝機械株式会社 制御装置
AU2003289142A1 (en) * 2002-12-10 2004-06-30 Honda Motor Co., Ltd. Robot control device, robot control method, and robot control program
US7437201B2 (en) * 2003-01-14 2008-10-14 Cullen Christopher P Electric motor controller
GB0306875D0 (en) * 2003-03-25 2003-04-30 British Telecomm Apparatus and method for generating behavior in an object
US7332890B2 (en) 2004-01-21 2008-02-19 Irobot Corporation Autonomous robot auto-docking and energy management systems and methods
DE112005000738T5 (de) 2004-03-29 2007-04-26 Evolution Robotics, Inc., Pasadena Verfahren und Vorrichtung zur Positionsbestimmung unter Verwendung von reflektierten Lichtquellen
WO2006002385A1 (en) 2004-06-24 2006-01-05 Irobot Corporation Programming and diagnostic tool for a mobile robot
US8972052B2 (en) 2004-07-07 2015-03-03 Irobot Corporation Celestial navigation system for an autonomous vehicle
US7706917B1 (en) 2004-07-07 2010-04-27 Irobot Corporation Celestial navigation system for an autonomous robot
JP4305323B2 (ja) * 2004-08-11 2009-07-29 ソニー株式会社 ロボット装置の動作制御装置及び動作制御方法
JP4485887B2 (ja) 2004-09-17 2010-06-23 本田技研工業株式会社 脚式移動ロボットの力センサ異常検知装置
US8000837B2 (en) 2004-10-05 2011-08-16 J&L Group International, Llc Programmable load forming system, components thereof, and methods of use
KR101247933B1 (ko) 2005-02-18 2013-03-26 아이로보트 코퍼레이션 습식 및 건식 청소를 위한 자동 표면 청소 로봇
US7620476B2 (en) 2005-02-18 2009-11-17 Irobot Corporation Autonomous surface cleaning robot for dry cleaning
US8392021B2 (en) 2005-02-18 2013-03-05 Irobot Corporation Autonomous surface cleaning robot for wet cleaning
US8930023B2 (en) 2009-11-06 2015-01-06 Irobot Corporation Localization by learning of wave-signal distributions
US20060293788A1 (en) * 2005-06-26 2006-12-28 Pavel Pogodin Robotic floor care appliance with improved remote management
EP2065774B1 (en) 2005-12-02 2013-10-23 iRobot Corporation Autonomous coverage robot navigation system
EP2816434A3 (en) 2005-12-02 2015-01-28 iRobot Corporation Autonomous coverage robot
KR101099808B1 (ko) 2005-12-02 2011-12-27 아이로보트 코퍼레이션 로봇 시스템
US8584305B2 (en) 2005-12-02 2013-11-19 Irobot Corporation Modular robot
KR101300493B1 (ko) 2005-12-02 2013-09-02 아이로보트 코퍼레이션 커버리지 로봇 이동성
JP4812426B2 (ja) * 2005-12-27 2011-11-09 富士通株式会社 ロボット制御装置
JP4818716B2 (ja) * 2005-12-27 2011-11-16 富士通株式会社 ロボット制御装置
US8528157B2 (en) 2006-05-19 2013-09-10 Irobot Corporation Coverage robots and associated cleaning bins
US8417383B2 (en) 2006-05-31 2013-04-09 Irobot Corporation Detecting robot stasis
JP5112666B2 (ja) * 2006-09-11 2013-01-09 株式会社日立製作所 移動装置
KR101414321B1 (ko) 2007-05-09 2014-07-01 아이로보트 코퍼레이션 자동 커버리지 로봇
JP2009025879A (ja) * 2007-07-17 2009-02-05 Denso Wave Inc ロボット装置の通信システム
JP5632609B2 (ja) * 2007-08-21 2014-11-26 富士通株式会社 ロボット制御装置およびロボット制御方法
KR101479234B1 (ko) * 2008-09-04 2015-01-06 삼성전자 주식회사 로봇 및 그 제어 방법
US20100181943A1 (en) * 2009-01-22 2010-07-22 Phan Charlie D Sensor-model synchronized action system
US9120224B2 (en) * 2009-09-22 2015-09-01 GM Global Technology Operations LLC Framework and method for controlling a robotic system using a distributed computer network
EP3192419B1 (en) 2010-02-16 2021-04-07 iRobot Corporation Vacuum brush
US20110301751A1 (en) * 2010-06-03 2011-12-08 Li Creative Technologies Low noise humanoid robotic head system
CN201940040U (zh) * 2010-09-27 2011-08-24 深圳市杰思谷科技有限公司 家用机器人
US8818556B2 (en) * 2011-01-13 2014-08-26 Microsoft Corporation Multi-state model for robot and user interaction
US11471020B2 (en) 2011-04-29 2022-10-18 Irobot Corporation Robotic vacuum cleaning system
AU2012249245B2 (en) 2011-04-29 2015-05-14 Irobot Corporation Resilient and compressible roller and autonomous coverage robot
US8706299B2 (en) * 2011-08-02 2014-04-22 GM Global Technology Operations LLC Method and system for controlling a dexterous robot execution sequence using state classification
US8769090B2 (en) * 2011-11-30 2014-07-01 At&T Intellectual Property I, L.P. Method and apparatus for managing communication inquiries
DE102012102749A1 (de) * 2012-03-29 2013-10-02 Reis Group Holding Gmbh & Co. Kg Vorrichtung und Verfahren zur Bedienung eines Industrieroboters
AU2013204965B2 (en) * 2012-11-12 2016-07-28 C2 Systems Limited A system, method, computer program and data signal for the registration, monitoring and control of machines and devices
JP6145302B2 (ja) * 2013-05-14 2017-06-07 シャープ株式会社 電子機器
US9314924B1 (en) * 2013-06-14 2016-04-19 Brain Corporation Predictive robotic controller apparatus and methods
US9310800B1 (en) * 2013-07-30 2016-04-12 The Boeing Company Robotic platform evaluation system
US9505133B2 (en) * 2013-12-13 2016-11-29 Canon Kabushiki Kaisha Robot apparatus, robot controlling method, program and recording medium
JP6228097B2 (ja) * 2014-10-06 2017-11-08 本田技研工業株式会社 移動ロボット
JP6410174B2 (ja) * 2014-10-17 2018-10-24 本田技研工業株式会社 移動ロボット
JP6240590B2 (ja) * 2014-11-12 2017-11-29 本田技研工業株式会社 移動ロボットの制御装置
EP3112965A1 (en) * 2015-07-02 2017-01-04 Accenture Global Services Limited Robotic process automation
US11093590B2 (en) * 2015-08-31 2021-08-17 Avaya Inc. Selection of robot operation mode from determined compliance with a security criteria
KR102543212B1 (ko) * 2015-10-26 2023-06-14 (주)한화 로봇 제어 시스템 및 방법
CN105643632A (zh) * 2016-03-24 2016-06-08 彭泽宸 一种远程真人模拟互动机器人
CN106313055A (zh) * 2016-10-31 2017-01-11 河池学院 一种机器人的控制方法
US10512384B2 (en) 2016-12-15 2019-12-24 Irobot Corporation Cleaning roller for cleaning robots
JP6681326B2 (ja) 2016-12-27 2020-04-15 本田技研工業株式会社 作業システムおよび作業方法
JP6927727B2 (ja) * 2017-03-29 2021-09-01 本田技研工業株式会社 ロボットの制御装置
US10595624B2 (en) 2017-07-25 2020-03-24 Irobot Corporation Cleaning roller for cleaning robots
CN107891446A (zh) * 2017-10-28 2018-04-10 深圳市前海安测信息技术有限公司 服务机器人故障自诊断系统和方法
CN108600499A (zh) * 2018-02-28 2018-09-28 努比亚技术有限公司 一种安全提醒方法、设备及计算机可读存储介质
US10675760B2 (en) * 2018-06-14 2020-06-09 International Business Machines Corporation Robot identification manager
WO2020058561A1 (en) * 2018-09-18 2020-03-26 Nokia Technologies Oy Apparatus and method for authenticating a user
WO2020097061A2 (en) * 2018-11-05 2020-05-14 DMAI, Inc. Configurable and interactive robotic systems
KR20200077936A (ko) * 2018-12-21 2020-07-01 삼성전자주식회사 사용자 상태에 기초하여 반응을 제공하는 전자 장치 및 그의 동작 방법
US11109727B2 (en) 2019-02-28 2021-09-07 Irobot Corporation Cleaning rollers for cleaning robots
CN109979633A (zh) * 2019-04-08 2019-07-05 韦尔德海润(北京)智能科技有限公司 一种核电厂辅助操纵系统
CN110187637B (zh) * 2019-06-03 2021-12-10 重庆大学 在控制方向和期望轨迹不确定下的机器人系统控制方法
CN112140099B (zh) * 2019-06-28 2022-05-13 百度在线网络技术(北京)有限公司 一种机器人的光效控制方法、装置、设备和介质
CN110539310B (zh) * 2019-08-06 2022-09-02 同济大学 一种高负载建筑机器人
CN111331596B (zh) * 2020-01-22 2021-05-18 深圳国信泰富科技有限公司 一种机器人自动轨迹校正方法及系统
US20220184801A1 (en) * 2020-12-14 2022-06-16 Honda Research Institute Europe Gmbh Controlling an autonomous working device based on physical interaction

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04317105A (ja) 1991-04-17 1992-11-09 Toshiba Corp 移動装置の制御装置
JPH05241811A (ja) 1991-12-25 1993-09-21 Nec Corp 対話評価装置
JP2518467B2 (ja) 1992-09-11 1996-07-24 日本電気株式会社 対話評価装置
JP3018865B2 (ja) 1993-10-07 2000-03-13 富士ゼロックス株式会社 感情表出装置
JPH07129220A (ja) 1993-11-05 1995-05-19 Fanuc Ltd プログラム実行履歴データ表示機能を備えたロボット制御装置
JP2000006068A (ja) * 1998-06-25 2000-01-11 Nippon Telegr & Teleph Corp <Ntt> ヒューマン・ロボットコラボレーション制御方法と装置及びプログラムを記録した記録媒体
JP4609684B2 (ja) * 1999-04-05 2011-01-12 ソニー株式会社 ロボット、サーボ回路、アクチュエータ、ロボットの制御方法及びアクチュエータの制御方法
JP2001150374A (ja) * 1999-11-25 2001-06-05 Sony Corp ロボットの故障診断システム
JP2001260063A (ja) * 2000-03-21 2001-09-25 Sony Corp 多関節型ロボット及びその動作制御方法

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003150186A (ja) * 2001-11-16 2003-05-23 Nippon Telegr & Teleph Corp <Ntt> ロボットシステム、ロボット制御方法、ロボット制御装置及びロボット制御プログラム
WO2003043788A1 (fr) * 2001-11-19 2003-05-30 Japan Science And Technology Corporation Robot a forme humaine de type automoteur bipede
JP2003145456A (ja) * 2001-11-19 2003-05-20 Japan Science & Technology Corp 二脚歩行式人型ロボット
WO2004071718A1 (ja) * 2002-01-18 2004-08-26 Honda Giken Kogyo Kabushiki Kaisha 移動ロボットの異常検知装置
WO2003068454A1 (fr) * 2002-02-18 2003-08-21 Japan Science And Technology Agency Robot androide marchant sur deux jambes
US7057367B2 (en) 2002-02-18 2006-06-06 Japan Science And Technology Agency Two-leg walking humanoid robot
CN100344419C (zh) * 2002-02-18 2007-10-24 独立行政法人科学技术振兴机构 双腿步行式人形机器人
JP2004299025A (ja) * 2003-04-01 2004-10-28 Honda Motor Co Ltd 移動ロボット制御装置、移動ロボット制御方法及び移動ロボット制御プログラム
US7551980B2 (en) 2003-04-01 2009-06-23 Honda Motor Co., Ltd. Apparatus, process, and program for controlling movable robot control
US7141443B2 (en) 2003-06-26 2006-11-28 Disco Corporation Semiconductor wafer dividing method utilizing laser beam
WO2005014242A1 (ja) * 2003-08-12 2005-02-17 Advanced Telecommunications Research Institute International コミュニケーションロボット用制御システム
KR100767170B1 (ko) * 2003-08-12 2007-10-15 가부시키가이샤 고쿠사이 덴키 츠신 기소 기주츠 겐큐쇼 커뮤니케이션 로봇용 제어 시스템
JPWO2005014242A1 (ja) * 2003-08-12 2006-09-28 株式会社国際電気通信基礎技術研究所 コミュニケーションロボット用制御システム
US7689319B2 (en) 2003-08-12 2010-03-30 Advanced Telecommunications Research Institute International Communication robot control system
EP1518648A2 (en) 2003-09-29 2005-03-30 Fanuc Ltd Robot system capable of reproducing a situation of alarm
EP1518648A3 (en) * 2003-09-29 2010-11-03 Fanuc Ltd Robot system capable of reproducing a situation of alarm
US7590468B2 (en) 2003-09-29 2009-09-15 Fanuc Ltd Robot system
WO2008001492A1 (fr) * 2006-06-28 2008-01-03 Nec Corporation Automate, procédé et programme de commande d'automate
JP2010513039A (ja) * 2006-12-22 2010-04-30 アーベーベー・リサーチ・リミテッド コントロール・システム
JPWO2016067474A1 (ja) * 2014-10-31 2017-08-03 株式会社タカラトミー ロボット玩具
JP2021100787A (ja) * 2015-06-23 2021-07-08 キヤノン株式会社 ロボットシステムの制御方法、物品の製造方法、制御プログラム、記録媒体、およびロボットシステム
JP2017007036A (ja) * 2015-06-23 2017-01-12 キヤノン株式会社 ロボットシステムの制御方法、およびロボットシステム
JP7250841B2 (ja) 2015-06-23 2023-04-03 キヤノン株式会社 ロボットシステムの制御方法、物品の製造方法、制御プログラム、記録媒体、およびロボットシステム
JP2018001387A (ja) * 2016-07-08 2018-01-11 ロボットスタート株式会社 ロボット、プログラム、ロボットシステム及びサーバ
US10664334B2 (en) 2016-09-23 2020-05-26 Casio Computer Co., Ltd. Robot that diagnoses failure, failure diagnosis system, failure diagnosis method, and recording medium
JP2018047536A (ja) * 2016-09-23 2018-03-29 カシオ計算機株式会社 ロボット、故障診断システム、故障診断方法及びプログラム
CN109947008A (zh) * 2017-12-13 2019-06-28 卡西欧计算机株式会社 器件控制装置、器件控制方法及记录介质
JP2019104087A (ja) * 2017-12-13 2019-06-27 カシオ計算機株式会社 デバイス制御装置、デバイス制御方法及びプログラム

Also Published As

Publication number Publication date
CN1372505A (zh) 2002-10-02
WO2001074549A1 (fr) 2001-10-11
US6556892B2 (en) 2003-04-29
US20020120361A1 (en) 2002-08-29

Similar Documents

Publication Publication Date Title
JP2001277163A (ja) ロボットの制御装置及び制御方法
US7103447B2 (en) Robot apparatus, and behavior controlling method for robot apparatus
JP4281208B2 (ja) ロボット遠隔制御システム
KR100898435B1 (ko) 로봇 장치 및 그 제어 방법
JP4305323B2 (ja) ロボット装置の動作制御装置及び動作制御方法
US6493606B2 (en) Articulated robot and method of controlling the motion of the same
US6904334B2 (en) Robot apparatus and method for controlling the operation thereof
JP2001150374A (ja) ロボットの故障診断システム
KR20030007841A (ko) 각식 이동 로봇 및 그 운동교시 방법, 및 기억매체
JP2004188535A (ja) 脚式移動ロボット並びに脚式移動ロボットの関節軸として適用されるアクチュエータ装置
JP2006082150A (ja) ロボット装置及びその行動制御方法
JP2002144260A (ja) 脚式移動ロボット及びその制御方法
JP2004110802A (ja) 環境同定装置、環境同定方法、プログラム及び記録媒体、並びにロボット装置
JP4179230B2 (ja) ロボット装置及びその動作制御方法
Kim et al. Intelligence technology for robots that think [application notes]
Neo et al. A switching command-based whole-body operation method for humanoid robots
JP4449372B2 (ja) ロボット装置及びその行動制御方法
JP2003271958A (ja) 画像処理方法、その装置、そのプログラム、その記録媒体及び画像処理装置搭載型ロボット装置
JP2003266348A (ja) ロボット装置及びその制御方法
JP2002144261A (ja) 脚式移動ロボット及びその制御方法
JP2002205290A (ja) 脚式移動ロボットの制御装置及び制御方法
JP2004295766A (ja) ロボット装置及びロボットを介したユーザの認証方法
JP3813102B2 (ja) 脚式ロボットの姿勢制御装置及び姿勢制御方法
JP4506249B2 (ja) ロボット装置及びその動作比較方法
Sian et al. A framework for remote execution of whole body motions for humanoid robots