JP2003340759A - ロボット装置およびロボット制御方法、記録媒体、並びにプログラム - Google Patents

ロボット装置およびロボット制御方法、記録媒体、並びにプログラム

Info

Publication number
JP2003340759A
JP2003340759A JP2002145334A JP2002145334A JP2003340759A JP 2003340759 A JP2003340759 A JP 2003340759A JP 2002145334 A JP2002145334 A JP 2002145334A JP 2002145334 A JP2002145334 A JP 2002145334A JP 2003340759 A JP2003340759 A JP 2003340759A
Authority
JP
Japan
Prior art keywords
action
unit
robot
behavior
knowledge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2002145334A
Other languages
English (en)
Other versions
JP2003340759A5 (ja
Inventor
Tsutomu Sawada
務 澤田
Masahiro Fujita
雅博 藤田
Osamu Hanagata
理 花形
Takeshi Takagi
剛 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002145334A priority Critical patent/JP2003340759A/ja
Priority to EP03723395A priority patent/EP1508409A1/en
Priority to PCT/JP2003/006179 priority patent/WO2003097308A1/ja
Priority to US10/484,058 priority patent/US20040210347A1/en
Publication of JP2003340759A publication Critical patent/JP2003340759A/ja
Publication of JP2003340759A5 publication Critical patent/JP2003340759A5/ja
Abandoned legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour

Abstract

(57)【要約】 【課題】 ロボットに、ユーザを飽きさせないように行
動させることができるようにする。 【解決手段】 行動管理部72は、行動選択確率に基づ
いて、探索的行動と知識利用的行動を選択する。行動管
理部72が、選択した行動aを実行すると、環境・ユー
ザ111から報酬rが与えられる。行動管理部72は、
報酬rに基づき、行動価値を更新し、その行動価値を、
ボルツマン分布に適用して、行動選択確率を決定する。
また、行動管理部72は、ボルツマ温度を入力情報に基
づいて変化させる。本発明は、ロボットの強化学習シス
テムに適用できる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ロボット装置およ
びロボット制御方法、記録媒体、並びにプログラムに関
し、特に、ロボットに、人間と同じように、かつ、ユー
ザを飽きさせないように、行動させることができるよう
にしたロボット装置およびロボット制御方法、記録媒
体、並びにプログラムに関する。
【0002】
【従来の技術】生命体を模擬するロボット装置とインタ
ラクションする場合、ユーザは、ロボット装置に対して
「人と同じような」振る舞いを期待している。
【0003】ロボット装置にこのような行動を実行させ
るには、ロボット装置に行動獲得のための強化学習を行
わせればよい。ロボット装置は、行動価値から算出され
る行動選択確率に基づいて、行動を選択する。選択する
行動としては、探査を主とした行動(以下、探査的行動
と称する)と知識利用を主とした行動(以下、知識利用
的行動と称する)がある。探査的行動が選択されると、
ロボット装置は今までと異なる新たな行動をとるように
なる。これに対して、知識的行動が選択されると、ロボ
ット装置は、一般的に期待される通りの行動をとる。
【0004】
【発明が解決しようとする課題】しかしながら、このよ
うな従来の強化学習では、行動選択確率は、ロボット装
置の外部状態や内部状態によらず一定であった。
【0005】したがって、ロボット装置に、人と同じよ
うに、かつ、ユーザを飽きさせないように、振る舞わせ
ることは困難であった。
【0006】本発明はこのような状況に鑑みてなされた
ものであり、ロボット装置に、人と同じように行動させ
つつ、ユーザを飽きさせないように行動させることがで
きるようにすることを目的とする。
【0007】
【課題を解決するための手段】本発明のロボット装置
は、探査的行動と知識利用的行動の選択を動的に変更す
る行動管理手段を備えることを特徴とする。
【0008】行動管理手段は、行動選択確率に基づい
て、探査的行動と知識利用的行動を選択することができ
る。
【0009】行動選択確率は、ボルツマン温度によって
決定されることができる。
【0010】ボルツマン温度は、入力情報に応じて変化
されることができる。
【0011】時刻を計測する計測手段をさらに備え、ボ
ルツマン温度は、時刻に応じて変化されることができ
る。
【0012】本発明のロボット制御方法は、探査的行動
と知識利用的行動の選択を動的に変更する行動管理ステ
ップを含むことを特徴とする。
【0013】本発明の記録媒体のプログラムは、探査的
行動と知識利用的行動の選択を動的に変更する行動管理
ステップを含むことを特徴とする。
【0014】本発明のプログラムは、探査的行動と知識
利用的行動の選択を動的に変更する行動管理ステップを
コンピュータに実行させることを特徴とする。
【0015】本発明のロボット装置およびロボット制御
方法、記録媒体、並びにプログラムにおいては、入力情
報に基づいて、探査的行動と知識利用的行動の選択が動
的に変化される。
【0016】
【発明の実施の形態】以下、本発明の実施の形態につい
て、図面を参照して説明する。図1は、本発明を適用し
たペットロボット1の例を示す斜視図である。
【0017】例えば、ペットロボット1は、4本足の小
熊形状のものとされており、胴体部ユニット2の前後左
右に、それぞれ脚部ユニット3A、3B、3C、3Dが
連結されるとともに、胴体部ユニット2の前端部と後端
部に、それぞれ頭部ユニット4と尻尾部ユニット5が連
結されている。
【0018】図2は、図1のペットロボット1の内部構
成の例を示すブロック図である。胴体部ユニット2に
は、ペットロボット1の全体を制御するコントローラ1
0、ペットロボット1の各部に電力を供給するバッテリ
11、並びにバッテリセンサ12、および熱センサ13
からなる内部センサ14が格納されている。このコント
ローラ10には、CPU(Central Processing Unit)10
A、CPU10Aが各部を制御するためのプログラムが記
憶されているメモリ10B、および計時動作を行い、現
在の日時、起動後の経過時間等を計測する時計10Cが
設けられている。
【0019】また、CPU10Aには、インタネットに代
表されるネットワークを介してデータを通信する通信部
63、プログラムなどの各種データを格納する半導体メ
モリなどよりなる記憶部62が接続されている。さら
に、リムーバブルメモリ61などの記録媒体に対してデ
ータを読み書きするドライブ60が必要に応じて接続さ
れる。
【0020】このペットロボット1に本発明を適用した
ロボット装置としての動作を実行させるロボット制御プ
ログラムは、リムーバブルメモリ61に格納された状態
でペットロボット1に供給され、ドライブ60によって
読み出されて、記憶部62に内蔵されるハードディスク
ドライブにインストールされる。記憶部62にインスト
ールされたロボット制御プログラムは、ユーザから入力
されるコマンドに対応するCPU10Aの指令によって、
記憶部62からメモリ10Bにロードされて実行され
る。
【0021】頭部ユニット4には、外部からの刺激を感
知するセンサとして、音を感知する「耳のような聴覚器
官」に相当するマイクロフォン15、CCD(Charge Coupl
ed Device)、CMOS(Complementary Metal Oxide Semicon
ductor)、およびイメージセンサなどから構成され、外
部の画像信号を取得する「目のような視覚器官」に相当
するビデオカメラ16、およびユーザが接触することに
よる圧力等を感知する「肌等のような触覚器官」に相当
するタッチセンサ17が、それぞれ所定の位置に設けら
れている。また、頭部ユニット4には、対象物までの距
離を測定する位置検出センサ18、および所定の音階を
出力するペットロボット1の「口のような発声器官」に
相当するスピーカ19が、それぞれ所定の位置に設置さ
れている。
【0022】脚部ユニット3A乃至3Dのそれぞれの関
節部分、脚部ユニット3A乃至3Dのそれぞれと胴体部
ユニット2の連結部分、頭部ユニット4と胴体部ユニッ
ト2の連結部分、並びに尻尾部ユニット5と胴体部ユニ
ット2の連結部分などには、アクチュエータが設置され
ている。アクチュエータは、コントローラ10からの指
示に基づいて各部を動作させる。
【0023】図2の例においては、脚部ユニット3Aに
は、アクチュエータ3AA1乃至3AAKが設けられ、脚
部ユニット3Bには、アクチュエータ3BA1乃至3B
Kが設けられている。また、脚部ユニット3Cには、
アクチュエータ3CA1乃至3CAKが設けられ、脚部ユ
ニット3Dには、アクチュエータ3DA1乃至3DA K
設けられている。さらに、頭部ユニット4には、アクチ
ュエータ4A1乃至4ALが設けられており、尻尾部ユニ
ット5には、アクチュエータ5A1および5A 2がそれぞ
れ設けられている。
【0024】以下、脚部ユニット3A乃至3Dに設けら
れているアクチュエータ3AA1乃至3DAK、頭部ユニ
ット4に設けられているアクチュエータ4A1乃至4
L,および尻尾部ユニットに設けられているアクチュ
エータ5A1および5A2のそれぞれを個々に区別する必
要がない場合、適宜、まとめて、アクチュエータ3AA
1乃至5A2と称する。
【0025】さらに、脚部ユニット3A乃至3Dには、
アクチュエータの他にスイッチ3AB乃至3DBが、ペ
ットロボット1の足の裏に相当する場所に設置されてい
る。そして、ペットロボット1が歩行したとき、スイッ
チ3AB乃至3DBが押下され、それを表す信号がコン
トローラ10に入力されるようになされている。
【0026】頭部ユニット4に設置されるマイクロフォ
ン15は、ユーザの発話を含む周囲の音声(音)を集音
し、得られた音声信号をコントローラ10に出力する。
ビデオカメラ16は、周囲の状況を撮像し、得られた画
像信号を、コントローラ10に出力する。タッチセンサ
17は、例えば、頭部ユニット4の上部に設けられてお
り、ユーザからの「撫でる」や「叩く」といった物理的
な働きかけにより受けた圧力を検出し、その検出結果を
圧力検出信号としてコントローラ10に出力する。位置
検出センサ18は、例えば、赤外線を出射し、その反射
光を受光したタイミングにおいての検出結果をコントロ
ーラ10に出力する。
【0027】コントローラ10は、マイクロフォン1
5、ビデオカメラ16、タッチセンサ17、および位置
検出センサ18から与えられる音声信号、画像信号、圧
力検出信号等に基づいて、周囲の状況や、ユーザからの
指令、ユーザからの働きかけなどの有無を判断し、その
判断結果に基づいて、ペットロボット1が次に実行する
動作を決定する。そして、コントローラ10は、その決
定に基づいて、必要なアクチュエータを駆動させ、これ
により、頭部ユニット4を上下左右に振らせたり、尻尾
部ユニット5を動かせたり、脚部ユニット3A乃至3D
のそれぞれを駆動して、ペットロボット1を歩行させる
などの動作を実行させる。
【0028】その他にも、コントローラ10は、ペット
ロボット1の頭部ユニット4などに設けられた、図示し
ないLED(Light Emitting Diode)を点灯、消灯または
点滅させるなどの処理を行う。
【0029】図3は、図2のコントローラ10の機能的
構成例を示すブロック図である。なお、図3に示す各機
能は、CPU10Aがメモリ10Bに記憶されている制御
プログラムを実行することによって実現される。
【0030】コントローラ10は、外部からの刺激を検
知するセンサ(マイクロフォン15乃至位置検出センサ
18、およびスイッチ3AB乃至3DB)からの各種信
号を検出するセンサ入力処理部31と、センサ入力処理
部31により検出された情報等に基づいて、ペットロボ
ット1を動作させる情報処理部32から構成されてい
る。
【0031】センサ入力処理部31を構成する角度検出
部41は、アクチュエータ3AA1乃至5A2のそれぞれ
に設けられるモータが駆動されたとき、アクチュエータ
3AA1乃至5A2のそれぞれから通知される情報に基づ
いて、その角度を検出する。角度検出部41により検出
された角度情報は、情報処理部32の行動管理部72、
および音データ生成部75に出力される。
【0032】音量検出部42は、マイクロフォン15か
ら供給される信号に基づいて、その音量を検出し、検出
した音量情報を行動管理部72、および音データ生成部
75に出力する。
【0033】音声認識部43は、マイクロフォン15か
ら供給される音声信号について音声認識を行う。音声認
識部43は、その音声認識結果としての、例えば、「お
話しよう」、「歩け」、「伏せ」、「ボールを追いかけ
ろ」等の指令その他を、音声認識情報として、本能・感
情管理部71、行動管理部72、および音データ生成部
75に通知する。
【0034】画像認識部44は、ビデオカメラ16から
供給される画像信号を用いて、画像認識を行う。画像認
識部44は、その処理の結果、例えば、「赤い丸いも
の」、「地面に対して垂直な、かつ、所定の高さ以上の
平面」、「広い開放的な場所」、「家族がいる」、「家
族の中の子供の友人がいる」等を検出したときには、
「ボールがある」、「壁がある」、「畑である」、「家
である」、「学校である」等の画像認識結果を、画像認
識情報として、本能・感情管理部71、行動管理部7
2、および音データ生成部75に通知する。
【0035】圧力検出部45は、タッチセンサ17から
与えられる圧力検出信号を処理する。例えば、圧力検出
部45は、その処理の結果、所定の閾値以上で、かつ、
短時間の圧力を検出したときには、「叩かれた(しから
れた)」と認識し、所定の閾値未満で、かつ、長時間の
圧力を検出したときには、「なでられた(ほめられ
た)」と認識して、その認識結果を、状態認識情報とし
て、本能・感情管理部71、行動管理部72、および音
データ生成部75に通知する。
【0036】位置検出部46は、位置検出センサ18か
ら供給される信号に基づいて、所定の対象物までの距離
を測定し、その距離情報を行動管理部72、および音デ
ータ生成部75に通知する。例えば、位置検出部46
は、目の前にユーザの手などが差し出されたとき、その
手までの距離や、画像認識部44により認識されたボー
ルまでの距離を検出する。
【0037】スイッチ入力検出部47は、ペットロボッ
ト1の足の裏に相当する部分に設けられているスイッチ
3AB乃至3DBから供給される信号に基づき、例え
ば、ペットロボット1が歩行している状態において、そ
の歩行タイミングや、ユーザにより足の裏が触れられた
ことを本能・感情管理部71、および行動管理部72に
通知する。
【0038】一方、情報処理部32を構成する本能・感
情管理部71は、ペットロボット1の本能、および感情
を管理し、所定のタイミングで、ペットロボット1の本
能を表すパラメータや、感情を表すパラメータを行動管
理部72、および音データ生成部75に出力する。
【0039】ペットロボット1の本能を表すパラメータ
と感情を表すパラメータについて、図4を参照して説明
する。図4に示すように、本能・感情管理部71は、ペ
ットロボット1の感情を表現する感情モデル101と、
本能を表現する本能モデル102を記憶し、管理してい
る。
【0040】感情モデル101は、例えば、「うれし
さ」、「悲しさ」、「怒り」、「驚き」、「恐れ」、
「苛立ち」等の感情の状態(度合い)を、所定の範囲
(例えば、0乃至100等)の感情パラメータによって
それぞれ表し、センサ入力処理部31の音声認識部4
3、画像認識部44、および圧力検出部45からの出力
や時間経過等に基づいて、その値を変化させる。
【0041】この例において、感情モデル101は、
「うれしさ」を表す感情ユニット101A、「悲しさ」
を表す感情ユニット101B、「怒り」を表す感情ユニ
ット101C、「驚き」を表す感情ユニット101D、
「恐れ」を表す感情ユニット101E、および「苛立
ち」を表す感情ユニット101Fから構成されている。
【0042】本能モデル102は、例えば、「運動
欲」、「愛情欲」、「食欲」、「好奇心」、「睡眠欲」
等の本能による欲求の状態(度合い)を、所定の範囲
(例えば、0乃至100等)の本能のパラメータによっ
てそれぞれ表し、音声認識部43、画像認識部44、お
よび圧力検出部45等からの出力や時間経過等に基づい
て、その値を変化させる。また、本能モデル102は、
行動履歴に基づいて、「運動欲」を表すパラメータを高
めたり、バッテリ11の残量(電圧) に基づいて、
「食欲」を表すパラメータを高めたりする。
【0043】この例において、本能モデル102は、
「運動欲」を表す本能ユニット102A、「愛情欲」を
表す本能ユニット102B、「食欲」を表す本能ユニッ
ト102C、「好奇心」を表す本能ユニット102D、
および「睡眠欲」を表すユニット102Eから構成され
ている。
【0044】このような感情ユニット101A乃至10
1Fと本能ユニット102A乃至102Eのパラメータ
は、外部からの入力だけでなく、図の矢印で示されるよ
うに、それぞれのユニット同士が相互に影響し合うこと
によっても変化される。
【0045】例えば、「うれしさ」を表現する感情ユニ
ット101Aと「悲しさ」を表現する感情ユニット10
1Bが相互抑制的に結合することにより、本能・感情管
理部71は、ユーザにほめてもらったときには「うれし
さ」を表現する感情ユニット101Aのパラメータを大
きくするとともに、「悲しさ」を表現する感情ユニット
101Bのパラメータを小さくするなどして、表現する
感情を変化させる。
【0046】また、感情モデル101を構成する各ユニ
ット同士、および本能モデル102を構成する各ユニッ
ト同士だけでなく、双方のモデルを超えて、それぞれの
ユニットのパラメータが変化される。
【0047】例えば、図4に示されるように、本能モデ
ル102の「愛情欲」を表す本能ユニット102Bや、
「食欲」を表す本能ユニット102Cのパラメータの変
化に応じて、感情モデル101の「悲しさ」を表現する
感情ユニット102Bや「怒り」を表現する感情ユニッ
ト102Cのパラメータが変化される。
【0048】具体的には、「愛情欲」を表す本能ユニッ
ト102Bのパラメータ、または「食欲」を表す本能ユ
ニット102Cのパラメータが大きくなったとき、感情
モデル101の「悲しさ」を表現する感情ユニット10
1Bのパラメータと「怒り」を表現する感情ユニット1
01Cのパラメータが小さくなる。
【0049】このようにして、本能・感情管理部71に
より、管理される感情のパラメータ、または本能のパラ
メータは、所定の周期で計測され、行動管理部72、お
よび音データ生成部75に出力される。
【0050】なお、本能・感情管理部71には、音声認
識部43、画像認識部44、および圧力検出部45等か
ら認識情報が供給される他に、行動管理部72から、ペ
ットロボット1の現在、または過去の行動、具体的に
は、例えば、「長時間歩いた」などの行動の内容を示す
行動情報が供給されるようになされている。そして、本
能・感情管理部71は、同一の認識情報等が与えられた
場合であっても、行動情報により示されるペットロボッ
ト1の行動に応じて、異なる内部情報を生成する。
【0051】例えば、ペットロボット1がユーザに挨拶
をし、ユーザに頭をなでられた場合には、ユーザに挨拶
をしたという行動情報と、頭をなでられたという認識情
報が本能・感情管理部71に供給される。このとき、本
能・感情管理部71においては、「うれしさ」を表す感
情ユニット101Aの値が増加される。
【0052】図3の説明に戻り、行動管理部72は、音
声認識部43、および画像認識部44等から供給されて
きた情報と、本能・感情管理部71から供給されてきた
パラメータ、および時間経過等に基づいて次の行動を決
定し、決定した行動の実行を指示するコマンドを姿勢遷
移管理部73に出力する。姿勢遷移管理部73は、行動
管理部72から指示された行動に基づいて、姿勢の遷移
を決定し、制御部74に出力する。制御部74は、姿勢
遷移管理部73からの出力に基づき、アクチュエータ3
AA1乃至5A2を制御して、行動管理部72が決定し
た動作を行う。
【0053】また、音データ生成部75は、音声認識部
43、および画像認識部44等から供給されてきた情報
と、本能・感情管理部71から供給されてきたパラメー
タ、および時間経過等に基づいて音データを生成する。
そして、行動管理部72は、ペットロボット1に発話を
させるとき、あるいは所定の動作に対応する音をスピー
カ19から出力させるとき、音の出力を指示するコマン
ドを音声合成部76に出力し、音声合成部76は、音デ
ータ生成部75から出力された音データに基づいて、ス
ピーカ19に音を出力させる。
【0054】図5は、本発明を適用した強化学習システ
ムの原理的構成を示している。ステップS1において、
行動管理部72は、行動選択確率(後述する式(3))
に基づいて、ランダムに動き、新しい行動をする探査的
行動と、過去の行動の中から最も良いと考えられる行動
を選択する知識利用的行動のいずれかを選択し、選択さ
れた行動aをペットロボット1に実行させる。ステップ
S2において、環境・ユーザ111は、その行動aに対
して、ペットロボット1に報酬rを与える。ここで、報
酬rとは、行動aが正しかったときに環境・ユーザ11
1により行われる、例えば、「頭をなでる」行為や、行
動aが誤っていた(ユーザが期待していない行動であっ
た)ときに環境・ユーザ111により行われる、例え
ば、「頭をたたく」行為である。
【0055】行動管理部72は、獲得した報酬rに基づ
き、以下のような式(1)に従って、この行動aに対す
る行動価値Q(a)を、新しい(報酬rに基づく)行動価値
Q1(a)に更新する。
【数1】
【0056】なお、式(1)において、αは、0と1の
間の値の係数であって、獲得した報酬をどの程度行動価
値に反映させるかを決定するパラメータ(学習率)であ
り、報酬rは、「頭をなでられる」、「叩かれる」、
「与えられたタスクを達成する」、「与えられたタスク
を失敗する」等のセンサ入力処理部31からの検出信号
に応じて決定される値である。
【0057】このようにして求められた行動価値Q(a)
は、行動aを実行して、報酬rを獲得するごとに更新さ
れる。したがって、新しく獲得した報酬r2によって、
更新された行動価値Q2(a)は、前の行動価値Q1(a)とその
前の行動価値Q0(a)を使って表すと、
【数2】 となり、学習率αは0と1の間の値なので、新しく獲得
した報酬r2の係数αは、前の報酬r1の係数(1−α)
αよりも必ず大きくなる。したがって、行動価値Q2(a)
は、過去の報酬r1よりも新しく受け取った報酬r2のほ
うに、より重み付けされる。即ち、式(2)により、行
動価値Q(a)は、遠い過去の報酬よりも、最近受け取った
報酬が反映される。
【0058】さらに、行動管理部72は、このようにし
て求められた行動価値Q(a)に基づき、行動aの行動選択
確率P(a)を、以下に示すボルツマン分布の式(3)
から演算する。
【数3】
【0059】なお、式(3)において、Aは選択可能な
全ての行動を表す。Tはボルツマン温度を表し、行動価
値Q(a)を、どの程度行動選択確率Pに反映させるかを決
定するパラメータである。
【0060】式(3)より明らかなように、ボルツマン
温度Tの値が小さいほど、行動価値Q(a)が、より行動選
択確率Pに反映され、行動管理部72は、より知識利用
的な行動を選択する。一方、ボルツマン温度Tの値が大
きいほど、行動価値Q(a)が、行動選択確率Pに反映され
難くなり、行動管理部72は、より探査的な行動を選択
する。
【0061】本発明においては、探査的行動と知識利用
的行動の選択が、動的に変更される。このため、行動管
理部72は、本能・感情管理部71からの感情のパラメ
ータの出力に応じて、ボルツマン温度Tを適宜変化させ
る。この場合の処理を図6を参照して説明する。
【0062】ステップS11において、行動管理部72
は、本能・感情管理部71から、感情のパラメータを読
み出す。ステップS12において、行動管理部72は、
読み出した感情のパラメータに基づいて、メモリ10B
に記憶されている式またはテーブル(例えば、図7の例
の場合、「苛立ち」とボルツマン温度Tとの関係を表す
式またはテーブル)に基づき、ボルツマン温度Tを演算
する。
【0063】「苛立ち」を表すパラメータに基づいて演
算されたボルツマン温度Tの例を図7に示す。図7に示
されるように、「苛立ち」を表すパラメータの値が大き
いほど、ボルツマン温度Tの値は大きくなる。したがっ
て、「苛立ち」を表すパラメータの値が大きいほど、行
動価値Q(a)は、行動選択確率Pに反映され難くなり、ペ
ットロボット1は、探査的な行動をする。即ち、ペット
ロボット1は、人間と同様に、苛立っているときは、理
性的な行動をとりにくくなる。
【0064】また、本能・感情管理部71からの本能の
パラメータの出力に応じて、ボルツマン温度Tを変化さ
せるようにしてもよい。この場合の処理を図8を参照し
て説明する。
【0065】ステップS21において、行動管理部72
は、本能・感情管理部71から、本能のパラメータを読
み出す。ステップS22において、行動管理部72は、
読み出した本能のパラメータに基づいて、メモリ10B
に記憶されている式またはテーブル(例えば、図9の例
の場合、「好奇心」とボルツマン温度Tとの関係を表す
式またはテーブル)に基づき、ボルツマン温度Tを演算
する。
【0066】「好奇心」を表すパラメータに基づいて演
算されたボルツマン温度Tの例を図9に示す。図9の例
の場合、「好奇心」を表すパラメータの値が大きいほ
ど、ボルツマン温度Tの値は小さくなる。したがって、
「好奇心」を表すパラメータの値が大きいほど、行動価
値Q(a)は、行動選択確率Pに反映されやすくなり、ペッ
トロボット1は、知識利用的な行動をする。即ち、ペッ
トロボット1は、人間と同様に、好奇心があるときは、
その行動を集中して(熱中して)行う。
【0067】さらに、行動管理部72は、画像認識部4
4からの場所に関する情報に応じて、ボルツマン温度T
を変化させることができる。この場合の処理を図10を
参照して説明する。
【0068】ステップS31において、行動管理部72
は、画像認識部44の出力から、ペットロボット1が位
置する場所を検出する。ステップS32において、行動
管理部72は、ペットロボット1が位置する場所が学校
であるか否かを判定する。ステップS32において、ペ
ットロボット1の位置する場所が学校であると判定され
た場合、行動管理部72は、処理をステップS33に進
め、学校におけるボルツマン温度Tをメモリ10Bから
読み出す。
【0069】ステップS32において、ペットロボット
1が位置する場所が学校ではないと判定された場合、行
動管理部72は、処理をステップS34に進め、ペット
ロボット1が位置する場所が家であるか否かを判定す
る。ステップS34において、ペットロボット1が位置
する場所が家であると判定された場合、行動管理部72
は、処理をステップS35に進め、家におけるボルツマ
ン温度Tをメモリ10Bから読み出す。
【0070】ステップS34において、ペットロボット
1が位置する場所が家ではないと判定された場合、行動
管理部72は、処理をステップS36に進め、ペットロ
ボット1が位置する場所が畑であるか否かを判定する。
ステップS36において、ペットロボット1が位置する
場所が畑であると判定された場合、行動管理部72は、
処理をステップS37に進め、畑におけるボルツマンの
温度Tをメモリ10Bから読み出す。
【0071】ステップS33,S35,またはS37の
処理の後、行動管理部72は、ステップS38におい
て、読み出したボルツマン温度Tを、新しいボルツマン
温度Tとして設定する。そして、処理は終了する。
【0072】ステップS36において、ペットロボット
1が位置する場所が畑ではないと判定された場合、行動
管理部72は、処理をステップS39に進め、エラー処
理を行ない、処理を終了する。
【0073】場所によるボルツマン温度Tの値を示す例
を、図11に示す。ペットロボット1が学校に位置する
とき、ボルツマン温度Tの値は一番小さく、行動価値Q
(a)は行動選択確率Pに反映され、ペットロボット1
は、知識利用的な行動をする。即ち、ペットロボット1
は、人間と同様に、学校にいるときは、決まった行動を
する。
【0074】ペットロボット1が家に位置するときは、
ボルツマン温度Tの値は平均的な値とされ、ペットロボ
ット1は、知識利用的行動と探査的行動の両方をバラン
スよく行う。そして、ペットロボット1が畑に位置する
とき、ボルツマン温度Tの値は、一番大きくなり、行動
価値Q(a)は行動選択確率Pに反映され難くなる。したが
って、ペットロボット1は、より探査的な行動をする。
即ち、ペットロボット1は、人間と同様に、畑のような
開放的な場所にいるときは、新しい行動を多くする。
【0075】また、時刻に応じて、ボルツマン温度Tを
変化させることもできる。この場合の処理を、図12を
参照して説明する。
【0076】ステップS51において、行動管理部72
は、時計10Cから、現在の時刻を読み出す。ステップ
S52において、行動管理部72は、その読み出された
時刻に基づいて、メモリ10Bに記憶されている式また
はテーブル(例えば、図13の例の場合、「一日の流れ
の中の時刻」とボルツマン温度Tとの関係を表す式また
はテーブル)に基づき、ボルツマン温度Tを演算する。
【0077】行動管理部72が、時刻に基づいて、ボル
ツマン温度Tを変化させる例を図13に示す。朝起きた
ばかりの時刻t1のとき、ボルツマン温度Tは、最も小
さい値とされ、ペットロボット1は、知識利用的な行動
(決まった行動)をとり、新しい行動を行なわない。そ
して、時刻の経過とともに、徐々にボルツマン温度Tは
上がっていき、朝食を食べた後の時刻t2で、ボルツマ
ン温度Tは、最大となる。したがって、朝食を食べた後
の時間帯では、ペットロボット1は、探査的な行動(新
しい行動)を行い、活発に動く。
【0078】朝食を食べて、活発に動いた後、眠くなる
時刻t3まで、ボルツマン温度Tは徐々に下がってい
く。したがって、時刻t3を中心とする眠くなる時間帯
のとき、ペットロボット1は、知識利用的な行動(決ま
った行動)をとり、活発な動きをしない(ただし、時刻
t1を中心とする時間帯よりは活発に活動する)。その
後、夕方から夜にかけての時刻t4まで、ボルツマン温
度Tは、徐々に上がっていき、ペットロボット1は、ま
た、探査的な行動(新しい行動)を行う(時刻t2の時
間帯と時刻t3の時間帯の中間のレベルの活動を行
う)。
【0079】そして、寝る前の時刻t5になるにつれ
て、ボルツマン温度Tは下がっていき、ペットロボット
1は、徐々に知識利用的な行動(決まった行動)をとる
ようになっていく。そして、ペットロボット1は就寝す
る。このように、ペットロボット1は、人間と同様な行
動を、1日の時間の流れの中で行なう。
【0080】さらに、起動後の経過時刻(ペットロボッ
ト1の成長時刻)に応じて、ボルツマン温度Tを変化さ
せてもよい。この場合の処理を、図14を参照して説明
する。
【0081】ステップS61において、行動管理部72
は、時計10Cから、ペットロボット1が生まれて(起
動されて)からの時刻(成長時刻)を読み出す。ステッ
プS62において、行動管理部72は、その読み出され
た成長時刻に基づいて、メモリ10Bに記憶されている
式またはテーブル(例えば、図15の例の場合、「成長
時刻」とボルツマン温度Tとの関係を表す式またはテー
ブル)ボルツマン温度Tを演算する。
【0082】行動管理部72は、成長時刻tに基づい
て、例えば、以下に示す式(4)のようにボルツマン温
度Tを変化させる。
【数4】
【0083】なお、式(4)において、τは基準時刻、
βは基準時刻付近での変化率を、それぞれ表す。また、
minとTmaxは、それぞれ最小と最大のボルツマン温度
を表す。
【0084】この式(4)を用いて計算されたボルツマ
ン温度Tの変化を示す例を図15に示す。図15に示さ
れるように、ペットロボット1が生まれたばかり(起動
当初)(t=0)のときのボルツマン温度Tは、Tmax
で表される最大値とされ、探査的な行動(新しい行動)
を多くする。その後、時刻(年齢)が経過すると、徐々
にボルツマン温度Tは小さくなる。そして、ボルツマン
温度Tは、最終的にはTminで表される最小値に収束
し、ペットロボット1は、知識利用的行動(過去に学ん
だ行動)を行うようになる。即ち、人間と同様に、年を
とるにつれて、探査的な行動(新しい行動)をとりにく
くなり、知識利用的行動(決まった行動)を行うように
なる。予め設定してある基準時刻(基準年齢)τにおい
て、ボルツマン温度Tは、最大値と最小値の中間の値と
なる。
【0085】なお、上述した一連の処理は、図1に示し
たような動物型のペットロボットに実行させるだけでな
く、例えば、2足歩行が可能な人間型ロボットや、コン
ピュータ内で活動する仮想ロボット等に実行させるよう
にしてもよい。また、本明細書において、ロボットに
は、人工エージェントも含まれる。
【0086】また、上述した一連の処理は、ハードウエ
アにより実行させることもできるが、ソフトウエアによ
り実行させることもできる。一連の処理をソフトウエア
により実行させる場合には、そのソフトウエアを構成す
るプログラムが、専用のハードウエアに組み込まれてい
るロボット装置、または、各種のプログラムをインスト
ールすることで、各種の機能を実行することが可能な、
例えば汎用のロボット装置などに、ネットワークや記録
媒体からインストールされる。
【0087】この記録媒体は、図2に示されるように、
装置本体とは別に、ユーザにプログラムを提供するため
に配布される、プログラムが記録されているリムーバブ
ルメモリ61などよりなるパッケージメディアにより構
成されるだけでなく、装置本体に予め組み込まれた状態
でユーザに提供される、プログラムが記録されているメ
モリ10Bに含まれるハードディスクなどで構成され
る。
【0088】なお、本明細書において、記録媒体に記録
されるプログラムを記述するステップは、記載された順
序に沿って時系列的に行われる処理はもちろん、必ずし
も時系列的に処理されなくとも、並列的あるいは個別に
実行される処理をも含むものである。
【0089】
【発明の効果】以上のように、本発明によれば、ロボッ
ト装置を動作させることができる。また、その行動を通
して、ユーザに、より生命らしい擬似感覚を与えること
ができる。従って、ユーザが飽きない、ロボット装置を
実現することができる。
【図面の簡単な説明】
【図1】本発明を適用したペットロボットの外観の構成
例を示す斜視図である。
【図2】図1のペットロボットの内部の構成例を示すブ
ロック図である。
【図3】ペットロボットの機能モジュールの構成例を示
す図である。
【図4】図3の本能・感情管理部の機能の例を模式的に
示す図である。
【図5】本発明を適用した強化学習システムの構成を示
す図である。
【図6】感情パラメータに基づいてボルツマン温度を演
算する処理を説明するためのフローチャートである。
【図7】感情パラメータに基づくボルツマン温度の変化
の例を示す図である。
【図8】本能パラメータに基づいてボルツマン温度を演
算する処理を説明するためのフローチャートである。
【図9】本能パラメータに基づくボルツマン温度の変化
の例を示す図である。
【図10】場所に基づいてボルツマン温度を決定する処
理を説明するためのフローチャートである。
【図11】場所に基づくボルツマン温度の変化の例を示
す図である。
【図12】時刻に基づいてボルツマン温度を演算する処
理を説明するためのフローチャートである。
【図13】時刻に基づくボルツマン温度の変化の例を示
す図である。
【図14】成長時刻に基づいてボルツマン温度を演算す
る処理を説明するためのフローチャートである。
【図15】成長時刻に基づくボルツマン温度の変化の例
を示す図である。
【符号の説明】
31 センサ入力処理部, 32 情報処理部, 41
角度検出部, 42音量検出部, 43 音声認識
部, 44 画像認識部, 45 圧力検出部, 46
位置検出部, 47 スイッチ入力検出部, 71
本能・感情管理部, 72 行動管理部, 73 姿勢
遷移管理部, 74 制御部, 75音データ生成部,
76 音声合成部
───────────────────────────────────────────────────── フロントページの続き (72)発明者 花形 理 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 高木 剛 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 2C150 CA02 DA05 DA24 DA25 DA26 DA27 DA28 DF03 DF04 DF06 DF33 ED10 ED39 ED42 ED47 ED52 EF07 EF16 EF17 EF22 EF23 EF28 EF29 EF33 EF36 3C007 AS36 CS08 KS23 KS24 KS31 KS36 KS39 KT01 LW12 MT14 WA04 WA14 WB13 WB16 WC00

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】 供給される入力情報に応じた行動を行う
    ロボット装置において、 探査的行動と知識利用的行動の選択を動的に変更する行
    動管理手段を備えることを特徴とするロボット装置。
  2. 【請求項2】 前記行動管理手段は、行動選択確率に基
    づいて、前記探査的行動と前記知識利用的行動を選択す
    ることを特徴とする請求項1に記載のロボット装置。
  3. 【請求項3】 前記行動選択確率は、ボルツマン温度に
    よって決定されることを特徴とする請求項2に記載のロ
    ボット装置。
  4. 【請求項4】 前記ボルツマン温度は、前記入力情報に
    応じて変化されることを特徴とする請求項3に記載のロ
    ボット装置。
  5. 【請求項5】 時刻を計時する計測手段をさらに備え、 前記ボルツマン温度は、前記時刻に応じて変化されるこ
    とを特徴とする請求項3に記載のロボット装置。
  6. 【請求項6】 供給される入力情報に応じた行動を行う
    ロボット装置のロボット制御方法において、 探査的行動と知識利用的行動の選択を動的に変更する行
    動管理ステップを含むことを特徴とするロボット制御方
    法。
  7. 【請求項7】 供給される入力情報に応じた行動を行う
    ロボット装置のプログラムであって、 探査的行動と知識利用的行動の選択を動的に変更する行
    動管理ステップを含むことを特徴とするコンピュータが
    読み取り可能なプログラムが記録されている記録媒体。
  8. 【請求項8】 供給される入力情報に応じた行動を行う
    ロボット装置を制御するコンピュータに、 探査的行動と知識利用的行動の選択を動的に変更する行
    動管理ステップを実行させることを特徴とするプログラ
    ム。
JP2002145334A 2002-05-20 2002-05-20 ロボット装置およびロボット制御方法、記録媒体、並びにプログラム Abandoned JP2003340759A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2002145334A JP2003340759A (ja) 2002-05-20 2002-05-20 ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
EP03723395A EP1508409A1 (en) 2002-05-20 2003-05-19 Robot device and robot control method
PCT/JP2003/006179 WO2003097308A1 (fr) 2002-05-20 2003-05-19 Dispositif de robot et procede de commande de robot
US10/484,058 US20040210347A1 (en) 2002-05-20 2003-05-19 Robot device and robot control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002145334A JP2003340759A (ja) 2002-05-20 2002-05-20 ロボット装置およびロボット制御方法、記録媒体、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2003340759A true JP2003340759A (ja) 2003-12-02
JP2003340759A5 JP2003340759A5 (ja) 2005-03-17

Family

ID=29545084

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002145334A Abandoned JP2003340759A (ja) 2002-05-20 2002-05-20 ロボット装置およびロボット制御方法、記録媒体、並びにプログラム

Country Status (4)

Country Link
US (1) US20040210347A1 (ja)
EP (1) EP1508409A1 (ja)
JP (1) JP2003340759A (ja)
WO (1) WO2003097308A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110779132A (zh) * 2019-11-13 2020-02-11 垚控科技(上海)有限公司 一种基于强化学习的空调系统的水泵设备运行控制系统
JP7312511B1 (ja) 2023-02-17 2023-07-21 独立行政法人国立高等専門学校機構 行動制御方法、行動制御プログラム、行動制御装置、およびコミュニケーションロボット
JP7364016B2 (ja) 2021-03-16 2023-10-18 カシオ計算機株式会社 ロボット、制御方法及びプログラム

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8412377B2 (en) 2000-01-24 2013-04-02 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US8788092B2 (en) 2000-01-24 2014-07-22 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US6956348B2 (en) 2004-01-28 2005-10-18 Irobot Corporation Debris sensor for cleaning apparatus
US6690134B1 (en) 2001-01-24 2004-02-10 Irobot Corporation Method and system for robot localization and confinement
US7571511B2 (en) 2002-01-03 2009-08-11 Irobot Corporation Autonomous floor-cleaning robot
US8396592B2 (en) 2001-06-12 2013-03-12 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US7429843B2 (en) 2001-06-12 2008-09-30 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US9128486B2 (en) 2002-01-24 2015-09-08 Irobot Corporation Navigational control system for a robotic device
US8428778B2 (en) 2002-09-13 2013-04-23 Irobot Corporation Navigational control system for a robotic device
US8386081B2 (en) 2002-09-13 2013-02-26 Irobot Corporation Navigational control system for a robotic device
JP3963162B2 (ja) * 2003-08-28 2007-08-22 ソニー株式会社 ロボット装置及びロボット装置の制御方法ロボット装置
US7332890B2 (en) 2004-01-21 2008-02-19 Irobot Corporation Autonomous robot auto-docking and energy management systems and methods
DE112005000738T5 (de) 2004-03-29 2007-04-26 Evolution Robotics, Inc., Pasadena Verfahren und Vorrichtung zur Positionsbestimmung unter Verwendung von reflektierten Lichtquellen
US9008835B2 (en) 2004-06-24 2015-04-14 Irobot Corporation Remote control scheduler and method for autonomous robotic device
US7706917B1 (en) 2004-07-07 2010-04-27 Irobot Corporation Celestial navigation system for an autonomous robot
US8972052B2 (en) 2004-07-07 2015-03-03 Irobot Corporation Celestial navigation system for an autonomous vehicle
ATE523132T1 (de) 2005-02-18 2011-09-15 Irobot Corp Selbstfahrender flächenreinigungsroboter für nass-und trockenreinigung
US7620476B2 (en) 2005-02-18 2009-11-17 Irobot Corporation Autonomous surface cleaning robot for dry cleaning
US8392021B2 (en) 2005-02-18 2013-03-05 Irobot Corporation Autonomous surface cleaning robot for wet cleaning
US8930023B2 (en) 2009-11-06 2015-01-06 Irobot Corporation Localization by learning of wave-signal distributions
US8583282B2 (en) 2005-09-30 2013-11-12 Irobot Corporation Companion robot for personal interaction
US8374721B2 (en) 2005-12-02 2013-02-12 Irobot Corporation Robot system
EP2251757B1 (en) 2005-12-02 2011-11-23 iRobot Corporation Coverage robot mobility
ES2706729T3 (es) 2005-12-02 2019-04-01 Irobot Corp Sistema de robot
EP2816434A3 (en) 2005-12-02 2015-01-28 iRobot Corporation Autonomous coverage robot
EP1969438B1 (en) 2005-12-02 2009-09-09 iRobot Corporation Modular robot
DE102005058867B4 (de) * 2005-12-09 2018-09-27 Cine-Tv Broadcast Systems Gmbh Verfahren und Vorrichtung zum Bewegen einer auf einem Schwenk- und Neigekopf angeordneten Kamera entlang einer vorgegebenen Bewegungsbahn
US20070173974A1 (en) * 2006-01-25 2007-07-26 Chyi-Yeu Lin Device and method for interacting with autonomous robot
US8087117B2 (en) 2006-05-19 2012-01-03 Irobot Corporation Cleaning robot roller processing
US8417383B2 (en) 2006-05-31 2013-04-09 Irobot Corporation Detecting robot stasis
KR101393196B1 (ko) 2007-05-09 2014-05-08 아이로보트 코퍼레이션 소형 자율 커버리지 로봇
US8414350B2 (en) * 2008-08-18 2013-04-09 Rehco, Llc Figure with controlled motorized movements
US10188958B2 (en) 2009-05-28 2019-01-29 Anki, Inc. Automated detection of surface layout
US9155961B2 (en) 2009-05-28 2015-10-13 Anki, Inc. Mobile agents for manipulating, moving, and/or reorienting components
KR101497197B1 (ko) 2010-02-16 2015-02-27 아이로보트 코퍼레이션 진공 브러쉬
US9996369B2 (en) 2015-01-05 2018-06-12 Anki, Inc. Adaptive data analytics service
CN108885436B (zh) 2016-01-15 2021-12-14 美国iRobot公司 自主监视机器人系统
US11185989B2 (en) 2016-06-06 2021-11-30 Sony Corporation Virtual creature control system and virtual creature control method
WO2018000266A1 (zh) * 2016-06-29 2018-01-04 深圳狗尾草智能科技有限公司 一种机器人交互内容的生成方法、系统及机器人
JP6475872B2 (ja) * 2016-07-11 2019-02-27 Groove X株式会社 活動量をコントロールされる自律行動型ロボット
JP6517762B2 (ja) * 2016-08-23 2019-05-22 ファナック株式会社 人とロボットが協働して作業を行うロボットの動作を学習するロボットシステム
US10100968B1 (en) 2017-06-12 2018-10-16 Irobot Corporation Mast systems for autonomous mobile robots
CN110322875A (zh) * 2018-03-29 2019-10-11 富泰华工业(深圳)有限公司 机器人交互系统及方法
WO2020081630A2 (en) * 2018-10-17 2020-04-23 Petoi, Llc Robotic animal puzzle
US11110595B2 (en) 2018-12-11 2021-09-07 Irobot Corporation Mast systems for autonomous mobile robots

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5400244A (en) * 1991-06-25 1995-03-21 Kabushiki Kaisha Toshiba Running control system for mobile robot provided with multiple sensor information integration system
JP3178393B2 (ja) * 1997-11-11 2001-06-18 オムロン株式会社 行動生成装置、行動生成方法及び行動生成プログラム記録媒体
JP2001157981A (ja) * 1999-11-30 2001-06-12 Sony Corp ロボット装置及びその制御方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110779132A (zh) * 2019-11-13 2020-02-11 垚控科技(上海)有限公司 一种基于强化学习的空调系统的水泵设备运行控制系统
JP7364016B2 (ja) 2021-03-16 2023-10-18 カシオ計算機株式会社 ロボット、制御方法及びプログラム
JP7312511B1 (ja) 2023-02-17 2023-07-21 独立行政法人国立高等専門学校機構 行動制御方法、行動制御プログラム、行動制御装置、およびコミュニケーションロボット

Also Published As

Publication number Publication date
EP1508409A1 (en) 2005-02-23
US20040210347A1 (en) 2004-10-21
WO2003097308A1 (fr) 2003-11-27

Similar Documents

Publication Publication Date Title
JP2003340759A (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
US7117190B2 (en) Robot apparatus, control method thereof, and method for judging character of robot apparatus
US8483873B2 (en) Autonomous robotic life form
US8321221B2 (en) Speech communication system and method, and robot apparatus
KR100843822B1 (ko) 로봇 장치, 로봇 장치의 동작 제어 방법 및 로봇 장치의동작 제어 시스템
JP7400923B2 (ja) 情報処理装置および情報処理方法
US6362589B1 (en) Robot apparatus
US20020198717A1 (en) Method and apparatus for voice synthesis and robot apparatus
US6711467B2 (en) Robot apparatus and its control method
JP2005199402A (ja) 行動制御システム及びロボット装置の行動制御方法
KR20020067699A (ko) 로봇 장치 및 로봇 장치의 행동 제어 방법
JP5227362B2 (ja) エモーションエンジン、エモーションエンジン・システムおよび電子デバイスの制御方法
JP2003340760A (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP2003305677A (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP2002219677A (ja) ロボット装置及びロボット装置の行動制御方法
CN110625608A (zh) 机器人、机器人的控制方法以及存储介质
WO2021085175A1 (ja) 自律移動体、情報処理方法、プログラム、及び、情報処理装置
JP2002178282A (ja) ロボット装置及びその制御方法
JP2001157982A (ja) ロボット装置及びその制御方法
JP2001157980A (ja) ロボット装置及びその制御方法
JP2003305674A (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP2001157981A (ja) ロボット装置及びその制御方法
WO2023037608A1 (ja) 自律移動体、情報処理方法、及び、プログラム
WO2023037609A1 (ja) 自律移動体、情報処理方法、及び、プログラム
JP2003071762A (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040421

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060728

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20060922