JP2003285285A - ソフトウェアエージェントを有するロボット装置及びその制御方法とプログラム - Google Patents

ソフトウェアエージェントを有するロボット装置及びその制御方法とプログラム

Info

Publication number
JP2003285285A
JP2003285285A JP2002088098A JP2002088098A JP2003285285A JP 2003285285 A JP2003285285 A JP 2003285285A JP 2002088098 A JP2002088098 A JP 2002088098A JP 2002088098 A JP2002088098 A JP 2002088098A JP 2003285285 A JP2003285285 A JP 2003285285A
Authority
JP
Japan
Prior art keywords
unit
interpretation
action
software agent
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002088098A
Other languages
English (en)
Inventor
Tomohito Ando
友人 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2002088098A priority Critical patent/JP2003285285A/ja
Publication of JP2003285285A publication Critical patent/JP2003285285A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Abstract

(57)【要約】 【課題】既存のソフトウェアエージェントをそのままロ
ボットに流用可能とし、ロボット用の再設計や再開発を
不要とすることで、より知性的又はアミューズメント性
に富むロボット装置を実現する装置及び方法の提供。 【解決手段】ロボット101は、外界の刺激や状況を取
得するセンサ機構102と、ロボットの外界に対して働
きかけるエフェクタ機構103と、ソフトウェアエージ
ェント部104と、センサ機構102の情報を解釈して
ソフトウェアエージェント部に解釈結果を渡す外界解釈
機構105と、ソフトウェアエージェント部104の出
力をロボットの行動として解釈してエフェクタ機構10
3に解釈結果である実行命令を渡すアクション解釈機構
106と有する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ロボット装置及び
その制御方法とコンピュータ・プログラムに関し、特
に、ロボットの感情、成長、学習等アルゴリズムの実現
方法の改良に関する。
【0002】
【従来の技術】ソフトウェアエージェントの技術として
は、[Russell95]や[Kaelbling96]の文献をはじめ、多く
の製品が製造販売されており、確立された技術として、
機械学習、成長、感情、経験履歴などが利用されてい
る。
【0003】[Russell95] S. Russell, and P. Norvig:
"Artificial Intelligence A Modern Approach", Pren
tice Hall Series in Artificial Intelligence (199
5).
【0004】[Kaelbling96] L. P. Kaelbling, M. L. L
ittman, and A. W. Moore: "Reinforcement Learning:
A Survey", Journal of Artificial Intelligence Rese
arch4, pp.237 - 285 (1996).
【0005】ソフトウェアエージェントの定義や主な実
現方法は、人工知能の入門書として広く知られている[R
ussell95]の記載等が参照される。
【0006】エージェントとは、センサを通して環境を
知覚し、エフェクタを通して環境に対して働きかけるも
の("An agent is anything that can be viewed as per
ceiving its environment through sensors and acting
upon that environment through effectors")として定
義されており、ソフトウェアエージェントは、ソフトウ
ェアのエージェントとして定義される。
【0007】機械学習、成長、感情、経験履歴のような
技術を含むソフトウェアエージェントの製品の典型的な
例として、テレビゲームを挙げると、 ・フリーソフトの「rogue」(1980)や、スクウェア社製
の「Final Fantasy」シリーズなどのロールプレイング
ゲーム、 ・ガイナックス社製の「プリンセスメーカー」(1991)や
エニックス社製の「ワンダープロジェクトJ」(1994)な
どの育成型ゲーム、 ・SCE社製の「がんばれ森川君2号」(1997)やビバリウ
ム社製の「シーマン」などの自律エージェント型ゲー
ム、などがある。
【0008】ロールプレイングゲームにおいては、主人
公がソフトウェアエージェントであり、ユーザのキー操
作を主な入力として、仮想空間上を移動したり、敵と戦
ったりする。特に、ロールプレイングゲームでは、主人
公の能力属性として段階的なレベルを持ち、レベルに応
じて主人公の力が強くなったり、主人公が実行できる行
動のバリエーション、すなわち、魔法や技などの種類が
増加する、という特徴を持つことが多い。
【0009】育成型ゲームにおいては、育成される対象
となるキャラクタがソフトウェアエージェントであり、
ユーザの組んだスケジュールやユーザの与える罰や報酬
を主な入力として、仮想空間上で生活を行う。特に、育
成型ゲームでは、エージェントの感情や成長や個性が楽
しめるように工夫されており、ユーザの与える入力や仮
想空間上の状況に応じて、感情が変化したり、成長して
個性が変化するという特徴を持つことが多い。また、ゲ
ームシナリオやゲームエンディングがその変化に応じて
分岐する、という特徴を持つことが多い。
【0010】自律エージェント型ゲームにおいては、自
律エージェントがソフトウェアエージェントであり、仮
想空間内部での状況判断やユーザとのインタラクション
を主な入力として、仮想空間内で生活する。特に、自律
エージェント型ゲームでは、ユーザから詳細な指示を受
けずに、エージェント自身の意思や欲求に応じて行動
し、時には、ユーザに対して要求を行うこともできる、
という特徴を持つことが多い。中には、ニューラルネッ
トを用いた強化学習を行うものもある。
【0011】
【発明が解決しようとする課題】しかしながら、ロボッ
トの技術において、ソフトウェアエージェントをロボッ
トの一部として再利用する構成とされていないというの
が実情である。
【0012】ロボット制御に関する刊行物として、例え
ば、特開2001−154707号公報、特開2001
−157978号公報、特開2001−157981号
公報等には、アミューズメント性あるいはエンターテイ
ンメント性を向上させるロボット装置及びその制御方法
が開示されている。またロボット本体において具現化さ
れデータ伝送ネットワークを介して伝送されるエージェ
ントに関する刊行物として、例えば特開2001−19
1277号公報には、ロボットの機能、したがって行動
同一性をロボットの本体から分離し、この行動同一性
(ロボットの行動同一性をエージェントと呼んでいる)
をデータ伝送ネットワークを介して伝送し、異なるロボ
ットにおいてダウンロード(マテアリアル化)及び抽出
(非マテアリアル化)すること(エージェントテレポー
テーション)ができるシステムが開示されており、小型
移動ロボットの制御プログラムとして機能するエージェ
ントをダウンロードし、制御エージェントの指示に基づ
いてロボットは環境を探索して画像、音を学習し、外界
世界の新たな認識をアップロードする構成とされ、ユー
ザが操作によりエージェントを保存又はリストアし、新
たなソフトウェアをインストールすることなく、エージ
ェントのバックアップ、維持管理、監視、更新を可能と
したシステムが開示されている。そして、対象の状態、
認識・制御システム自体の状態等について適切な内部表
現を生成する技術を開示した刊行物として、特開平10
−91207号公報には、センサと、センサ信号を処理
して感覚信号を生成する感覚モジュールと、センサ信号
と運動モジュールの制御信号の相互関係(積率相関係数
等の尺度)を分析し、運動信号又は運動指令に基づいて
アクチュエータを制御する運動モジュール、感覚モジュ
ールの感覚特性、運動モジュールの運動特性を自動的に
調整する自動調整モジュールを備え、センサ信号及び制
御信号の内部表現である感覚情報及び運動情報を自動的
に生成するように構成した内部表現自動生成方法と装置
が開示されている。
【0013】上記した刊行物に記載されたいずれの技術
においても、ソフトウェアエージェント(例えば機械学
習、成長、感情、経験履歴など)をロボットの一部とし
て、再利用可能とするための構成はとられていない。こ
のため、ソフトウェアエージェントをロボット用に再設
計し、再開発する必要があった。
【0014】したがって、本発明が解決しようとする課
題は、例えば既存のソフトウェアエージェントをそのま
まロボットに流用可能とし、ロボット用の再設計や再開
発を不要とすることで、より知性的又はアミューズメン
ト性に富むロボット装置を実現する装置及び方法とプロ
グラムを提供することにある。
【0015】
【課題を解決するための手段】上記課題を解決する本発
明の1つのアスペクトに係るロボット装置は、ロボット
の外界の刺激や状況を取得し、取得した外界の情報を出
力するセンサ部と、前記センサ部から出力される前記外
界の情報を受け取って解釈し、解釈結果を出力する外界
解釈部と、前記外界解釈部から出力される前記解釈結果
を受け取り、受け取った前記解釈結果に基づき行動情報
を出力するソフトウェアエージェント部と、前記ソフト
ウェアエージェント部からの出力を受け取り、受け取っ
た前記出力をロボットの行動として解釈し、解釈結果で
ある命令を生成し、生成した前記命令を出力するアクシ
ョン解釈部と、前記アクション解釈部から出力される前
記命令を受け取り、受け取った前記命令に基づきロボッ
トの外界に対する働きかけを行うエフェクタ部と、を含
む。
【0016】本発明の1つのアスペクトに係るソフトウ
ェアエージェント部を有するロボットの制御方法であっ
て以下のステップを有する。 (a)ロボットの外界の刺激や状況をセンサ部で取得す
る。 (b)前記センサ部からの外界情報を受け取った外界解
釈部が、前記外界情報に基づき、前記ソフトウェアエー
ジェント部に対応する外界解釈情報を生成し、生成した
外界解釈情報を、前記ソフトウェアエージェント部への
入力として渡す。 (c)前記ソフトウェアエージェント部が、受け取った
外界解釈情報に基づき、行動情報を出力する。 (d)前記ソフトウェアエージェント部からの出力を受
け取ったアクション解釈部が、前記出力をロボットの行
動として解釈し、解釈結果である命令に変換し、前記命
令を出力する。 (e)前記アクション解釈部から出力される命令を受け
取ったエフェクタ部が前記命令に対応した前記ロボット
の動作を制御する。
【0017】本発明の1つのアスペクトに係るプログラ
ムは、ソフトウェアエージェント部を有するロボットの
制御を該ロボットを構成するコンピュータで実行させる
プログラムであって、(a)ロボットの外界の刺激や状
況を取得するセンサ部からの外界情報を受け取り、前記
外界情報から外界解釈情報を生成し、生成した外界解釈
情報を、前記ソフトウェアエージェント部への入力とし
て渡す処理と、(b)前記ソフトウェアエージェント部
は受け取った外界解釈情報に基づき行動情報を出力する
処理と、(c)前記ソフトウェアエージェント部からの
出力を受け取り、前記出力をロボットの行動として解釈
して解釈結果である命令に変換して出力する処理と、
(d)前記出力される実行命令を受け取り、前記命令に
対応した前記ロボットの動作を制御する処理との各処理
をコンピュータで実行させるプログラムよりなる。以下
の実施の形態の説明からも明らかとされるように、上記
課題は、特許請求の範囲の各請求項の発明によっても同
様にして解決される。
【0018】
【発明の実施の形態】発明の概要及び、発明の具体的な
実施例について以下に説明する。本発明のロボット装置
は、その好ましい一実施の形態において、ロボットの外
界の刺激や状況を取得するセンサ部(102、「センサ
機構」ともいう)と、ロボットの外界に対して働きかけ
るエフェクタ部(103、「エフェクタ機構」ともい
う)と、ソフトウェアエージェント部(104)と、セ
ンサ部の情報を解釈してソフトウェアエージェント部
(104)に解釈結果を渡す外界解釈部(105、「外
界解釈機構」ともいう)と、を有し、ソフトウェアエー
ジェント部(104)は、外界解釈部(105)からの
解釈結果に基づき行動を選択して出力し、ソフトウェア
エージェント部の出力をロボットの行動として解釈し
て、エフェクタ部(103)に、解釈結果である実行命
令を渡すアクション解釈部(106)を有する。エフェ
クタ部(103)は、アクション解釈部(106)から
受け取った命令を実行することで、ロボットの外界に対
する働きかけ動作を行う。
【0019】本発明においては、その一実施の形態にお
いて、外界解釈部(105)の解釈結果を、例えばロボ
ットに設けられた、LED(発光装置)、スピーカ(音
声出力装置)、ディスプレイ装置(画像表示装置)、ア
クチュエータ(作動器)の少なくとも1つによりユーザ
に示す制御を行う構成としてもよい。
【0020】本発明においては、その一実施の形態にお
いて、ソフトウェアエージェント部(104)の出力
を、例えばロボットに設けられたLED(発光装置)、
スピーカ(音声出力装置)、ディスプレイ装置(画像表
示装置)、アクチュエータの少なくとも1つによりユー
ザに示す制御を行う構成としてもよい。
【0021】本発明においては、その一実施の形態にお
いて、センサ部(302)の情報をキューイングするイ
ベントキュー部(310、「イベントキュー機構」とも
いう)を備え、外界解釈部(305)が、イベントキュ
ーから、優先順位に従って情報を取得する構成としても
よい。
【0022】本発明においては、その一実施の形態にお
いて、アクション解釈部(306)の出力である実行命
令をキューイングするアクションキュー部(311、
「アクションキュー機構」ともいう)を備え、エフェク
タ部(303)が、アクションキューから優先順位に従
って命令を実行する、構成としてもよい。
【0023】本発明においては、その一実施の形態にお
いて、アクション解釈部(306)が、イベントキュー
部(310)に対してイベントを発火する手段を有し、
発火されたイベントは、外界解釈部(305)を通して
解釈され、解釈結果はソフトウェアエージェント部(3
04)への入力(308)として供給される構成として
もよい。
【0024】本発明においては、その別の実施の形態に
おいて、複数のソフトウェアエージェント部(404、
408)を有し、アクション解釈部(406)は、複数
の前記ソフトウェアエージェント部からの出力のうち、
選択された前記ソフトウェアエージェント部の出力をロ
ボットの行動として解釈し、解釈結果である実行命令を
生成する構成としてもよい、
【0025】本発明において、アクション解釈部(40
6)は、複数の前記ソフトウェアエージェント部の出力
について優先順位に従い選択する構成としてもよい。
【0026】本発明において、外界解釈部(405)、
及び/又は、アクション解釈部(406)は、複数のソ
フトウェアエージェント部(404、408)のうちの
1つを切替え選択し、選択されたソフトウェアエージェ
ント部との間で、外界解釈部(405)からの外界解釈
の受け渡し、ソフトウェアエージェント部からの出力の
アクション解釈部(406)への受け渡しが行われるよ
うに制御を行う構成としてもよい。複数のソフトウェア
エージェント部(404、408)の切替を順次行うよ
うにしてもよい。
【0027】本発明において、外界解釈部(105)
は、ソフトウェアエージェント部(104)の現在の状
態を参照し、ソフトウェアエージェント部(104)の
現在の状態によって、センサ部から受け取った外界情報
の解釈を可変させ、外界解釈情報を生成する、構成とし
てもよい。あるいは、外界解釈部(105)は、ソフト
ウェアエージェント部(104)の現在の状態の推移を
状態推移表等を用いて管理する構成としてもよい。
【0028】本発明においては、センサ部(302)か
らの外界情報に対して、外界情報間の依存関係に従って
イベントキュー部(310)内にキューイングされる外
界情報を、削除及び/又は更新する構成としてもよい。
【0029】本発明においては、アクションキュー部
(311)にキューイングされているアクション解釈部
(306)の出力である実行命令を、エフェクタ部(3
03)に渡す前にキューから削除する構成としてもよ
い。
【0030】
【実施例】本発明の実施例について図面を参照して詳細
に説明する。はじめに、本発明を実施したロボットの構
成の一例についてその全体構成を説明しておく。図2
は、本発明の第1の実施例のパートナー型ロボットを正
面からみた外観を示す図である。
【0031】図2を参照すると、この実施例において、
ロボットの頭部には、ボタン201が設けられており、
この頭のボタン201は、主に、ロボットが頭を叩かれ
たことを検出するためのセンサ機構をなしている。ボタ
ン201の検出結果に基づき、ロボットは、頭を叩かれ
ると、現在実行している動作を中断したり、あるいは、
自分がしかられたと解釈する構成とされている。
【0032】音声認識用マイク202は、ロボットの頭
部に組み込まれている指向性マイクである。音声認識用
マイク202で集音された音声信号は図示されないアナ
ログデジタル変換回路でデジタル信号に変換され、図示
されない音声認識装置で音声信号を分析し特徴量を抽出
しこれを辞書等と照合することで音声認識が行われ認識
結果は、例えばテキスト情報で出力される。この音声認
識処理は、公知の音声認識技術で行われる。後述する画
像認識によって、人(図示されない)の方向を向きなが
ら話をすることで、音声認識用マイク202も人(話
者)の方向に向かせる制御が行われる。
【0033】ロボットの両目の部分には、2つのCCD
カメラ203が埋め込まれており、ロボットは、これら
のCCDカメラ203で取得した映像データを画像認識
処理することで、物体をよけながら歩いたり、あるい
は、人を見つけて距離を測って近づいたり、人を追いか
けたり、人の顔等を覚えたり、人を見分けたりする各種
機能が実現される。
【0034】LED(発光ダイオード)204は、ロボ
ットの口、頬、耳、目等必要な箇所に適宜配置されてい
る。口、頬のLEDは表情を表す。例えば頬を染める、
口をあける、結ぶ等の動作を実現するため、LEDは、
半透明等光を透過するロボット表面部材(例えば合成樹
脂材料)の裏に配置する構成としてもよい(図2では、
204はLEDの配置位置を示している)。耳に設けら
れたLEDは、ロボットが人の声を聞いている時を表
し、目のLEDはロボットが人を見ている時を表す。目
のLEDは、人を探している時には、緑色に点滅し、人
を見つけると緑色の点灯状態になり、人の顔を見つける
と、オレンジ色に変化する制御が行われる。
【0035】頭撫で検出センサ205は、ロボットの頭
が撫でられたことを検出する。この頭撫で検出センサ2
05が頭がなでられたことを検出すると、ロボットがよ
ろこぶ振る舞いをしたり、なでた人を好きになることを
示す振る舞いをさせる制御が実装される。この制御も公
知の手法が用いられる。
【0036】ロボットの首の周囲には、3つの音源方向
検出用マイク206が取り付けられており、これらの音
源方向検出用マイク206により、ロボットに到達する
音の時間差を検出し、その時間差から声の方向を推定
し、ロボットが音のした方向に振り返る動作をさせる制
御が実装される。この制御も公知の手法が用いられる。
【0037】スピーカ207は、ロボットの発する声と
しての合成音声や、図示されない記録媒体に録音した収
録音声、あるいは効果音や音楽を出力する。合成音声等
は、不図示の音声合成装置で合成され、不図示のデジタ
ルアナログ変換器とスピーカ駆動回路を介して出力され
る。
【0038】ロボットの胴体部正面に互いに離間して設
けられている2つの超音波センサ208は、超音波を出
力し受け取った反射波からロボットの周囲の物体までの
距離を公知の手法を用いて計測する。超音波センサ20
8を用いた物体までの距離の計測結果によって、ロボッ
トは、CCDカメラ203の視界に入っている物に衝突
せずに(該物体を回避して)、歩き回ることが可能とさ
れている。
【0039】ロボット正面の下部に設けられた段差検出
センサ209は、ロボット前方の段差や、ロボットが持
ち上げられたことを検出する。段差検出センサ209に
よって階段などの段差から落ちることを回避する制御が
実装され、持ち上げられたときのロボットの所定の反応
動作が実装される。この制御も公知の手法が用いられ
る。
【0040】車輪210は、ロボットの胴体下部側面に
左右に各一つと、後部に一つ設けられており、左右の車
輪210が独立に回転制御され、ロボットは、床面上を
任意の方向に移動自在とされている。
【0041】リモコン信号送信部211は、テレビ(図
示されない)等の制御用の赤外線リモコン信号を発信す
る。リモコン信号送信部211により、ロボットは、不
図示のテレビのオン・オフやチャンネルの切り替えや音
量調整が可能である。この制御も公知の手法が用いられ
る。
【0042】図1は、本発明の一実施例に係るロボット
の構成を示す図である。図1には、ロボット101が自
分を取り巻く環境107との関係において、ソフトウェ
アエージェント部104をどのように利用しているかが
ブロック図にて例示されている。
【0043】図1を参照すると、本発明の一実施例にお
いて、ロボット101は、ロボットの外界の刺激や状況
を取得するセンサ機構102と、ロボット101の外界
に対して働きかけるエフェクタ機構103と、ソフトウ
ェアエージェント部104と、センサ機構102からの
情報を受け取って解釈し、ソフトウェアエージェント部
104に解釈結果を渡す外界解釈機構105と、ソフト
ウェアエージェント部104の出力109を受け取り、
該出力をロボットの行動として解釈してエフェクタ機構
103に解釈結果である実行命令を渡すアクション解釈
機構106と、を有している。
【0044】なお、図1における、外界解釈機構10
5、ソフトウェアエージェント部104、アクション解
釈機構106は、コンピュータ上で実行されるプログラ
ムによりその機能、処理が実現され、エフェクタ機構1
03において命令を実行する制御を行う処理、センサ機
構102において、センサを構成するハードウエア回路
で検出された信号(電気信号、あるいは、物理、機械的
な作用を電気信号に変換したもの)を所定のフォーマッ
トの外界情報に変換し、外界解釈機構105に供給する
処理(例えば後に説明される音声認識処理、画像処理
等)は、コンピュータ上で実行されるプログラムにより
その機能、処理が実現される。
【0045】次に、図1に示した構成における情報の流
れを説明する。外界(環境)107の状況は、ロボット
101のセンサ機構102を通して、低位レベルの情
報、例えばCCDカメラ(図2の203)で取得された
画像そのものであるビットマップ画像のような外界情報
に変換される。しかしながら、通常、この外界情報は、
ソフトウェアエージェント部104への入力108とし
ては適さない形式の情報である。
【0046】そこで、この実施例では、外界解釈機構1
05が、センサ機能102から出力される外界情報を受
け取り、該外界情報をソフトウェアエージェント部10
4の入力108として適する形式の情報に変換して出力
する。外界解釈機構105において、外界情報は、例え
ば「前方障害物あり」というような外界解釈情報に変換
され、変換された外界解釈情報が、ソフトウェアエージ
ェント部104への入力108として、外界解釈機構1
05から供給される。
【0047】なお、ソフトウェアエージェント部104
で利用できる形式の情報としては、「前方障害物あり」
のような比較的低レベルの情報ではなく、「現在、部屋
を16x16の地図として分割した場合の(3,6)地点にいる」
という高レベルの情報(内容、意味が複雑)を必要とす
る場合もあり、あるいは、ロボットの周囲7x7内に障害
物がどのように存在しているかのマップ情報を必要とす
る可能性もあり、現在の地名を必要とする可能性もあ
る。
【0048】外界解釈機構105は、ソフトウェアエー
ジェント部104が必要とする形式が高レベルなもので
あれば、該形式に対応して、外界情報から複雑な外界解
釈情報への変換処理を行う構成とされる。
【0049】外界解釈機構105の外界解釈情報の具体
例について説明すると、図2に示したロボットの場合、
例えば、以下のような変換が行われる。
【0050】センサ機構102をなす頭ボタン201
(図2参照)が押されたことを外界情報として外界解釈
機構105(図1参照)が受け取った場合、1秒未満の
間、頭ボタン201が押された場合、外界解釈機構10
5は、「叩かれた」と解釈する。
【0051】また1秒以上の間、頭ボタン201が押さ
れた場合、外界解釈機構105は、「押された」と解釈
する。
【0052】そして、5秒以上の間、頭ボタン201が
押された場合、外界解釈機構105は、「強制停止」と
解釈する。
【0053】頭を前後または左右に動かされことを頭撫
でセンサ205が検出した場合、外界解釈機構105
は、「撫でられた」と解釈する。
【0054】音声認識用マイク202が入力した音声信
号を音声認識した結果、「おはよう」と認識した場合、
この認識結果を受けた外界解釈機構105は、「朝の挨
拶」と解釈する。
【0055】音声認識用マイク202で、「お休み」と
音声認識した場合、外界解釈機構105は、「お別れの
挨拶」と解釈する。
【0056】音声認識用マイク202で、「うまい」と
音声認識した場合、外界解釈機構105は、「誉められ
た」と解釈する。
【0057】音声認識用マイク202で「ダメ」と音声
認識した場合、外界解釈機構105は、「叱られた」と
解釈する。
【0058】図示されない充電用の電源ケーブルがロボ
ットの充電用の端子(図2では不図示)に接続され、ロ
ボット駆動電源用の「バッテリの充電」が、検出回路
(図2では不図示)で検出された場合、外界解釈機構1
05は、「食べ物を与えられた」と解釈する。
【0059】ロボット駆動電源用のバッテリの出力電圧
を検出する検出回路において、バッテリの出力電圧が減
少し、「充電不足」になったことを検出した場合、外界
解釈機構105は、「空腹になった」と解釈する。
【0060】「バッテリの充電」が終了した(いわゆる
「満タン」になった)ことを検出した場合、外界解釈機
構105は、「満腹になった」と解釈する。
【0061】CCDカメラ203からの画像情報を図示
されない画像処理装置(信号処理プロセッサ等からな
る)で画像処理した結果を受け、取得された画像中から
人物を検出した場合、外界解釈機構105は、「人を見
つけた」と解釈する。
【0062】前回、人と対話した時からの経過時間が長
くなったと判断した場合、外界解釈機構105では、
「構ってもらえなかった」と解釈する。センサ機構10
2は、頭センサ201等、マイク202の音声入力等の
非活性化状態の継続をタイマ等で計時し、非活性状態が
所定時間以上継続した場合、前回人と対話した時からの
経過時間が長くなったと判断される。
【0063】前回対話したときからの時間が長くなった
場合、外界解釈機構105は、「さびしくなった」と解
釈する。
【0064】ロボットの駆動用のモータ(不図示)に流
れる電流等を検出する回路(図2では図示されない)で
検出し、その過負荷を検出した場合、外界解釈機構10
5は、「苦痛を受けた」と解釈する。
【0065】しばらくモータ(不図示)が稼動し、温度
検出器あるいは過負荷検出器(不図示)を介して、モー
タが熱を帯びた場合、外界解釈機構105は、「疲労が
たまった」と解釈する。
【0066】ロボットを駆動するモータ(不図示)が稼
動してロボットが運動したときから、運動しない状態の
時間が長くなった場合、外界解釈機構105は、「動き
たくなった」と解釈する。これは、センサ機構102に
おいて、車輪210等を駆動するモータ(不図示)の非
活性化状態を、タイマ等で計時し、非活性状態が所定時
間以上となった場合、運動しない状態の時間が長くなっ
たと検出する。
【0067】持ち上げセンサ209がオンになった場
合、外界解釈機構105は、「持ち上げられた」と解釈
する。
【0068】さらに、ソフトウェアエージェント部10
4が必要とする情報の形式によっては、外界解釈機構1
05は、次のような高レベルの情報に変換するようにし
てもよい。
【0069】・精神的に快くされた、精神的に不快にさ
れた、 ・肉体的に快くされた、肉体的に不快にされた、 ・認識結果を肯定された、認識結果を否定された、 ・起動された(2回目以上)、起動された(約1日)、
起動された(約3日)、起動された(約1週間)、起動
された(約2週間以上)、 ・対話開始(2回目以上)、対話開始(約1日)、対話
開始(約3日)、対話開始(約1週間)、対話開始(約
2週間以上)、 ・情報機能の提案を肯定された、情報機能の提案を否定
された、 ・情報機能を肯定された、情報機能を否定された、情報
機能を要求された、 ・質問の提案を肯定された、質問の提案を否定された、 ・質問を肯定された、質問を否定された、質問を要求さ
れた、 ・芸の提案を肯定された、芸の提案を否定された、 ・芸を肯定された、芸を否定された、芸を要求された、 ・遊びの提案を肯定された、遊びの提案を否定された、 ・遊びを肯定された、遊びを否定された、遊びを要求さ
れた、 ・要求を対処してもらえなかった、要求を対処してもら
った。
【0070】外界解釈機構105は、センサ機構102
からの外界情報を、上記のような高レベルの外界解釈情
報に変換する構成に設定される。
【0071】ところで、上記の「精神的に不快にされ
た」という解釈情報に関して、ロボットが前進したい時
に、ロボットの前方に障害物があると、ロボットは不快
であるが、ロボットが静止中に、その前方に障害物があ
っても、ロボットは不快ではない、と解釈する方が自然
である。
【0072】そこで、この実施例においては、外界解釈
機構105は、ソフトウェアエージェント部104の現
在の状態を参照し、ソフトウェアエージェント部104
の現在の状態によって、外界解釈機構105は、センサ
機構102から受け取った外界情報の解釈を可変させ、
外界解釈情報を生成している。
【0073】例えば、ソフトウェアエージェント部10
4の状態として、 ・「対話中」、 ・「自律行動移動中」、 ・「自律行動停止中」、 ・「睡眠中」 の4つの状態をとるものとする。
【0074】この場合、前方に障害物があって不快と解
釈するのは、「自律行動移動中」だけとすることが、自
然である。
【0075】外界解釈機構105がソフトウェアエージ
ェント部104の現在状態を参照できない場合には、外
界解釈機構105側で、状態遷移表(state transitio
n diagram)などのモデルを保持し、状態遷移に基づ
き、外界解釈情報への変換を行う構成とされる。
【0076】外界解釈機構105が状態遷移表を有する
場合、ソフトウェアエージェント部104が「対話中」
であるか「自律行動移動中」であるか等について、外界
解釈機構105側で保持する状態遷移表に基づき、外界
解釈機構105がソフトウェアエージェント部104の
現在の状態を推定し、推定された現在の状態に応じて、
外界情報から、外界解釈情報への変換の仕方を可変させ
る構成とされる。
【0077】外界解釈機構105で生成された外界解釈
情報を、ロボットのユーザに即座に明示することは、ユ
ーザインタフェースの上で有効であり、好ましい場合が
ある。これは、ユーザが、ロボットを理解する助けにな
るためである。
【0078】外界解釈情報をユーザに明示する方法とし
ては、ロボットのLED204の点灯、点滅、スピーカ
207からの例えば1秒程度の効果音の出力、ディスプ
レイ装置を有するロボットでは、ディスプレイ装置によ
る表示出力、ロボット動作を制御するアクチュエータの
いずれか1つ、又はこれらの組合せで行われる。アクチ
ュエータは、ロボット動作を制御するエフェクタ機構
(103)のものを利用してもよいし、解釈結果をユー
ザに示すための他のアクチュエータであってもよい。
【0079】例えば、精神的に快くされた場合には、低
い音から高い音への上昇音や長調和音のような明るい効
果音をスピーカ207から出力し、精神的に不快にされ
た場合は高い音から低い音への下降音や短調和音のよう
な暗い効果音をスピーカ207から出力し、あるいは、
精神的に快くされた場合はLED204の早い点滅、不
快にされた場合はLED204の遅い点滅する等のよう
にして、外界解釈情報をユーザに明示できる。
【0080】図3は、図1に示した本発明の一実施例の
変形例を示す図である。図3において、外界307、セ
ンサ機構302、エフェクタ機構303、外界解釈機構
305、アクション解釈機構306、ソフトウェアエー
ジェント部304は、図1の外界107、センサ機構1
02、エフェクタ機構103、外界解釈機構105、ア
クション解釈機構106、ソフトウェアエージェント部
104にそれぞれ対応している。図3を参照すると、こ
の変形例は、図1に示した前記実施例の構成にイベント
キュー機構310、アクションキュー機構311を追加
したものである。なお、アクションキュー機構311に
ついては、後に説明される。
【0081】この変形例は、センサ機構302からの情
報(外界情報)を確保するためのイベントキュー機構3
10を備え、外界解釈機構305において、イベントキ
ューから、優先順位に従って、情報(外界情報)を取得
する。ロボットのセンサ情報を整理する上で、効果的で
ある。これは、ロボットのセンサ情報は、その情報量が
膨大であり、重要なものから処理していかないと、重要
なものを見落としてしまう場合があるためである。
【0082】なお、イベントキュー機構310にキュー
イングされる情報が同一の優先度の場合、FIFO(先
入れ先出し)形式で出し入れが行われ、時系列上でイベ
ント発生順に処理される。このとき、イベントキュー機
構310は、情報を一時的に蓄積して確保するバッファ
として機能する。
【0083】センサ機構302からの外界情報には、優
先順位に加えて、後述するように、情報間の依存関係が
存在する場合がある。
【0084】そこで、この実施例においては、センサ機
構302からの外界情報に対して、依存関係に従ってイ
ベントキュー内にキューイングされている情報を削除し
たり、更新する構成としてもよい。
【0085】例えば、ロボットの電源ボタン(図2では
不図示)が押下されたという情報は、充電用の電源ケー
ブルが挿入されたことよりも、重要な情報であるため、
その優先度は、充電ケーブルが挿入されたというイベン
トの優先度よりも高い。また、電源ケーブルが接続され
たイベントがイベントキュー310に溜まっているとき
に、電源ケーブルが解除されると、電源ケーブルが接続
されたというイベントをイベントキュー310から削除
すると、当該イベントは、外界解釈機構305には渡さ
れず、無駄な処理を実行しなくて済む。
【0086】再び、図1を参照して、本発明の一実施例
を説明すると、ソフトウェアエージェント部104に、
外界解釈機構105から、例えば「前方障害物あり」の
ような外界解釈情報が入力されると、ソフトウェアエー
ジェント部104は、「障害物のないほうを向く」とい
うような行動情報を出力する。
【0087】あるいは、本発明の一実施例において、ソ
フトウェアエージェント部104に、例えば「前方障害
物あり」のような外界解釈情報が入力された場合、ソフ
トウェアエージェント部104では、より複雑な形態と
して、 ・ロボットの成長レベルに応じた探し方として、「障害
物のないほうを素早く向く」や、 ・感情に応じた行動として、「いらいらしながら壁のほ
うを向いている」という行動を選択するように構成して
もよい。
【0088】さらには、ソフトウェアエージェント部1
04は、「前方障害物あり」の場合、既存のテレビゲー
ムと同様に、ロボットが魔法や技を使うという行動を選
択する構成としてもよい。
【0089】ソフトウェアエージェント部104での行
動の選択の過程は、 ・人工知能分野の研究で盛んに行われているように、誉
められたら報酬と解釈し叱られたら罰と解釈する「Q-le
arning」のような強化学習や、 ・ニューラルネットのバックプロパゲーション学習を用
いてもよいし、 ・マルコフ決定過程のような、確率遷移モデルを持つ状
態遷移に基づくものであってもよい。上記行動の選択の
過程は、いずれも公知の手法を用いて実現することがで
きる。
【0090】ソフトウェアエージェント部104での行
動の選択の過程は、既存のテレビゲームで行われている
ように、 ・経験値によって段階的にレベルアップする成長として
もよく、 ・過去の経験に応じて感じさせる個性としてもよく、 ・シナリオ的成長、感情、性格(個性)、自律的欲求、
経験履歴を用いたものであってもよい。
【0091】上記のいずれにおいても、ソフトウェアエ
ージェント部104には、公知の技術が適用される。
【0092】ソフトウェアエージェント部104につい
て、次のような各種変形がある。
【0093】対話履歴、経験履歴、及び/又は、ユーザ
の嗜好情報の記憶を有し、 ・対話履歴に応じてユーザへの対応を変える、 ・経験履歴に応じて自分の性格を変える、 ・ユーザの嗜好情報に応じてユーザへの提案を変える、
のうちの少なくとも1つ又は組合せ。
【0094】強化学習を行い、 ・報酬をもらった直前の行動を好むか、又は、 ・直前の一連の行動を好むようになる。
【0095】シナリオ的成長モデルを有し、 ・性格の分岐を持つ、 ・機能の拡張を伴う、 ・言葉遣いの上達を伴う、 ・感情の振幅の増加を伴う、 のうちの少なくとも1つ又は組合せ。
【0096】性格(個性)を有し、 ・ロボットの経験に応じて、性格が変化する、 ・ユーザの嗜好に応じて、性格が変化する、 ・性格に応じて、合成発話の声質やテンポが変化する、 ・性格に応じて、外界解釈機構の解釈結果が変化する、 ・性格に応じて、アクション解釈機構の解釈結果が変化
する、 のうちの少なくとも1つ又は組合せ。
【0097】感情を有し、 ・ロボットの経験に応じて、感情が変化する、 ・感情に応じて、合成発話の声質やテンポが変化する、 ・感情に応じて、外界解釈機構の解釈結果が変化する、 ・感情に応じて、アクション解釈機構の解釈結果が変化
する、 のうちの少なくとも1つ又は組合せ。
【0098】行動決定関数を有し、 ・行動決定関数が状態遷移モデルを有する、 ・行動決定関数がデータベースを有する、 ・行動決定関数がプッシュ型イベントドリブン機構を有
する、 のうちの少なくとも1つ又は組合せ。
【0099】ソフトウェアエージェント部104は、自
分が行うべき行動を決定するが、ソフトウェアエージェ
ント部104の行動は、ロボットが実行できる形式の情
報ではない。
【0100】本発明の一実施例において、アクション解
釈機構106は、ソフトウェアエージェント部104の
行動を解釈して、ロボットの実行できる形式に変換する
処理を行う。
【0101】図2のロボットを例に説明すると、「障害
物のないほうを向く」というアクション(動作)をロボ
ットが実行するためには、ロボットは、右又は左に前方
障害物がなくなるまで回転するという一連の命令(複数
の命令)に、アクション解釈機構106はソフトウェア
エージェント部104から出力される行動情報を変換す
ることになる。
【0102】他の行動を例に挙げれば、アクション解釈
機構106は、次のような命令への変換を行うことにな
る。
【0103】「前進する」というアクションの場合に
は、左右の車輪201を独立に駆動するそれぞれのモー
タ(図示されない)をともに、前向きに回転、または、
左右の足を交互に前に送る。
【0104】「後退する」というアクションの場合に
は、左右の車輪201を独立に駆動するそれぞれのモー
タ(図示されない)をそれぞれ後ろ向きに回転させる
か、または、左右の足を交互に後ろに送る。
【0105】「うれしい表情」のアクションの場合に
は、口のLED204を緑色でおわん型に点灯する。
【0106】「非常にうれしい」というアクションの場
合には、LED204の点灯に加えて、頭モータ(図示
されない)を駆動して頭を動かし、さらにスピーカ20
7より合成音を発話する。
【0107】「感動した」というアクションの場合に
は、口のLED204の点灯に加えて、頭モータ(図示
されない)を動作させて頭を動かし、収録音声をスピー
カ207から再生しながら、足のモータ(図示されな
い)により、足を前後に動かす。
【0108】「ダンスをする」というアクションの場合
は、各部分のモータ(図示されない)やLED204の
挙動を、時間軸に配置した連続動作スクリプトを実行す
る。
【0109】さらに、ソフトウェアエージェント部10
4の出力する情報の形式は、次のレベルのアクションで
あってもよい。
【0110】・ユーザの使い方を肯定する、ユーザの使
い方を否定する、 ・ユーザを精神的に快くする、ユーザを精神的に不快に
する、 ・情報機能の提案をする、情報機能を肯定する、情報機
能を拒否する、 ・質問の提案をする、質問をする、質問を拒否する、 ・芸の提案をする、芸をする、芸を拒否する、 ・設定の提案をする、設定をする、設定を拒否する、 ・遊びの提案をする、遊びをする、遊びを拒否する、 ・活動欲の要求をする、活動欲を満たす、 ・苦痛回避欲の要求をする、苦痛回避欲を満たす、 ・食欲の要求をする、食欲を満たす、 ・親和欲の要求をする、親和欲を満たす、 ・疲労回避欲の要求をする、疲労回避欲を満たす。
【0111】ソフトウェアエージェント部104が出力
する情報を、ユーザに即座に明示することは、ユーザイ
ンタフェース上有効であり、好ましい場合がある。これ
は、ユーザがロボットを理解する助けになるためであ
る。
【0112】ソフトウェアエージェント部104の出力
する情報を、ユーザに明示する方法としては、LED2
04の点灯、点滅するか、スピーカ207からの1秒程
度の効果音、ディスプレイ装置を持つロボットでは、表
示出力する。あるいは、アクチュエータを作動させる。
アクチュエータは、専用のものであってもエフェクタ機
構103で制御されるものであってもよい。
【0113】例えば、ソフトウェアエージェント部10
4の出力が、ユーザの使い方を肯定するものである場合
には、頬のLED204を早く点滅し、ユーザの使い方
を否定するものである場合には、頬のLED204をゆ
っくり点滅する等のようにして、明示できる。
【0114】アクション解釈機構106で変換された命
令は、エフェクタ機構103に渡されて、外界107に
対して実行される。
【0115】図1に示した実施例の変形として、図3に
示すように、アクションキュー機構311、すなわち、
アクション解釈機構の出力である実行命令を確保するた
めのアクションキュー機構311を備えた構成としても
よい。
【0116】アクションキュー機構311を持ち、エフ
ェクタ機構303においてアクションキューから優先順
位に従って命令を実行することは、ロボットの行動を高
度なものにする上で、効果的である。高度な命令は、単
一の命令でなく、一連の複数の命令からなることが多い
ためである。
【0117】また、一連の命令(複数の命令)は、実行
に一定の時間を要するため、実際に実行する瞬間には状
況が変わってしまう場合がある。そのため、本発明の一
実施例の変形において、アクション解釈機構306にお
いて、アクションキュー機構311にキューイングされ
ている命令を削除する手段を備えている。
【0118】例えばロボットが3m前進してから、90
度右を向き、2m前進するという、一連の命令の場合、
アクションキュー機構311に、その3つの動作命令を
保存し、順次、エフェクタ機構303で取り出して実行
する。もし、2番目の動作、90度右を向いている動作
の最中に、段差を発見するなどして状況が変化すれば、
3番目の動作、すなわち、2m前進することを、キャン
セルされることができる。すなわち、アクションキュー
機構311にキューイングされている3番目の動作の命
令を削除する。
【0119】このように、上記実施例では、ロボット装
置がソフトウェアエージェント部104を有し、ソフト
ウェアエージェント部104は、外界解釈機構105と
アクション解釈機構106とに接続されている。ソフト
ウェアエージェント部104については、その公知の技
術である、機械学習、成長、感情、経験履歴などを、ロ
ボット用に再設計し直して再開発することなく、ロボッ
ト装置に適用することができる。
【0120】さらには、本発明の一実施例においては、
外界解釈情報やソフトウェアエージェント部104の出
力する情報をユーザに即座に明示する機構を備えてお
り、ユーザはソフトウェアエージェント部104を意識
してロボットと接することができる。
【0121】そして、本発明の一実施例においては、イ
ベントキュー機構310とアクションキュー機構311
とを有しているため、ソフトウェアエージェント部10
4とロボットとの実行時間差による情報喪失等を最小限
に抑えられる。
【0122】なお、外界解釈情報やソフトウェアエージ
ェント部104の出力する情報を、ユーザに即座に明示
する機構については、ユーザインタフェースを向上させ
る上で効果的ではあるが、オプション機能として実装す
るようにしてもよい。
【0123】また、イベントキュー機構310とアクシ
ョンキュー機構311についても、情報喪失が小さい場
合や、それによる問題が小さい場合などでは、保有しな
くてもよい。
【0124】次に本発明の他の実施例について説明す
る。この実施例の基本的な構成は、図3に示したものと
同様であるが、この実施例では、さらに、イベントのフ
ローについて、さらに工夫が施されている。
【0125】図3において、アクション解釈機構306
がイベントキュー機構310に対してイベントを発火す
る機構を有し、発火されたイベントが外界解釈機構30
5を通して、ソフトウェアエージェント部304の入力
308として解釈される、というループを形成する。
【0126】例えば、外界307からのイベントがない
状態が続いた場合に、ソフトウェアエージェント部30
4において、「退屈である」という結果が、アクション
解釈機構306に対して出力されたとする。ここで、ア
クション解釈機構306は、イベントキュー機構310
に対して、「退屈である」というイベントを発火し、そ
の情報が外界解釈機構305を通して、ソフトウェアエ
ージェント部304の入力308として解釈され、「退
屈だからダンスする」と行動する。
【0127】このように、この実施例では、ソフトウェ
アエージェント部304の思考過程を、アクション解釈
機構306と外界解釈機構305と共有しているので、
アクション解釈機構306と外界解釈機構305におい
て、より高度な解釈が可能になる。
【0128】本発明のさらに別の実施例について説明す
る。図4は、本発明のさらに別の実施例の構成を示す図
である。図4を参照すると、この実施例の基本的な構成
は、図1に示した実施例と同様であるが、この実施例で
は、ソフトウェアエージェント部の個数と組み合わせに
ついてさらに工夫が施されている。
【0129】図4を参照すると、この実施例において、
外界解釈機構405はその出力である外界解釈情報を、
第1のソフトウェアエージェント部404と第2のソフ
トウェアエージェント部408の両者の入力として渡
す。
【0130】第1、第2のソフトウェアエージェント部
404、408は、外界解釈機構405より入力された
解釈情報に基づき、それぞれ反応を決定し、行動をアク
ション解釈機構406に出力する。
【0131】アクション解釈機構406では、第1、第
2のソフトウェアエージェント部404、408の出力
の内で、優先順位の高い方の行動を優先的に実行するよ
う、エフェクタ機構403に命令する。
【0132】優先順位の決め方としては、第1、第2の
ソフトウェアエージェント部404、408のそれぞれ
の、成長レベルや感情などの属性に応じて決定してもよ
い。
【0133】例えば、第1のソフトウェアエージェント
部404がダンス好きなキャラクタ、第2のソフトウェ
アエージェント部408がゲーム好きなキャラクタであ
れば、ダンスに関係する状況では、ダンス好きなキャラ
クタの意思が優先され(すなわち第1のソフトウェアエ
ージェント部404の出力が選択され)、ゲームに関係
する状況では、ゲーム好きなキャラクタの意思が優先さ
れる(すなわち第2のソフトウェアエージェント部40
4の出力が選択される)。
【0134】計算量を節約するためには、外界解釈機構
405において、第1、第2のソフトウェアエージェン
ト部404、408のいずれを使用するかをあらかじめ
切り替えるようにしてもよい。
【0135】また、外界解釈機構405とアクション解
釈機構406とで、第1、第2のソフトウェアエージェ
ント部404、408を順次、切り替えて実行し、望み
の結果が帰ったときに、エフェクタ機構403で実行す
る構成としてもよい。すなわち、外界解釈機構405が
出力する外界解釈情報を入力するソフトウェアエージェ
ント部、アクション解釈機構406が解釈する行動情報
を出力するソフトウェアエージェント部を、第1、第2
のソフトウェアエージェント部404、408のいずれ
かに、順次、切替える制御が行われる。
【0136】上記したように、この実施例では、複数の
ソフトウェアエージェント部404、408を有してい
るため、複数のエージェントの性格を保有するロボット
を実現を容易化している。なお、この実施例において、
ソフトウェアエージェントの数は2つに限定されるもの
でなく3つ以上で構成してもよいことは勿論である。
【0137】以上本発明を上記実施例に即して説明した
が、本発明は、上記実施例の構成にのみ限定されるもの
でなく、特許請求の範囲の各請求項の発明の範囲内で当
業者であればなし得るであろう各種変形、修正を含むこ
とは勿論である。
【0138】
【発明の効果】以上説明したように、本発明によれば、
ソフトウェアエージェント部を、外界解釈機構とアクシ
ョン解釈機構とを用いて、ロボットのセンサやアクチュ
エータに結合することにより、ソフトウェアエージェン
トの公知技術である機械学習、成長、感情、経験履歴等
をそのままロボットに流用可能とし、ロボット用の再設
計や再開発を不要としている。本発明によれば、開発工
数の増大を抑止しながら、知性、アミューズメント性等
ロボットに求められる特性の向上、機能の向上を実現可
能としている。
【図面の簡単な説明】
【図1】本発明の一実施例の構成を示す図である。
【図2】本発明の一実施例の外見を示す図である。
【図3】本発明の一実施例の構成を示す図である。
【図4】本発明の別の実施例の構成を示す図である。
【符号の説明】
101 ロボット装置 102 センサ機構 103 エフェクタ機構 104 ソフトウェアエージェント部 105 外界解釈機構 106 アクション解釈機構 107 外界(環境) 108 ソフトウェアエージェント部の入力 109 ソフトウェアエージェント部の出力 201 頭ボタン(頭叩かれ検出スイッチ) 202 音声認識用マイク 203 CCDカメラ 204 口・頬・耳・目LED 205 頭撫で検出センサ 206 音源方向検出用マイク 207 スピーカ 208 超音波センサ 209 段差検出センサ 210 車輪 211 リモコン信号送信部 301 ロボット装置 302 センサ機構 303 エフェクタ機構 304 ソフトウェアエージェント部 305 外界解釈機構 306 アクション解釈機構 307 外界(環境) 308 ソフトウェアエージェント部の入力 309 ソフトウェアエージェント部の出力 310 イベントキュー機構 311 アクションキュー機構 401 ロボット装置 402 センサ機構 403 エフェクタ機構 404 ソフトウェアエージェント部1 405 外界解釈機構 406 アクション解釈機構 407 外界(環境) 408 ソフトウェアエージェント部2

Claims (40)

    【特許請求の範囲】
  1. 【請求項1】ロボットの外界の刺激や状況を取得し、取
    得した外界の情報を出力するセンサ部と、 前記センサ部から出力される前記外界の情報を受け取っ
    て解釈し、解釈結果を出力する外界解釈部と、 前記外界解釈部から出力される前記解釈結果を受け取
    り、受け取った前記解釈結果に基づき行動情報を出力す
    るソフトウェアエージェント部と、 前記ソフトウェアエージェント部からの出力を受け取
    り、受け取った前記出力をロボットの行動として解釈
    し、解釈結果である命令を生成し、生成した前記命令を
    出力するアクション解釈部と、 前記アクション解釈部から出力される前記命令を受け取
    り、受け取った前記命令に基づきロボットの外界に対す
    る働きかけを行うエフェクタ部と、 を含む、ことを特徴とするロボット装置。
  2. 【請求項2】前記外界解釈部から出力される前記解釈結
    果を、発光装置、音声出力装置、画像表示装置、アクチ
    ュエータの少なくとも1つを介して、ユーザに示すよう
    に制御する手段を備えている、ことを特徴とする請求項
    1記載のロボット装置。
  3. 【請求項3】前記ソフトウェアエージェント部からの前
    記出力を、発光装置、音声出力装置、画像表示装置、ア
    クチュエータの少なくとも1つを介して、ユーザに示す
    ように制御する手段を備えている、ことを特徴とする請
    求項1又は2記載のロボット装置。
  4. 【請求項4】前記ロボットに、発光装置、音声出力装
    置、画像表示装置、アクチュエータの少なくとも1つが
    設けられている、ことを特徴とする請求項2又は3記載
    のロボット装置。
  5. 【請求項5】前記センサ部から出力される前記外界の情
    報を受け取り、前記情報をキューイングするイベントキ
    ュー部を備え、 前記外界解釈部が、前記イベントキュー部にキューイン
    グされる情報を、優先順位に従って、前記イベントキュ
    ー部から取得する手段を備えている、ことを特徴とする
    請求項1乃至4のいずれか一に記載のロボット装置。
  6. 【請求項6】前記アクション解釈部から出力される命令
    を受け取り、前記命令をキューイングするアクションキ
    ュー部を備え、 前記エフェクタ部が、前記アクションキュー部にキュー
    イングされる命令を、優先順位に従って、前記アクショ
    ンキュー部から取り出す手段を備え、 前記エフェクタ部は、前記アクションキュー部から取り
    出した命令を実行する、ことを特徴とする請求項1乃至
    5のいずれか一に記載のロボット装置。
  7. 【請求項7】前記アクション解釈部が、前記イベントキ
    ュー部に対して、イベントを発火する手段を備え、 前記発火されたイベント情報は、前記イベントキュー部
    から前記外界解釈部で取り出されて解釈され、解釈結果
    が前記ソフトウェアエージェント部の入力として供給さ
    れる、ことを特徴とする請求項5記載のロボット装置。
  8. 【請求項8】前記ソフトウェアエージェント部を複数有
    し、 前記アクション解釈部は、複数の前記ソフトウェアエー
    ジェント部からの出力のうち、選択された前記ソフトウ
    ェアエージェント部の出力をロボットの行動として解釈
    し、解釈結果である命令を生成する、ことを特徴とする
    請求項1乃至7のいずれか一に記載のロボット装置。
  9. 【請求項9】前記外部解釈部は、解釈結果を、複数の前
    記ソフトウェアエージェント部に対して供給する、こと
    を特徴とする請求項8記載のロボット装置。
  10. 【請求項10】前記アクション解釈部は、複数の前記ソ
    フトウェアエージェント部の出力について優先順位に従
    い1つの出力を選択する、ことを特徴とする請求項8記
    載のロボット装置。
  11. 【請求項11】前記外部解釈部、及び/又は、前記アク
    ション解釈部は、複数の前記ソフトウェアエージェント
    部のうちの1つを切替えて選択する切替手段を備え、 前記切替手段で選択された前記ソフトウェアエージェン
    ト部との間で、前記外部解釈部からの解釈結果の前記ソ
    フトウェアエージェント部への受け渡し、及び/又は、
    前記ソフトウェアエージェント部からの出力の前記アク
    ション解釈部への受け渡しが行われる、ことを特徴とす
    る請求項8記載のロボット装置。
  12. 【請求項12】前記外界解釈部が、前記ソフトウェアエ
    ージェント部の現在の状態を参照するか、又は、前記ソ
    フトウェアエージェント部の現在の状態の推移を管理す
    る手段を備え、 前記外界解釈部は、前記ソフトウェアエージェント部の
    現在の状態によって、前記センサ部から受け取った外界
    情報の解釈を可変させて、解釈結果を生成する、ことを
    特徴とする請求項1乃至10のいずれか一に記載のロボ
    ット装置。
  13. 【請求項13】前記センサ部からの外界情報を保持する
    前記イベントキュー部に対して、情報間の依存関係に従
    って前記イベントキュー部内にキューイングされる情報
    を、削除、及び/又は、更新する手段を備えている、こ
    とを特徴とする請求項5記載のロボット装置。
  14. 【請求項14】前記アクションキュー部にキューイング
    されている前記アクション解釈部の出力である命令を、
    キューから削除する手段を備えている、ことを特徴とす
    る請求項6記載のロボット装置。
  15. 【請求項15】ソフトウェアエージェント部を有するロ
    ボットの制御方法であって、 ロボットの外界の刺激や状況をセンサ部で取得するステ
    ップと、 前記センサ部からの外界情報を受け取った外界解釈部
    が、前記外界情報に基づき、前記ソフトウェアエージェ
    ント部に対応する外界解釈情報を生成し、生成した外界
    解釈情報を、前記ソフトウェアエージェント部への入力
    として渡すステップと、 前記ソフトウェアエージェント部が、受け取った外界解
    釈情報に基づき、行動情報を出力するステップと、 前記ソフトウェアエージェント部からの出力を受け取っ
    たアクション解釈部が、前記出力をロボットの行動とし
    て解釈し、解釈結果である命令に変換し、前記命令を出
    力するステップと、 前記アクション解釈部から出力される命令を受け取った
    エフェクタ部が前記命令に対応した前記ロボットの動作
    を制御するステップと、 を含む、ことを特徴とするロボット制御方法。
  16. 【請求項16】前記外界解釈部から出力される解釈結果
    を、発光装置、音声出力装置、画像表示装置、アクチュ
    エータの少なくとも1つによりユーザに示すステップを
    有する、ことを特徴とする請求項15記載のロボット制
    御方法。
  17. 【請求項17】前記ソフトウェアエージェント部からの
    出力を、発光装置、音声出力装置、画像表示装置、アク
    チュエータの少なくとも1つによりユーザに示すステッ
    プを有する、ことを特徴とする請求項15又は16記載
    のロボット制御方法。
  18. 【請求項18】前記センサ部からの情報をイベントキュ
    ーにキューイングするステップと、 前記外界解釈部が前記イベントキューから優先順位に従
    って情報を取得するステップと、 を有する、ことを特徴とする請求項15乃至17のいず
    れか一に記載のロボット制御方法。
  19. 【請求項19】前記アクション解釈部から出力される命
    令をアクションキューにキューイングするステップと、 前記エフェクタ部が前記アクションキューから優先順位
    に従って命令を実行するステップと、 を有する、ことを特徴とする請求項15乃至18のいず
    れか一に記載のロボット制御方法。
  20. 【請求項20】前記アクション解釈部が前記イベントキ
    ューに対してイベントを発火するステップと、 前記発火されたイベントは、前記イベントキューから前
    記外界解釈部を通して解釈され、解釈結果が前記ソフト
    ウェアエージェント部の入力として供給されるステップ
    と、 を有する、ことを特徴とする請求項15乃至19のいず
    れか一に記載のロボット制御方法。
  21. 【請求項21】前記ソフトウェアエージェント部を複数
    設け、 前記アクション解釈部が、複数の前記ソフトウェアエー
    ジェント部からの出力のうち、選択された前記ソフトウ
    ェアエージェント部の出力をロボットの行動として解釈
    し、解釈結果である命令を生成するステップを有する、
    ことを特徴とする請求項15乃至20のいずれか一に記
    載のロボット制御方法。
  22. 【請求項22】前記外部解釈部が、解釈結果を、複数の
    前記ソフトウェアエージェント部に供給するステップを
    有する、ことを特徴とする請求項21記載のロボット制
    御方法。
  23. 【請求項23】前記アクション解釈部は、複数の前記ソ
    フトウェアエージェント部の出力について優先順位に従
    いその1つを選択する、ことを特徴とする請求項21記
    載のロボット制御方法。
  24. 【請求項24】前記外部解釈部、及び/又は、前記アク
    ション解釈部は、複数の前記ソフトウェアエージェント
    部のうちの1つを切替えて選択するステップを有し、 選択された前記ソフトウェアエージェント部との間で、
    前記外部解釈部からの解釈結果の前記ソフトウェアエー
    ジェント部への受け渡し、及び/又は、前記ソフトウェ
    アエージェント部からの出力の前記アクション解釈部へ
    の受け渡しが行われる、ことを特徴とする請求項21記
    載のロボット制御方法。
  25. 【請求項25】前記外界解釈部が、前記ソフトウェアエ
    ージェント部の現在の状態を参照するか、又は、前記外
    界解釈部側で、前記ソフトウェアエージェント部の現在
    の状態の推移を管理するステップと、 前記ソフトウェアエージェント部の現在の状態によっ
    て、前記センサ部から受け取った外界情報の解釈を可変
    させて解釈結果を生成するステップと、 を有する、ことを特徴とする請求項15乃至24のいず
    れか一に記載のロボット制御方法。
  26. 【請求項26】前記センサ部からの外界情報を保持する
    前記イベントキューに対して、情報間の依存関係に従っ
    て前記イベントキュー内にキューイングされる情報を、
    削除及び/又は更新するステップを有する、ことを特徴
    とする請求項18記載のロボット制御方法。
  27. 【請求項27】前記アクションキューにキューイングさ
    れている前記アクション解釈部の出力である命令を、キ
    ューから削除するステップを有する、ことを特徴とする
    請求項19記載のロボット制御方法
  28. 【請求項28】ソフトウェアエージェント部を有するロ
    ボットの制御を該ロボットを構成するコンピュータで実
    行させるプログラムであって、 ロボットの外界の刺激や状況を取得するセンサ部からの
    外界情報を受け取り、前記外界情報から外界解釈情報を
    生成し、生成した外界解釈情報を、前記ソフトウェアエ
    ージェント部への入力として渡す外部解釈処理と、 前記外界解釈情報を受け取り、前記外界解釈情報に基づ
    き、行動情報を出力する前記ソフトウェアエージェント
    部の処理と、 前記ソフトウェアエージェント部からの出力を受け取
    り、前記出力をロボットの行動として解釈して解釈結果
    である実行命令に変換して出力するアクション解釈処理
    と、 前記出力される実行命令を受け取り、前記実行命令に対
    応した前記ロボットの動作を制御するエフェクタ部の処
    理と、 の前記各処理を、前記コンピュータで実行させるプログ
    ラム。
  29. 【請求項29】請求項28記載のプログラムにおいて、 前記外界解釈処理の解釈結果を、発光装置、音声出力装
    置、画像表示装置、アクチュエータの少なくとも1つに
    よりユーザに示す処理を、前記コンピュータで実行させ
    るプログラム。
  30. 【請求項30】請求項28又は29記載のプログラムに
    おいて、 前記ソフトウェアエージェント部の出力を、発光装置、
    音声出力装置、画像表示装置、アクチュエータの少なく
    とも1つによりユーザに示す処理を、前記コンピュータ
    で実行させるプログラム。
  31. 【請求項31】請求項28乃至30のいずれか一に記載
    のプログラムにおいて、 前記センサ部からの情報をイベントキューにキューイン
    グする処理と、 前記外界解釈処理が、前記センサ部からの情報を前記イ
    ベントキューから優先順位に従って情報を取得する処理
    と、 を前記コンピュータで実行させるプログラム。
  32. 【請求項32】請求項28乃至31のいずれか一に記載
    のプログラムにおいて、 前記アクション解釈処理の出力である実行命令をアクシ
    ョンキューにキューイングする処理と、 前記エフェクタ部の処理において、前記アクション解釈
    処理の出力である実行命令をキューイングするアクショ
    ンキューから優先順位に従って取りだして命令を実行す
    る処理と、 を前記コンピュータで実行させるプログラム。
  33. 【請求項33】請求項31に記載のプログラムにおい
    て、 前記イベントキューに対してイベントを発火する処理
    と、 前記発火されたイベントを、前記外界解釈処理で解釈し
    解釈結果が前記ソフトウェアエージェント部の入力とし
    て供給する処理と、 を前記コンピュータで実行させるプログラム。
  34. 【請求項34】請求項28に記載のプログラムにおい
    て、 前記アクション解釈処理が、複数の前記ソフトウェアエ
    ージェント部からの出力のうち、選択された前記ソフト
    ウェアエージェント部の出力をロボットの行動として解
    釈し、解釈結果である命令を生成する処理を、前記コン
    ピュータで実行させるプログラム。
  35. 【請求項35】請求項34記載のプログラムにおいて、 前記外部解釈部は、解釈結果を、複数の前記ソフトウェ
    アエージェント部に供給する処理を、前記コンピュータ
    で実行させるプログラム。
  36. 【請求項36】請求項34記載のプログラムにおいて、 前記アクション解釈部は、複数の前記ソフトウェアエー
    ジェント部の出力について優先順位に従いその1つを選
    択する処理を、前記コンピュータで実行させるプログラ
    ム。
  37. 【請求項37】請求項34記載のプログラムにおいて、 前記外部解釈部、及び/又は、前記アクション解釈部
    が、複数の前記ソフトウェアエージェント部のうちの1
    つを切替えて選択する処理を、前記コンピュータで実行
    させるプログラム。
  38. 【請求項38】請求項28記載のプログラムにおいて、 前記外界解釈部が、前記ソフトウェアエージェント部の
    現在の状態を参照するか、又は、前記外界解釈部側で、
    前記ソフトウェアエージェント部の現在の状態の推移を
    管理する処理と、 前記ソフトウェアエージェント部の現在の状態によっ
    て、前記センサ部から受け取った外界情報の解釈を可変
    させて解釈結果を生成する処理と、 を前記コンピュータで実行させるプログラム。
  39. 【請求項39】請求項28記載のプログラムにおいて、 前記センサ部からの外界情報を保持する前記イベントキ
    ューに対して、情報間の依存関係に従って前記イベント
    キュー内にキューイングされる情報を、削除及び/又は
    更新する処理を、前記コンピュータで実行させるプログ
    ラム。
  40. 【請求項40】請求項28記載のプログラムにおいて、 前記アクションキューにキューイングされている前記ア
    クション解釈部の出力である命令を、キューから削除す
    る処理を、前記コンピュータで実行させるプログラム。
JP2002088098A 2002-03-27 2002-03-27 ソフトウェアエージェントを有するロボット装置及びその制御方法とプログラム Pending JP2003285285A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002088098A JP2003285285A (ja) 2002-03-27 2002-03-27 ソフトウェアエージェントを有するロボット装置及びその制御方法とプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002088098A JP2003285285A (ja) 2002-03-27 2002-03-27 ソフトウェアエージェントを有するロボット装置及びその制御方法とプログラム

Publications (1)

Publication Number Publication Date
JP2003285285A true JP2003285285A (ja) 2003-10-07

Family

ID=29234073

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002088098A Pending JP2003285285A (ja) 2002-03-27 2002-03-27 ソフトウェアエージェントを有するロボット装置及びその制御方法とプログラム

Country Status (1)

Country Link
JP (1) JP2003285285A (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005309366A (ja) * 2004-03-25 2005-11-04 Nec Corp 信号処理方法および信号処理装置
JP2005313308A (ja) * 2004-03-30 2005-11-10 Nec Corp ロボット、ロボット制御方法、ロボット制御プログラム、ならびに思考装置
WO2006030533A1 (ja) * 2004-09-17 2006-03-23 National Institute Of Advanced Industrial Science And Technology 生理的刺激飽和手段を備えた模擬生物装置
WO2006030530A1 (ja) * 2004-09-17 2006-03-23 National Institute Of Advanced Industrial Science And Technology 刺激優先度判定手段を備えた模擬生物装置
WO2006030531A1 (ja) * 2004-09-17 2006-03-23 National Institute Of Advanced Industrial Science And Technology 反応継続手段を備えた模擬生物装置
WO2006030529A1 (ja) * 2004-09-17 2006-03-23 National Institute Of Advanced Industrial Science And Technology 擬似感情形成手段を備えた模擬生物装置
KR100896705B1 (ko) 2007-02-06 2009-05-14 한국과학기술연구원 지능형 로봇의 지능적 작업 관리를 위한 컴포넌트 기반의 작업 관리 시스템
KR100927950B1 (ko) 2008-02-29 2009-11-23 주식회사 케이티 로봇 스크립트를 이용한 로봇 행동 제어 시스템 및 그 로봇
WO2010050498A1 (ja) * 2008-10-30 2010-05-06 株式会社エヌ・ティ・ティ・ドコモ イベントキュー管理装置及びイベントキュー管理方法
US7894941B2 (en) 2004-12-14 2011-02-22 Honda Motor Co., Ltd. Sound detection and associated indicators for an autonomous moving robot
JP2011245618A (ja) * 2010-05-28 2011-12-08 Compal Communications Inc 自動装置とその制御方法
KR101390204B1 (ko) 2012-12-20 2014-04-29 (주)라스테크 다중 에이전트 기반 지능형 이동 로봇 협력 제어 시스템 및 방법
JP2015038737A (ja) * 2005-09-30 2015-02-26 アイロボット コーポレイション 個人の相互交流のためのコンパニオンロボット
JP2017173873A (ja) * 2016-03-18 2017-09-28 ヤフー株式会社 情報提供装置および情報提供方法
JP2017535844A (ja) * 2014-09-23 2017-11-30 インテル コーポレイション マルチファクタインテリジェントエージェント制御
JP2020089529A (ja) * 2018-12-05 2020-06-11 トヨタ自動車株式会社 育成ゲームプログラムおよび育成ゲーム装置
JP2021514515A (ja) * 2018-02-20 2021-06-10 ユニヴェルシテ・ドゥ・ランス・シャンパーニュ−アルデンヌ ロボットを相互接続する方法

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005309366A (ja) * 2004-03-25 2005-11-04 Nec Corp 信号処理方法および信号処理装置
JP4655572B2 (ja) * 2004-03-25 2011-03-23 日本電気株式会社 信号処理方法および信号処理装置、ならびに、ロボット
JP2005313308A (ja) * 2004-03-30 2005-11-10 Nec Corp ロボット、ロボット制御方法、ロボット制御プログラム、ならびに思考装置
JP4555039B2 (ja) * 2004-03-30 2010-09-29 日本電気株式会社 ロボット、ロボット制御方法、ロボット制御プログラム
WO2006030533A1 (ja) * 2004-09-17 2006-03-23 National Institute Of Advanced Industrial Science And Technology 生理的刺激飽和手段を備えた模擬生物装置
WO2006030530A1 (ja) * 2004-09-17 2006-03-23 National Institute Of Advanced Industrial Science And Technology 刺激優先度判定手段を備えた模擬生物装置
WO2006030531A1 (ja) * 2004-09-17 2006-03-23 National Institute Of Advanced Industrial Science And Technology 反応継続手段を備えた模擬生物装置
WO2006030529A1 (ja) * 2004-09-17 2006-03-23 National Institute Of Advanced Industrial Science And Technology 擬似感情形成手段を備えた模擬生物装置
US7894941B2 (en) 2004-12-14 2011-02-22 Honda Motor Co., Ltd. Sound detection and associated indicators for an autonomous moving robot
US9452525B2 (en) 2005-09-30 2016-09-27 Irobot Corporation Companion robot for personal interaction
JP2015038737A (ja) * 2005-09-30 2015-02-26 アイロボット コーポレイション 個人の相互交流のためのコンパニオンロボット
KR100896705B1 (ko) 2007-02-06 2009-05-14 한국과학기술연구원 지능형 로봇의 지능적 작업 관리를 위한 컴포넌트 기반의 작업 관리 시스템
KR100927950B1 (ko) 2008-02-29 2009-11-23 주식회사 케이티 로봇 스크립트를 이용한 로봇 행동 제어 시스템 및 그 로봇
EP2352089A1 (en) * 2008-10-30 2011-08-03 NTT DoCoMo, Inc. Event queue managing device and event queue managing method
EP2352089A4 (en) * 2008-10-30 2012-05-30 Ntt Docomo Inc DEVICE AND METHOD FOR MANAGING THE QUEUE OF EXPECTED EVENTS
US8539509B2 (en) 2008-10-30 2013-09-17 Ntt Docomo, Inc. Event queue managing device and event queue managing method
JP2010108294A (ja) * 2008-10-30 2010-05-13 Ntt Docomo Inc イベントキュー管理装置及びイベントキュー管理方法
WO2010050498A1 (ja) * 2008-10-30 2010-05-06 株式会社エヌ・ティ・ティ・ドコモ イベントキュー管理装置及びイベントキュー管理方法
JP2011245618A (ja) * 2010-05-28 2011-12-08 Compal Communications Inc 自動装置とその制御方法
US8666549B2 (en) 2010-05-28 2014-03-04 Compal Communications, Inc. Automatic machine and method for controlling the same
KR101390204B1 (ko) 2012-12-20 2014-04-29 (주)라스테크 다중 에이전트 기반 지능형 이동 로봇 협력 제어 시스템 및 방법
JP2017535844A (ja) * 2014-09-23 2017-11-30 インテル コーポレイション マルチファクタインテリジェントエージェント制御
US10429803B2 (en) 2014-09-23 2019-10-01 Intel Corporation Multifactor intelligent agent control
JP2017173873A (ja) * 2016-03-18 2017-09-28 ヤフー株式会社 情報提供装置および情報提供方法
JP2021514515A (ja) * 2018-02-20 2021-06-10 ユニヴェルシテ・ドゥ・ランス・シャンパーニュ−アルデンヌ ロボットを相互接続する方法
JP7266048B2 (ja) 2018-02-20 2023-04-27 ユニヴェルシテ・ドゥ・ランス・シャンパーニュ-アルデンヌ ロボットを相互接続する方法
JP2020089529A (ja) * 2018-12-05 2020-06-11 トヨタ自動車株式会社 育成ゲームプログラムおよび育成ゲーム装置

Similar Documents

Publication Publication Date Title
JP2003285285A (ja) ソフトウェアエージェントを有するロボット装置及びその制御方法とプログラム
US11000952B2 (en) More endearing robot, method of controlling the same, and non-transitory recording medium
US11491661B2 (en) Communication robot and control program of communication robot
US20070127704A1 (en) Methods and apparatus for autonomously managing communications using an intelligent intermediary
US20070217586A1 (en) Animatronic creatures that act as intermediaries between human users and a telephone system
WO2002076687A1 (en) Robot device and control method therefor, and storage medium
WO2019087484A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2000043167A1 (fr) Robot et procede de commande de deplacement
KR100879417B1 (ko) 음성 출력 장치
JPH10289006A (ja) 疑似感情を用いた制御対象の制御方法
WO2002045916A1 (fr) Robot, procede de commande du mouvement d'un robot et systeme de commande du mouvement d'un robot
JP2003036090A (ja) 音声合成方法及び装置、並びにロボット装置
CN210155626U (zh) 信息处理装置
US20200371525A1 (en) Information processing apparatus, information processing method, and program
JP2003200370A (ja) オブジェクトの成長制御システム及びオブジェクトの成長制御方法
US20210023704A1 (en) Information processing apparatus, information processing method, and robot apparatus
JP7439826B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7428141B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US11938625B2 (en) Information processing apparatus, information processing method, and program
WO2021117441A1 (ja) 情報処理装置、その制御方法及びプログラム
JP2003266353A (ja) ロボット装置及びその制御方法
WO2023037608A1 (ja) 自律移動体、情報処理方法、及び、プログラム
WO2020004213A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2022158279A1 (ja) 自律移動体及び情報処理方法
JP2001246174A (ja) 音声駆動型複数身体引き込みシステム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Effective date: 20060606

Free format text: JAPANESE INTERMEDIATE CODE: A131

A521 Written amendment

Effective date: 20060807

Free format text: JAPANESE INTERMEDIATE CODE: A523

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070306

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20070405

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070419

A521 Written amendment

Effective date: 20070405

Free format text: JAPANESE INTERMEDIATE CODE: A821

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Effective date: 20070511

Free format text: JAPANESE INTERMEDIATE CODE: A911

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20070601

RD01 Notification of change of attorney

Effective date: 20080604

Free format text: JAPANESE INTERMEDIATE CODE: A7421