JP7236142B2 - 自律行動型ロボット - Google Patents
自律行動型ロボット Download PDFInfo
- Publication number
- JP7236142B2 JP7236142B2 JP2019107940A JP2019107940A JP7236142B2 JP 7236142 B2 JP7236142 B2 JP 7236142B2 JP 2019107940 A JP2019107940 A JP 2019107940A JP 2019107940 A JP2019107940 A JP 2019107940A JP 7236142 B2 JP7236142 B2 JP 7236142B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- trajectory
- motion
- server
- event
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000009471 action Effects 0.000 title claims description 100
- 230000033001 locomotion Effects 0.000 claims description 216
- 230000007246 mechanism Effects 0.000 claims description 31
- 230000008451 emotion Effects 0.000 claims description 28
- 238000001514 detection method Methods 0.000 claims description 12
- 238000000034 method Methods 0.000 description 37
- 230000006399 behavior Effects 0.000 description 31
- 238000012545 processing Methods 0.000 description 25
- 230000003542 behavioural effect Effects 0.000 description 20
- 230000004044 response Effects 0.000 description 20
- 238000004891 communication Methods 0.000 description 18
- 238000007726 management method Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 16
- 230000008569 process Effects 0.000 description 15
- 238000004364 calculation method Methods 0.000 description 13
- 238000013500 data storage Methods 0.000 description 13
- 206010037180 Psychiatric symptoms Diseases 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 7
- 230000002996 emotional effect Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 6
- 230000002349 favourable effect Effects 0.000 description 6
- 235000019645 odor Nutrition 0.000 description 6
- 241000282412 Homo Species 0.000 description 5
- 238000013459 approach Methods 0.000 description 5
- 239000011521 glass Substances 0.000 description 5
- 241000282472 Canis lupus familiaris Species 0.000 description 4
- 241000282326 Felis catus Species 0.000 description 4
- 238000007621 cluster analysis Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 239000000470 constituent Substances 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000035943 smell Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 229920005989 resin Polymers 0.000 description 3
- 239000011347 resin Substances 0.000 description 3
- 238000009423 ventilation Methods 0.000 description 3
- 206010048909 Boredom Diseases 0.000 description 2
- 241000282414 Homo sapiens Species 0.000 description 2
- 206010044565 Tremor Diseases 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 229910052751 metal Inorganic materials 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000003014 reinforcing effect Effects 0.000 description 2
- 210000000697 sensory organ Anatomy 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- JOYRKODLDBILNP-UHFFFAOYSA-N Ethyl urethane Chemical compound CCOC(N)=O JOYRKODLDBILNP-UHFFFAOYSA-N 0.000 description 1
- 206010020751 Hypersensitivity Diseases 0.000 description 1
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 206010039740 Screaming Diseases 0.000 description 1
- 206010041243 Social avoidant behaviour Diseases 0.000 description 1
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 229920006311 Urethane elastomer Polymers 0.000 description 1
- 230000007815 allergy Effects 0.000 description 1
- 230000004791 biological behavior Effects 0.000 description 1
- 230000031018 biological processes and functions Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000013013 elastic material Substances 0.000 description 1
- 229920001971 elastomer Polymers 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000037308 hair color Effects 0.000 description 1
- 230000009474 immediate action Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910001416 lithium ion Inorganic materials 0.000 description 1
- 206010025482 malaise Diseases 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000002304 perfume Substances 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000005060 rubber Substances 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 235000019615 sensations Nutrition 0.000 description 1
- 239000007779 soft material Substances 0.000 description 1
- 238000001179 sorption measurement Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/06—Safety devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/001—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/026—Acoustical sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Manipulator (AREA)
- Toys (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
ロボットのモーションを選択する動作制御部と、
前記動作制御部により選択されたモーションを実行する駆動機構と、
所定の条件を満たす地点を移動先地点として検出する移動先地点検出部と、
移動先地点の優先度を認識する優先度認識部とを備え、
前記動作制御部は、所定のイベントが発生したとき、前記イベントが発生する前に選択された前記優先度が高い移動先地点に前記ロボットを移動させる。
本実施形態におけるロボット100は、外部環境および内部状態に基づいて行動や仕草(ジェスチャー)を決定する自律行動型のロボットである。外部環境は、カメラやサーモセンサなど各種のセンサにより認識される。内部状態はロボット100の感情を表現するさまざまなパラメータとして定量化される。これらについては後述する。
図2に示すように、ロボット100のボディ104は、ベースフレーム308、本体フレーム310、一対の樹脂製のホイールカバー312および外皮314を含む。ベースフレーム308は、金属からなり、ボディ104の軸芯を構成するとともに内部機構を支持する。ベースフレーム308は、アッパープレート332とロアプレート334とを複数のサイドプレート336により上下に連結して構成される。複数のサイドプレート336間には通気が可能となるよう、十分な間隔が設けられる。ベースフレーム308の内方には、バッテリー118、制御回路342および各種アクチュエータが収容されている。
ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。家屋内にはあらかじめ複数の外部センサ114(外部センサ114a、114b、・・・、114n)が設置される。外部センサ114は、家屋の壁面に固定されてもよいし、床に載置されてもよい。サーバ200には、外部センサ114の位置座標が登録される。位置座標は、ロボット100の行動範囲として想定される家屋内においてx,y座標として定義される。
外部センサ114はロボット100の感覚器を補強するためのものであり、サーバ200はロボット100の頭脳を補強するためのものである。
もちろん、ロボット100が自らの位置座標を定期的にサーバ200に送信する方式でもよい。
感情マップ116は、サーバ200に格納されるデータテーブルである。ロボット100は、感情マップ116にしたがって行動選択する。図4に示す感情マップ116は、ロボット100の場所に対する好悪感情の大きさを示す。感情マップ116のx軸とy軸は、二次元空間座標を示す。z軸は、好悪感情の大きさを示す。z値が正値のときにはその場所に対する好感が高く、z値が負値のときにはその場所を嫌悪していることを示す。
ロボット100がどのような場所を好むかという定義は任意であるが、一般的には、小さな子どもや犬や猫などの小動物が好む場所を好意地点として設定することが望ましい。
ロボット100がどのような場所を嫌うかという定義も任意であるが、一般的には、小さな子どもや犬や猫などの小動物が怖がる場所を嫌悪地点として設定することが望ましい。
図4に示す感情マップ116が与えられた場合、ロボット100は好意地点(座標P1)に引き寄せられる方向、嫌悪地点(座標P2)から離れる方向に移動する。
ロボット100は、内部センサ128、通信機126、記憶装置124、プロセッサ122、駆動機構120およびバッテリー118を含む。駆動機構120は、上述した車輪駆動機構370を含む。プロセッサ122と記憶装置124は、制御回路342に含まれる。各ユニットは電源線130および信号線132により互いに接続される。バッテリー118は、電源線130を介して各ユニットに電力を供給する。各ユニットは信号線132により制御信号を送受する。バッテリー118は、リチウムイオン二次電池であり、ロボット100の動力源である。
具体的には、カメラ(高解像度カメラと全天球カメラ)、マイクロフォンアレイ、赤外線センサ、
サーモセンサ、タッチセンサ、加速度センサ、ニオイセンサなどである。
ニオイセンサは、匂いの元となる分子の吸着によって電気抵抗が変化する原理を応用した既知のセンサである。
ニオイセンサは、さまざまな匂いを複数種類のカテゴリに分類する。
上述のように、ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。ロボット100およびサーバ200の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
ロボット100の機能の一部はサーバ200により実現されてもよいし、サーバ200の機能の一部または全部はロボット100により実現されてもよい。
サーバ200は、通信部204、データ処理部202およびデータ格納部206を含む。
通信部204は、外部センサ114およびロボット100との通信処理を担当する。データ格納部206は各種データを格納する。データ処理部202は、通信部204により取得されたデータおよびデータ格納部206に格納されるデータに基づいて各種処理を実行する。データ処理部202は、通信部204およびデータ格納部206のインタフェースとしても機能する。
ロボット100は、複数の動作パターン(モーション)を有する。手を震わせる、蛇行しながらオーナーに近づく、首をかしげたままオーナーを見つめる、などさまざまなモーションが定義されている。
以下、いつ、どのモーションを選ぶか、モーションを実現する上での各アクチュエータの出力調整など、ロボット100の行動制御にかかわる設定のことを「行動特性」と総称する。ロボット100の行動特性は、モーション選択アルゴリズム、モーションの選択確率、モーションファイル、予定軌道、予定軌道選択テーブル等により定義される。
ロボットシステム300は、大量の画像情報やその他のセンシング情報から得られる身体的特徴および行動的特徴に基づいて、高い頻度で出現するユーザを「オーナー」としてクラスタリングする。
本実施形態においては、身体的特徴と行動的特徴からユーザをクラスタリングし、ディープラーニング(多層型のニューラルネットワーク)によってユーザを識別する。詳細は後述する。
位置管理部208は、ロボット100の位置座標を、図3を用いて説明した方法にて特定する。位置管理部208はユーザの位置座標もリアルタイムで追跡してもよい。
行動マップAを行動マップBの5倍重視するときには、座標R1の合計z値は4×5-1=19、座標R2の合計z値は3×5+3=18であるから、ロボット100は座標R1の方向に向かう。
なお、人物認識部214は、人物以外の移動物体、たとえば、ペットである猫や犬についても特徴抽出を行う。
快・不快行為は、ユーザの応対行為が、生物として心地よいものであるか不快なものであるかにより判別される。たとえば、抱っこされることはロボット100にとって快行為であり、蹴られることはロボット100にとって不快行為である。肯定・否定反応は、ユーザの応対行為が、ユーザの快感情を示すものか不快感情を示すものであるかにより判別される。たとえば、抱っこされることはユーザの快感情を示す肯定反応であり、蹴られることはユーザの不快感情を示す否定反応である。
行動マップに移動目標地点や実行軌道が決定され、後述の各種イベントによりモーションが選択される。
ロボット100は、通信部142、データ処理部136、データ格納部148、内部センサ128および駆動機構120を含む。
通信部142は、通信機126(図5参照)に該当し、外部センサ114およびサーバ200との通信処理を担当する。データ格納部148は各種データを格納する。データ格納部148は、記憶装置124(図5参照)に該当する。データ処理部136は、通信部142により取得されたデータおよびデータ格納部148に格納されているデータに基づいて各種処理を実行する。データ処理部136は、プロセッサ122およびプロセッサ122により実行されるコンピュータプログラムに該当する。データ処理部136は、通信部142、内部センサ128、駆動機構120およびデータ格納部148のインタフェースとしても機能する。
ロボット100のモーション格納部160には、サーバ200のモーション格納部232から各種モーションファイルがダウンロードされる。モーションは、モーションIDによって識別される。前輪102を収容して着座する、手106を持ち上げる、2つの前輪102を逆回転させることで、あるいは、片方の前輪102だけを回転させることでロボット100を回転行動させる、前輪102を収納した状態で前輪102を回転させることで震える、ユーザから離れるときにいったん停止して振り返る、などのさまざまなモーションを表現するために、各種アクチュエータ(駆動機構120)の動作タイミング、動作時間、動作方向などがモーションファイルにおいて時系列定義される。
ロボット100の動作制御部150は、サーバ200の動作制御部222と協働してロボット100のモーションを決める。一部のモーションについてはサーバ200で決定し、他のモーションについてはロボット100で決定してもよい。また、ロボット100がモーションを決定するが、ロボット100の処理負荷が高いときにはサーバ200がモーションを決定するとしてもよい。サーバ200においてベースとなるモーションを決定し、ロボット100において追加のモーションを決定してもよい。モーションの決定処理をサーバ200およびロボット100においてどのように分担するかはロボットシステム300の仕様に応じて設計すればよい。
認識部156は、内蔵カメラ(内部センサ128)により定期的に外界を撮像し、人やペットなどの移動物体を検出する。移動物体の画像はサーバ200に送信され、サーバ200の人物認識部214は移動物体の身体的特徴を抽出する。また、ユーザの匂いやユーザの声も検出する。匂いや音(声)は既知の方法にて複数種類に分類される。
以上は、簡単な設例であるが、上述の方法により、父親に対応する第1のプロファイルと母親に対応する第2のプロファイルが形成され、この家には少なくとも2人のユーザ(オーナー)がいることをロボット100は認識する。
このとき、サーバ200の人物認識部214は、ロボット100から得られる画像等のセンシング情報から特徴抽出を行い、
ディープラーニング(多層型ニューラルネットワーク)により、ロボット100の近くにいる移動物体が
どのクラスタに該当するかを判断する。
たとえば、ひげが生えている移動物体を検出したとき、この移動物体は父親である確率が高い。
この移動物体が早朝行動していれば、父親に該当することはいっそう確実である。
一方、メガネをかけている移動物体を検出したときには、この移動物体は母親である可能性もある。
この移動物体にひげが生えていれば、母親ではなく父親でもないので、クラスタ分析されていない新しい人物であると判定する。
移動物体(ユーザ)からどのような行為をされるかによってそのユーザに対する親密度が変化する。
(1)親密度が非常に高いクラスタ
ロボット100は、ユーザに近づき(以下、「近接行動」とよぶ)、かつ、人に好意を示す仕草としてあらかじめ定義される愛情仕草を行うことで親愛の情を強く表現する。
(2)親密度が比較的高いクラスタ
ロボット100は、近接行動のみを行う。
(3)親密度が比較的低いクラスタ
ロボット100は特段のアクションを行わない。
(4)親密度が特に低いクラスタ
ロボット100は、離脱行動を行う。
モーション選択テーブル180は、各種のイベントが発生したときに実行すべきモーションを定義する。ロボット100は、イベントが発生したとき、複数種類のモーションから1以上のモーションを選択する。モーション選択テーブル180は、サーバ200のモーション格納部232およびロボット100のモーション格納部160の双方に格納される。サーバ200のモーション選択テーブル180と、ロボット100のモーション選択テーブル180は互いに同期する。「イベント」は、ロボット100がモーションを実行する契機となる事象としてあらかじめ定義される。オーナーを視認したとき、オーナーに抱っこされたとき、蹴られたとき、大きな音が聞こえたとき、所定時間以上誰も視認しないときなど、イベントの設定内容は任意である。
予定軌道選択テーブル162は、各種のイベントが発生したときに選択すべき予定軌道を定義する。ロボット100は、イベント、特に、ネガティブ・イベントが発生したときには、イベントに対応するモーションを実行したあとに予定軌道に沿って移動する。たとえば、ロボット100は乱暴行為を働かれたときには(ネガティブ・イベント)、乱暴行為者(イベント発生源)から逃げる。この逃げ道も予定軌道の一種である。ロボット100は、イベントが発生したとき、1以上の予定軌道からいずれかの予定軌道を選択する。
以下、ロボット100が位置座標Q1にあるとき、Q1からE1(m)以内の近距離かつロボット100から見てD1方向においてイベントJ1が発生するというイベント発生状況を[Q1,(J1,E1,D1)]と表記する。
本実施形態においては、行動マップに基づく予定軌道はサーバ200の軌道生成部242により生成し、行動マップを利用しない簡単な予定軌道はロボット100の安全地帯検出部152により生成するものとして説明する。
図9は、イベント発生状況[Q1,(J1,E1,D1)]を示す。この状況に対応して、予定軌道R1~R3が生成される(図8参照)。予定軌道R1は、イベントの発生地点S1の逆方向にまっすぐ逃げる行動マップを考慮しない単純なルートである。予定軌道R1上に障害物があるときには、ロボット100は障害物回避動作をしながら、イベント発生源から所定距離以上離れるように動く。予定軌道R2は嫌悪地点P2から所定距離以上を確保しながらイベント発生地点S1から離れる移動ルートである。予定軌道R3は、最寄りの好意地点P1に向かう移動ルートである。
変形例として、行動マップもロボット100にダウンロードされてもよい。この場合には、ロボット100も行動マップに基づいて予定軌道R2,R3を生成可能である。また、イベント発生地点S1から離れるだけではなく、現在地点Q1を周回する、イベント発生地点S1に少しだけ近づいてみるなど、ロボット100においても行動マップに頼らないさまざまな予定軌道が生成されてもよい。
サーバ200は、軌道生成指示を受信したことを条件として予定軌道を生成してもよいし、軌道生成指示を受信していないときでもさまざまなイベント発生状況に対応する予定軌道を生成し、それらを随時、ロボット100の予定軌道格納部154に記録させてもよい。
ロボット100の安全地帯検出部152は、所定の安全条件を満たす地点を「安全地点」として検出する。
具体的には、テーブルの下のように「天井」があるところ、親密度が所定値以上となる「親しいオーナー」のいるところ、
ソファの陰のように暗いところ、浴室のように3方向以上を壁で囲まれたところ、などである。
ロボット100は、内部センサ128、特に、カメラによってオーナーや天井、壁を認識することにより、安全条件が成立する場所を検出する。
安全地帯検出部152は、通常行動時において安全条件を満たす場所を発見したとき、サーバ200に通知する。
サーバ200のマップ管理部210は通知時点におけるロボット100の位置座標を安全地点として登録する。
図10においては、ロボット100は、開始点Qsから終着点Qeへ通常移動(実行軌道)を設定している。Qeが好意地点であるための移動かもしれないし、Qs付近が嫌悪地点となったためQsから離れるための移動かもしれない。移動中にさまざまなイベントが発生する可能性がある。座標S3にはテレビがあり、テレビにより「大きな音」というイベントが発生する可能性がある。座標S4には子どもがおり、子どもは「大きな音」を発生させるかもしれないし、ロボット100に乱暴行為を働くかもしれない。
予定軌道生成処理は、ロボット100およびサーバ200の双方により実行される。ここでは、サーバ200の軌道生成部242を対象として説明するが、ロボット100の軌道生成部172についても同様である。サーバ200の予定軌道生成処理は実行優先度が低いため、サーバ200の処理負荷が軽い時間帯に実行される。予定軌道生成処理は、定期的に実行されてもよいし、ロボット100が所定距離を移動するごとに実行されるとしてもよい。
図12に示す処理はロボット100において実行される。イベントが発生したとき、ロボット100の動作制御部150はモーション選択テーブル180を参照してモーションを選択し(S20)、選択されたモーションを駆動機構120に実行させる(S22)。現出したイベント発生状況に対応する1以上の予定軌道が生成済みであれば(S24のY)、動作制御部150は予定軌道を選択し(S26)、駆動機構120に指示して予定軌道に沿った移動を実行させる(S28)。一方、イベント発生状況に対応する予定軌道が生成されていないときには(S24のN)、動作制御部150はイベント発生源からまっすぐ所定距離だけ離れる方向にロボット100を移動させる(S30)。
このように、予定軌道を生成していないイベント発生状況が生じたときにも、イベント発生に対応した基本移動を実行可能である。イベントに対応したモーションを実行することなく、予定軌道に沿ってロボット100を移動させてもよい。
1以上の行動マップによりパターン化できず予測しづらい、かつ、生物的な行動選択を表現している。生物と同様、ロボット100は行動マップだけではなく各種のイベントによっても行動が変化する。本実施形態においては、ロボット100はイベントに対応するモーションを実行したあと、予定軌道に沿って移動する。このような制御方法により、危険や不快なイベントを認識したとき、驚いて逃げる、という行動表現が可能となる。
軌道生成部242は、いったん計算した予定軌道を、所定時間経過後に削除してもよい。
サーバ200の軌道生成部242またはロボット100の軌道生成部172は、予定軌道データを生成し、予定軌道選択テーブル162に登録する。イベントが発生したとき、動作制御部150は、予定軌道データにしたがって移動目標地点を設定する。認識部156は、カメラにより周辺を撮影し、視認可能な近距離に存在する障害物を検出する。「障害物」は、所定の高さを有する物体として判定される。予定軌道上に障害物が検出されたときには、軌道生成部172は障害物を回避して移動目標地点に到達するための新たな予定軌道を計算する。ロボット100が実行軌道(通常の移動ルート)を移動しているときに障害物が発見されたときには、動作制御部150は同様にして障害物を回避する新たな実行軌道を生成する。
動作制御部150は安全地点リストから安全地点を選び、その安全地点を移動目標地点とする予定軌道を設定する。
安全地点リストに安全地点が登録されていないときには、動作制御部150はイベントの発生した方向から遠ざかる方向に移動目標地点を設定する。
ロボット100が移動目標地点Aを設定してあらかじめ定められた移動中にあるときにイベントが発生した場合にも、
動作制御部150は安全地点リストから安全地点を選んで新たな移動目標地点Bとして設定する。
このとき、移動目標地点Aを対象とした実行軌道はキャンセルされ、ロボット100は新たな移動目標地点B(安全地点)に向かって移動する。
このような制御方法によれば、静止中、あるいは、移動中であっても、イベントが発生したときには安全地点への移動に目標変更させることができる。
なお、動作制御部150は、イベントが発生してから安全地点を選択してもよいし、イベント発生前にあらかじめ安全地点を選んでおいてもよい。
いずれの場合においても、イベント発生前に安全地点を選択し、安全地点を移動目標地点とする予定軌道を生成しておくことにより、
イベント発生時にすばやく安全地点に逃げ込む行動をロボット100に表現させることができる。
Claims (8)
- ロボットのモーションを選択する動作制御部と、
前記動作制御部により選択されたモーションを実行する駆動機構と、
所定の条件を満たす地点を移動先地点として検出する移動先地点検出部と、
移動先地点の優先度を認識する優先度認識部とを備え、
前記動作制御部は、所定のイベントが発生したとき、
前記イベントが発生する前に選択された前記優先度が高い移動先地点に前記ロボットを移動させることを特徴とする自律行動型ロボット。 - 請求項1記載の自律行動型ロボットにおいて、
前記優先度認識部は、前記ロボットの疑似的な感情に応じて前記移動先地点の優先度を認識することを特徴とする自律行動型ロボット。 - 請求項1又は2記載の自律行動型ロボットにおいて、
前記優先度認識部は、前記ロボットの過去の経験に応じて前記移動先地点の優先度を認識することを特徴とする自律行動型ロボット。 - 請求項1~3のいずれか1項に記載の自律行動型ロボットにおいて、
前記優先度認識部は、前記ロボットと地点との距離に応じて前記移動先地点の優先度を認識することを特徴とする自律行動型ロボット。 - 請求項1~4のいずれか1項に記載の自律行動型ロボットにおいて、
前記条件は、親密度が比較的高いユーザの所定距離内という条件であることを特徴とする自律行動型ロボット。 - 請求項1~5のいずれか1項に記載の自律行動型ロボットにおいて、
前記条件は、周囲の天井の高さよりも低い天井があるという条件であることを特徴とする自律行動型ロボット。 - 請求項1~6のいずれか1項に記載の自律行動型ロボットにおいて、
前記条件は、壁の付近であるという条件又は壁によって規定される空間が自己が存在する空間よりも狭いという条件であることを特徴とする自律行動型ロボット。 - 請求項1~7のいずれか1項に記載の自律行動型ロボットにおいて、
前記条件は、明るさが周囲より暗いという条件であることを特徴とする自律行動型ロボット。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016171432 | 2016-09-02 | ||
JP2016171432 | 2016-09-02 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018537194A Division JP6557840B2 (ja) | 2016-09-02 | 2017-08-24 | ロボット、サーバ及び行動制御プログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019169189A JP2019169189A (ja) | 2019-10-03 |
JP2019169189A5 JP2019169189A5 (ja) | 2020-10-01 |
JP7236142B2 true JP7236142B2 (ja) | 2023-03-09 |
Family
ID=61301389
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018537194A Active JP6557840B2 (ja) | 2016-09-02 | 2017-08-24 | ロボット、サーバ及び行動制御プログラム |
JP2019107940A Active JP7236142B2 (ja) | 2016-09-02 | 2019-06-10 | 自律行動型ロボット |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018537194A Active JP6557840B2 (ja) | 2016-09-02 | 2017-08-24 | ロボット、サーバ及び行動制御プログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20190202054A1 (ja) |
JP (2) | JP6557840B2 (ja) |
CN (1) | CN109643126A (ja) |
DE (1) | DE112017004414T5 (ja) |
GB (1) | GB2570405B (ja) |
WO (1) | WO2018043274A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10427305B2 (en) * | 2016-07-21 | 2019-10-01 | Autodesk, Inc. | Robotic camera control via motion capture |
GB2570405B (en) * | 2016-09-02 | 2022-05-11 | Groove X Inc | Autonomously acting robot, server, and behavior control program |
WO2019087478A1 (ja) * | 2017-10-30 | 2019-05-09 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US11590660B2 (en) * | 2018-09-26 | 2023-02-28 | Disney Enterprises, Inc. | Interactive autonomous robot configured for deployment within a social environment |
DE102019201045B4 (de) * | 2019-01-28 | 2020-11-26 | Robert Bosch Gmbh | Verfahren, Vorrichtung und Computerprogramm zum Ermitteln einer Aktion oder Trajektorie eines Roboters |
DE102019213032A1 (de) * | 2019-08-29 | 2021-03-04 | navel robotics GmbH | Roboter mit einer verhaltenssteuerungseinheit und verfahren zur verhaltenssteuerung eines roboters |
WO2022149496A1 (ja) * | 2021-01-05 | 2022-07-14 | ソニーグループ株式会社 | エンタテインメントシステムおよびロボット |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005304516A (ja) | 2004-04-16 | 2005-11-04 | Funai Electric Co Ltd | 自走式掃除機 |
JP2008158868A (ja) | 2006-12-25 | 2008-07-10 | Toyota Motor Corp | 移動体、及びその制御方法 |
WO2018043274A1 (ja) | 2016-09-02 | 2018-03-08 | Groove X株式会社 | 自律行動型ロボット、サーバ及び行動制御プログラム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2661873B2 (ja) * | 1994-04-08 | 1997-10-08 | 西松建設株式会社 | 遠隔操縦式建設車両およびその非常時運行方法 |
JP2001246580A (ja) | 2000-03-03 | 2001-09-11 | Sony Corp | 情報通信ロボット装置、情報通信方法および情報通信ロボットシステム |
JP3557176B2 (ja) * | 2001-02-14 | 2004-08-25 | 三洋電機株式会社 | 自律走行ロボット |
JP2005271152A (ja) * | 2004-03-25 | 2005-10-06 | Funai Electric Co Ltd | 自走式掃除機および自走ロボット |
JP2006039760A (ja) | 2004-07-23 | 2006-02-09 | Victor Co Of Japan Ltd | 移動ロボット |
KR101053875B1 (ko) * | 2008-07-14 | 2011-08-03 | 삼성전자주식회사 | 휴대 단말기와 동기화된 로봇의 이벤트 실행 방법 및 그시스템 |
CN101648378A (zh) * | 2008-08-11 | 2010-02-17 | 悠进机器人股份公司 | 基于机器人中间件结构及情节的控制系统 |
JP5968627B2 (ja) * | 2012-01-17 | 2016-08-10 | シャープ株式会社 | 掃除機、制御プログラム、および該制御プログラムを記録したコンピュータ読み取り可能な記録媒体 |
-
2017
- 2017-08-24 GB GB1902492.6A patent/GB2570405B/en not_active Expired - Fee Related
- 2017-08-24 JP JP2018537194A patent/JP6557840B2/ja active Active
- 2017-08-24 CN CN201780053741.8A patent/CN109643126A/zh not_active Withdrawn
- 2017-08-24 DE DE112017004414.6T patent/DE112017004414T5/de not_active Withdrawn
- 2017-08-24 WO PCT/JP2017/030277 patent/WO2018043274A1/ja active Application Filing
-
2019
- 2019-03-01 US US16/290,817 patent/US20190202054A1/en not_active Abandoned
- 2019-06-10 JP JP2019107940A patent/JP7236142B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005304516A (ja) | 2004-04-16 | 2005-11-04 | Funai Electric Co Ltd | 自走式掃除機 |
JP2008158868A (ja) | 2006-12-25 | 2008-07-10 | Toyota Motor Corp | 移動体、及びその制御方法 |
WO2018043274A1 (ja) | 2016-09-02 | 2018-03-08 | Groove X株式会社 | 自律行動型ロボット、サーバ及び行動制御プログラム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2018043274A1 (ja) | 2018-10-25 |
WO2018043274A1 (ja) | 2018-03-08 |
JP2019169189A (ja) | 2019-10-03 |
DE112017004414T5 (de) | 2019-05-16 |
GB2570405A (en) | 2019-07-24 |
GB201902492D0 (en) | 2019-04-10 |
US20190202054A1 (en) | 2019-07-04 |
GB2570405B (en) | 2022-05-11 |
CN109643126A (zh) | 2019-04-16 |
JP6557840B2 (ja) | 2019-08-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7236142B2 (ja) | 自律行動型ロボット | |
JP7231924B2 (ja) | 活動量をコントロールされる自律行動型ロボット | |
US11285614B2 (en) | Autonomously acting robot that understands physical contact | |
JP7068709B2 (ja) | 瞳を変化させる自律行動型ロボット | |
JP7320239B2 (ja) | 音源の方向を認識するロボット | |
CN109070330B (zh) | 认生的行为自主型机器人 | |
JP6472113B2 (ja) | 自然な距離感を保つ自律行動型ロボットおよびプログラム | |
JP6884401B2 (ja) | 服を着る自律行動型ロボット | |
WO2018012219A1 (ja) | 自律行動型ロボット | |
JP6671577B2 (ja) | 人を識別する自律行動型ロボット | |
JP2020014845A (ja) | ゲストを受け入れる自律行動型ロボット | |
JP6734607B2 (ja) | ロボット、携帯品及びロボット制御プログラム | |
JP2019214119A (ja) | ロボットの関節に好適なジョイント構造 | |
JP2018192559A (ja) | 曲面形状のボディに対するタッチを検出する自律行動型ロボット | |
JPWO2019088160A1 (ja) | 反射行動を実行可能な自律行動型ロボット |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200309 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200821 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200821 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210915 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220829 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230217 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7236142 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |