JPWO2018012446A1 - 活動量をコントロールされる自律行動型ロボット - Google Patents
活動量をコントロールされる自律行動型ロボット Download PDFInfo
- Publication number
- JPWO2018012446A1 JPWO2018012446A1 JP2017566427A JP2017566427A JPWO2018012446A1 JP WO2018012446 A1 JPWO2018012446 A1 JP WO2018012446A1 JP 2017566427 A JP2017566427 A JP 2017566427A JP 2017566427 A JP2017566427 A JP 2017566427A JP WO2018012446 A1 JPWO2018012446 A1 JP WO2018012446A1
- Authority
- JP
- Japan
- Prior art keywords
- robot
- motion
- mode
- control unit
- operation control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000694 effects Effects 0.000 title claims description 97
- 230000033001 locomotion Effects 0.000 claims abstract description 340
- 238000012545 processing Methods 0.000 claims abstract description 51
- 230000007246 mechanism Effects 0.000 claims abstract description 41
- 238000012544 monitoring process Methods 0.000 claims abstract description 28
- 230000003542 behavioural effect Effects 0.000 claims abstract description 26
- 210000001747 pupil Anatomy 0.000 claims description 16
- 230000007704 transition Effects 0.000 claims description 15
- 238000001514 detection method Methods 0.000 claims description 7
- 238000004422 calculation algorithm Methods 0.000 claims description 3
- 238000011084 recovery Methods 0.000 claims 1
- 230000008859 change Effects 0.000 abstract description 11
- 230000009471 action Effects 0.000 description 61
- 210000001508 eye Anatomy 0.000 description 58
- 230000006399 behavior Effects 0.000 description 53
- 238000000034 method Methods 0.000 description 31
- 230000004044 response Effects 0.000 description 28
- 230000007958 sleep Effects 0.000 description 25
- 230000008451 emotion Effects 0.000 description 24
- 238000003860 storage Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 20
- 238000004891 communication Methods 0.000 description 18
- 210000003128 head Anatomy 0.000 description 18
- 230000006870 function Effects 0.000 description 16
- 238000013500 data storage Methods 0.000 description 15
- 230000007423 decrease Effects 0.000 description 14
- 238000007726 management method Methods 0.000 description 11
- 230000004048 modification Effects 0.000 description 10
- 238000012986 modification Methods 0.000 description 10
- 235000019645 odor Nutrition 0.000 description 9
- 230000014509 gene expression Effects 0.000 description 7
- 230000015654 memory Effects 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000002349 favourable effect Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 241000282412 Homo Species 0.000 description 5
- 238000004590 computer program Methods 0.000 description 5
- 230000001276 controlling effect Effects 0.000 description 5
- 230000003247 decreasing effect Effects 0.000 description 5
- 210000000744 eyelid Anatomy 0.000 description 5
- 239000011521 glass Substances 0.000 description 5
- 239000003550 marker Substances 0.000 description 5
- 241000282472 Canis lupus familiaris Species 0.000 description 4
- 241000282326 Felis catus Species 0.000 description 4
- 238000013459 approach Methods 0.000 description 4
- 230000004791 biological behavior Effects 0.000 description 4
- 238000007621 cluster analysis Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 229920005989 resin Polymers 0.000 description 3
- 239000011347 resin Substances 0.000 description 3
- 238000009423 ventilation Methods 0.000 description 3
- 208000019901 Anxiety disease Diseases 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 206010037180 Psychiatric symptoms Diseases 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 230000036506 anxiety Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000004397 blinking Effects 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000035876 healing Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 229910052751 metal Inorganic materials 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000003014 reinforcing effect Effects 0.000 description 2
- 230000000284 resting effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 206010063659 Aversion Diseases 0.000 description 1
- 206010048909 Boredom Diseases 0.000 description 1
- JOYRKODLDBILNP-UHFFFAOYSA-N Ethyl urethane Chemical compound CCOC(N)=O JOYRKODLDBILNP-UHFFFAOYSA-N 0.000 description 1
- 206010020751 Hypersensitivity Diseases 0.000 description 1
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 238000000342 Monte Carlo simulation Methods 0.000 description 1
- 206010041243 Social avoidant behaviour Diseases 0.000 description 1
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 229920006311 Urethane elastomer Polymers 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000007815 allergy Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001914 calming effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 239000013013 elastic material Substances 0.000 description 1
- 229920001971 elastomer Polymers 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000037308 hair color Effects 0.000 description 1
- 230000006266 hibernation Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910001416 lithium ion Inorganic materials 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010297 mechanical methods and process Methods 0.000 description 1
- 230000005226 mechanical processes and functions Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000002304 perfume Substances 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000005060 rubber Substances 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 230000015541 sensory perception of touch Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000000391 smoking effect Effects 0.000 description 1
- 239000007779 soft material Substances 0.000 description 1
- 238000001179 sorption measurement Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0217—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with energy consumption, time reduction or distance reduction criteria
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H29/00—Drive mechanisms for toys in general
- A63H29/22—Electric drives
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H11/00—Self-movable toy figures
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H3/00—Dolls
- A63H3/36—Details; Accessories
- A63H3/38—Dolls' eyes
- A63H3/40—Dolls' eyes movable
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/0015—Face robots, animated artificial faces for imitating human expressions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H2200/00—Computerized interactive toys, e.g. dolls
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Business, Economics & Management (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Manipulator (AREA)
- Toys (AREA)
Abstract
Description
動作制御部は、電池残量に応じてロボットの行動特性を変化させる。
動作制御部は、充電中に所定の優先イベントが発生したときには、充電未了であっても優先イベントに対応するモーションを選択する。
動作制御部は、モーションの処理負荷に対して負の相関関係が定められた選択確率にて、ロボットのモーションを選択する。
省電力モードに設定されている場合において、所定の復帰イベントが発生したとき、動作選択部は復帰イベントに対応づけられる起動モーションを実行し、モード選択部は省電力モードから通常モードに変更する。
モード選択部は、省電力モードに設定されているとき、移動物体が検出されたことを条件として、省電力モードから通常モードに変更する。
動作制御部は、電池残量が所定の閾値以下となったとき、アクチュエータに供給する電力を通常時よりも制限する。
モード選択部は、第1モードにおいて所定の遷移条件が成立したときに第2モードに変更し、眼生成部は、第1モードにおいては瞳画像を左右に移動させ、第2モードにおいては瞳画像を閉眼させる。
動作制御部は、二次電池の電池残量が所定の閾値以下となったとき、外部の充電器を移動目標地点として選択し、モード選択部は、充電器への移動経路に障害物が存在するときには、通常モードから省電力モードに変更する。
本実施形態におけるロボット100は、外部環境および内部状態に基づいて行動や仕草(ジェスチャー)を決定する自律行動型のロボットである。外部環境は、カメラやサーモセンサなど各種のセンサにより認識される。内部状態はロボット100の感情を表現するさまざまなパラメータとして定量化される。これらについては後述する。
ロボット100の頭部にはツノ112が取り付けられる。上述のようにロボット100は軽量であるため、ユーザはツノ112をつかむことでロボット100を持ち上げることも可能である。
図2に示すように、ロボット100のボディ104は、ベースフレーム308、本体フレーム310、一対の樹脂製のホイールカバー312および外皮314を含む。ベースフレーム308は、金属からなり、ボディ104の軸芯を構成するとともに内部機構を支持する。ベースフレーム308は、アッパープレート332とロアプレート334とを複数のサイドプレート336により上下に連結して構成される。複数のサイドプレート336間には通気が可能となるよう、十分な間隔が設けられる。ベースフレーム308の内方には、バッテリー118、制御回路342および各種アクチュエータが収容されている。
ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。家屋内にはあらかじめ複数の外部センサ114(外部センサ114a、114b、・・・、114n)が設置される。外部センサ114は、家屋の壁面に固定されてもよいし、床に載置されてもよい。サーバ200には、外部センサ114の位置座標が登録される。位置座標は、ロボット100の行動範囲として想定される家屋内においてx,y座標として定義される。
外部センサ114はロボット100の感覚器を補強するためのものであり、サーバ200はロボット100の頭脳を補強するためのものである。
もちろん、ロボット100が自らの位置座標を定期的にサーバ200に送信する方式でもよい。
感情マップ116は、サーバ200に格納されるデータテーブルである。ロボット100は、感情マップ116にしたがって行動選択する。図4に示す感情マップ116は、ロボット100の場所に対する好悪感情の大きさを示す。感情マップ116のx軸とy軸は、二次元空間座標を示す。z軸は、好悪感情の大きさを示す。z値が正値のときにはその場所に対する好感が高く、z値が負値のときにはその場所を嫌悪していることを示す。
ロボット100がどのような場所を好むかという定義は任意であるが、一般的には、小さな子どもや犬や猫などの小動物が好む場所を好意地点として設定することが望ましい。
ロボット100がどのような場所を嫌うかという定義も任意であるが、一般的には、小さな子どもや犬や猫などの小動物が怖がる場所を嫌悪地点として設定することが望ましい。
図4に示す感情マップ116が与えられた場合、ロボット100は好意地点(座標P1)に引き寄せられる方向、嫌悪地点(座標P2)から離れる方向に移動する。
ロボット100は、内部センサ128、通信機126、記憶装置124、プロセッサ122、駆動機構120およびバッテリー118を含む。駆動機構120は、上述した車輪駆動機構370を含む。プロセッサ122と記憶装置124は、制御回路342に含まれる。各ユニットは電源線130および信号線132により互いに接続される。バッテリー118は、電源線130を介して各ユニットに電力を供給する。各ユニットは信号線132により制御信号を送受する。バッテリー118は、リチウムイオン二次電池であり、ロボット100の動力源である。
上述のように、ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。ロボット100およびサーバ200の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
ロボット100の機能の一部はサーバ200により実現されてもよいし、サーバ200の機能の一部または全部はロボット100により実現されてもよい。
サーバ200は、通信部204、データ処理部202およびデータ格納部206を含む。
通信部204は、外部センサ114およびロボット100との通信処理を担当する。データ格納部206は各種データを格納する。データ処理部202は、通信部204により取得されたデータおよびデータ格納部206に格納されるデータに基づいて各種処理を実行する。データ処理部202は、通信部204およびデータ格納部206のインタフェースとしても機能する。
ロボット100は、複数の動作パターン(モーション)を有する。手を震わせる、蛇行しながらオーナーに近づく、首をかしげたままオーナーを見つめる、などさまざまなモーションが定義されている。
以下、いつ、どのモーションを選ぶか、モーションを実現する上での各アクチュエータの出力調整など、ロボット100の行動制御にかかわる設定のことを「行動特性」と総称する。ロボット100の行動特性は、モーション選択アルゴリズム、モーションの選択確率、モーションファイル等により定義される。
ロボット100は、大量の画像情報やその他のセンシング情報から得られる身体的特徴および行動的特徴に基づいて、高い頻度で出現するユーザを「オーナー」としてクラスタリングする。
本実施形態においては、身体的特徴と行動的特徴からユーザをクラスタリングし、ディープラーニング(多層型のニューラルネットワーク)によってユーザを識別する。詳細は後述する。
位置管理部208は、ロボット100の位置座標を、図3を用いて説明した方法にて特定する。位置管理部208はユーザの位置座標もリアルタイムで追跡してもよい。
行動マップAを行動マップBの5倍重視するときには、座標R1の合計z値は4×5−1=19、座標R2の合計z値は3×5+3=18であるから、ロボット100は座標R1の方向に向かう。
なお、人物認識部214は、人物以外の移動物体、たとえば、ペットである猫や犬についても特徴抽出を行う。
快・不快行為は、ユーザの応対行為が、生物として心地よいものであるか不快なものであるかにより判別される。たとえば、抱っこされることはロボット100にとって快行為であり、蹴られることはロボット100にとって不快行為である。肯定・否定反応は、ユーザの応対行為が、ユーザの快感情を示すものか不快感情を示すものであるかにより判別される。たとえば、抱っこされることはユーザの快感情を示す肯定反応であり、蹴られることはユーザの不快感情を示す否定反応である。
行動マップに移動目標地点や移動ルートが決定され、後述の各種イベントによりモーションが選択される。
ロボット100は、通信部142、データ処理部136、データ格納部148、バッテリー118および駆動機構120を含む。
通信部142は、通信機126(図5参照)に該当し、外部センサ114およびサーバ200との通信処理を担当する。データ格納部148は各種データを格納する。データ格納部148は、記憶装置124(図5参照)に該当する。データ処理部136は、通信部142により取得されたデータおよびデータ格納部148に格納されているデータに基づいて各種処理を実行する。データ処理部136は、プロセッサ122およびプロセッサ122により実行されるコンピュータプログラムに該当する。データ処理部136は、通信部142、内部センサ128、駆動機構120およびデータ格納部148のインタフェースとしても機能する。
ロボット100のモーション格納部160には、サーバ200のモーション格納部232から各種モーションファイルがダウンロードされる。モーションは、モーションIDによって識別される。前輪102を収容して着座する、手106を持ち上げる、2つの前輪102を逆回転させることで、あるいは、片方の前輪102だけを回転させることでロボット100を回転行動させる、前輪102を収納した状態で前輪102を回転させることで震える、ユーザから離れるときにいったん停止して振り返る、などのさまざまなモーションを表現するために、各種アクチュエータ(駆動機構120)の動作タイミング、動作時間、動作方向などがモーションファイルにおいて時系列定義される。
ロボット100の動作制御部150は、サーバ200の動作制御部222と協働してロボット100のモーションを決める。一部のモーションについてはサーバ200で決定し、他のモーションについてはロボット100で決定してもよい。また、ロボット100がモーションを決定するが、ロボット100の処理負荷が高いときにはサーバ200がモーションを決定するとしてもよい。サーバ200においてベースとなるモーションを決定し、ロボット100において追加のモーションを決定してもよい。モーションの決定処理をサーバ200およびロボット100においてどのように分担するかはロボットシステム300の仕様に応じて設計すればよい。
認識部156は、内蔵カメラ(内部センサ128)により定期的に外界を撮像し、人やペットなどの移動物体を検出する。これらの特徴はサーバ200に送信され、サーバ200の人物認識部214は移動物体の身体的特徴を抽出する。また、ユーザの匂いやユーザの声も検出する。匂いや音(声)は既知の方法にて複数種類に分類される。
以上は、簡単な設例であるが、上述の方法により、父親に対応する第1のプロファイルと母親に対応する第2のプロファイルが形成され、この家には少なくとも2人のユーザ(オーナー)がいることをロボット100は認識する。
このとき、サーバ200の人物認識部214は、ロボット100から得られる画像等のセンシング情報から特徴抽出を行い、ディーブラーニング(多層型ニューラルネットワーク)により、ロボット100の近くにいる移動物体がどのクラスタに該当するかを判断する。たとえば、ひげが生えている移動物体を検出したとき、この移動物体は父親である確率が高い。この移動物体が早朝行動していれば、父親に該当することはいっそう確実である。一方、メガネをかけている移動物体を検出したときには、この移動物体は母親である可能性もある。この移動物体にひげが生えていれば、母親ではなく父親でもないので、クラスタ分析されていない新しい人物であると判定する。
移動物体(ユーザ)からどのような行為をされるかによってそのユーザに対する親密度が変化する。
(1)親密度が非常に高いクラスタ
ロボット100は、ユーザに近づき(以下、「近接行動」とよぶ)、かつ、人に好意を示す仕草としてあらかじめ定義される愛情仕草を行うことで親愛の情を強く表現する。
(2)親密度が比較的高いクラスタ
ロボット100は、近接行動のみを行う。
(3)親密度が比較的低いクラスタ
ロボット100は特段のアクションを行わない。
(4)親密度が特に低いクラスタ
ロボット100は、離脱行動を行う。
サーバ200の動作制御部222およびロボット100の動作制御部150が選択するモーションの処理負荷はさまざまである。ここでいう処理負荷とは、モーションの実行コストを示す概念であり、たとえば、1つのモーションに含まれる単位モーションの数、モーションの複雑さ、モーションを実行するために使用するアクチュエータの数、アクチュエータの動作量、モーションの実行時間、モーションを実行するための消費電力(エネルギー)などにより定義される。処理負荷の大きなモーション(以下、「高負荷モーション」とよぶ)は活発なモーションであることが多く、処理負荷の小さなモーション(以下、「低負荷モーション」とよぶ)は控えめなモーションであることが多い。
モーション選択テーブル180は、各種のイベントが発生したときに実行すべきモーションを定義する。ロボット100は、イベントが発生したとき、複数種類のモーションから1以上のモーションを選択する。モーション選択テーブル180は、サーバ200のモーション格納部232およびロボット100のモーション格納部160の双方に格納される。「イベント」は、ロボット100がモーションを実行する契機となる事象としてあらかじめ定義される。オーナーを視認したとき、オーナーに抱っこされたとき、蹴られたとき、所定時間以上誰も視認しないときなど、イベントの内容は任意である。
プラン設定部240は、上述したように、電力消費ペースを定める消費プランデータを設定する。動作制御部222は、電池残量が下限値E1以下になると、ロボット100を充電器に移動させ充電させる。電池残量が上限値E2(>E1)以上となると、動作制御部222はロボット100を充電器から離脱させる。このように、バッテリー118の電池残量がE1〜E2の範囲内にあるときには、ロボット100は充電器を離れて活動する。いいかえれば、バッテリー118の電池残量がE1〜E2の範囲内にある期間がロボット100の活動時間である。
活動監視部242は、ロボット100の動作履歴を記録する。そして、単位時間あたりの活動量を計算する。たとえば、ある単位時間においてモーション(C01)、モーション(C02)およびモーション(C03)が実行されたなら、この時間における負荷値の合計は33(=20+10+3:図7参照)である。消費プラン選択テーブル188は、負荷値の合計値を「活動量」と定義し、活動量と消費プランデータの対応を設定する。
非特許文献1は、ウェアラブルセンサにより人間の活動を計測した結果、人間の行動選択には統計的な規則性があることを明らかにしている(非特許文献1のP27参照)。人間の1分間あたりの身体運動の回数を計測したところ、50回/分のような動きの穏やかな時間が多く、激しい動きを示す時間は非常に少ない。そして、動きの激しさとそのような動きを選択する確率の間には安定的な関係が見出されるという。人間は、自分の意思や思いで自由に自分の行動を決めていると考えているが、その行動選択の集積には不思議な規則性がある。このような規則性にしたがう行動特性こそが「生物的な行動特性」といえるのかもしれない。
充電中でなければ(S10のN)、以降の処理はスキップされる。充電中であって(S10のY)、充電が完了したとき(S12のY)、動作制御部222はロボット100を充電器から離脱させる(S14)。充電が完了するのは、電池残量が上限値E2(図9参照)を超えたときである。
1以上の行動マップによりパターン化できず予測しづらい、かつ、生物的な行動選択を表現している。
生物と同様、ロボット100は行動マップだけではなく各種のイベントによっても行動が変化する。本実施形態によれば、電池残量が多いときにはロボット100は活発に活動する。一方、電池残量が少なくなるとロボット100はおとなしくなる。このため、電池残量がロボット100の活力の源になっている、とうい行動表現が可能となる。充電という機械的処理に睡眠や食事に近いイメージを与えることができる。
このような制御方法によって、電池残量が少なくなるほど低負荷モーションが実行されやすくなり、高負荷モーションが実行されにくくなるという行動特性を実現できる。
図13は、変形例1におけるロボットシステム300の機能ブロック図である。
変形例1のロボットシステム300において、データ処理部136は、動作制御部150、認識部156および電池残量監視部172に加えて、眼生成部250、眼表示部252およびモード選択部254を含む。眼生成部250は、眼画像(後述)を生成する。眼表示部252は、目110に眼画像を表示させる。モード選択部254は、ロボット100の「動作モード」を選択する。動作モードについては後述する。また、駆動機構120は、各種のアクチュエータ256を含む。ここでいうアクチュエータ256とは、図2等に関連して説明した各種アクチュエータの総称である。動作制御部150は、アクチュエータ256に動作信号を送信し、アクチュエータ256を駆動する。動作信号により、アクチュエータ256の回転または移動の方向、速度、量が指定される。
ロボット100の目110は、眼画像174を表示させるディスプレイとして形成される。眼生成部250は、瞳画像164と周縁画像168を含む眼画像174を生成する。眼生成部250は、また、眼画像174を動画表示させる。具体的には、瞳画像164を動かすことでロボット100の視線を表現する。また、所定のタイミングで瞬き動作を実行する。眼生成部250は、さまざまな動作パターンにしたがって眼画像174の多様な動きを表現する。眼表示部252は、目110のモニタに生成された眼画像174を表示させる。モニタは、人間の眼球と同様、曲面形状を有することが望ましい。
動作モードは、「通常モードM1」と「省電力モードM2」に大別される。省電力モードM2は、更に、「観察モードM21(第1モード)」と「睡眠モードM22(第2モード)」を含む。省電力モードM2は、通常モードM1よりも消費電力を抑制する動作モードである。このため、ロボット100は、通常モードM1のときよりも省電力モードM2のときの方が、活動量が抑制されおとなしくなる。動作制御部150は、省電力モードM2においてはアクチュエータ256への供給電力を通常モードM1のときよりも制限してもよい。動作制御部150は、省電力モードM2においては制御対象となるアクチュエータ256の種類または数を制限してもよいし、単位モーションをつなぐインターバル(上述)を通常モードM1のときよりも長く設定してもよい。動作制御部150は、負荷テーブル170を参照し、処理負荷(負荷値)が所定値以上のモーション、いいかえれば、消費電力の大きなモーションを選択対象外としてもよい。動作制御部150は、省電力モードM2においては、ロボット100の移動速度に制限を設けてもよい。
以下においては、通常モードM1においてロボット100は移動可能であるが、省電力モードM2においてロボット100は移動不可能であるとして説明する。
バッテリー118の電池残量が基準値以下となると、動作制御部150は各部のアクチュエータ256の動作を制約する(以下、「動作制約」とよぶ)。動作制約とは、具体的には、アクチュエータ256の動作範囲(たとえば、回転可能角度)および動作速度に制限値を設定することであってもよい。複数のアクチュエータ256のうち、動作可能なアクチュエータ256の数または種類を制限することであってもよいし、単位モーションをつなぐインターバルを通常時よりも長くすることであってもよい。アクチュエータ256の動作量、いいかえれば、アクチュエータ256のアウトプットを制約してもよいし、アクチュエータ256に供給される電力、いいかえれば、アクチュエータ256のインプットを制約してもよい。なお、動作制約は、通常モードM1から省電力モードM2(観察モードM21)に動作モードを変更することであってもよい。
図16は、充電ステーション260の外観図である。
充電ステーション260は、ロボット100の充電器であり、ロボット100を収容する内部スペースを有する。ロボット100が充電ステーション260(充電器)に進入して所定の姿勢となることにより、充電が開始される。
Claims (28)
- ロボットのモーションを選択する動作制御部と、
前記動作制御部により選択されたモーションを実行する駆動機構と、
二次電池の電池残量を監視する電池残量監視部と、を備え、
前記動作制御部は、電池残量に応じてモーションを選択し、ロボットの行動特性を変化させることを特徴とする自律行動型ロボット。 - 前記動作制御部は、電池残量に応じて、複数のモーションの選択確率を変化させることを特徴とする請求項1に記載の自律行動型ロボット。
- 前記動作制御部は、ロボットのモーションとモーションの実行にともなう処理負荷を対応付ける負荷テーブルを参照して、電池残量が少ないときほど処理負荷の小さいモーションを高い確率にて選択することを特徴とする請求項2に記載の自律行動型ロボット。
- 前記動作制御部は、二次電池の電力消費ペースを定義する消費プランデータを参照し、前記消費プランデータで予定されている電池残量と実際の電池残量の差分に応じてロボットの行動特性を変化させることを特徴とする請求項1に記載の自律行動型ロボット。
- 二次電池の電力消費ペースを消費プランデータとして設定するプラン設定部、を更に備え、
前記プラン設定部は、ロボットの動作時間帯に応じて前記消費プランデータを変化させることを特徴とする請求項1に記載の自律行動型ロボット。 - ロボットの動作履歴を記録する活動監視部と、
二次電池の電力消費ペースを消費プランデータとして設定するプラン設定部と、を更に備え、
前記プラン設定部は、前記動作履歴に応じて前記消費プランデータを変化させることを特徴とする請求項1に記載の自律行動型ロボット。 - 前記動作制御部は、モーションの処理負荷に対して負の相関関係が定められた選択確率にて、ロボットのモーションを選択することを特徴とする請求項1に記載の自律行動型ロボット。
- 前記動作制御部は、移動物体が検出されたときには、低処理負荷のモーションの選択確率に対する高処理負荷のモーションの選択確率の比が検出時よりも大きくなるように選択確率を調整することを特徴とする請求項1に記載の自律行動型ロボット。
- イベントの発生を判定する認識部、を更に備え、
前記動作制御部は、イベントに対応づけられるモーションの選択確率を電池残量に応じて変化させることを特徴とする請求項1に記載の自律行動型ロボット。 - 前記動作制御部は、所定の優先イベントが発生したときには、前記優先イベントに対応づけられるモーションを電池残量に関わらず選択することを特徴とする請求項9に記載の自律行動型ロボット。
- ロボットのモーションを選択する動作制御部と、
前記動作制御部により選択されたモーションを実行する駆動機構と、
二次電池の電池残量を監視する電池残量監視部と、
イベントの発生を判定する認識部、を備え、
前記動作制御部は、充電中に所定の優先イベントが発生したときには、充電未了であっても前記所定の優先イベントに対応するモーションを選択することを特徴とする自律行動型ロボット。 - 前記所定の優先イベントは、監視エリア内における人の存在が検知されるときに発生することを特徴とする請求項11に記載の自律行動型ロボット。
- 前記所定の優先イベントは、前記監視エリアで検出した人に対して設定される親密度が所定の閾値以上であるときに発生することを特徴とする請求項12に記載の自律行動型ロボット。
- ロボットのモーションを選択する動作制御部と、
前記動作制御部により選択されたモーションを実行する駆動機構と、を備え、
前記動作制御部は、モーションの処理負荷に対して負の相関関係が定められた選択確率にて、ロボットのモーションを選択することを特徴とする自律行動型ロボット。 - 二次電池の電池残量を監視する電池残量監視部、を更に備え、
前記動作制御部は、二次電池の電力消費ペースを定義する消費プランデータを参照し、前記消費プランデータで予定されている電池残量と実際の電池残量の差分に応じてロボットのモーション選択アルゴリズムを変化させることを特徴とする請求項14に記載の自律行動型ロボット。 - ロボットの動力源となる二次電池の電池残量を監視する機能と、
二次電池の電力消費ペースを定義する消費プランデータを参照し、前記消費プランデータで予定されている電池残量と実際の電池残量の差分に応じてロボットの行動特性を変化させる機能と、をコンピュータに発揮させることを特徴とする行動制御プログラム。 - ロボットのモーションを選択する動作制御部と、
前記動作制御部により選択されたモーションを実行する駆動機構と、
通常モードおよび通常モードよりも電力供給を抑制する省電力モードのいずれかを選択するモード選択部と、を備え、
省電力モードに設定されている場合において、所定の復帰イベントが発生したとき、
前記動作選択部は、前記復帰イベントに対応づけられる起動モーションを実行し、
前記モード選択部は、省電力モードから通常モードに変更することを特徴とする自律行動型ロボット。 - 前記復帰イベントは、音声の検出であることを特徴とする請求項17に記載の自律行動型ロボット。
- ロボットのモーションを選択する動作制御部と、
前記動作制御部により選択されたモーションを実行する駆動機構と、
通常モードおよび通常モードよりも電力供給を抑制する省電力モードのいずれかを選択するモード選択部と、を備え、
前記モード選択部は、省電力モードに設定されているとき、移動物体が検出されたことを条件として、省電力モードから通常モードに変更することを特徴とする自律行動型ロボット。 - 複数のアクチュエータと、
前記複数のアクチュエータそれぞれに動作信号を送信する動作制御部と、
二次電池の電池残量を監視する電池残量監視部と、を備え、
前記動作制御部は、電池残量が所定の閾値以下となったとき、前記複数のアクチュエータに供給する電力の総量を通常時よりも低く制限することを特徴とする自律行動型ロボット。 - 前記動作制御部は、電池残量に応じて、前記アクチュエータの動作速度および動作範囲の双方または一方に制限値を設定することを特徴とする請求項20に記載の自律行動型ロボット。
- 前記アクチュエータごとにあらかじめ優先度が設定され、
前記動作制御部は、優先度に応じて、電力供給対象となるアクチュエータを選択することを特徴とする請求項20に記載の自律行動型ロボット。 - アクチュエータの稼働状態に基づいてロボットの活動量を計算する活動監視部と、を更に備え、
前記動作制御部は、ロボットの単位期間あたりの活動量が所定量を超えたとき、前記ロボットの活動量を一時的に抑制することを特徴とする請求項20に記載の自律行動型ロボット。 - ロボットのモーションを選択する動作制御部と、
前記動作制御部により選択されたモーションを実行する駆動機構と、
第1モードおよび第2モードのいずれかを選択するモード選択部と、
第1モードおよび第2モードに応じて瞳画像を変化させる眼生成部と、を備え、
前記モード選択部は、第1モードにおいて所定の遷移条件が成立したときに第2モードに変更し、
前記眼生成部は、第1モードにおいては瞳画像を移動させ、第2モードにおいては瞳画像を閉眼させることを特徴とする自律行動型ロボット。 - 前記モード選択部は、通常モードおよび通常モードよりも電力供給を抑制する省電力モードのいずれかを選択し、省電力モードにおいては更に第1モードおよび第2モードのいずれかを選択し、省電力モードにおいて第1の復帰イベントが発生したときには第1モードと第2モードのいずれの場合においても通常モードの変更し、省電力モードにおいて第2の復帰イベントが発生したときには、第1モードであれば通常モードに変更し、第2モードのときには第2モードを維持することを特徴とする請求項24に記載の自律行動型ロボット。
- メインプロセッサと、前記メインプロセッサよりも動作電圧を低く設定されたサブプロセッサを含み、
前記メインプロセッサが前記動作制御部の機能を実現し、
前記サブプロセッサが前記眼生成部の機能を実現することを特徴とする請求項24に記載の自律行動型ロボット。 - ロボットのモーションを選択する動作制御部と、
前記動作制御部により選択されたモーションを実行する駆動機構と、
二次電池の電池残量を監視する電池残量監視部と、
通常モードおよび通常モードよりも電力供給を抑制する省電力モードのいずれかを選択するモード選択部と、を備え、
前記動作制御部は、二次電池の電池残量が所定の閾値以下となったとき、外部の充電器を移動目標地点として選択し、
前記モード選択部は、前記充電器への移動経路に障害物が存在するときには、通常モードから省電力モードに変更することを特徴とする自律行動型ロボット。 - 前記モード選択部は、前記充電器への移動経路に障害物が存在するときであっても、移動物体が検出された場合には、通常モードを維持することを特徴とする請求項27に記載の自律行動型ロボット。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016137188 | 2016-07-11 | ||
JP2016137188 | 2016-07-11 | ||
PCT/JP2017/025082 WO2018012446A1 (ja) | 2016-07-11 | 2017-07-10 | 活動量をコントロールされる自律行動型ロボット |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019016943A Division JP7231924B2 (ja) | 2016-07-11 | 2019-02-01 | 活動量をコントロールされる自律行動型ロボット |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018012446A1 true JPWO2018012446A1 (ja) | 2018-07-26 |
JP6475872B2 JP6475872B2 (ja) | 2019-02-27 |
Family
ID=60951733
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017566427A Active JP6475872B2 (ja) | 2016-07-11 | 2017-07-10 | 活動量をコントロールされる自律行動型ロボット |
JP2019016943A Active JP7231924B2 (ja) | 2016-07-11 | 2019-02-01 | 活動量をコントロールされる自律行動型ロボット |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019016943A Active JP7231924B2 (ja) | 2016-07-11 | 2019-02-01 | 活動量をコントロールされる自律行動型ロボット |
Country Status (6)
Country | Link |
---|---|
US (2) | US11579617B2 (ja) |
JP (2) | JP6475872B2 (ja) |
CN (1) | CN109526208B (ja) |
DE (1) | DE112017003497B4 (ja) |
GB (1) | GB2566881B (ja) |
WO (1) | WO2018012446A1 (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102015114883A1 (de) * | 2015-09-04 | 2017-03-09 | RobArt GmbH | Identifizierung und Lokalisierung einer Basisstation eines autonomen mobilen Roboters |
JP6618455B2 (ja) * | 2016-11-28 | 2019-12-11 | 日立オートモティブシステムズ株式会社 | 電子制御装置、車載システム、および電源制御方法 |
JP7139643B2 (ja) * | 2018-03-23 | 2022-09-21 | カシオ計算機株式会社 | ロボット、ロボットの制御方法及びプログラム |
GB2575462B (en) * | 2018-07-10 | 2021-10-20 | Sony Interactive Entertainment Inc | Apparatus, system and method of controlling a robotic device |
JP2020017207A (ja) * | 2018-07-27 | 2020-01-30 | ソニー株式会社 | 移動体及び制御方法 |
WO2020031718A1 (ja) * | 2018-08-08 | 2020-02-13 | ソニー株式会社 | 制御装置、制御方法、およびプログラム |
JP7480706B2 (ja) * | 2018-10-30 | 2024-05-10 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
WO2020166371A1 (ja) * | 2019-02-15 | 2020-08-20 | ソニー株式会社 | 移動体、移動方法 |
WO2020256161A1 (ko) * | 2019-06-17 | 2020-12-24 | 엘지전자 주식회사 | 인공지능 홈 로봇 및 그의 제어 방법 |
WO2020256160A1 (ko) * | 2019-06-17 | 2020-12-24 | 엘지전자 주식회사 | 인공지능 홈 로봇 및 그의 제어 방법 |
CN110362118A (zh) * | 2019-07-08 | 2019-10-22 | 长江大学 | 空中海面水下多机器人远程立体协同控制系统及其控制方法 |
DE102019213032A1 (de) * | 2019-08-29 | 2021-03-04 | navel robotics GmbH | Roboter mit einer verhaltenssteuerungseinheit und verfahren zur verhaltenssteuerung eines roboters |
CN110930843A (zh) * | 2019-10-30 | 2020-03-27 | 杭州梦栖教育咨询有限公司 | 一种仿真眼睛动作的控制方法及仿真眼睛 |
JP7435620B2 (ja) * | 2019-11-14 | 2024-02-21 | 日本電気株式会社 | 無人機、無人機制御システム、制御方法、プログラム及び制御装置 |
JP7434944B2 (ja) * | 2020-01-30 | 2024-02-21 | セイコーエプソン株式会社 | ロボットシステムおよび制御装置 |
DE102020127797B4 (de) * | 2020-10-22 | 2024-03-14 | Markus Garcia | Sensorverfahren zum optischen Erfassen von Nutzungsobjekten zur Detektion eines Sicherheitsabstandes zwischen Objekten |
JP7113270B1 (ja) * | 2020-12-10 | 2022-08-05 | パナソニックIpマネジメント株式会社 | ロボット制御方法及び情報提供方法 |
JP7314967B2 (ja) * | 2021-03-16 | 2023-07-26 | カシオ計算機株式会社 | 電子機器、ロボット、制御方法及びプログラム |
JP7287411B2 (ja) * | 2021-03-16 | 2023-06-06 | カシオ計算機株式会社 | 機器の制御装置、機器の制御方法及びプログラム |
JP2022142111A (ja) * | 2021-03-16 | 2022-09-30 | カシオ計算機株式会社 | 機器の電源制御装置、機器の制御方法及びプログラム |
JP7517358B2 (ja) * | 2022-03-22 | 2024-07-17 | カシオ計算機株式会社 | 制御装置、制御方法、及びプログラム |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001162058A (ja) * | 1999-12-10 | 2001-06-19 | Iesato Sato | 自律移動型セラピー機器 |
JP2001191275A (ja) * | 1999-10-29 | 2001-07-17 | Sony Corp | ロボット・システム、外装及びロボット装置 |
JP2003071772A (ja) * | 2001-08-29 | 2003-03-12 | Daisuke Yagi | 電磁誘導による充電機能を備えたロボット |
JP2003251580A (ja) * | 2002-02-28 | 2003-09-09 | Matsushita Electric Ind Co Ltd | 人工目およびそれを用いたロボット |
JP2004249393A (ja) * | 2003-02-19 | 2004-09-09 | Sony Corp | ロボット装置及びその制御方法 |
JP2008238383A (ja) * | 2007-03-29 | 2008-10-09 | Honda Motor Co Ltd | ロボット |
US20130123987A1 (en) * | 2011-06-14 | 2013-05-16 | Panasonic Corporation | Robotic system, robot control method and robot control program |
JP2014131292A (ja) * | 2005-12-02 | 2014-07-10 | Irobot Corp | ロボットシステム |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20010053322A (ko) * | 1999-04-30 | 2001-06-25 | 이데이 노부유끼 | 전자 페트 시스템, 네트워크 시스템, 로봇, 및 기억 매체 |
JP2000323219A (ja) * | 1999-05-10 | 2000-11-24 | Sony Corp | 接続装置及びロボットシステム |
JP2001112102A (ja) * | 1999-10-05 | 2001-04-20 | Denso Corp | 移動ロボット |
JP2001191276A (ja) | 1999-10-29 | 2001-07-17 | Sony Corp | ロボットシステム、ロボット装置及びその外装 |
KR20010101883A (ko) * | 1999-11-30 | 2001-11-15 | 이데이 노부유끼 | 로봇 장치와 그 제어 방법, 및 로봇 장치의 성격 판별 방법 |
WO2001058649A1 (fr) * | 2000-02-14 | 2001-08-16 | Sony Corporation | Systeme robotique, dispositif robotise et procede de controle d'un tel systeme et dispositif et procede de traitement de donnees |
JP2001277166A (ja) * | 2000-03-31 | 2001-10-09 | Sony Corp | ロボット及びロボットの行動決定方法 |
JP4491912B2 (ja) * | 2000-05-22 | 2010-06-30 | ソニー株式会社 | バッテリ駆動の脚式移動ロボット及びその制御方法 |
JP2002307354A (ja) | 2000-11-07 | 2002-10-23 | Sega Toys:Kk | 電子玩具 |
JP2002222033A (ja) * | 2001-01-29 | 2002-08-09 | Nec Corp | 省電力システム、タスク省電力処理方法、及びそのプログラム |
JP2003071763A (ja) | 2001-09-04 | 2003-03-12 | Sony Corp | 脚式移動ロボット |
JP2003340759A (ja) * | 2002-05-20 | 2003-12-02 | Sony Corp | ロボット装置およびロボット制御方法、記録媒体、並びにプログラム |
US8222840B2 (en) * | 2002-12-12 | 2012-07-17 | Sony Corporation | Fuel cell mount apparatus and electric power supply system |
US20050005873A1 (en) | 2003-06-26 | 2005-01-13 | Pet Qwerks, Inc. | Light producing pet toy |
JP2005198704A (ja) | 2004-01-13 | 2005-07-28 | Takara Co Ltd | 動作玩具 |
CN2813032Y (zh) * | 2005-06-23 | 2006-09-06 | 陈忠伟 | 智能机器人玩具 |
WO2007041295A2 (en) | 2005-09-30 | 2007-04-12 | Irobot Corporation | Companion robot for personal interaction |
JP5109098B2 (ja) * | 2007-06-14 | 2012-12-26 | 本田技研工業株式会社 | 運動制御システム、運動制御方法および運動制御プログラム |
JP5127479B2 (ja) * | 2008-01-29 | 2013-01-23 | 株式会社東芝 | 行動改善支援装置及び行動改善支援方法 |
WO2009158653A1 (en) * | 2008-06-27 | 2009-12-30 | Intuitive Automata, Inc. | Apparatus and method for assisting in achieving desired behavior patterns |
KR101493075B1 (ko) * | 2008-12-17 | 2015-02-12 | 삼성전자 주식회사 | 이동 로봇의 위치 인식 장치 및 방법 |
KR102015307B1 (ko) * | 2010-12-28 | 2019-08-28 | 삼성전자주식회사 | 로봇 및 그 제어 방법 |
JP2012220783A (ja) | 2011-04-11 | 2012-11-12 | Togo Seisakusho Corp | 被介護者用ロボット装置 |
CN202289438U (zh) * | 2011-09-09 | 2012-07-04 | 周剑 | 一种人车变换自主编程的遥控机器人玩具 |
US20130146090A1 (en) * | 2011-12-13 | 2013-06-13 | Joseph Y. Ko | Method for controlling automatic cleaning devices |
US9079113B2 (en) | 2012-01-06 | 2015-07-14 | J. T. Labs Limited | Interactive personal robotic apparatus |
JP5631367B2 (ja) * | 2012-08-09 | 2014-11-26 | 本田技研工業株式会社 | 経路探索装置 |
KR101477179B1 (ko) * | 2013-07-19 | 2014-12-29 | 삼성전자주식회사 | 어플리케이션의 전력 효율을 결정하고 표시하는 방법 및 단말기 |
JP5999065B2 (ja) * | 2013-10-09 | 2016-09-28 | トヨタ自動車株式会社 | 移動支援装置、移動支援方法、及び運転支援システム |
EP2933065A1 (en) * | 2014-04-17 | 2015-10-21 | Aldebaran Robotics | Humanoid robot with an autonomous life capability |
JP6846684B2 (ja) * | 2016-01-29 | 2021-03-24 | パナソニックIpマネジメント株式会社 | ロボット、ロボットの制御方法、及び、プログラム |
CN107437830B (zh) * | 2016-05-27 | 2021-01-01 | 华硕电脑股份有限公司 | 自动行走装置及其控制方法 |
JP6780396B2 (ja) * | 2016-09-13 | 2020-11-04 | オムロン株式会社 | 駆動モード選択装置および駆動モード選択方法 |
-
2017
- 2017-07-10 CN CN201780042193.9A patent/CN109526208B/zh active Active
- 2017-07-10 JP JP2017566427A patent/JP6475872B2/ja active Active
- 2017-07-10 GB GB1900965.3A patent/GB2566881B/en active Active
- 2017-07-10 WO PCT/JP2017/025082 patent/WO2018012446A1/ja active Application Filing
- 2017-07-10 DE DE112017003497.3T patent/DE112017003497B4/de active Active
-
2019
- 2019-01-04 US US16/239,534 patent/US11579617B2/en active Active
- 2019-02-01 JP JP2019016943A patent/JP7231924B2/ja active Active
-
2023
- 2023-01-12 US US18/153,352 patent/US11809192B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001191275A (ja) * | 1999-10-29 | 2001-07-17 | Sony Corp | ロボット・システム、外装及びロボット装置 |
JP2001162058A (ja) * | 1999-12-10 | 2001-06-19 | Iesato Sato | 自律移動型セラピー機器 |
JP2003071772A (ja) * | 2001-08-29 | 2003-03-12 | Daisuke Yagi | 電磁誘導による充電機能を備えたロボット |
JP2003251580A (ja) * | 2002-02-28 | 2003-09-09 | Matsushita Electric Ind Co Ltd | 人工目およびそれを用いたロボット |
JP2004249393A (ja) * | 2003-02-19 | 2004-09-09 | Sony Corp | ロボット装置及びその制御方法 |
JP2014131292A (ja) * | 2005-12-02 | 2014-07-10 | Irobot Corp | ロボットシステム |
JP2008238383A (ja) * | 2007-03-29 | 2008-10-09 | Honda Motor Co Ltd | ロボット |
US20130123987A1 (en) * | 2011-06-14 | 2013-05-16 | Panasonic Corporation | Robotic system, robot control method and robot control program |
Also Published As
Publication number | Publication date |
---|---|
GB2566881A (en) | 2019-03-27 |
GB2566881B (en) | 2022-04-13 |
US20190138019A1 (en) | 2019-05-09 |
US11579617B2 (en) | 2023-02-14 |
US20230168682A1 (en) | 2023-06-01 |
WO2018012446A1 (ja) | 2018-01-18 |
JP6475872B2 (ja) | 2019-02-27 |
CN109526208B (zh) | 2021-02-02 |
DE112017003497T5 (de) | 2019-05-02 |
CN109526208A (zh) | 2019-03-26 |
US11809192B2 (en) | 2023-11-07 |
JP7231924B2 (ja) | 2023-03-02 |
GB201900965D0 (en) | 2019-03-13 |
JP2019107461A (ja) | 2019-07-04 |
DE112017003497B4 (de) | 2020-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6475872B2 (ja) | 活動量をコントロールされる自律行動型ロボット | |
JP6467674B2 (ja) | スキンシップを理解する自律行動型ロボット | |
JP6495486B2 (ja) | 自律行動型ロボット及びコンピュータプログラム | |
JP6402320B2 (ja) | 人見知りする自律行動型ロボット | |
JP7068709B2 (ja) | 瞳を変化させる自律行動型ロボット | |
JP6884401B2 (ja) | 服を着る自律行動型ロボット | |
JP6472106B2 (ja) | 涼しさを求める自律行動型ロボット | |
JP2019010728A (ja) | お出迎え行動する自律行動型ロボット | |
JP6557840B2 (ja) | ロボット、サーバ及び行動制御プログラム | |
JP2018192559A (ja) | 曲面形状のボディに対するタッチを検出する自律行動型ロボット | |
JP2024150558A (ja) | ロボット |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180307 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180403 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180416 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180604 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180731 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180928 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181023 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190201 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6475872 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
RG99 | Written request for provisional registration |
Free format text: JAPANESE INTERMEDIATE CODE: R313G99 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |