JP6884401B2 - 服を着る自律行動型ロボット - Google Patents
服を着る自律行動型ロボット Download PDFInfo
- Publication number
- JP6884401B2 JP6884401B2 JP2018164283A JP2018164283A JP6884401B2 JP 6884401 B2 JP6884401 B2 JP 6884401B2 JP 2018164283 A JP2018164283 A JP 2018164283A JP 2018164283 A JP2018164283 A JP 2018164283A JP 6884401 B2 JP6884401 B2 JP 6884401B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- costume
- motion
- unit
- wearing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 claims description 284
- 238000003860 storage Methods 0.000 claims description 50
- 238000001514 detection method Methods 0.000 claims description 33
- 230000007246 mechanism Effects 0.000 claims description 29
- 230000004044 response Effects 0.000 claims description 25
- 230000009471 action Effects 0.000 description 98
- 230000003542 behavioural effect Effects 0.000 description 45
- 230000006399 behavior Effects 0.000 description 38
- 238000000034 method Methods 0.000 description 32
- 238000007726 management method Methods 0.000 description 25
- 238000012545 processing Methods 0.000 description 21
- 238000004891 communication Methods 0.000 description 20
- 230000008451 emotion Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 17
- 238000013500 data storage Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 15
- 210000003128 head Anatomy 0.000 description 15
- 230000004913 activation Effects 0.000 description 14
- 238000012937 correction Methods 0.000 description 12
- 230000008859 change Effects 0.000 description 10
- 235000019645 odor Nutrition 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 241000282412 Homo Species 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 7
- 230000001965 increasing effect Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 239000000284 extract Substances 0.000 description 6
- 230000002349 favourable effect Effects 0.000 description 6
- 239000011521 glass Substances 0.000 description 6
- 241000282472 Canis lupus familiaris Species 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 241000282326 Felis catus Species 0.000 description 4
- 238000013459 approach Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 210000001508 eye Anatomy 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 206010037180 Psychiatric symptoms Diseases 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 230000003213 activating effect Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 229920005989 resin Polymers 0.000 description 3
- 239000011347 resin Substances 0.000 description 3
- 238000009423 ventilation Methods 0.000 description 3
- WUPHOULIZUERAE-UHFFFAOYSA-N 3-(oxolan-2-yl)propanoic acid Chemical compound OC(=O)CCC1CCCO1 WUPHOULIZUERAE-UHFFFAOYSA-N 0.000 description 2
- 206010041243 Social avoidant behaviour Diseases 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- 229910052980 cadmium sulfide Inorganic materials 0.000 description 2
- 238000007621 cluster analysis Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000035876 healing Effects 0.000 description 2
- 229910052751 metal Inorganic materials 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 239000002304 perfume Substances 0.000 description 2
- 239000004033 plastic Substances 0.000 description 2
- 230000003014 reinforcing effect Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 206010048909 Boredom Diseases 0.000 description 1
- JOYRKODLDBILNP-UHFFFAOYSA-N Ethyl urethane Chemical compound CCOC(N)=O JOYRKODLDBILNP-UHFFFAOYSA-N 0.000 description 1
- 206010020751 Hypersensitivity Diseases 0.000 description 1
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 206010044565 Tremor Diseases 0.000 description 1
- 229920006311 Urethane elastomer Polymers 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 230000007815 allergy Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000004791 biological behavior Effects 0.000 description 1
- 230000031018 biological processes and functions Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 239000013013 elastic material Substances 0.000 description 1
- 229920001971 elastomer Polymers 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000000763 evoking effect Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000037308 hair color Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910001416 lithium ion Inorganic materials 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 239000005060 rubber Substances 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 235000019615 sensations Nutrition 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 230000000391 smoking effect Effects 0.000 description 1
- 239000007779 soft material Substances 0.000 description 1
- 238000001179 sorption measurement Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000005303 weighing Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/001—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H11/00—Self-movable toy figures
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H3/00—Dolls
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H3/00—Dolls
- A63H3/28—Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H2200/00—Computerized interactive toys, e.g. dolls
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H3/00—Dolls
- A63H3/006—Dolls provided with electrical lighting
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
- Toys (AREA)
Description
そして、前記動作制御部は、前記ロボットが着用する衣装に対応付けられた温度範囲を前記温度センサに基づいて認識された温度が逸脱しているとき、前記ロボットが衣装の着用を拒絶する拒絶動作を実行するように前記ロボットの動作を制御する。
本発明の別の態様におけるロボットは、動作制御部と、駆動機構と、装備検出部と、ロボットが衣装を着用しているときのロボットに対するユーザの応対行為に応じて、着用している衣装に対する愛着度を更新する愛着度管理部を備える。
このロボットにおける動作制御部は、前記装備検出部により衣装を検出したとき、衣装に対する愛着度が格納されている愛着度情報格納部を参照し、前記検出された衣装に対応付けられた愛着度に応じた動作を実行するように前記ロボットの動作を制御する。
本実施形態におけるロボット100は、外部環境および内部状態に基づいて行動や仕草(ジェスチャー)を決定する自律行動型のロボットである。外部環境は、カメラやサーモセンサなど各種のセンサにより認識される。内部状態はロボット100の感情を表現するさまざまなパラメータとして定量化される。これらについては後述する。
ロボット100の頭部にはツノ112が取り付けられる。上述のようにロボット100は軽量であるため、ユーザはツノ112をつかむことでロボット100を持ち上げることも可能である。
ユーザは、ロボット100に衣装180を着せることができる。衣装180にはさまざまな種類がある。衣装180にはRFID(Radio Frequency Identifier)タグが縫い付けられている。RFIDタグは、衣装を識別する「衣装ID」を至近距離に発信する。ロボット100は、RFIDタグから衣装IDを読み取ることにより、衣装180を着用していることと、着用している衣装180の種別を特定する。ロボット100は、複数の衣装180を重ね着してもよい。
図3に示すように、ロボット100のボディ104は、ベースフレーム308、本体フレーム310、一対の樹脂製のホイールカバー312および外皮314を含む。ベースフレーム308は、金属からなり、ボディ104の軸芯を構成するとともに内部機構を支持する。ベースフレーム308は、アッパープレート332とロアプレート334とを複数のサイドプレート336により上下に連結して構成される。複数のサイドプレート336間には通気が可能となるよう、十分な間隔が設けられている。ベースフレーム308の内方には、バッテリー118、制御回路342および各種アクチュエータが収容されている。
ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。家屋内にはあらかじめ複数の外部センサ114(外部センサ114a、114b、・・・、114n)が設置される。外部センサ114は、家屋の壁面に固定されてもよいし、床に載置されてもよい。サーバ200には、外部センサ114の位置座標が登録される。位置座標は、ロボット100の行動範囲として想定される家屋内においてx,y座標として定義される。
外部センサ114はロボット100の感覚器を補強するためのものであり、サーバ200はロボット100の頭脳を補強するためのものである。
もちろん、ロボット100が自らの位置座標を定期的にサーバ200に送信する方式でもよい。
感情マップ116は、サーバ200に格納されるデータテーブルである。ロボット100は、感情マップ116にしたがって行動選択する。図5に示す感情マップ116は、ロボット100の場所に対する好悪感情の大きさを示す。感情マップ116のx軸とy軸は、二次元空間座標を示す。z軸は、好悪感情の大きさを示す。z値が正値のときにはその場所に対する好感が高く、z値が負値のときにはその場所を嫌悪していることを示す。
ロボット100がどのような場所を好むかという定義は任意であるが、一般的には、小さな子どもや犬や猫などの小動物が好む場所を好意地点として設定することが望ましい。
ロボット100がどのような場所を嫌うかという定義も任意であるが、一般的には、小さな子どもや犬や猫などの小動物が怖がる場所を嫌悪地点として設定することが望ましい。
図5に示す感情マップ116が与えられた場合、ロボット100は好意地点(座標P1)に引き寄せられる方向、嫌悪地点(座標P2)から離れる方向に移動する。
ロボット100は、内部センサ128、通信機126、記憶装置124、プロセッサ122、駆動機構120およびバッテリー118を含む。駆動機構120は、上述した車輪駆動機構370を含む。プロセッサ122と記憶装置124は、制御回路342に含まれる。各ユニットは電源線130および信号線132により互いに接続される。バッテリー118は、電源線130を介して各ユニットに電力を供給する。各ユニットは信号線132により制御信号を送受する。バッテリー118は、リチウムイオン二次電池であり、ロボット100の動力源である。
上述のように、ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。ロボット100およびサーバ200の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
ロボット100の機能の一部はサーバ200により実現されてもよいし、サーバ200の機能の一部または全部はロボット100により実現されてもよい。
サーバ200は、通信部204、データ処理部202およびデータ格納部206を含む。
通信部204は、外部センサ114、外部データベース182およびロボット100との通信処理を担当する。データ格納部206は各種データを格納する。データ処理部202は、通信部204により取得されたデータおよびデータ格納部206に格納されているデータに基づいて各種処理を実行する。データ処理部202は、通信部204およびデータ格納部206のインタフェースとしても機能する。
ロボット100は、さまざまな動作パターン(モーション)を有する。手を震わせる、蛇行しながらオーナーに近づく、首をかしげたままオーナーを見つめる、などさまざまなモーションが定義されている。モーションには、ロボット100に初期設定される「基本モーション」と、衣装を着用したときその衣装に対応づけられる特有の「スペシャルモーション」がある。
以下、いつ、どのモーションを選ぶか、モーションを実現する上での各アクチュエータの出力調整など、ロボット100の行動制御にかかわる設定のことを「行動特性」と総称する。
ロボット100は、大量の画像情報やその他のセンシング情報から得られる身体的特徴および行動的特徴に基づいて、高い頻度で出現するユーザを「オーナー」としてクラスタリングする。
本実施形態においては、身体的特徴と行動的特徴からユーザをクラスタリングし、ディープラーニング(多層型のニューラルネットワーク)によってユーザを識別する。詳細は後述する。
位置管理部208は、ロボット100の位置座標を、図4を用いて説明した方法にて特定する。位置管理部208はユーザの位置座標もリアルタイムで追跡してもよい。
行動マップAを行動マップBの5倍重視するときには、座標R1の合計z値は4×5−1=19、座標R2の合計z値は3×5+3=18であるから、ロボット100は座標R1の方向に向かう。
なお、人物認識部214は、人物以外、たとえば、ペットである猫や犬についても特徴抽出を行う。
快・不快行為は、ユーザの応対行為が、生物として心地よいものであるか不快なものであるかにより判別される。たとえば、抱っこされることはロボット100にとって快行為であり、蹴られることはロボット100にとって不快行為である。肯定・否定反応は、ユーザの応対行為が、ユーザの快感情を示すものか不快感情を示すものであるかにより判別される。たとえば、抱っこされることはユーザの快感情を示す肯定反応であり、蹴られることはユーザの不快感情を示す否定反応である。
ロボット100は、通信部142、データ処理部136、データ格納部148および駆動機構120を含む。
通信部142は、通信機126(図6参照)に該当し、外部センサ114およびサーバ200との通信処理を担当する。データ格納部148は各種データを格納する。データ格納部148は、記憶装置124(図6参照)に該当する。データ処理部136は、通信部142により取得されたデータおよびデータ格納部148に格納されているデータに基づいて各種処理を実行する。データ処理部136は、プロセッサ122およびプロセッサ122により実行されるコンピュータプログラムに該当する。データ処理部136は、通信部142、内部センサ128、駆動機構120およびデータ格納部148のインタフェースとしても機能する。
ロボット100のモーション格納部160は、サーバ200の基本モーション格納部232およびスペシャルモーション格納部242から各種モーションファイルがダウンロードされたモーションファイルが格納される。モーションは、モーションIDによって識別される。前輪102を収容して着座する、手106を持ち上げる、2つの前輪102を逆回転させることで、あるいは、片方の前輪102だけを回転させることでロボット100を回転行動させる、前輪102を収納した状態で前輪102を回転させることで震える、ユーザから離れるときにいったん停止して振り返る、などのさまざまなモーションを表現するために、各種アクチュエータ(駆動機構120)の動作タイミング、動作時間、動作方向などがモーションファイルにおいて時系列定義される。
行動制約情報格納部138は、サーバ200の行動制約情報格納部240と同様、衣装の行動制約情報を格納する。
ロボット100の動作制御部150は、サーバ200の動作制御部222と協働してロボット100のモーションを決める。一部のモーションについてはサーバ200で決定し、他のモーションについてはロボット100で決定してもよい。また、ロボット100がモーションを決定するが、ロボット100の処理負荷が高いときにはサーバ200がモーションを決定するとしてもよい。サーバ200においてベースとなるモーションを決定し、ロボット100において追加のモーションを決定してもよい。モーションの決定処理をサーバ200およびロボット100においてどのように分担するかはロボットシステム300の仕様に応じて設計すればよい。
ロボット100の移動方向の大枠を決めるのは行動マップであるが、ロボット100は親密度に対応した行動も可能である。
認識部156は、内蔵カメラ(内部センサ128)により定期的に外界を撮像し、人やペットなどの移動物体を検出する。これらの特徴はサーバ200に送信され、サーバ200の人物認識部214は移動物体の身体的特徴を抽出する。また、ユーザの匂いやユーザの声も検出する。匂いや音(声)は既知の方法にて複数種類に分類される。
以上は、簡単な設例であるが、上述の方法により、父親に対応する第1のプロファイルと母親に対応する第2のプロファイルが形成され、この家には少なくとも2人のユーザ(オーナー)がいることをロボット100は認識する。
このとき、サーバ200の人物認識部214は、ロボット100から得られる画像等のセンシング情報から特徴抽出を行い、ディーブラーニング(多層型ニューラルネットワーク)により、ロボット100の近くにいる移動物体がどのクラスタに該当するかを判断する。たとえば、ひげが生えている移動物体を検出したとき、この移動物体は父親である確率が高い。この移動物体が早朝行動していれば、父親に該当することはいっそう確実である。一方、メガネをかけている移動物体を検出したときには、この移動物体は母親である可能性もある。この移動物体にひげが生えていれば、母親ではなく父親でもないので、クラスタ分析されていない新しい人物であると判定する。
移動物体(ユーザ)からどのような行為をされるかによってそのユーザに対する親密度が変化する。
(1)親密度が非常に高いクラスタ
ロボット100は、ユーザに近づき(以下、「近接行動」とよぶ)、かつ、人に好意を示す仕草としてあらかじめ定義される愛情仕草を行うことで親愛の情を強く表現する。
(2)親密度が比較的高いクラスタ
ロボット100は、近接行動のみを行う。
(3)親密度が比較的低いクラスタ
ロボット100は特段のアクションを行わない。
(4)親密度が特に低いクラスタ
ロボット100は、離脱行動を行う。
横軸があるアクチュエータの出力値(出力電圧)を示し、縦軸はこのアクチュエータの実際の動作量(移動量や回転量)を示す。非着用特性190は、ロボット100が衣装180を着用していないときの特性を示す。着用特性192は、ロボット100が衣装180を着用しているときの特性を示す。非着用時においては、出力P1に対応する動作量はD2である。衣装180を着用するとロボット100の動作が規制されるため、出力P1に対する動作量はD2よりも小さいD1となる。
サーバ200の行動制約情報格納部240においては、衣装IDと衣装の行動制約情報が対応づけられる。上述したようにロボット100は複数のアクチュエータを含む。たとえば、衣装ID=01の衣装(以下、「衣装(01)」のように表記する)は、アクチュエータ1の動作にはまったく影響しないが、アクチュエータ2に対しては5%の行動制約をしている。図8でいえば、アクチュエータ2についての動作量D1はD2の95%に対応する。したがって、衣装(01)の着用時においては、動作制御部150はアクチュエータ2の出力を非着用時よりも大きく設定変更する必要がある。
まず、装備検出部186は、画像情報や温度情報、接触情報等の物理的情報に基づいて衣装着用を物理認識する(S10)。衣装着用を物理認識できないときには(S10のN)、以降の処理は実行されない。衣装着用を物理認識できたときであって(S10のY)、装備検出部186が衣装IDも検出できたときには(S12のY)、すなわち、公認衣装の着用時には、制約判定部188は衣装の行動制約性を判定する(S14)。ロボット100の行動制約情報格納部138において、行動制約情報が保存されているときには、制約判定部188はそれに基づいて行動制約性を判定する。行動制約情報格納部138に行動制約情報が保存されていないときには、モーション取得部184はサーバ200から行動制約情報を取得する。
ロボット100は衣装に応じて行動内容が変化してもよい。たとえば、ある衣装を着用したときには、その衣装に特有のスペシャルモーションを実行可能としてもよい。スペシャルモーションとしては、アイドルのコスチュームを着るとそのアイドルと同じ踊りを実行する、和服を着るといつもよりゆっくりと着座する、運動着を着ると活発に動き回る、などが考えられる。
1以上の行動マップによりパターン化できず予測しづらい、かつ、生物的な行動選択を表現している。
人間の行動はさまざまな要因の影響を受けるが、衣装はその一つである。人間は、衣装によって気分が変わり、行動も変化する。ロボット100は、衣装によって行動特性が変化させることで、人間的な行動特性をエミュレートしている。衣装を着たときにロボット100の動きが過度に鈍くなってしまうことは望ましくない。衣装に応じて各種アクチュエータの出力をさりげなく調整することで、ロボット100は衣装を「着こなす」ことができる。
変形例のロボットシステム300において、サーバ200のデータ処理部202は愛着度管理部224を含む。愛着度管理部224は、ロボット100の衣装に対する愛着の大きさを示す指標値として「愛着度」を管理する。データ格納部206は、愛着度情報格納部250を含む。愛着度情報格納部250は、衣装に対する愛着度が設定されるデータベースである。愛着度情報格納部250のデータ構造は、次の図13に関連して後述する。
衣装に対する愛着度は、−100(嫌い)から+100(好き)の範囲にて指標化される。図13によれば、衣装(02)の愛着度は84であるから、ロボット100は衣装(02)を好んでいる。一方、衣装(04)の愛着度は−90であるから、ロボット100は衣装(04)を嫌っている。また、衣装(05)の愛着度は0であるから、ロボット100は衣装(05)に対して中立である。
Claims (5)
- ロボットの動作を制御する動作制御部と、
前記動作制御部により指定された動作を実行する駆動機構と、
前記ロボットが着用する衣装を検出する装備検出部と、
温度センサとを備え、
前記動作制御部は、前記ロボットが着用する衣装に対応付けられた温度範囲を前記温度センサに基づいて認識された温度が逸脱しているとき、前記ロボットが衣装の着用を拒絶する拒絶動作を実行するように前記ロボットの動作を制御することを特徴とするロボット。 - 前記拒絶動作は、前記ロボットの周囲にいる人から離れる動作であることを特徴とする請求項1記載のロボット。
- 前記拒絶動作は、前記ロボットのボディを揺らす動作であることを特徴とする請求項1又は2記載のロボット。
- 前記拒絶動作は、動かないという動作であることを特徴とする請求項1〜3のうちいずれか1項記載のロボット。
- ロボットの動作を制御する動作制御部と、
前記動作制御部により指定された動作を実行する駆動機構と、
ロボットが着用する衣装を検出する装備検出部と、
ロボットが衣装を着用しているときのロボットに対するユーザの応対行為に応じて、着用している衣装に対する愛着度を更新する愛着度管理部とを備え、
前記動作制御部は、前記装備検出部により衣装を検出したとき、衣装に対する愛着度が格納されている愛着度情報格納部を参照し、前記検出された衣装に対応付けられた愛着度に応じた動作を実行するように前記ロボットの動作を制御することを特徴とするロボット。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016135713 | 2016-07-08 | ||
JP2016135713 | 2016-07-08 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017564924A Division JP6409207B2 (ja) | 2016-07-08 | 2017-06-07 | 服を着る自律行動型ロボット |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019022935A JP2019022935A (ja) | 2019-02-14 |
JP2019022935A5 JP2019022935A5 (ja) | 2020-08-06 |
JP6884401B2 true JP6884401B2 (ja) | 2021-06-09 |
Family
ID=60912586
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017564924A Active JP6409207B2 (ja) | 2016-07-08 | 2017-06-07 | 服を着る自律行動型ロボット |
JP2018164283A Active JP6884401B2 (ja) | 2016-07-08 | 2018-09-03 | 服を着る自律行動型ロボット |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017564924A Active JP6409207B2 (ja) | 2016-07-08 | 2017-06-07 | 服を着る自律行動型ロボット |
Country Status (6)
Country | Link |
---|---|
US (1) | US11198221B2 (ja) |
JP (2) | JP6409207B2 (ja) |
CN (1) | CN109414824B (ja) |
DE (1) | DE112017002606B4 (ja) |
GB (1) | GB2564822B (ja) |
WO (1) | WO2018008323A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019026420A1 (ja) * | 2017-08-04 | 2019-02-07 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP6747423B2 (ja) * | 2017-12-22 | 2020-08-26 | カシオ計算機株式会社 | ロボット、ロボット制御システム、ロボットの制御方法及びプログラム |
WO2019146422A1 (ja) * | 2018-01-25 | 2019-08-01 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラムおよびロボット |
KR102497042B1 (ko) * | 2018-01-29 | 2023-02-07 | 삼성전자주식회사 | 사용자 행동을 바탕으로 반응하는 로봇 및 그의 제어 방법 |
JP7326707B2 (ja) | 2018-06-21 | 2023-08-16 | カシオ計算機株式会社 | ロボット、ロボットの制御方法及びプログラム |
JP2021165866A (ja) * | 2018-07-10 | 2021-10-14 | ソニーグループ株式会社 | 管理装置および方法、制御装置および方法、並びに管理システム |
CN113164822B (zh) * | 2018-12-14 | 2023-03-10 | Groove X 株式会社 | 穿衣服的机器人 |
CN111452035A (zh) * | 2019-01-22 | 2020-07-28 | 中国移动通信集团终端有限公司 | 机器人的控制方法及机器人 |
CN109877834A (zh) * | 2019-03-12 | 2019-06-14 | 广东小天才科技有限公司 | 多屏显示机器人、方法和装置、显示机器人和显示方法 |
US11883963B2 (en) * | 2019-06-03 | 2024-01-30 | Cushybots Corporation | Robotic platform for interactive play using a telepresence robot surrogate |
US11904252B1 (en) * | 2020-06-24 | 2024-02-20 | Savanna Palafox | Therapeutic device |
WO2023248697A1 (ja) * | 2022-06-24 | 2023-12-28 | ソニーグループ株式会社 | 情報処理装置、および情報処理方法、並びにプログラム |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6337552B1 (en) * | 1999-01-20 | 2002-01-08 | Sony Corporation | Robot apparatus |
US5733131A (en) * | 1994-07-29 | 1998-03-31 | Seiko Communications Holding N.V. | Education and entertainment device with dynamic configuration and operation |
US5752880A (en) * | 1995-11-20 | 1998-05-19 | Creator Ltd. | Interactive doll |
US5746602A (en) * | 1996-02-27 | 1998-05-05 | Kikinis; Dan | PC peripheral interactive doll |
US6160540A (en) * | 1998-01-12 | 2000-12-12 | Xerox Company | Zoomorphic computer user interface |
JP2000093664A (ja) * | 1998-09-18 | 2000-04-04 | Takara Co Ltd | 組合せ玩具 |
US6149490A (en) * | 1998-12-15 | 2000-11-21 | Tiger Electronics, Ltd. | Interactive toy |
JP2000323219A (ja) | 1999-05-10 | 2000-11-24 | Sony Corp | 接続装置及びロボットシステム |
JP2001191275A (ja) * | 1999-10-29 | 2001-07-17 | Sony Corp | ロボット・システム、外装及びロボット装置 |
JP2001191276A (ja) * | 1999-10-29 | 2001-07-17 | Sony Corp | ロボットシステム、ロボット装置及びその外装 |
JP2002086380A (ja) * | 2000-09-12 | 2002-03-26 | Sony Corp | 脚式ロボット及びその制御方法 |
JP2002127059A (ja) | 2000-10-20 | 2002-05-08 | Sony Corp | 行動制御装置および方法、ペットロボットおよび制御方法、ロボット制御システム、並びに記録媒体 |
US7066781B2 (en) * | 2000-10-20 | 2006-06-27 | Denise Chapman Weston | Children's toy with wireless tag/transponder |
JP2003208161A (ja) * | 2001-11-12 | 2003-07-25 | Sony Corp | ロボット装置及びその制御方法 |
JP4335501B2 (ja) * | 2002-07-24 | 2009-09-30 | 株式会社エヌ・ティ・ティ・ドコモ | モーションコントロールシステム及び制御装置並びにモーションコントロール方法 |
JP3885019B2 (ja) * | 2002-11-29 | 2007-02-21 | 株式会社東芝 | セキュリティシステム及び移動ロボット |
JP2004283958A (ja) * | 2003-03-20 | 2004-10-14 | Sony Corp | ロボット装置、その行動制御方法及びプログラム |
JP2005013391A (ja) | 2003-06-25 | 2005-01-20 | Takara Co Ltd | 作動玩具 |
TWI262777B (en) * | 2004-04-21 | 2006-10-01 | Jason Yan | Robotic vacuum cleaner |
US20060178775A1 (en) * | 2005-02-04 | 2006-08-10 | George Zhang | Accelerometer to monitor movement of a tool assembly attached to a robot end effector |
TWI306051B (en) * | 2006-12-14 | 2009-02-11 | Ind Tech Res Inst | Robotic apparatus with surface information displaying and interaction capability |
JP5311294B2 (ja) * | 2010-04-28 | 2013-10-09 | 株式会社安川電機 | ロボットの接触位置検出装置 |
CN102339023B (zh) * | 2010-07-16 | 2013-11-13 | 华宝通讯股份有限公司 | 机械装置控制系统 |
JP5765095B2 (ja) * | 2011-06-30 | 2015-08-19 | 富士通株式会社 | ロボット、状況認識方法および状況認識プログラム |
US20160059142A1 (en) * | 2014-08-28 | 2016-03-03 | Jaroslaw KROLEWSKI | Interactive smart doll |
US10311400B2 (en) * | 2014-10-24 | 2019-06-04 | Fellow, Inc. | Intelligent service robot and related systems and methods |
US9796093B2 (en) * | 2014-10-24 | 2017-10-24 | Fellow, Inc. | Customer service robot and related systems and methods |
CN107025009B (zh) * | 2015-09-18 | 2020-03-27 | 延世大学校产协力团 | 高灵敏度压力传感器及利用其的输入装置 |
WO2017169826A1 (ja) * | 2016-03-28 | 2017-10-05 | Groove X株式会社 | お出迎え行動する自律行動型ロボット |
SE1650402A1 (en) * | 2016-03-29 | 2017-09-30 | Furhat Robotics Ab | Customization of robot |
JP6354796B2 (ja) * | 2016-06-23 | 2018-07-11 | カシオ計算機株式会社 | ロボット、ロボットの制御方法及びプログラム |
TWI575428B (zh) * | 2016-08-02 | 2017-03-21 | Rong-Jing Xu | 觸控輔助結構及其應用裝置 |
US10663361B2 (en) * | 2016-10-13 | 2020-05-26 | The Trustees Of Columbia University In The City Of New York | Systems and methods for tactile sensing |
-
2017
- 2017-06-07 GB GB1818887.0A patent/GB2564822B/en active Active
- 2017-06-07 DE DE112017002606.7T patent/DE112017002606B4/de active Active
- 2017-06-07 JP JP2017564924A patent/JP6409207B2/ja active Active
- 2017-06-07 CN CN201780041601.9A patent/CN109414824B/zh active Active
- 2017-06-07 WO PCT/JP2017/021099 patent/WO2018008323A1/ja active Application Filing
-
2018
- 2018-09-03 JP JP2018164283A patent/JP6884401B2/ja active Active
- 2018-11-26 US US16/200,500 patent/US11198221B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN109414824B (zh) | 2022-07-26 |
US20190160683A1 (en) | 2019-05-30 |
GB2564822A (en) | 2019-01-23 |
CN109414824A (zh) | 2019-03-01 |
WO2018008323A1 (ja) | 2018-01-11 |
JPWO2018008323A1 (ja) | 2018-07-05 |
JP6409207B2 (ja) | 2018-10-24 |
DE112017002606B4 (de) | 2020-06-25 |
US11198221B2 (en) | 2021-12-14 |
DE112017002606T5 (de) | 2019-02-21 |
GB201818887D0 (en) | 2019-01-02 |
GB2564822B (en) | 2021-08-18 |
JP2019022935A (ja) | 2019-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6884401B2 (ja) | 服を着る自律行動型ロボット | |
JP6467674B2 (ja) | スキンシップを理解する自律行動型ロボット | |
JP6402320B2 (ja) | 人見知りする自律行動型ロボット | |
US11809192B2 (en) | Autonomously acting robot whose activity amount is controlled | |
JP7068709B2 (ja) | 瞳を変化させる自律行動型ロボット | |
JP6436548B2 (ja) | 自律行動型ロボット | |
JP6472113B2 (ja) | 自然な距離感を保つ自律行動型ロボットおよびプログラム | |
JP6409209B2 (ja) | 涼しさを求める自律行動型ロボット | |
JP6671577B2 (ja) | 人を識別する自律行動型ロボット | |
JP6557840B2 (ja) | ロボット、サーバ及び行動制御プログラム | |
JP2018192559A (ja) | 曲面形状のボディに対するタッチを検出する自律行動型ロボット |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200309 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200603 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200603 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210312 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210413 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210430 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6884401 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
RG99 | Written request for provisional registration |
Free format text: JAPANESE INTERMEDIATE CODE: R313G99 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |