JP7177497B2 - 相手を見つめる自律行動型ロボット - Google Patents
相手を見つめる自律行動型ロボット Download PDFInfo
- Publication number
- JP7177497B2 JP7177497B2 JP2019541047A JP2019541047A JP7177497B2 JP 7177497 B2 JP7177497 B2 JP 7177497B2 JP 2019541047 A JP2019541047 A JP 2019541047A JP 2019541047 A JP2019541047 A JP 2019541047A JP 7177497 B2 JP7177497 B2 JP 7177497B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- eye
- user
- image
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000009471 action Effects 0.000 title claims description 88
- 210000001508 eye Anatomy 0.000 claims description 423
- 210000001747 pupil Anatomy 0.000 claims description 234
- 230000033001 locomotion Effects 0.000 claims description 165
- 210000005252 bulbus oculi Anatomy 0.000 claims description 84
- 210000000744 eyelid Anatomy 0.000 claims description 37
- 230000007246 mechanism Effects 0.000 claims description 33
- 230000008859 change Effects 0.000 claims description 29
- 210000003128 head Anatomy 0.000 claims description 23
- 238000001514 detection method Methods 0.000 claims description 9
- 238000000034 method Methods 0.000 description 41
- 238000010586 diagram Methods 0.000 description 39
- 230000008451 emotion Effects 0.000 description 35
- 238000012545 processing Methods 0.000 description 30
- 230000001179 pupillary effect Effects 0.000 description 28
- 230000006870 function Effects 0.000 description 21
- 230000008569 process Effects 0.000 description 21
- 230000006399 behavior Effects 0.000 description 20
- 230000003547 miosis Effects 0.000 description 20
- 230000004044 response Effects 0.000 description 18
- 238000007726 management method Methods 0.000 description 17
- 238000004891 communication Methods 0.000 description 16
- 238000013500 data storage Methods 0.000 description 15
- 239000013598 vector Substances 0.000 description 14
- 241000282472 Canis lupus familiaris Species 0.000 description 11
- 230000003542 behavioural effect Effects 0.000 description 10
- 230000002996 emotional effect Effects 0.000 description 10
- 230000004424 eye movement Effects 0.000 description 10
- 206010027646 Miosis Diseases 0.000 description 9
- 230000004397 blinking Effects 0.000 description 9
- 241000282412 Homo Species 0.000 description 8
- 206010037180 Psychiatric symptoms Diseases 0.000 description 8
- 230000004459 microsaccades Effects 0.000 description 8
- 230000002911 mydriatic effect Effects 0.000 description 8
- 238000012423 maintenance Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 241001465754 Metazoa Species 0.000 description 6
- 239000000284 extract Substances 0.000 description 6
- 208000006550 Mydriasis Diseases 0.000 description 5
- 206010044565 Tremor Diseases 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 230000001965 increasing effect Effects 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 241001469893 Oxyzygonectes dovii Species 0.000 description 4
- 238000013459 approach Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 239000000470 constituent Substances 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 230000002349 favourable effect Effects 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 210000003205 muscle Anatomy 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 241000282326 Felis catus Species 0.000 description 3
- 241000218225 Trema Species 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 238000007621 cluster analysis Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 229920005989 resin Polymers 0.000 description 3
- 239000011347 resin Substances 0.000 description 3
- 238000009423 ventilation Methods 0.000 description 3
- 206010048909 Boredom Diseases 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004399 eye closure Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 229910052751 metal Inorganic materials 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000003014 reinforcing effect Effects 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- JOYRKODLDBILNP-UHFFFAOYSA-N Ethyl urethane Chemical compound CCOC(N)=O JOYRKODLDBILNP-UHFFFAOYSA-N 0.000 description 1
- 206010020751 Hypersensitivity Diseases 0.000 description 1
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 241000320126 Pseudomugilidae Species 0.000 description 1
- 206010041243 Social avoidant behaviour Diseases 0.000 description 1
- 229920006311 Urethane elastomer Polymers 0.000 description 1
- 238000013019 agitation Methods 0.000 description 1
- 230000007815 allergy Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000004791 biological behavior Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 210000000795 conjunctiva Anatomy 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 239000013013 elastic material Substances 0.000 description 1
- 229920001971 elastomer Polymers 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 210000000720 eyelash Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910001416 lithium ion Inorganic materials 0.000 description 1
- 206010025482 malaise Diseases 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 210000001328 optic nerve Anatomy 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 239000005060 rubber Substances 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 239000007779 soft material Substances 0.000 description 1
- 238000001179 sorption measurement Methods 0.000 description 1
- 230000002618 waking effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/0015—Face robots, animated artificial faces for imitating human expressions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H11/00—Self-movable toy figures
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H3/00—Dolls
- A63H3/36—Details; Accessories
- A63H3/38—Dolls' eyes
- A63H3/40—Dolls' eyes movable
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/086—Proximity sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H2200/00—Computerized interactive toys, e.g. dolls
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Automation & Control Theory (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Manipulator (AREA)
- Toys (AREA)
Description
眼制御部は、ユーザとロボットとの相対位置に応じて眼画像に含まれる瞳領域を変化させる。
認識部は、ロボットとユーザの位置関係に応じて撮像画像および熱分布画像のいずれかを選択し、選択した画像からユーザの顔領域を特定する。
眼制御部は、特定された顔領域を注視点として設定し、眼画像に含まれる瞳領域を注視点に応じて移動させる。
眼制御部は、ユーザの目を注視点として設定した上で眼画像に含まれる瞳領域を注視点に応じて移動させることによりロボットの視線をユーザの目に向けさせ、ロボットとユーザの位置関係が変化した場合にも変化後のユーザの目の位置を新たな注視点として設定することによりユーザの目に向けたロボットの視線を維持する。
認識部は、更に、ユーザの視線方向を検出する。
眼制御部は、ユーザの目を注視点として設定した上で眼画像に含まれる瞳領域を注視点に応じて移動させることによりロボットの視線をユーザの目に向けさせ、ユーザの視線がロボットから外されたときに注視点をユーザの目から外す。
本実施形態におけるロボット100は、外部環境および内部状態に基づいて行動や仕草(ジェスチャー)を決定する自律行動型のロボットである。外部環境は、カメラやサーモセンサなど各種のセンサにより認識される。内部状態はロボット100の感情を表現するさまざまなパラメータとして定量化される。これらについては後述する。
図2に示すように、ロボット100のボディ104は、ベースフレーム308、本体フレーム310、一対の樹脂製のホイールカバー312および外皮314を含む。ベースフレーム308は、金属からなり、ボディ104の軸芯を構成するとともに内部機構を支持する。ベースフレーム308は、アッパープレート332とロアプレート334とを複数のサイドプレート336により上下に連結して構成される。複数のサイドプレート336間には通気が可能となるよう、十分な間隔が設けられる。ベースフレーム308の内方には、バッテリー118、制御回路342および各種アクチュエータが収容されている。
ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。家屋内にはあらかじめ複数の外部センサ114(外部センサ114a、114b、・・・、114n)が設置される。外部センサ114は、家屋の壁面に固定されてもよいし、床に載置されてもよい。サーバ200には、外部センサ114の位置座標が登録される。位置座標は、ロボット100の行動範囲として想定される家屋内においてx,y座標として定義される。
外部センサ114はロボット100の感覚器を補強するためのものであり、サーバ200はロボット100の頭脳を補強するためのものである。
もちろん、ロボット100が自らの位置座標を定期的にサーバ200に送信する方式でもよい。
感情マップ116は、サーバ200に格納されるデータテーブルである。ロボット100は、感情マップ116にしたがって行動選択する。図4に示す感情マップ116は、ロボット100の場所に対する好悪感情の大きさを示す。感情マップ116のx軸とy軸は、二次元空間座標を示す。z軸は、好悪感情の大きさを示す。z値が正値のときにはその場所に対する好感が高く、z値が負値のときにはその場所を嫌悪していることを示す。
ロボット100がどのような場所を好むかという定義は任意であるが、一般的には、小さな子どもや犬や猫などの小動物が好む場所を好意地点として設定することが望ましい。
ロボット100がどのような場所を嫌うかという定義も任意であるが、一般的には、小さな子どもや犬や猫などの小動物が怖がる場所を嫌悪地点として設定することが望ましい。
ロボット100は、内部センサ128、通信機126、記憶装置124、プロセッサ122、駆動機構120およびバッテリー118を含む。駆動機構120は、上述した車輪駆動機構370を含む。プロセッサ122と記憶装置124は、制御回路342に含まれる。各ユニットは電源線130および信号線132により互いに接続される。バッテリー118は、電源線130を介して各ユニットに電力を供給する。各ユニットは信号線132により制御信号を送受する。バッテリー118は、リチウムイオン二次電池であり、ロボット100の動力源である。
上述のように、ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。ロボット100およびサーバ200の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーション・プログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
ロボット100の機能の一部はサーバ200により実現されてもよいし、サーバ200の機能の一部または全部はロボット100により実現されてもよい。
サーバ200は、通信部204、データ処理部202およびデータ格納部206を含む。
通信部204は、外部センサ114およびロボット100との通信処理を担当する。データ格納部206は各種データを格納する。データ処理部202は、通信部204により取得されたデータおよびデータ格納部206に格納されるデータに基づいて各種処理を実行する。データ処理部202は、通信部204およびデータ格納部206のインタフェースとしても機能する。
ロボット100は、複数の動作パターン(モーション)を有する。手106を震わせる、蛇行しながらオーナーに近づく、首をかしげたままオーナーを見つめる、などさまざまなモーションが定義される。
以下、いつ、どのモーションを選ぶか、モーションを実現する上での各アクチュエータの出力調整など、ロボット100の行動制御に関わる設定のことを「行動特性」と総称する。ロボット100の行動特性は、モーション選択アルゴリズム、モーションの選択確率、モーションファイル等により定義される。
位置管理部208は、ロボット100の位置座標を、図3を用いて説明した方法にて特定する。位置管理部208はユーザの位置座標もリアルタイムで追跡してもよい。
感情管理部234は、ロボット100の感情(寂しさ、好奇心、承認欲求など)を示すさまざまな感情パラメータを管理する。これらの感情パラメータは常に揺らいでいる。感情パラメータに応じて複数の行動マップの重要度が変化し、行動マップによってロボット100の移動目標地点が変化し、ロボット100の移動や時間経過によって感情パラメータが変化する。
行動マップAを行動マップBの5倍重視するときには、座標R1の合計z値は4×5-1=19、座標R2の合計z値は3×5+3=18であるから、ロボット100は座標R1の方向に向かう。
人物認識部214は、ロボット100の内蔵カメラによる撮像画像から抽出された特徴ベクトルと、個人データ格納部218にあらかじめ登録されているユーザ(クラスタ)の特徴ベクトルと比較することにより、撮像されたユーザがどの人物に該当するかを判定する(ユーザ識別処理)。人物認識部214は、表情認識部230を含む。表情認識部230は、ユーザの表情を画像認識することにより、ユーザの感情を推定する。
なお、人物認識部214は、人物以外の移動物体、たとえば、ペットである猫や犬についてもユーザ識別処理を行う。
快・不快行為は、ユーザの応対行為が、生物として心地よいものであるか不快なものであるかにより判別される。たとえば、抱っこされることはロボット100にとって快行為であり、蹴られることはロボット100にとって不快行為である。肯定・否定反応は、ユーザの応対行為が、ユーザの快感情を示すものか不快感情を示すものであるかにより判別される。たとえば、抱っこされることはユーザの快感情を示す肯定反応であり、蹴られることはユーザの不快感情を示す否定反応である。
行動マップに移動目標地点や移動ルートが決定され、後述の各種イベントによりモーションが選択される。
ロボット100は、通信部142、データ処理部136、データ格納部148、内部センサ128および駆動機構120を含む。
通信部142は、通信機126(図5参照)に該当し、外部センサ114、サーバ200および他のロボット100との通信処理を担当する。データ格納部148は各種データを格納する。データ格納部148は、記憶装置124(図5参照)に該当する。データ処理部136は、通信部142により取得されたデータおよびデータ格納部148に格納されているデータに基づいて各種処理を実行する。データ処理部136は、プロセッサ122およびプロセッサ122により実行されるコンピュータプログラムに該当する。データ処理部136は、通信部142、内部センサ128、駆動機構120およびデータ格納部148のインタフェースとしても機能する。
ロボット100のモーション格納部160には、サーバ200のモーション格納部232から各種モーションファイルがダウンロードされる。モーションは、モーションIDによって識別される。前輪102を収容して着座する、手106を持ち上げる、2つの前輪102を逆回転させることで、あるいは、片方の前輪102だけを回転させることでロボット100を回転行動させる、前輪102を収納した状態で前輪102を回転させることで震える、ユーザから離れるときにいったん停止して振り返る、などのさまざまなモーションを表現するために、各種アクチュエータ(駆動機構120)の動作タイミング、動作時間、動作方向などがモーションファイルにおいて時系列定義される。
本実施形態におけるカメラ144は、ツノ112に取り付けられる全天周カメラ(全方位カメラ)である。カメラ144は、ロボット100の周辺を常時撮像する。サーモセンサ138は、ロボット100の周辺の外気温分布を定期的に検出する。ロボット100は、カメラ144およびサーモセンサ138によりユーザが周辺に存在しているか否かを検出する。視線検出部140は、カメラ144の撮像画像からユーザの目の動きを検出する既知のセンサである。視線検出部140により、ロボット100に対するユーザの視線方向を検出する。
ロボット100の動作制御部150は、サーバ200の動作制御部222と協働してロボット100のモーションを決める。一部のモーションについてはサーバ200で決定し、他のモーションについてはロボット100で決定してもよい。また、ロボット100がモーションを決定するが、ロボット100の処理負荷が高いときにはサーバ200がモーションを決定するとしてもよい。サーバ200においてベースとなるモーションを決定し、ロボット100において追加のモーションを決定してもよい。モーションの決定処理をサーバ200およびロボット100においてどのように分担するかはロボットシステム300の仕様に応じて設計すればよい。
たとえば、ひげが生えている移動物体(ユーザ)は早朝に活動すること(早起き)が多く、赤い服を着ることが少ないのであれば、早起きでひげが生えていて赤い服をあまり着ないクラスタ(ユーザ)、という第1のプロファイルができる。一方、メガネをかけている移動物体はスカートを履いていることが多いが、この移動物体にはひげが生えていない場合、メガネをかけていてスカートを履いているが絶対ひげは生えていないクラスタ(ユーザ)、という第2のプロファイルができる。
以上は、簡単な設例であるが、上述の方法により、父親に対応する第1のプロファイルと母親に対応する第2のプロファイルが形成され、この家には少なくとも2人のユーザ(オーナー)がいることをロボット100は認識する。
このとき、サーバ200の人物認識部214は、新たな移動物体の特徴ベクトルに基づいてユーザ識別処理を実行し、移動物体がどのプロファイル(クラスタ)に該当するかを判断する。たとえば、ひげが生えている移動物体を検出したとき、この移動物体は父親である確率が高い。この移動物体が早朝行動していれば、父親に該当することはいっそう確実である。一方、メガネをかけている移動物体を検出したときには、この移動物体は母親である可能性もある。この移動物体にひげが生えていれば、母親ではなく父親でもないので、クラスタ分析されていない新しい人物であると判定する。
まとめると、ロボット100は内部センサ128によりユーザの行為を物理的情報として取得し、サーバ200の応対認識部228は快・不快を判定し、サーバ200の認識部212は特徴ベクトルに基づくユーザ識別処理を実行する。
(1)親密度が非常に高いユーザ
ロボット100は、ユーザに近づき(以下、「近接行動」とよぶ)、かつ、人に好意を示す仕草としてあらかじめ定義される愛情仕草を行うことで親愛の情を強く表現する。
(2)親密度が比較的高いユーザ
ロボット100は、近接行動のみを行う。
(3)親密度が比較的低いユーザ
ロボット100は特段のアクションを行わない。
(4)親密度が特に低いユーザ
ロボット100は、離脱行動を行う。
図7は、眼画像174の外観図である。
眼制御部152は、瞳画像164(瞳領域)と周縁画像168を含む眼画像174を生成し、眼画像174を目110の位置に埋設されるモニタ170に動画表示させる。瞳画像164を動かすことでロボット100の「視線」が表現される。また、所定のタイミングで瞬き動作を実行することもできる。
眼画像174においては、瞳画像164と周縁画像168に瞼(まぶた)を示す瞼画像176が重畳される。瞼画像176は、まつ毛178を含む。周縁画像168は、人間の結膜にあたる部分である。瞳画像164に含まれる虹彩領域162は、人間の角膜にあたる部分である。
眼球モデル250は、ロボット100の眼球を模した三次元コンピュータグラフィックスである。眼制御部152は、まず、三次元の球体をポリゴンにて形成し、これにテクスチャ(以下、「眼球テクスチャ」とよぶ)を貼ることにより眼球モデル250を形成する。眼球テクスチャは、瞳画像164を含む画像である。眼画像格納部172は、複数種類の眼球テクスチャを格納する。
生物は、球体形状の眼球を有し、眼球を回転させることによって視線の方向を変化させる。たとえば、人間が犬の左側にいるときでも犬の視線を感じられるのは、犬が眼球を回転させ、瞳を左にいる人間に向けることができるためである。犬の瞳と正対する方向、いいかえれば、犬の眼球面における瞳の中心線方向(法線方向)が犬の視線方向を表す。このとき、人間からは犬の瞳は真円に見える。犬は、体や首を動かさなくても、眼球を動かして瞳の法線方向(視線方向)を変えることにより、いわゆる「流し目」にて人間を凝視できる。
図11において、観察対象者はロボット100の左側に位置する。左目法線NLと対象方向DLはほぼ一致するため、左目モニタ170Lの瞳画像164(以下、「左瞳画像164L」と表記する)を少し左方向に移動させれば、観察対象者はロボット100の左目に見つめられていると感じることができる。一方、右目法線NRと対象方向DLは大きく異なる。眼制御部152が右目モニタ170Rの瞳画像(以下、「右瞳画像164R」と表記する)を左方向に移動させても、観察対象者はロボット100の右目による視線を感じにくい。右目法線NR(右目の視線方向)が観察対象者に向いていないためである。対象距離が近いときには、左目に見つめられていても右目には見つめられていないという違和感が強くなりやすい。
本実施形態においては、視線方向(法線方向)と対象方向のずれにともなう違和感を抑制するため、眼制御部152は瞳画像164を扁平化させることにより瞳画像164の視線方向を疑似的に動かす(以下、「瞳扁平処理」とよぶ)。瞳扁平処理は、瞳画像164を縦方向に圧縮し、瞳画像164を横長の楕円形状に変形させる処理である。
図13においては、図12(b)に示したように瞳画像164が扁平化しているものとする。観察対象者がモニタ170に正対するとき(正面方向D1)、モニタ170は真円に見えるが、瞳画像164は横長に大きく扁平している。モニタ170の左方向D2に観察対象者がいるとき、観察対象者はモニタ170を斜めから見ることになるため、モニタ170は縦長に扁平した形で見える。モニタ170の縦長扁平と瞳画像164の横長扁平が相殺され、瞳画像164は真円に近い横長扁平形状に見える。観察対象者が更に左方向D3に位置すると、モニタ170はいっそう縦長に扁平して見え、瞳画像164は真円形状に見える。このように、横長楕円形状の瞳画像164を斜め方向から見るとき、観察対象者には瞳画像164が真円に見える。
人間の瞳は、眼から取り入れた光が網膜に焼き付くのを防ぐため、また、視神経の疲れを防止するため絶えず微動している。これを「固視微動(Involuntary Eye Movement)」という。固視微動は、ドリフト(drift)、トレマ(tremor)、マイクロサッケード(micro-saccade)といった動きに分解される。ドリフトは瞳の中心点の波状の動き、トレマはドリフトに重なったジグザグの動き、マイクロサッケードは瞳の直線状の動きを表す。固視微動は、人間の心理状態を表すともいわれている。
本実施形態に示す制御方法によれば、ユーザがロボット100に正対していないときでも、ユーザはロボット100に見つめられていると感じることができる。見つめられているとは、視線、いいかえれば、眼球における瞳の法線が自分に向けられていると感じることである。このとき、自分を見つめる瞳は真円となる。本実施形態におけるロボット100は、三次元の眼球モデル250を有するものの、それを二次元のモニタ170(眼球面258)に投影するため、実際に瞳の法線を動かすことはできない。そこで、本実施形態においては、瞳画像164を扁平化して、モニタ170に正対しないユーザに対しても真円に近い瞳画像164を見せることにより、「見つめられている」という感覚をユーザにもたせている。
本実施形態においては、ロボット100は2つの目110を有するとして説明したが、3以上の目110を有するロボット、あるいは、目110を1つしか有さないロボットに対しても本発明は応用可能である。
図16は、注視点Sを説明するための模式図である。
眼制御部152は、ロボット100が存在する空間内の任意の地点に注視点Sを設定してもよい。眼制御部152は、眼球モデル250R(右目)および眼球モデル250L(左目)を回転させ、2つの瞳画像164を注視点Sに向ける。いいかえれば、眼球モデル250における瞳画像164の法線上に注視点Sを位置させる。ロボット100の2つの瞳画像164による2つの視線を注視点Sに集中させることにより、ロボット100による注視点Sの「注目」を表現できる。
上述したように、「見つめる」という行為は「対象に興味をもっている」ことを意味する。特に、二人の人間がお互いの目を見つめ合うとき、この二人は言葉にはならない「一体感」「交流感」をもつことになる。ユーザとロボット100の間でもこのような強い絆を実現するためには、ロボット100がユーザの顔の位置、特に、ユーザの目の位置を認識する必要がある。
図17は、右目モニタ170Rにおける瞳画像164が中央ポジションにあるときの眼画像174の模式図である。図18は、右目モニタ170Rにおける瞳画像164が中央ポジションから外れたときの眼画像174の模式図である。
人間は、真正面を向いているときには、瞳を動かしやすい。しかし、横方向を見ているとき、いわゆる「流し目」の状態になっているときには眼球を動かす外眼筋(上直筋などの各種筋肉の総称)に力がかかっているため、瞳を動かしづらくなる。たとえば、既に左方を見ているときに更に左方を見ようとするとき、あるいは、左方を見ているときに左上に視線を移動させるときには外眼筋に力がかかる。同様にして、上目遣いになっているときに瞳を更に上に動かすのは、真正面を向いているときに視線を上方に動かすときよりも動かしづらい。
図19は、瞼画像176と瞳画像164の連動を説明するための模式図である。
人間が眼球を回転させて上を見るとき、いいかえれば、上目遣いになるとき、瞼も眼球の動きにつられて上(開眼方向)に移動する。また、人間が眼球を回転させて下を見るときには瞼もつられて下(閉眼方向)に移動する。ロボット100においても同様の制御を実行すれば、人間の目の肉体的特性を表現できるため、ロボット100の生物感をいっそう高められると考えられる。
図20(a)から図20(d)は、開眼時における縮瞳を説明するための模式図である。図21(a)から図21(d)は、開眼時における散瞳を説明するための模式図である。
ロボット100は、瞬きや睡眠(充電)のために、適宜、瞼を閉じることで閉眼する。本変形例においては、開眼時において、瞳孔領域158を縮小または拡大させることで、ユーザがロボット100の瞳画像164に注目する機会を積極的に作り出す。以下、瞳孔領域158を縮小させた状態を「縮瞳」とよび、瞳孔領域158を拡大させた状態を「散瞳」とよぶ。ここでは、瞳孔領域158は「縮瞳状態(小サイズ)」「通常状態(基本サイズ)」および「散瞳状態(大サイズ)」の3状態の間で状態遷移するものとして説明する。
眼制御部152は、感情パラメータに応じて、眼画像174を変化させてもよい。眼制御部152は、感情パラメータに応じて、ドリフトの移動速度、移動量、トレマの振幅、周波数、マイクロサッケードの頻度、移動量、移動速度を変化させてもよい。眼制御部152は、感情パラメータに応じて、瞳孔領域158の形状およびサイズを変化させてもよい。
ロボット100は、ユーザの顔、特に、目に注視点Sを設定する。ロボット100が移動するとき、あるいは、ユーザが移動するときには、ユーザとロボット100の位置関係が変化する。認識部156は、ユーザとロボット100の位置関係が変化したときにもユーザの顔の位置を再検出し、眼制御部152は再検出地点に注視点Sを再設定する。つまり、認識部156は、注視点Sを連続的に追尾し、眼制御部152は瞳画像154を連続的に動かすことでスムーズな視線の動きを表現する。このような制御方法によれば、ユーザとロボット100の位置関係が変化しても、ロボット100はユーザを凝視しつづけることができる。
ロボット100がユーザから視線を外すことも、ユーザはロボット100から見つめられていたことに気づく契機となる。ロボット100が注視対象物(ユーザなど)から視線を外すタイミングを決定するために下記のような条件が考えられる。
(C1)ロボット100がユーザの顔(注視対象物)に注視点Sを設定してから所定時間(以下、「第1注視維持時間」とよぶ)が経過したとき、ロボット100はユーザの顔以外に注視点Sを再設定することにより、ユーザから視線を外す。
(C2)ユーザがロボット100に対して話しかけているときには視線は外さない。ユーザのロボット100に対する声かけが終了してから所定時間(以下、「第2注視維持時間」とよぶ)が経過したとき、ロボット100はユーザから視線を外す。
(C3)ユーザがロボット100を見つめているときには視線は外さない。ユーザがロボット100から視線を外してから所定時間(以下、「第3注視維持時間」とよぶ)が経過したとき、ロボット100はユーザから視線を外す。
(C4)所定のイベントが発生したとき、ロボット100はユーザから視線を外す。たとえば、大きな音を検出したとき、別のユーザを視認したときなどが考えられる。
(C5)感情パラメータが所定状態となったときに、ロボット100はユーザから視線を外す。たとえば、承認欲求を示す感情パラメータはユーザからの視線を検出しているときに上昇し続け、この感情パラメータが所定の閾値以上となったとき、ロボット100はユーザから視線を外すとしてもよい。
本実施形態においては、眼球モデル250を第1面252に投影することにより、二次元の眼画像174を生成するとして説明した。変形例として、眼画像174を複数枚の画像を重ね合わせることにより形成してもよい。
(L1)白目画像
白目画像は、最下層の画像であり、眼画像174の白目部分(周縁画像168)に対応する。視線の動きに追随することはない固定の画像である。
(L2)虹彩画像
白目画像の上に重ねられる。眼画像174の虹彩領域162に対応する。視線の動きにともなって眼画像174において上下左右に移動する。
(L3)瞳孔画像
虹彩画像の上に重ねられる。眼画像174の瞳孔領域158に対応する。視線の動きにともなって眼画像174において上下左右に移動する。
(L4)ハイライト画像
瞳孔画像の上に重ねられる。眼画像174のキャッチライト166に対応する。視線の動きに追随することはない。ロボット100の向きが変化するとき、眼制御部152は光入射方向に合わせてハイライト画像を移動させることにより、キャッチライト166の位置を調整する。
(L5)反射画像
ハイライト画像の上に重ねられる。ハイライト画像は、瞳への映り込みである。眼制御部152はロボット100の正面の撮像画像を魚眼レンズのように変形させた上で、ハイライト画像の上に重ねる。反射画像は視線の動きに追随することはない。ロボット100の向きが変化するとき、眼制御部152は撮像画像に合わせて反射画像を変化させる。
Claims (16)
- ロボットのモーションを選択する動作制御部と、
前記動作制御部により選択されたモーションを実行する駆動機構と、
前記ロボットの表示装置に眼画像を表示させる眼制御部と、
ユーザを検出する認識部と、を備え、
前記眼制御部は、前記ユーザと前記ロボットとの相対位置に応じて眼画像に含まれる瞳領域を変化させ、
前記動作制御部は、前記瞳領域の変化量が所定値以上となるとき、
前記ロボットの頭部または胴部を前記ユーザに向けるモーションを選択することを特徴とする自律行動型ロボット。
- 前記眼制御部は、前記ユーザが所定範囲内に存在することを条件として、前記瞳領域を変化させることを特徴とする請求項1に記載の自律行動型ロボット。
- 前記眼制御部は、眼球の3次元モデルである眼球モデルを生成し、
前記眼球モデルを第1の面に投影することにより前記眼画像を生成することを特徴とする請求項1に記載の自律行動型ロボット。
- 前記眼制御部は、瞼画像を第2の面に表示させ、前記第1の面に投影される前記眼画像に前記瞼画像を重畳して前記表示装置に表示させることを特徴とする請求項3に記載の自律行動型ロボット。
- 前記眼制御部は、前記眼画像において前記瞳領域を振動させることを特徴とする請求項1に記載の自律行動型ロボット。
- 前記眼制御部は、軸点を中心として前記瞳領域を振動させつつ、前記眼画像において前記軸点を移動させることを特徴とする請求項5に記載の自律行動型ロボット。
- 前記眼制御部は、前記瞳領域を拡縮させることを特徴とする請求項1に記載の自律行動型ロボット。
- 前記認識部は、更に、前記ユーザの視線方向を検出し、
前記眼制御部は、前記ユーザの前記ロボットに対する視線を検出したとき、前記眼画像を変化させることを特徴とする請求項1に記載の自律行動型ロボット。
- 前記ロボットの表示装置は、第1および第2の表示装置を含み、前記眼制御部は、前記第1および第2の表示装置それぞれに眼画像を表示させ、前記ユーザから遠い側の表示装置に表示させる眼画像の瞳領域を近い側の表示装置に表示させる眼画像の瞳領域よりも大きく変形させることを特徴とする請求項1に記載の自律行動型ロボット。
- 前記眼制御部は、複数種類の眼画像からいずれかの眼画像を制御対象として選択し、前記選択した眼画像に含まれる瞳領域を変化させることを特徴とする請求項1に記載の自律行動型ロボット。
- 自律行動型ロボットのモーションを選択する機能と、
前記自律行動型ロボットに搭載される表示装置に眼画像を表示させる機能と、
ユーザを検出する機能と、
前記ユーザと前記自律行動型ロボットとの相対位置に応じて眼画像に含まれる瞳領域を変化させる機能と、
前記瞳領域の変化量が所定値以上となるとき、前記自律行動型ロボットの頭部または胴部を前記ユーザに向けるモーションを選択する機能と、をコンピュータに発揮させることを特徴とするロボット制御プログラム。
- カメラと、
温度検出センサと、
ロボットのモーションを選択する動作制御部と、
前記動作制御部により選択されたモーションを実行する駆動機構と、
前記ロボットの表示装置に眼画像を表示させる眼制御部と、
前記カメラにより取得された撮像画像または前記温度検出センサにより取得された熱分布画像に基づいて、ユーザを検出する認識部と、
を備え、
前記認識部は、前記ロボットと前記ユーザの位置関係に応じて前記撮像画像および前記熱分布画像のいずれかを選択し、選択した画像から前記ユーザの顔領域を特定し、
前記眼制御部は、前記特定された顔領域を注視点として設定し、前記眼画像に含まれる瞳領域を前記注視点に応じて移動させることを特徴とする自律行動型ロボット。
- 前記眼制御部は、更に、前記ユーザの目を注視点として設定した上で前記眼画像に含まれる瞳領域を前記注視点に応じて移動させることにより前記ロボットの視線を前記ユーザの目に向けさせ、前記ロボットと前記ユーザの位置関係が変化した場合にも変化後の前記ユーザの目の位置を新たな注視点として設定することにより前記ロボットの前記ユーザの目に向けた視線を維持することを特徴とする請求項1に記載の自律行動型ロボット。
- 前記眼制御部は、更に、前記ユーザの目を注視点として設定した上で前記眼画像に含まれる瞳領域を前記注視点に応じて移動させることにより前記ロボットの視線を前記ユーザの目に向けさせ、
前記ユーザの視線が前記ロボットから外されたときに前記注視点を前記ユーザの目から外すことを特徴とする請求項8に記載の自律行動型ロボット。
- ロボットのモーションを選択する動作制御部と、
前記動作制御部により選択されたモーションを実行する駆動機構と、
前記ロボットの第1の表示装置および第2の表示装置それぞれに眼画像を表示させる眼制御部と、
ユーザを検出する認識部と、を備え、
前記眼制御部は、前記ユーザと前記ロボットとの相対位置に応じて眼画像に含まれる瞳領域を変化させるとともに、
前記第1の表示装置および前記第2の表示装置それぞれに眼画像を表示させ、前記ユーザから遠い側の表示装置に表示させる眼画像の瞳領域を近い側の表示装置に表示させる眼画像の瞳領域よりも大きく変形させることを特徴とする自律行動型ロボット。
- 自律行動型ロボットのモーションを選択する機能と、
前記自律行動型ロボットに搭載される表示装置に眼画像を表示させる機能と、
ユーザを検出する機能と、
前記ユーザと前記自律行動型ロボットとの相対位置に応じて眼画像に含まれる瞳領域を変化させる機能と、
第1および第2の表示装置それぞれに眼画像を表示させ、前記ユーザから遠い側の表示装置に表示させる眼画像の瞳領域を近い側の表示装置に表示させる眼画像の瞳領域よりも大きく変形させることを特徴とするロボット制御プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022177451A JP2023009135A (ja) | 2017-09-11 | 2022-11-04 | ロボット、プログラム及び方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017173975 | 2017-09-11 | ||
JP2017173975 | 2017-09-11 | ||
PCT/JP2018/033466 WO2019050034A1 (ja) | 2017-09-11 | 2018-09-10 | 相手を見つめる自律行動型ロボット |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022177451A Division JP2023009135A (ja) | 2017-09-11 | 2022-11-04 | ロボット、プログラム及び方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019050034A1 JPWO2019050034A1 (ja) | 2020-11-05 |
JP7177497B2 true JP7177497B2 (ja) | 2022-11-24 |
Family
ID=65634861
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019541047A Active JP7177497B2 (ja) | 2017-09-11 | 2018-09-10 | 相手を見つめる自律行動型ロボット |
JP2022177451A Pending JP2023009135A (ja) | 2017-09-11 | 2022-11-04 | ロボット、プログラム及び方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022177451A Pending JP2023009135A (ja) | 2017-09-11 | 2022-11-04 | ロボット、プログラム及び方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11498222B2 (ja) |
JP (2) | JP7177497B2 (ja) |
CN (2) | CN117001687A (ja) |
DE (1) | DE112018005034B4 (ja) |
GB (1) | GB2580273B (ja) |
WO (1) | WO2019050034A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107111314B (zh) * | 2014-11-07 | 2021-10-08 | 索尼公司 | 控制系统、控制方法以及存储介质 |
CA202512S (en) * | 2018-12-17 | 2021-05-03 | Groove X Inc | Robot toy |
JP7414299B2 (ja) * | 2019-04-04 | 2024-01-16 | Groove X株式会社 | 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法 |
KR102314385B1 (ko) * | 2019-08-08 | 2021-10-19 | 엘지전자 주식회사 | 로봇 및 그의 제어 방법 |
CN110930843A (zh) * | 2019-10-30 | 2020-03-27 | 杭州梦栖教育咨询有限公司 | 一种仿真眼睛动作的控制方法及仿真眼睛 |
CN112807703B (zh) * | 2020-10-25 | 2021-12-10 | 淮北禾获人科技有限公司 | 智能化踏板间距调节系统及方法 |
CN112936245B (zh) * | 2021-02-05 | 2023-07-18 | 华南理工大学 | 一种类人机器人头部和眼睛注视控制装置及方法 |
JP2022142506A (ja) * | 2021-03-16 | 2022-09-30 | 本田技研工業株式会社 | 制御装置、制御方法、およびロボット制御システム |
US11786832B2 (en) | 2021-04-29 | 2023-10-17 | Ekta Pawar | Three-dimensional animatronic eye |
KR102511034B1 (ko) * | 2021-10-19 | 2023-03-17 | 옥재윤 | 인공지능 기반의 서비스 로봇 |
CN114253398A (zh) * | 2021-12-08 | 2022-03-29 | 深圳市多狗乐智能研发有限公司 | 一种高仿真生物眼睛互动图像显示模块及方法 |
AU2023200454A1 (en) * | 2022-08-12 | 2024-02-29 | Spin Master Ltd. | Device With Flapping Display |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003205489A (ja) | 2002-01-08 | 2003-07-22 | Matsushita Electric Ind Co Ltd | 人工目およびそれを用いたロボット |
JP2004283975A (ja) | 2003-03-24 | 2004-10-14 | Advanced Telecommunication Research Institute International | コミュニケーションロボット |
JP2005279896A (ja) | 2004-03-30 | 2005-10-13 | Advanced Telecommunication Research Institute International | ロボット |
JP2007181888A (ja) | 2006-01-05 | 2007-07-19 | Advanced Telecommunication Research Institute International | コミュニケーションロボットシステム |
JP2007323150A (ja) | 2006-05-30 | 2007-12-13 | Keio Gijuku | 人体器官擬似装置 |
WO2009001558A1 (ja) | 2007-06-27 | 2008-12-31 | Panasonic Corporation | ヒト状態推定装置およびその方法 |
JP2018062042A (ja) | 2016-10-13 | 2018-04-19 | トヨタ自動車株式会社 | コミュニケーション装置 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05205030A (ja) * | 1992-01-27 | 1993-08-13 | Nippon Telegr & Teleph Corp <Ntt> | 撮影人物の視線一致表示装置 |
JPH0812706B2 (ja) * | 1993-03-25 | 1996-02-07 | 株式会社エイ・ティ・アール通信システム研究所 | 視線アニメーション表示装置 |
JPH08305878A (ja) * | 1995-05-09 | 1996-11-22 | Casio Comput Co Ltd | 顔画像作成装置 |
JPH11179061A (ja) | 1997-12-01 | 1999-07-06 | Chin Kyo | Lcdの目を持つぬいぐるみ人形 |
JP4512963B2 (ja) * | 1999-05-10 | 2010-07-28 | ソニー株式会社 | ロボット装置及びその制御方法 |
JP2000323219A (ja) | 1999-05-10 | 2000-11-24 | Sony Corp | 接続装置及びロボットシステム |
JP2001191276A (ja) * | 1999-10-29 | 2001-07-17 | Sony Corp | ロボットシステム、ロボット装置及びその外装 |
EP1327504B1 (en) * | 2000-10-13 | 2018-05-02 | Sony Corporation | Robot device and behavior control method for robot device |
US7113848B2 (en) * | 2003-06-09 | 2006-09-26 | Hanson David F | Human emulation robot system |
US20060128263A1 (en) * | 2004-12-09 | 2006-06-15 | Baird John C | Computerized assessment system and method for assessing opinions or feelings |
JP2006212717A (ja) | 2005-02-01 | 2006-08-17 | Advanced Telecommunication Research Institute International | ロボット装置 |
WO2007041295A2 (en) * | 2005-09-30 | 2007-04-12 | Irobot Corporation | Companion robot for personal interaction |
CN101143264A (zh) * | 2006-09-12 | 2008-03-19 | 明基电通股份有限公司 | 眼睛模块与表情图案显示模块及其显示方法 |
US20100060713A1 (en) * | 2008-09-10 | 2010-03-11 | Eastman Kodak Company | System and Method for Enhancing Noverbal Aspects of Communication |
US8483873B2 (en) * | 2010-07-20 | 2013-07-09 | Innvo Labs Limited | Autonomous robotic life form |
JP2012155616A (ja) | 2011-01-27 | 2012-08-16 | Panasonic Corp | コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラム |
JP5729692B2 (ja) | 2011-02-28 | 2015-06-03 | 国立大学法人信州大学 | ロボット装置 |
JP6047394B2 (ja) * | 2012-12-19 | 2016-12-21 | 住友理工株式会社 | 柔軟な表情表示装置 |
US8955750B2 (en) * | 2013-07-05 | 2015-02-17 | Retoy, LLC | System and method for interactive mobile gaming |
EP2933067B1 (en) | 2014-04-17 | 2019-09-18 | Softbank Robotics Europe | Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method |
US10366689B2 (en) * | 2014-10-29 | 2019-07-30 | Kyocera Corporation | Communication robot |
JP2017064862A (ja) | 2015-09-30 | 2017-04-06 | シャープ株式会社 | ロボット装置 |
WO2018097089A1 (ja) | 2016-11-24 | 2018-05-31 | Groove X株式会社 | 瞳を変化させる自律行動型ロボット |
JP6572943B2 (ja) * | 2017-06-23 | 2019-09-11 | カシオ計算機株式会社 | ロボット、ロボットの制御方法及びプログラム |
-
2018
- 2018-09-10 DE DE112018005034.3T patent/DE112018005034B4/de active Active
- 2018-09-10 CN CN202311112871.8A patent/CN117001687A/zh active Pending
- 2018-09-10 WO PCT/JP2018/033466 patent/WO2019050034A1/ja active Application Filing
- 2018-09-10 GB GB2005091.0A patent/GB2580273B/en active Active
- 2018-09-10 CN CN201880058667.3A patent/CN111093913A/zh active Pending
- 2018-09-10 JP JP2019541047A patent/JP7177497B2/ja active Active
-
2020
- 2020-03-10 US US16/814,977 patent/US11498222B2/en active Active
-
2022
- 2022-11-04 JP JP2022177451A patent/JP2023009135A/ja active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003205489A (ja) | 2002-01-08 | 2003-07-22 | Matsushita Electric Ind Co Ltd | 人工目およびそれを用いたロボット |
JP2004283975A (ja) | 2003-03-24 | 2004-10-14 | Advanced Telecommunication Research Institute International | コミュニケーションロボット |
JP2005279896A (ja) | 2004-03-30 | 2005-10-13 | Advanced Telecommunication Research Institute International | ロボット |
JP2007181888A (ja) | 2006-01-05 | 2007-07-19 | Advanced Telecommunication Research Institute International | コミュニケーションロボットシステム |
JP2007323150A (ja) | 2006-05-30 | 2007-12-13 | Keio Gijuku | 人体器官擬似装置 |
WO2009001558A1 (ja) | 2007-06-27 | 2008-12-31 | Panasonic Corporation | ヒト状態推定装置およびその方法 |
JP2018062042A (ja) | 2016-10-13 | 2018-04-19 | トヨタ自動車株式会社 | コミュニケーション装置 |
Also Published As
Publication number | Publication date |
---|---|
GB2580273A (en) | 2020-07-15 |
JP2023009135A (ja) | 2023-01-19 |
CN111093913A (zh) | 2020-05-01 |
DE112018005034T5 (de) | 2020-09-10 |
JPWO2019050034A1 (ja) | 2020-11-05 |
US20200206940A1 (en) | 2020-07-02 |
DE112018005034B4 (de) | 2022-05-12 |
CN117001687A (zh) | 2023-11-07 |
GB202005091D0 (en) | 2020-05-20 |
WO2019050034A1 (ja) | 2019-03-14 |
US11498222B2 (en) | 2022-11-15 |
GB2580273B (en) | 2022-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7177497B2 (ja) | 相手を見つめる自律行動型ロボット | |
JP7068709B2 (ja) | 瞳を変化させる自律行動型ロボット | |
US11809192B2 (en) | Autonomously acting robot whose activity amount is controlled | |
US11285614B2 (en) | Autonomously acting robot that understands physical contact | |
JP6472113B2 (ja) | 自然な距離感を保つ自律行動型ロボットおよびプログラム | |
JP7236142B2 (ja) | 自律行動型ロボット | |
JP6671577B2 (ja) | 人を識別する自律行動型ロボット | |
JP2024045247A (ja) | ロボット |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210910 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210910 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220728 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220916 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221004 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221104 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7177497 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |