JP6508864B2 - 瞳を変化させるロボット - Google Patents
瞳を変化させるロボット Download PDFInfo
- Publication number
- JP6508864B2 JP6508864B2 JP2018552083A JP2018552083A JP6508864B2 JP 6508864 B2 JP6508864 B2 JP 6508864B2 JP 2018552083 A JP2018552083 A JP 2018552083A JP 2018552083 A JP2018552083 A JP 2018552083A JP 6508864 B2 JP6508864 B2 JP 6508864B2
- Authority
- JP
- Japan
- Prior art keywords
- eye
- robot
- image
- eye image
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 210000001508 eye Anatomy 0.000 title claims description 367
- 210000001747 pupil Anatomy 0.000 claims description 49
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 22
- 238000001514 detection method Methods 0.000 claims description 20
- 240000004050 Pentaglottis sempervirens Species 0.000 claims description 19
- 230000032683 aging Effects 0.000 claims description 14
- 238000000605 extraction Methods 0.000 claims description 12
- 239000000284 extract Substances 0.000 claims description 9
- 241000905137 Veronica schmidtiana Species 0.000 claims description 3
- 230000033001 locomotion Effects 0.000 description 127
- 230000009471 action Effects 0.000 description 62
- 230000008859 change Effects 0.000 description 57
- 230000008451 emotion Effects 0.000 description 36
- 230000007246 mechanism Effects 0.000 description 32
- 238000012545 processing Methods 0.000 description 27
- 238000000034 method Methods 0.000 description 25
- 230000004044 response Effects 0.000 description 25
- 230000006399 behavior Effects 0.000 description 23
- 238000007726 management method Methods 0.000 description 21
- 238000004891 communication Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 19
- 238000013500 data storage Methods 0.000 description 17
- 210000000744 eyelid Anatomy 0.000 description 16
- 239000013598 vector Substances 0.000 description 15
- 210000003128 head Anatomy 0.000 description 13
- 230000008569 process Effects 0.000 description 12
- 206010037180 Psychiatric symptoms Diseases 0.000 description 10
- 230000002996 emotional effect Effects 0.000 description 10
- 230000014509 gene expression Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 235000019645 odor Nutrition 0.000 description 7
- 238000013459 approach Methods 0.000 description 6
- 230000003542 behavioural effect Effects 0.000 description 6
- 230000007423 decrease Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 210000000720 eyelash Anatomy 0.000 description 5
- 230000001965 increasing effect Effects 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 210000005252 bulbus oculi Anatomy 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 206010063659 Aversion Diseases 0.000 description 3
- 241000282472 Canis lupus familiaris Species 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 3
- 241000282412 Homo Species 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 3
- 238000007621 cluster analysis Methods 0.000 description 3
- 210000004709 eyebrow Anatomy 0.000 description 3
- 229920005989 resin Polymers 0.000 description 3
- 239000011347 resin Substances 0.000 description 3
- CURLTUGMZLYLDI-UHFFFAOYSA-N Carbon dioxide Chemical compound O=C=O CURLTUGMZLYLDI-UHFFFAOYSA-N 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 230000003749 cleanliness Effects 0.000 description 2
- 210000000795 conjunctiva Anatomy 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 230000035876 healing Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003014 reinforcing effect Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- KWHXMASXPBOSRE-JKIIOOKNSA-N (2z)-2-[(2r,3s,4s)-4-hydroxy-2-(3-hydroxypropyl)-3,4-dimethyl-3-[(3e,7e)-4,8,12-trimethyltrideca-3,7,11-trienyl]cyclohexylidene]propanal Chemical compound CC(C)=CCC\C(C)=C\CC\C(C)=C\CC[C@@]1(C)[C@H](CCCO)\C(=C(\C)C=O)CC[C@]1(C)O KWHXMASXPBOSRE-JKIIOOKNSA-N 0.000 description 1
- 206010048909 Boredom Diseases 0.000 description 1
- JOYRKODLDBILNP-UHFFFAOYSA-N Ethyl urethane Chemical compound CCOC(N)=O JOYRKODLDBILNP-UHFFFAOYSA-N 0.000 description 1
- 206010020751 Hypersensitivity Diseases 0.000 description 1
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 206010038743 Restlessness Diseases 0.000 description 1
- 208000032140 Sleepiness Diseases 0.000 description 1
- 206010041349 Somnolence Diseases 0.000 description 1
- 229920006311 Urethane elastomer Polymers 0.000 description 1
- 238000013019 agitation Methods 0.000 description 1
- 230000007815 allergy Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000004791 biological behavior Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 229910002092 carbon dioxide Inorganic materials 0.000 description 1
- 239000001569 carbon dioxide Substances 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 239000013013 elastic material Substances 0.000 description 1
- 229920001971 elastomer Polymers 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000004313 glare Effects 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- VWZKPZARAHDCMM-UHFFFAOYSA-N iridal Natural products CC(CC=C(C)C)C=CCCC(=CCCC1(C)C(CCCO)C(=C(C)/C=O)CCC1(C)O)C VWZKPZARAHDCMM-UHFFFAOYSA-N 0.000 description 1
- 230000002427 irreversible effect Effects 0.000 description 1
- 230000004446 light reflex Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910001416 lithium ion Inorganic materials 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 239000002304 perfume Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000001179 pupillary effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 239000005060 rubber Substances 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000037321 sleepiness Effects 0.000 description 1
- 239000007779 soft material Substances 0.000 description 1
- 238000001179 sorption measurement Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000009423 ventilation Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/0015—Face robots, animated artificial faces for imitating human expressions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/80—Creating or modifying a manually drawn or painted image using a manual input device, e.g. mouse, light pen, direction keys on keyboard
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Ophthalmology & Optometry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Geometry (AREA)
- Manipulator (AREA)
- Toys (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- User Interface Of Digital Computer (AREA)
Description
眼生成部は、ユーザの目の特徴量を眼画像に反映させる。
眼生成部は、眼画像を経年変化させる。
眼生成部は、眼画像にキャッチライトを含ませ、外部光源の方向に応じてキャッチライトの位置を変化させる。
眼生成部は、外光の光量に応じて、眼画像に含まれる瞳画像のサイズを変化させる。
眼生成部は、眼画像にカメラで撮影された被写体画像を重畳させる。
眼生成部は、いずれかのアイコンの表示条件が成立し、かつ、ロボットに対する視線が検出されたとき、アイコンを眼画像に重畳する。
眼生成部は、いずれかのアイコンの表示条件が成立しているとき、眼画像の瞬きを実行するタイミングにて、アイコンを眼画像に重畳する。
本実施形態におけるロボット100は、外部環境および内部状態に基づいて行動や仕草(ジェスチャー)を決定する自律行動型のロボットである。外部環境は、カメラやサーモセンサなど各種のセンサにより認識される。内部状態はロボット100の感情を表現するさまざまなパラメータとして定量化される。これらについては後述する。
図2に示すように、ロボット100のボディ104は、ベースフレーム308、本体フレーム310、一対の樹脂製のホイールカバー312および外皮314を含む。ベースフレーム308は、金属からなり、ボディ104の軸芯を構成するとともに内部機構を支持する。ベースフレーム308は、アッパープレート332とロアプレート334とを複数のサイドプレート336により上下に連結して構成される。複数のサイドプレート336間には通気が可能となるよう、十分な間隔が設けられる。ベースフレーム308の内方には、バッテリー118、制御回路342および各種アクチュエータが収容されている。
ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。家屋内にはあらかじめ複数の外部センサ114(外部センサ114a、114b、・・・、114n)が設置される。外部センサ114は、家屋の壁面に固定されてもよいし、床に載置されてもよい。サーバ200には、外部センサ114の位置座標が登録される。位置座標は、ロボット100の行動範囲として想定される家屋内においてx,y座標として定義される。
外部センサ114はロボット100の感覚器を補強するためのものであり、サーバ200はロボット100の頭脳を補強するためのものである。
もちろん、ロボット100が自らの位置座標を定期的にサーバ200に送信する方式でもよい。
感情マップ116は、サーバ200に格納されるデータテーブルである。ロボット100は、感情マップ116にしたがって行動選択する。図4に示す感情マップ116は、ロボット100の場所に対する好悪感情の大きさを示す。感情マップ116のx軸とy軸は、二次元空間座標を示す。z軸は、好悪感情の大きさを示す。z値が正値のときにはその場所に対する好感が高く、z値が負値のときにはその場所を嫌悪していることを示す。
ロボット100がどのような場所を好むかという定義は任意であるが、一般的には、小さな子どもや犬や猫などの小動物が好む場所を好意地点として設定することが望ましい。
ロボット100がどのような場所を嫌うかという定義も任意であるが、一般的には、小さな子どもや犬や猫などの小動物が怖がる場所を嫌悪地点として設定することが望ましい。
図4に示す感情マップ116が与えられた場合、ロボット100は好意地点(座標P1)に引き寄せられる方向、嫌悪地点(座標P2)から離れる方向に移動する。
ロボット100は、モニタ170、内部センサ128、通信機126、記憶装置124、プロセッサ122、駆動機構120およびバッテリー118を含む。駆動機構120は、上述した車輪駆動機構370を含む。プロセッサ122と記憶装置124は、制御回路342に含まれる。各ユニットは電源線130および信号線132により互いに接続される。バッテリー118は、電源線130を介して各ユニットに電力を供給する。各ユニットは信号線132により制御信号を送受する。バッテリー118は、リチウムイオン二次電池であり、ロボット100の動力源である。
モニタ170は、ロボット100の目110に設置され、眼画像を表示させる(後述)。
上述のように、ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。ロボット100およびサーバ200の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
ロボット100の機能の一部はサーバ200により実現されてもよいし、サーバ200の機能の一部または全部はロボット100により実現されてもよい。
サーバ200は、通信部204、データ処理部202およびデータ格納部206を含む。
通信部204は、外部センサ114およびロボット100との通信処理を担当する。データ格納部206は各種データを格納する。データ処理部202は、通信部204により取得されたデータおよびデータ格納部206に格納されるデータに基づいて各種処理を実行する。データ処理部202は、通信部204およびデータ格納部206のインタフェースとしても機能する。
ロボット100は、複数の動作パターン(モーション)を有する。手106を震わせる、蛇行しながらオーナーに近づく、首をかしげたままオーナーを見つめる、などさまざまなモーションが定義される。
以下、いつ、どのモーションを選ぶか、モーションを実現する上での各アクチュエータの出力調整など、ロボット100の行動制御に関わる設定のことを「行動特性」と総称する。ロボット100の行動特性は、モーション選択アルゴリズム、モーションの選択確率、モーションファイル等により定義される。
位置管理部208は、ロボット100の位置座標を、図3を用いて説明した方法にて特定する。位置管理部208はユーザの位置座標もリアルタイムで追跡してもよい。
感情管理部234は、ロボット100の感情(寂しさ、好奇心、承認欲求など)を示すさまざまな感情パラメータを管理する。これらの感情パラメータは常に揺らいでいる。感情パラメータに応じて複数の行動マップの重要度が変化し、行動マップによってロボット100の移動目標地点が変化し、ロボット100の移動や時間経過によって感情パラメータが変化する。
行動マップAを行動マップBの5倍重視するときには、座標R1の合計z値は4×5−1=19、座標R2の合計z値は3×5+3=18であるから、ロボット100は座標R1の方向に向かう。
人物認識部214は、ロボット100の内蔵カメラによる撮像画像から抽出された特徴ベクトルと、個人データ格納部218にあらかじめ登録されているユーザ(クラスタ)の特徴ベクトルと比較することにより、撮像されたユーザがどの人物に該当するかを判定する(ユーザ識別処理)。人物認識部214は、表情認識部230を含む。表情認識部230は、ユーザの表情を画像認識することにより、ユーザの感情を推定する。
なお、人物認識部214は、人物以外の移動物体、たとえば、ペットである猫や犬についてもユーザ識別処理を行う。
快・不快行為は、ユーザの応対行為が、生物として心地よいものであるか不快なものであるかにより判別される。たとえば、抱っこされることはロボット100にとって快行為であり、蹴られることはロボット100にとって不快行為である。肯定・否定反応は、ユーザの応対行為が、ユーザの快感情を示すものか不快感情を示すものであるかにより判別される。たとえば、抱っこされることはユーザの快感情を示す肯定反応であり、蹴られることはユーザの不快感情を示す否定反応である。
行動マップに移動目標地点や移動ルートが決定され、後述の各種イベントによりモーションが選択される。
ロボット100は、通信部142、データ処理部136、データ格納部148、内部センサ128、モニタ170および駆動機構120を含む。
通信部142は、通信機126(図5参照)に該当し、外部センサ114、サーバ200および他のロボット100との通信処理を担当する。データ格納部148は各種データを格納する。データ格納部148は、記憶装置124(図5参照)に該当する。データ処理部136は、通信部142により取得されたデータおよびデータ格納部148に格納されているデータに基づいて各種処理を実行する。データ処理部136は、プロセッサ122およびプロセッサ122により実行されるコンピュータプログラムに該当する。データ処理部136は、通信部142、内部センサ128、駆動機構120およびデータ格納部148のインタフェースとしても機能する。
ロボット100のモーション格納部160には、サーバ200のモーション格納部232から各種モーションファイルがダウンロードされる。モーションは、モーションIDによって識別される。前輪102を収容して着座する、手106を持ち上げる、2つの前輪102を逆回転させることで、あるいは、片方の前輪102だけを回転させることでロボット100を回転行動させる、前輪102を収納した状態で前輪102を回転させることで震える、ユーザから離れるときにいったん停止して振り返る、などのさまざまなモーションを表現するために、各種アクチュエータ(駆動機構120)の動作タイミング、動作時間、動作方向などがモーションファイルにおいて時系列定義される。
ロボット100の動作制御部150は、サーバ200の動作制御部222と協働してロボット100のモーションを決める。一部のモーションについてはサーバ200で決定し、他のモーションについてはロボット100で決定してもよい。また、ロボット100がモーションを決定するが、ロボット100の処理負荷が高いときにはサーバ200がモーションを決定するとしてもよい。サーバ200においてベースとなるモーションを決定し、ロボット100において追加のモーションを決定してもよい。モーションの決定処理をサーバ200およびロボット100においてどのように分担するかはロボットシステム300の仕様に応じて設計すればよい。
たとえば、ひげが生えている移動物体(ユーザ)は早朝に活動すること(早起き)が多く、赤い服を着ることが少ないのであれば、早起きでひげが生えていて赤い服をあまり着ないクラスタ(ユーザ)、という第1のプロファイルができる。一方、メガネをかけている移動物体はスカートを履いていることが多いが、この移動物体にはひげが生えていない場合、メガネをかけていてスカートを履いているが絶対ひげは生えていないクラスタ(ユーザ)、という第2のプロファイルができる。
以上は、簡単な設例であるが、上述の方法により、父親に対応する第1のプロファイルと母親に対応する第2のプロファイルが形成され、この家には少なくとも2人のユーザ(オーナー)がいることをロボット100は認識する。
このとき、サーバ200の人物認識部214は、新たな移動物体の特徴ベクトルに基づいてユーザ識別処理を実行し、移動物体がどのプロファイル(クラスタ)に該当するかを判断する。たとえば、ひげが生えている移動物体を検出したとき、この移動物体は父親である確率が高い。この移動物体が早朝行動していれば、父親に該当することはいっそう確実である。一方、メガネをかけている移動物体を検出したときには、この移動物体は母親である可能性もある。この移動物体にひげが生えていれば、母親ではなく父親でもないので、クラスタ分析されていない新しい人物であると判定する。
まとめると、ロボット100は内部センサ128によりユーザの行為を物理的情報として取得し、サーバ200の応対認識部228は快・不快を判定し、サーバ200の認識部212は特徴ベクトルに基づくユーザ識別処理を実行する。
(1)親密度が非常に高いユーザ
ロボット100は、ユーザに近づき(以下、「近接行動」とよぶ)、かつ、人に好意を示す仕草としてあらかじめ定義される愛情仕草を行うことで親愛の情を強く表現する。
(2)親密度が比較的高いユーザ
ロボット100は、近接行動のみを行う。
(3)親密度が比較的低いユーザ
ロボット100は特段のアクションを行わない。
(4)親密度が特に低いユーザ
ロボット100は、離脱行動を行う。
眼生成部152は、瞳画像164と周縁画像168を含む眼画像174を生成する。眼生成部152は、眼画像174を動画表示させる。具体的には、瞳画像164を動かすことでロボット100の視線を表現する。また、所定のタイミングで瞬き動作を実行する。眼生成部152は、さまざまな動作パターンにしたがって眼画像174の多様な動きを表現する。眼表示部154は、目110のモニタ170に眼画像174を表示させる。モニタ170は、人間の眼球と同様、曲面形状を有することが望ましい。本実施形態におけるモニタ170は、平面形状であるとして説明する。
本実施形態における眼画像174は、瞳画像164と周縁画像168に重ねて瞼(まぶた)を示す瞼画像176も含む。瞼画像176は、まつ毛178を含む。周縁画像168は、人間の結膜にあたる部分である。瞳画像164に含まれる角膜領域162は、人間の角膜にあたる部分である。角膜領域162には、虹彩が表示されてもよい。
(1−1)経年変化
人間の瞳の直径は、加齢とともに小さくなるといわれる。老齢化するにつれ、結膜の白さがくすみ、瞼を閉じる筋力が衰えるため瞼は徐々に下がる。また、幼児期は瞬き(まばたき)の回数は少なく、成人になってからは瞬き回数は安定するといわれる。
目は他者の印象に残りやすい重要な部位である。特徴抽出部146は、オーナーの目を撮像し、目の特徴を抽出する。特徴抽出は、目の外観の特徴を数値化することで特徴量として抽出される。目の外観には、瞳の大きさなどの静的特性だけでなく、視線の動きの癖や瞬きの頻度などの動的特性も含まれてもよい。より具体的には、瞼の形状や定位置、瞼の下がり方、まつ毛の長さ、瞳の大きさや色などのパラメータが目の特徴量として抽出される。瞳の定位置、上目遣いや目を細める癖、瞬きの頻度などの動的特性も特徴量となる。女性であれば、化粧によって、まつ毛の長さや瞼画像176の色が変化することもある。
眼生成部152は、複数の眼画像174の画像パターンを用意してもよい。そして、複数の眼画像174を切り換えることで、眼画像174の雰囲気を変化させてもよい。
一時変化は、主として、外光によって生じる。眼画像174には「映り込み」や「アイコン」の表示による一時変化も生じるが、これらについては後述する。眼生成部152は、上述したように、外光方向に対応してキャッチライト166の位置を変化させる。また、眼生成部152は、外部光源の形状や光量に応じてキャッチライト166の形状、色およびサイズを変化させる。たとえば、外部光源が窓であれば、眼生成部152はキャッチライト166を窓の形状に変化させる。外部光源が青色であればキャッチライト166は青色になる。光量が大きいときほど眼生成部152はキャッチライト166のサイズを大きくする。複数の光源があるときには、眼生成部152は複数のキャッチライト166を表示させる。
図9(a)は、瞼画像176が表示されていないときの眼画像174である。図9(b)は、瞼画像176が目頭側に下がっているときの眼画像174である。図9(c)は、瞼画像176が目尻側に下がっているときの眼画像174である。図9(c)は、いわゆる「タレ目」である。図9(d)も図9(c)ほどではないが瞼画像176が目尻側に下がっている。また、図9(e)では、瞼画像176のほか下瞼180も表示される。下瞼180の画像により、涙袋に似た表現も可能である。
眼生成部152は、カメラ134で撮像した被写体182を瞳画像164に重畳して表示させる。これにより、ロボット100が見ているものが瞳画像164、特に、瞳孔領域158に映る様子を表現する。瞳画像164に被写体182を積極的に表示させることにより、目110の質感を高めることができる。眼生成部152は、魚眼レンズのように被写体182を歪めて瞳画像164に表示させてもよい。このような歪み表示をすれば、眼画像174が眼球と同じく曲面形状であるかのように見せることができる。
眼生成部152は、所定の表示条件が成立したとき、アイコン184を瞳孔領域158またはキャッチライト166に表示させる。たとえば、晴天時には晴れを示すアイコン184が瞳孔領域158に重畳表示される(図11参照)。ユーザは瞳孔領域158を覗き込むことにより、室外が晴れていることを確認できる。アイコン184は、現在の天気ではなく、将来の天気(天気予報)を示してもよい。
眼生成部152は、アイコン184を所定時間が経過したときに消去する。あるいは、眼生成部152は、ユーザからの凝視を検出されなくなったことを条件としてアイコン184を消去してもよい。アイコン184は、フェードアウト方式により時間をかけて消去してもよい。
本実施形態によれば、ロボット100の外観上の個性を表す目110をオーナーの目に似せることができる。オーナーは、ロボット100の目110が自分の目に似てくるため、ロボット100に対して親近感を抱きやすくなる。また、ロボット100の目110は複数のオーナーのうち親密度が高いオーナーに似てくるため、親密度という定量値を眼画像174により定性的に示唆できる。このため、オーナーは、ロボット100と仲良くなりたい、気に入られたいという意欲を喚起される。
Claims (20)
- 眼画像を生成する眼生成部と、
ロボットの顔領域に前記眼画像を表示させる眼表示部と、
ユーザの撮像画像から、前記ユーザの目の特徴量を抽出する特徴抽出部と、を備え、
前記眼生成部は、所定の観察期間を設定し、前記観察期間においてユーザを選択し、前記観察期間が経過したことを条件として、以降の期間において前記選択されたユーザの眼の特徴量を前記眼画像へ経時的に反映させることを特徴とするロボット。 - 前記眼生成部は、前記眼画像に含まれる瞳画像のサイズを変化させることを特徴とする請求項1に記載のロボット。
- 前記眼生成部は、前記眼画像に含まれる瞼画像の形状を変化させることを特徴とする請求項1または2に記載のロボット。
- 前記眼生成部は、前記眼画像の動作パターンを変化させることを特徴とする請求項1に記載のロボット。
- 眼画像を生成する眼生成部と、
ロボットの顔領域に前記眼画像を表示させる眼表示部と、
ユーザの撮像画像から、前記ユーザの目の特徴量を抽出する特徴抽出部と、
ユーザに対する親密度を管理する親密度管理部と、を備え、
前記眼生成部は、ユーザの親密度に基づいて、前記眼画像に特徴量を反映させるべきユーザを選択することを特徴とするロボット。 - 眼画像を生成する眼生成部と、
ロボットの顔領域に前記眼画像を表示させる眼表示部と、
ユーザの撮像画像から、前記ユーザの目の特徴量を抽出する特徴抽出部と、
ロボットの内部状態を管理する状態管理部と、を備え、
前記眼生成部は、前記内部状態に基づいて、前記眼画像に特徴量を反映させるべきユーザを選択することを特徴とするロボット。 - 眼画像を生成する眼生成部と、
ロボットの顔領域に前記眼画像を表示させる眼表示部と、を備え、
前記眼生成部は、ロボットの育成環境に基づいて、前記眼画像を経年変化させることを特徴とするロボット。 - ユーザの撮像画像から、前記ユーザの目の特徴量を抽出する特徴抽出部と、を更に備え、
前記眼生成部は、前記ユーザの目の特徴量に基づいて前記眼画像を経年変化させることを特徴とする請求項7に記載のロボット。 - 眼画像を生成する眼生成部と、
ロボットの顔領域に前記眼画像を表示させる眼表示部と、
外部光源を検出する光検出部と、を備え、
前記眼生成部は、前記眼画像にキャッチライトを含ませ、前記外部光源の方向に応じて前記キャッチライトの位置を変化させるとともに、前記キャッチライトの位置に応じて前記キャッチライトの歪みの大きさを変化させることを特徴とするロボット。 - 前記眼生成部は、更に、前記外部光源の光量に応じて、キャッチライトのサイズを変化させることを特徴とする請求項9に記載のロボット。
- カメラと、
眼画像を生成する眼生成部と、
ロボットの顔領域に前記眼画像を表示させる眼表示部と、
ユーザの視線を検出する視線検出部と、を備え、
前記眼生成部は、前記眼画像に前記カメラで撮影された被写体画像を重畳させ、ユーザの視線の検出が継続する時間に応じて前記被写体画像を変化させることを特徴とするロボット。 - 眼画像を生成する眼生成部と、
ロボットの顔領域に前記眼画像を表示させる眼表示部と、
ユーザの視線を検出する視線検出部と、
アイコンと表示条件を対応づけて格納するアイコン格納部と、を備え、
前記眼生成部は、いずれかのアイコンの表示条件が成立し、かつ、ロボットに対する視線が検出されたとき、前記アイコンを前記眼画像に重畳することを特徴とするロボット。 - 前記眼生成部は、更に、前記眼画像にキャッチライトを含ませ、前記キャッチライトを前記アイコンに変化させることを特徴とする請求項12に記載のロボット。
- 眼画像を生成する眼生成部と、
ロボットの顔領域に前記眼画像を表示させる眼表示部と、
アイコンと表示条件を対応づけて格納するアイコン格納部と、を備え、
前記眼生成部は、いずれかのアイコンの表示条件が成立しているとき、眼画像の瞬きを実行するタイミングにて、前記アイコンを前記眼画像に重畳することを特徴とするロボット。 - 外光を検出する光検出部、を更に備え、
前記眼生成部は、外光の光量に応じて、前記眼画像に含まれる瞳画像のサイズを変化させ、前記光量が所定量以上のときには、更に、前記眼画像に含まれる瞼画像の形状を変化させることを特徴とする請求項1〜14のいずれかに記載のロボット。 - 眼画像を生成する機能と、
ロボットの顔領域に前記眼画像を表示させる機能と、
ロボットの育成環境に基づいて、前記眼画像を経年変化させる機能と、をコンピュータに発揮させることを特徴とする眼画像制御プログラム。 - 眼画像を生成する機能と、
ロボットの顔領域に前記眼画像を表示させる機能と、
外部光源を検出する機能と、
前記眼画像にキャッチライトを表示させる機能と、
前記外部光源の方向に応じて前記キャッチライトの位置を変化させるとともに、前記キャッチライトの位置に応じて前記キャッチライトの歪みの大きさを変化させる機能と、をコンピュータに発揮させることを特徴とする眼画像制御プログラム。 - ロボットの顔領域に眼画像を表示させる機能と、
ユーザの視線を検出する機能と、
アイコンと表示条件を対応づけて格納する機能と、
いずれかのアイコンの表示条件が成立し、かつ、ロボットに対する視線が検出されたとき、前記アイコンを前記眼画像に重畳する機能と、をコンピュータに発揮させることを特徴とする眼画像制御プログラム。 - 所定時間以上の期間において、ユーザの目の特徴量を前記眼画像に経時的に反映させていく機能と、をコンピュータに発揮させることを特徴とする請求項16〜18のいずれかに記載の眼画像制御プログラム。
- 外部光源を検出する機能と、
前記外部光源の光量に応じて、前記眼画像に含まれる瞳画像のサイズを変化させ、前記光量が所定量以上のときには、更に、前記眼画像に含まれる瞼画像の形状を変化させる機能と、をコンピュータに発揮させることを特徴とする請求項16〜18のいずれかに記載の眼画像制御プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016227681 | 2016-11-24 | ||
JP2016227681 | 2016-11-24 | ||
PCT/JP2017/041619 WO2018097089A1 (ja) | 2016-11-24 | 2017-11-20 | 瞳を変化させる自律行動型ロボット |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019069658A Division JP7068709B2 (ja) | 2016-11-24 | 2019-04-01 | 瞳を変化させる自律行動型ロボット |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018097089A1 JPWO2018097089A1 (ja) | 2019-02-28 |
JP6508864B2 true JP6508864B2 (ja) | 2019-05-08 |
Family
ID=62196008
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018552083A Active JP6508864B2 (ja) | 2016-11-24 | 2017-11-20 | 瞳を変化させるロボット |
JP2019069658A Active JP7068709B2 (ja) | 2016-11-24 | 2019-04-01 | 瞳を変化させる自律行動型ロボット |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019069658A Active JP7068709B2 (ja) | 2016-11-24 | 2019-04-01 | 瞳を変化させる自律行動型ロボット |
Country Status (6)
Country | Link |
---|---|
US (2) | US11623347B2 (ja) |
JP (2) | JP6508864B2 (ja) |
CN (2) | CN117666867A (ja) |
DE (1) | DE112017005954T8 (ja) |
GB (1) | GB2571027B (ja) |
WO (1) | WO2018097089A1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2571027B (en) * | 2016-11-24 | 2022-08-10 | Groove X Inc | Autonomously acting robot that changes pupil |
KR102645817B1 (ko) * | 2016-12-06 | 2024-03-08 | 한화로보틱스 주식회사 | 로봇의 비헤이비어 관리 방법 및 장치 |
CN111093913A (zh) | 2017-09-11 | 2020-05-01 | Groove X 株式会社 | 注视对方的行为自主型机器人 |
JP2019101492A (ja) * | 2017-11-28 | 2019-06-24 | トヨタ自動車株式会社 | コミュニケーション装置 |
JP6970757B2 (ja) * | 2017-12-26 | 2021-11-24 | 株式会社Nttドコモ | 情報処理装置 |
WO2020009098A1 (ja) * | 2018-07-02 | 2020-01-09 | Groove X株式会社 | ロボット |
JP7298861B2 (ja) * | 2018-08-31 | 2023-06-27 | Groove X株式会社 | 日常生活を記録する自律行動型ロボット |
KR102608798B1 (ko) * | 2019-01-12 | 2023-12-05 | 가부시키가이샤 제트엠피 | 자율 주행 차량, 배송 시스템, 기억 매체 및 프로그램 |
WO2020202540A1 (ja) * | 2019-04-04 | 2020-10-08 | Groove X株式会社 | 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法 |
KR102288658B1 (ko) * | 2019-05-15 | 2021-08-11 | 엘지전자 주식회사 | 로봇 및 그의 제어 방법 |
KR102314385B1 (ko) * | 2019-08-08 | 2021-10-19 | 엘지전자 주식회사 | 로봇 및 그의 제어 방법 |
WO2020190362A2 (en) * | 2020-01-17 | 2020-09-24 | Futurewei Technologies, Inc. | A social interaction robot |
US20210331310A1 (en) * | 2020-04-28 | 2021-10-28 | Ubtech Robotics Corp Ltd | Neck mechanism for robot |
CN111546338A (zh) * | 2020-05-08 | 2020-08-18 | 华为技术有限公司 | 一种机器人的控制方法、装置、机器人以及存储介质 |
KR102295836B1 (ko) * | 2020-11-20 | 2021-08-31 | 오로라월드 주식회사 | 성장형 스마트 토이 장치 및 스마트 토이 시스템 |
CN115145256A (zh) * | 2021-03-16 | 2022-10-04 | 本田技研工业株式会社 | 控制装置、控制方法以及控制系统 |
JP2024048495A (ja) * | 2022-09-28 | 2024-04-09 | カシオ計算機株式会社 | 機器の制御装置、機器の制御方法及びプログラム |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10289006A (ja) | 1997-04-11 | 1998-10-27 | Yamaha Motor Co Ltd | 疑似感情を用いた制御対象の制御方法 |
US6249720B1 (en) | 1997-07-22 | 2001-06-19 | Kabushikikaisha Equos Research | Device mounted in vehicle |
JP2000099490A (ja) | 1998-08-06 | 2000-04-07 | Yamaha Motor Co Ltd | 擬似的な精神情報に基づいて作動する装置 |
JP2000323219A (ja) | 1999-05-10 | 2000-11-24 | Sony Corp | 接続装置及びロボットシステム |
JP2001215940A (ja) * | 2000-01-31 | 2001-08-10 | Toshiba Corp | 表情を有する知的ロボット |
JP2002330365A (ja) * | 2001-04-27 | 2002-11-15 | Toshiba Corp | 対人会話型ナビゲーション装置 |
CA2511217A1 (en) | 2002-12-20 | 2004-07-15 | Chakshu Research, Inc. | Ophthalmic formulation for the prevention and treatment of ocular conditions |
US7705877B2 (en) * | 2004-01-28 | 2010-04-27 | Hewlett-Packard Development Company, L.P. | Method and system for display of facial features on nonplanar surfaces |
JP2005242566A (ja) * | 2004-02-25 | 2005-09-08 | Canon Inc | 画像合成装置及び方法 |
JP2006106950A (ja) * | 2004-10-01 | 2006-04-20 | Tokyo Univ Of Science | 画像表示装置、画像表示方法、及びプログラム |
CN101751852A (zh) * | 2008-11-28 | 2010-06-23 | 复旦大学 | 机器人实现拟人表情的方法 |
JP4972218B1 (ja) | 2011-08-12 | 2012-07-11 | 株式会社バンダイ | 動作体玩具 |
US20150298315A1 (en) * | 2013-11-21 | 2015-10-22 | Origami Robotics, Inc. | Methods and systems to facilitate child development through therapeutic robotics |
US20160042648A1 (en) * | 2014-08-07 | 2016-02-11 | Ravikanth V. Kothuri | Emotion feedback based training and personalization system for aiding user performance in interactive presentations |
JP6369246B2 (ja) * | 2014-09-08 | 2018-08-08 | オムロン株式会社 | 似顔絵生成装置、似顔絵生成方法 |
WO2016111414A1 (ko) * | 2015-01-05 | 2016-07-14 | (주)퓨처로봇 | 소셜 네트워크 서비스를 이용한 로봇 서비스 방법 및 로봇장치 |
CN105459126A (zh) * | 2015-12-30 | 2016-04-06 | 深圳亿家智宝电子科技有限公司 | 一种机器人交流装置及其实现方法 |
CN105835071A (zh) * | 2016-06-07 | 2016-08-10 | 苏州全谱光电科技有限公司 | 一种投影式人形机器人 |
GB2571027B (en) * | 2016-11-24 | 2022-08-10 | Groove X Inc | Autonomously acting robot that changes pupil |
JP6841167B2 (ja) * | 2017-06-14 | 2021-03-10 | トヨタ自動車株式会社 | コミュニケーション装置、コミュニケーションロボットおよびコミュニケーション制御プログラム |
BR102017016910A8 (pt) * | 2017-08-07 | 2022-08-23 | Db1 Global Software S/A | Robô auxiliar com inteligência artificial |
US10762414B1 (en) * | 2018-04-19 | 2020-09-01 | Kinoo, Inc. | Systems and methods for sharing an artificial intelligence personality |
-
2017
- 2017-11-20 GB GB1907135.6A patent/GB2571027B/en active Active
- 2017-11-20 WO PCT/JP2017/041619 patent/WO2018097089A1/ja active Application Filing
- 2017-11-20 CN CN202311702963.1A patent/CN117666867A/zh active Pending
- 2017-11-20 JP JP2018552083A patent/JP6508864B2/ja active Active
- 2017-11-20 DE DE112017005954.2T patent/DE112017005954T8/de active Active
- 2017-11-20 CN CN201780072408.1A patent/CN110024000B/zh active Active
-
2019
- 2019-04-01 JP JP2019069658A patent/JP7068709B2/ja active Active
- 2019-05-23 US US16/421,413 patent/US11623347B2/en active Active
-
2023
- 2023-04-07 US US18/296,996 patent/US12076850B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019149181A (ja) | 2019-09-05 |
DE112017005954T5 (de) | 2019-09-05 |
US20190279070A1 (en) | 2019-09-12 |
GB2571027A (en) | 2019-08-14 |
DE112017005954T8 (de) | 2019-10-24 |
CN117666867A (zh) | 2024-03-08 |
GB201907135D0 (en) | 2019-07-03 |
JPWO2018097089A1 (ja) | 2019-02-28 |
GB2571027B (en) | 2022-08-10 |
CN110024000B (zh) | 2023-12-26 |
JP7068709B2 (ja) | 2022-05-17 |
CN110024000A (zh) | 2019-07-16 |
WO2018097089A1 (ja) | 2018-05-31 |
US20230249355A1 (en) | 2023-08-10 |
US12076850B2 (en) | 2024-09-03 |
US11623347B2 (en) | 2023-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6508864B2 (ja) | 瞳を変化させるロボット | |
US11285614B2 (en) | Autonomously acting robot that understands physical contact | |
JP7177497B2 (ja) | 相手を見つめる自律行動型ロボット | |
JP7231924B2 (ja) | 活動量をコントロールされる自律行動型ロボット | |
JP6472113B2 (ja) | 自然な距離感を保つ自律行動型ロボットおよびプログラム | |
WO2018008323A1 (ja) | 服を着る自律行動型ロボット | |
JP7236142B2 (ja) | 自律行動型ロボット | |
JP6671577B2 (ja) | 人を識別する自律行動型ロボット |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A527 Effective date: 20180905 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181002 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20181002 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20181026 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190312 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190401 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6508864 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
RG99 | Written request for provisional registration |
Free format text: JAPANESE INTERMEDIATE CODE: R313G99 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |