JPWO2020009098A1 - robot - Google Patents
robot Download PDFInfo
- Publication number
- JPWO2020009098A1 JPWO2020009098A1 JP2020529004A JP2020529004A JPWO2020009098A1 JP WO2020009098 A1 JPWO2020009098 A1 JP WO2020009098A1 JP 2020529004 A JP2020529004 A JP 2020529004A JP 2020529004 A JP2020529004 A JP 2020529004A JP WO2020009098 A1 JPWO2020009098 A1 JP WO2020009098A1
- Authority
- JP
- Japan
- Prior art keywords
- robot
- motion
- user
- eye
- deformation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 claims abstract description 332
- 238000001514 detection method Methods 0.000 claims abstract description 45
- 230000007246 mechanism Effects 0.000 claims abstract description 32
- 210000001508 eye Anatomy 0.000 claims description 225
- 210000003128 head Anatomy 0.000 claims description 57
- 230000008859 change Effects 0.000 claims description 28
- 210000001747 pupil Anatomy 0.000 claims description 26
- 210000001331 nose Anatomy 0.000 description 82
- 238000007726 management method Methods 0.000 description 38
- 230000004424 eye movement Effects 0.000 description 36
- 210000005252 bulbus oculi Anatomy 0.000 description 32
- 238000000034 method Methods 0.000 description 30
- 238000003860 storage Methods 0.000 description 27
- 238000012545 processing Methods 0.000 description 24
- 230000006399 behavior Effects 0.000 description 22
- 238000006243 chemical reaction Methods 0.000 description 22
- 230000006870 function Effects 0.000 description 21
- 238000013500 data storage Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 19
- 238000004891 communication Methods 0.000 description 17
- 210000000744 eyelid Anatomy 0.000 description 17
- 230000009471 action Effects 0.000 description 16
- 230000002996 emotional effect Effects 0.000 description 16
- 241000282412 Homo Species 0.000 description 10
- 230000004044 response Effects 0.000 description 10
- 230000003542 behavioural effect Effects 0.000 description 9
- 206010041349 Somnolence Diseases 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 7
- 230000008451 emotion Effects 0.000 description 7
- 241000282414 Homo sapiens Species 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000008921 facial expression Effects 0.000 description 5
- 235000019645 odor Nutrition 0.000 description 5
- 206010037180 Psychiatric symptoms Diseases 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 230000004791 biological behavior Effects 0.000 description 3
- 230000004397 blinking Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 229920005989 resin Polymers 0.000 description 3
- 239000011347 resin Substances 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 238000009423 ventilation Methods 0.000 description 3
- 210000001015 abdomen Anatomy 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000035876 healing Effects 0.000 description 2
- 230000007794 irritation Effects 0.000 description 2
- 229910052751 metal Inorganic materials 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 230000003014 reinforcing effect Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 210000002784 stomach Anatomy 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- JOYRKODLDBILNP-UHFFFAOYSA-N Ethyl urethane Chemical compound CCOC(N)=O JOYRKODLDBILNP-UHFFFAOYSA-N 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 206010020751 Hypersensitivity Diseases 0.000 description 1
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 206010044565 Tremor Diseases 0.000 description 1
- 229920006311 Urethane elastomer Polymers 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000007815 allergy Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 210000000795 conjunctiva Anatomy 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000013013 elastic material Substances 0.000 description 1
- 229920001971 elastomer Polymers 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 210000000720 eyelash Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910001416 lithium ion Inorganic materials 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000005060 rubber Substances 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 239000007779 soft material Substances 0.000 description 1
- 238000001179 sorption measurement Methods 0.000 description 1
- 238000009987 spinning Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H11/00—Self-movable toy figures
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H3/00—Dolls
- A63H3/36—Details; Accessories
- A63H3/38—Dolls' eyes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Toys (AREA)
- Manipulator (AREA)
Abstract
ロボットは、ロボットのモーションを選択する動作制御部と、選択されたモーションを実行する駆動機構と、ロボット本体の変形を検知する操作検知部と、眼画像を生成し、ロボットの顔領域に眼画像を表示させる眼生成部とを備える。The robot generates an eye image, an motion control unit that selects the motion of the robot, a drive mechanism that executes the selected motion, an operation detection unit that detects deformation of the robot body, and an eye image in the face area of the robot. It is provided with an eye generation unit for displaying.
Description
本発明は、人間が愛着を抱きやすいロボット、に関する。 The present invention relates to a robot that humans tend to attach to.
人間は、癒やしを求めてペットを飼う。その一方、ペットの世話をする時間を十分に確保できない、ペットを飼える住環境にない、アレルギーがある、死別がつらい、といったさまざまな理由により、ペットをあきらめている人は多い。もし、ペットの役割が務まるロボットがあれば、ペットを飼えない人にもペットが与えてくれるような癒やしを与えられるかもしれない(特許文献1、2参照)。 Humans keep pets in search of healing. On the other hand, many people give up on pets for various reasons, such as not having enough time to take care of them, not having a living environment to keep pets, allergies, and hard bereavement. If there is a robot that plays the role of a pet, it may be possible to provide healing that a pet gives to a person who cannot keep a pet (see Patent Documents 1 and 2).
近年、ロボット技術は急速に進歩しつつあるが、ペットのような伴侶としての存在感を実現するには至っていない。ロボットに自由意志があるとは思えないからである。人間は、ペットの自由意志があるとしか思えないような行動を観察することにより、ペットに自由意志の存在を感じ、ペットに共感し、ペットに癒される。 In recent years, robot technology has been rapidly advancing, but it has not yet realized its presence as a companion like a pet. I don't think robots have free will. By observing behaviors that seem to be the pet's free will, humans feel the existence of the pet's free will, sympathize with the pet, and are healed by the pet.
本発明者らは、触り方に応じてロボットの反応が変われば、人間のロボットに対する愛着をもっと高められるのではないかと考えた。本発明者らは鋭意研究の結果、人間が無意識にいじりたくなる箇所にセンサを設けて人間のいじり方を検出しロボットの挙動に反映させることで、上記課題を解決することに想到した。 The present inventors thought that if the reaction of the robot changes depending on how it is touched, the attachment of humans to the robot may be further enhanced. As a result of diligent research, the present inventors have come up with the idea of solving the above problem by providing a sensor at a place where a human unconsciously wants to tamper with, detecting how the human tampering is detected, and reflecting it in the behavior of the robot.
本発明は上記課題認識に基づいて完成された発明であり、その主たる目的は、人間が愛着を抱きやすいロボット、を提供することにある。 The present invention is an invention completed based on the above-mentioned problem recognition, and a main object thereof is to provide a robot that humans can easily attach to.
本発明のある態様におけるロボットは、ロボットのモーションを選択する動作制御部と、選択されたモーションを実行する駆動機構と、ロボット本体の変形を検知する操作検知部と、眼画像を生成し、ロボットの顔領域に眼画像を表示させる眼生成部とを備える。
眼生成部は、ロボット本体の変形が検知されたとき、変形態様に応じて眼画像を変化させる。The robot according to an aspect of the present invention generates an eye image, a motion control unit that selects a motion of the robot, a drive mechanism that executes the selected motion, an operation detection unit that detects deformation of the robot body, and the robot. It is provided with an eye generation unit for displaying an eye image in the face area of the robot.
When the deformation of the robot body is detected, the eye generation unit changes the eye image according to the deformation mode.
本発明の別の態様におけるロボットは、ロボットのモーションを選択する動作制御部と、選択されたモーションを実行する駆動機構と、ロボット本体に設けられるデバイスの動きを検知する操作検知部とを備える。
動作制御部は、デバイスの動きが検知されたとき、デバイスから所定範囲内を駆動対象とするモーションのうち、デバイスの動きに応じたモーションを選択する。The robot according to another aspect of the present invention includes a motion control unit that selects the motion of the robot, a drive mechanism that executes the selected motion, and an operation detection unit that detects the movement of a device provided in the robot body.
When the movement of the device is detected, the motion control unit selects a motion corresponding to the movement of the device from the motions to be driven within a predetermined range from the device.
本発明の別の態様におけるロボットは、ロボットのモーションを選択する動作制御部と、選択されたモーションを実行する駆動機構と、ロボットの体表面に設置され、ユーザの接触を検出する第1および第2のセンサとを備える。
動作制御部は、第1および第2のセンサの双方または一方においてユーザの接触が検出されたとき、接触態様に応じたモーションを選択する。
第1のセンサの検出精度は、第2のセンサよりも検出精度よりも高精度に設定されており、第1のセンサはロボットの顔領域に設置される。The robot according to another aspect of the present invention includes a motion control unit that selects a motion of the robot, a drive mechanism that executes the selected motion, and first and first devices that are installed on the body surface of the robot and detect user contact. It is equipped with two sensors.
When the user's contact is detected by both or one of the first and second sensors, the motion control unit selects a motion according to the contact mode.
The detection accuracy of the first sensor is set to be higher than the detection accuracy of the second sensor, and the first sensor is installed in the face region of the robot.
本発明によれば、ロボットに対して人間が愛着を抱きやすくなる。 According to the present invention, it becomes easy for humans to have an attachment to a robot.
以下、本発明の実施形態を、図面を参照して詳細に説明する。なお、以下の説明においては便宜上、図示の状態を基準に各構造の位置関係を表現することがある。また、以下の実施形態およびその変形例について、ほぼ同一の構成要件については同一の符号を付し、その説明を適宜省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the following description, for convenience, the positional relationship of each structure may be expressed with reference to the illustrated state. Further, with respect to the following embodiments and modifications thereof, the same reference numerals will be given to substantially the same constituent requirements, and the description thereof will be omitted as appropriate.
本実施形態のロボットは、ユーザに鼻を触られるとき眼や体を動かすことで鼻のいじりに反応する。以下、本実施形態におけるロボットの実装について説明する前に、ロボットの基本構成について説明する。 The robot of the present embodiment responds to tampering with the nose by moving the eyes and body when the user touches the nose. Hereinafter, the basic configuration of the robot will be described before the implementation of the robot in the present embodiment is described.
[基本構成]
図1(a)は、ロボット100の正面外観図である。図1(b)は、ロボット100の側面外観図である。
本実施形態におけるロボット100は、外部環境および内部状態に基づいて行動を決定する自律行動型のロボットである。外部環境は、カメラやサーモセンサなど各種のセンサにより認識される。内部状態はロボット100の感情を表現するさまざまなパラメータとして定量化される。ロボット100は、オーナー家庭の家屋内を行動範囲とする。以下、ロボット100に関わる人間を「ユーザ」とよぶ。[Basic configuration]
FIG. 1A is a front view of the
The
ロボット100のボディ104は、全体的に丸みを帯びた形状を有し、ウレタンやゴム、樹脂、繊維などやわらかく弾力性のある素材により形成された外皮を含む。ロボット100に服を着せてもよい。ロボット100の総重量は5〜15キログラム程度、身長は0.5〜1.2メートル程度である。適度な重さと丸み、柔らかさ、手触りのよさ、といった諸属性により、ユーザがロボット100を抱きかかえやすく、かつ、抱きかかえたくなるという効果が実現される。
The
ロボット100は、一対の前輪102(左輪102a,右輪102b)と、一つの後輪103を含む。前輪102が駆動輪であり、後輪103が従動輪である。前輪102は、操舵機構を有しないが、回転速度や回転方向を個別に制御可能とされている。後輪103は、キャスターであり、ロボット100を前後左右へ移動させるために回転自在となっている。後輪103はオムニホイールであってもよい。
The
前輪102および後輪103は、駆動機構(回動機構、リンク機構)によりボディ104に完全収納できる。走行時においても各車輪の大部分はボディ104に隠れているが、各車輪がボディ104に完全収納されるとロボット100は移動不可能な状態となる。すなわち、車輪の収納動作にともなってボディ104が降下し、床面Fに着座する。この着座状態においては、ボディ104の底部に形成された平坦状の着座面108(接地底面)が床面Fに当接する。
The
ロボット100は、2つの手106を有する。手106には、モノを把持する機能はない。手106は上げる、振る、振動するなど簡単な動作が可能である。2つの手106も個別制御可能である。
目110は、液晶素子または有機EL素子による画像表示が可能である。ロボット100は、音源方向を特定可能なマイクロフォンアレイや超音波センサなどさまざまなセンサを搭載する。また、スピーカーを内蔵し、簡単な音声を発することもできる。
The
ロボット100の頭部にはツノ112が取り付けられる。上述のようにロボット100は軽量であるため、ユーザはツノ112をつかむことでロボット100を持ち上げることも可能である。ツノ112には全天球カメラが取り付けられ、ロボット100の上部全域を一度に撮像可能である。
A
図2は、ロボット100の構造を概略的に表す断面図である。
図2に示すように、ロボット100のボディ104は、ベースフレーム308、本体フレーム310、一対の樹脂製のホイールカバー312および外皮314を含む。ベースフレーム308は、金属からなり、ボディ104の軸芯を構成するとともに内部機構を支持する。ベースフレーム308は、アッパープレート332とロアプレート334とを複数のサイドプレート336により上下に連結して構成される。複数のサイドプレート336間には通気が可能となるよう、十分な間隔が設けられる。ベースフレーム308の内方には、バッテリー118、制御回路342および各種アクチュエータが収容されている。FIG. 2 is a cross-sectional view schematically showing the structure of the
As shown in FIG. 2, the
本体フレーム310は、樹脂材からなり、頭部フレーム316および胴部フレーム318を含む。頭部フレーム316は、中空半球状をなし、ロボット100の頭部骨格を形成する。胴部フレーム318は、段付筒形状をなし、ロボット100の胴部骨格を形成する。胴部フレーム318は、ベースフレーム308と一体に固定される。頭部フレーム316は、胴部フレーム318の上端部に相対変位可能に組み付けられる。
The
頭部フレーム316には、ヨー軸320、ピッチ軸322およびロール軸324の3軸と、各軸を回転駆動するためのアクチュエータ326が設けられる。アクチュエータ326は、各軸を個別に駆動するための複数のサーボモータを含む。首振り動作のためにヨー軸320が駆動され、頷き動作のためにピッチ軸322が駆動され、首を傾げる動作のためにロール軸324が駆動される。
The
頭部フレーム316の上部には、ヨー軸320を支持するプレート325が固定されている。プレート325には、上下間の通気を確保するための複数の通気孔327が形成される。
A
頭部フレーム316およびその内部機構を下方から支持するように、金属製のベースプレート328が設けられる。ベースプレート328は、クロスリンク機構329(パンタグラフ機構)を介してプレート325と連結される一方、ジョイント330を介してアッパープレート332(ベースフレーム308)と連結される。
A
胴部フレーム318は、ベースフレーム308と車輪駆動機構370を収容する。車輪駆動機構370は、回動軸378およびアクチュエータ379を含む。胴部フレーム318の下半部は、ホイールカバー312との間に前輪102の収納スペースSを形成するために小幅とされる。
The
外皮314は、ウレタンゴムからなり、本体フレーム310およびホイールカバー312を外側から覆う。手106は、外皮314と一体成形される。外皮314の上端部には、外気を導入するための開口部390が設けられる。
The
図3は、ロボット100のハードウェア構成図である。
ロボット100は、内部センサ128、通信機126、記憶装置124、プロセッサ122、駆動機構120およびバッテリー118を含む。プロセッサ122と記憶装置124は、制御回路342に含まれる。各ユニットは電源線130および信号線132により互いに接続される。バッテリー118は、電源線130を介して各ユニットに電力を供給する。各ユニットは信号線132により制御信号を送受する。バッテリー118は、リチウムイオン二次電池であり、ロボット100の動力源である。FIG. 3 is a hardware configuration diagram of the
The
内部センサ128は、ロボット100が内蔵する各種センサの集合体である。具体的には、カメラ(全天球カメラ)、マイクロフォンアレイ、測距センサ(赤外線センサ)、サーモセンサ、タッチセンサ、加速度センサ、ニオイセンサなどである。タッチセンサは、外皮314と本体フレーム310の間に設置され、ユーザのタッチを検出する。ニオイセンサは、匂いの元となる分子の吸着によって電気抵抗が変化する原理を応用した既知のセンサである。
The
通信機126は、各種の外部機器を対象として無線通信を行う通信モジュールである。記憶装置124は、不揮発性メモリおよび揮発性メモリにより構成され、コンピュータプログラムや各種設定情報を記憶する。プロセッサ122は、コンピュータプログラムの実行手段である。駆動機構120は、複数のアクチュエータおよび上述した車輪駆動機構370を含む。このほかには、表示器やスピーカーなども搭載される。
The
駆動機構120は、主として、車輪(前輪102)と頭部(頭部フレーム316)を制御する。駆動機構120は、ロボット100の移動方向や移動速度を変化させるほか、車輪(前輪102および後輪103)を昇降させることもできる。車輪が上昇すると、車輪はボディ104に完全に収納され、ロボット100は着座面108にて床面Fに当接し、着座状態となる。また、駆動機構120は、ワイヤ134を介して、手106を制御する。
The
図4は、ロボットシステム300の機能ブロック図である。
ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。ロボット100およびサーバ200の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
ロボット100の機能の一部はサーバ200により実現されてもよいし、サーバ200の機能の一部または全部はロボット100により実現されてもよい。FIG. 4 is a functional block diagram of the
The
A part of the functions of the
家屋内にはあらかじめ複数の外部センサ114が設置される。サーバ200には、外部センサ114の位置座標が登録される。ロボット100の内部センサ128および複数の外部センサ114から得られる情報に基づいて、サーバ200がロボット100の基本行動を決定する。外部センサ114はロボット100の感覚器を補強するためのものであり、サーバ200はロボット100の頭脳を補強するためのものである。ロボット100の通信機126が外部センサ114と定期的に通信し、サーバ200は外部センサ114によりロボット100の位置を特定する(特許文献2も参照)。
A plurality of
(サーバ200)
サーバ200は、通信部204、データ処理部202およびデータ格納部206を含む。
通信部204は、外部センサ114およびロボット100との通信処理を担当する。データ格納部206は各種データを格納する。データ処理部202は、通信部204により取得されたデータおよびデータ格納部206に格納されるデータに基づいて各種処理を実行する。データ処理部202は、通信部204およびデータ格納部206のインタフェースとしても機能する。(Server 200)
The
The
データ格納部206は、モーション格納部232と個人データ格納部218を含む。
ロボット100は、複数の変形パターン(モーション)を有する。手106を震わせる、蛇行しながらオーナーに近づく、首をかしげたままオーナーを見つめる、などさまざまなモーションが定義される。The
The
モーション格納部232は、モーションの制御内容を定義する「モーションファイル」を格納する。各モーションは、モーションIDにより識別される。モーションファイルは、ロボット100のモーション格納部160にもダウンロードされる。どのモーションを実行するかは、サーバ200で決定されることもあるし、ロボット100で決定されることもある。
The
ロボット100のモーションの多くは、複数の単位モーションを含む複合モーションとして構成される。たとえば、ロボット100がオーナーに近づくとき、オーナーの方に向き直る単位モーション、手を上げながら近づく単位モーション、体を揺すりながら近づく単位モーション、両手を上げながら着座する単位モーションの組み合わせとして表現されてもよい。このような4つのモーションの組み合わせにより、「オーナーに近づいて、途中で手を上げて、最後は体をゆすった上で着座する」というモーションが実現される。モーションファイルには、ロボット100に設けられたアクチュエータの回転角度や角速度などが時間軸に関連づけて定義される。モーションファイル(アクチュエータ制御情報)にしたがって、時間経過とともに各アクチュエータを制御することで様々なモーションが表現される。
Most of the motions of the
先の単位モーションから次の単位モーションに変化するときの移行時間を「インターバル」とよぶ。インターバルは、単位モーション変更に要する時間やモーションの内容に応じて定義されればよい。インターバルの長さは調整可能である。
以下、いつ、どのモーションを選ぶか、モーションを実現する上での各アクチュエータの出力調整など、ロボット100の行動制御に関わる設定のことを「行動特性」と総称する。ロボット100の行動特性は、モーション選択アルゴリズム、モーションの選択確率、モーションファイル等により定義される。The transition time when changing from the previous unit motion to the next unit motion is called "interval". The interval may be defined according to the time required to change the unit motion and the content of the motion. The length of the interval is adjustable.
Hereinafter, the settings related to the behavior control of the
モーション格納部232は、モーションファイルのほか、各種のイベントが発生したときに実行すべきモーションを定義するモーション選択テーブルを格納する。モーション選択テーブルにおいては、イベントに対して1以上のモーションとその選択確率が対応づけられる。
In addition to the motion file, the
個人データ格納部218は、ユーザの情報を格納する。具体的には、ユーザに対する親密度とユーザの身体的特徴・行動的特徴を示すマスタ情報を格納する。年齢や性別などの他の属性情報を格納してもよい。
The personal
ロボット100は、ユーザごとに親密度という内部パラメータを有する。ロボット100が、自分を抱き上げる、声をかけてくれるなど、自分に対して好意を示す行動を認識したとき、そのユーザに対する親密度が高くなる。ロボット100に関わらないユーザや、乱暴を働くユーザ、出会う頻度が低いユーザに対する親密度は低くなる。
The
データ処理部202は、位置管理部208、認識部212、動作制御部222、親密度管理部220および状態管理部244を含む。
位置管理部208は、ロボット100の位置座標を特定する。状態管理部244は、充電率や内部温度、プロセッサ122の処理負荷などの各種物理状態など各種内部パラメータを管理する。また、状態管理部244は、ロボット100の感情(寂しさ、好奇心、承認欲求など)を示すさまざまな感情パラメータを管理する。これらの感情パラメータは常に揺らいでいる。感情パラメータに応じてロボット100の移動目標地点が変化する。たとえば、寂しさが高まっているときには、ロボット100はユーザのいるところを移動目標地点として設定する。The
The
時間経過によって感情パラメータが変化する。また、後述の応対行為によっても各種感情パラメータは変化する。たとえば、オーナーから「抱っこ」をされると寂しさを示す感情パラメータは低下し、長時間にわたってオーナーを視認しないときには寂しさを示す感情パラメータは少しずつ増加する。 Emotional parameters change over time. In addition, various emotional parameters change depending on the response action described later. For example, the emotional parameter indicating loneliness decreases when the owner "hugs", and the emotional parameter indicating loneliness gradually increases when the owner is not visually recognized for a long period of time.
認識部212は、外部環境を認識する。外部環境の認識には、温度や湿度に基づく天候や季節の認識、光量や温度に基づく物陰(安全地帯)の認識など多様な認識が含まれる。ロボット100の認識部156は、内部センサ128により各種の環境情報を取得し、これを一次処理した上でサーバ200の認識部212に転送する。
The
具体的には、ロボット100の認識部156は、画像から移動物体、特に、人物や動物に対応する画像領域を抽出し、抽出した画像領域から移動物体の身体的特徴や行動的特徴を示す特徴量の集合として「特徴ベクトル」を抽出する。特徴ベクトル成分(特徴量)は、各種身体的・行動的特徴を定量化した数値である。たとえば、人間の目の横幅は0〜1の範囲で数値化され、1つの特徴ベクトル成分を形成する。人物の撮像画像から特徴ベクトルを抽出する手法については、既知の顔認識技術の応用である。ロボット100は、特徴ベクトルをサーバ200に送信する。
Specifically, the
サーバ200の認識部212は、ロボット100の内蔵カメラによる撮像画像から抽出された特徴ベクトルと、個人データ格納部218にあらかじめ登録されているユーザ(クラスタ)の特徴ベクトルと比較することにより、撮像されたユーザがどの人物に該当するかを判定する(ユーザ識別処理)。また、認識部212は、ユーザの表情を画像認識することにより、ユーザの感情を推定する。認識部212は、人物以外の移動物体、たとえば、ペットである猫や犬についてもユーザ識別処理を行う。
The
認識部212は、ロボット100になされたさまざまな応対行為を認識し、快・不快行為に分類する。認識部212は、また、ロボット100の行動に対するオーナーの応対行為を認識することにより、肯定・否定反応に分類する。
快・不快行為は、ユーザの応対行為が、生物として心地よいものであるか不快なものであるかにより判別される。たとえば、抱っこされることはロボット100にとって快行為であり、蹴られることはロボット100にとって不快行為である。肯定・否定反応は、ユーザの応対行為が、ユーザの快感情を示すものか不快感情を示すものであるかにより判別される。抱っこされることはユーザの快感情を示す肯定反応であり、蹴られることはユーザの不快感情を示す否定反応である。The
Pleasant / unpleasant behavior is determined by whether the user's response behavior is comfortable or unpleasant as a living thing. For example, being hugged is a pleasant act for the
サーバ200の動作制御部222は、ロボット100の動作制御部150と協働して、ロボット100のモーションを決定する。サーバ200の動作制御部222は、ロボット100の移動目標地点とそのための移動ルートを作成する。動作制御部222は、複数の移動ルートを作成し、その上で、いずれかの移動ルートを選択してもよい。
The
動作制御部222は、モーション格納部232の複数のモーションからロボット100のモーションを選択する。各モーションには状況ごとに選択確率が対応づけられている。たとえば、オーナーから快行為がなされたときには、モーションAを20%の確率で実行する、気温が30度以上となったとき、モーションBを5%の確率で実行する、といった選択方法が定義される。
The
親密度管理部220は、ユーザごとの親密度を管理する。上述したように、親密度は個人データ格納部218において個人データの一部として登録される。快行為を検出したとき、親密度管理部220はそのオーナーに対する親密度をアップさせる。不快行為を検出したときには親密度はダウンする。また、長期間視認していないオーナーの親密度は徐々に低下する。
The
(ロボット100)
ロボット100は、通信部142、データ処理部136、データ格納部148、内部センサ128および駆動機構120を含む。
通信部142は、通信機126(図4参照)に該当し、外部センサ114、サーバ200および他のロボット100との通信処理を担当する。データ格納部148は各種データを格納する。データ格納部148は、記憶装置124(図4参照)に該当する。データ処理部136は、通信部142により取得されたデータおよびデータ格納部148に格納されているデータに基づいて各種処理を実行する。データ処理部136は、プロセッサ122およびプロセッサ122により実行されるコンピュータプログラムに該当する。データ処理部136は、通信部142、内部センサ128、駆動機構120およびデータ格納部148のインタフェースとしても機能する。(Robot 100)
The
The
データ格納部148は、ロボット100の各種モーションを定義するモーション格納部160を含む。
ロボット100のモーション格納部160には、サーバ200のモーション格納部232から各種モーションファイルがダウンロードされる。モーションは、モーションIDによって識別される。前輪102を収容して着座する、手106を持ち上げる、2つの前輪102を逆回転させることで、あるいは、片方の前輪102だけを回転させることでロボット100を回転行動させる、前輪102を収納した状態で前輪102を回転させることで震える、ユーザから離れるときにいったん停止して振り返る、などのさまざまなモーションを表現するために、各種アクチュエータ(駆動機構120)の動作タイミング、動作時間、動作方向などがモーションファイルにおいて時系列定義される。
データ格納部148には、個人データ格納部218からも各種データがダウンロードされてもよい。The
Various motion files are downloaded from the
Various data may be downloaded to the
データ処理部136は、認識部156および動作制御部150を含む。
ロボット100の動作制御部150は、サーバ200の動作制御部222と協働してロボット100のモーションを決める。一部のモーションについてはサーバ200で決定し、他のモーションについてはロボット100で決定してもよい。また、ロボット100がモーションを決定するが、ロボット100の処理負荷が高いときにはサーバ200がモーションを決定するとしてもよい。サーバ200においてベースとなるモーションを決定し、ロボット100において追加のモーションを決定してもよい。モーションの決定処理をサーバ200およびロボット100においてどのように分担するかはロボットシステム300の仕様に応じて設計すればよい。The
The
ロボット100の動作制御部150は選択したモーションを駆動機構120に実行指示する。駆動機構120は、モーションファイルにしたがって、各アクチュエータを制御する。
The
動作制御部150は、親密度の高いユーザが近くにいるときには「抱っこ」をせがむ仕草として両方の手106をもちあげるモーションを実行することもできるし、「抱っこ」に飽きたときには左右の前輪102を収容したまま逆回転と停止を交互に繰り返すことで抱っこをいやがるモーションを表現することもできる。駆動機構120は、動作制御部150の指示にしたがって前輪102や手106、首(頭部フレーム316)を駆動することで、ロボット100にさまざまなモーションを表現させる。
The
ロボット100の認識部156は、内部センサ128から得られた外部情報を解釈する。認識部156は、視覚的な認識(視覚部)、匂いの認識(嗅覚部)、音の認識(聴覚部)、触覚的な認識(触覚部)が可能である。
The
認識部156は、移動物体の撮像画像から特徴ベクトルを抽出する。上述したように、特徴ベクトルは、移動物体の身体的特徴と行動的特徴を示すパラメータ(特徴量)の集合である。移動物体を検出したときには、ニオイセンサや内蔵の集音マイク、温度センサ等からも身体的特徴や行動的特徴が抽出される。これらの特徴も定量化され、特徴ベクトル成分となる。認識部156は、特許文献2等に記載の既知の技術に基づいて、特徴ベクトルからユーザを特定する。
The
検出・分析・判定を含む一連の認識処理のうち、ロボット100の認識部156は認識に必要な情報の取捨選択や抽出を行い、判定等の解釈処理はサーバ200の認識部212により実行される。認識処理は、サーバ200の認識部212だけで行ってもよいし、ロボット100の認識部156だけで行ってもよいし、上述のように双方が役割分担をしながら上記認識処理を実行してもよい。
Of a series of recognition processes including detection, analysis, and determination, the
ロボット100に対する強い衝撃が与えられたとき、認識部156はタッチセンサおよび加速度センサによりこれを認識し、サーバ200の認識部212は、近隣にいるユーザによって「乱暴行為」が働かれたと認識する。ユーザがツノ112を掴んでロボット100を持ち上げるときにも、乱暴行為と認識してもよい。ロボット100に正対した状態にあるユーザが特定音量領域および特定周波数帯域にて発声したとき、サーバ200の認識部212は、自らに対する「声掛け行為」がなされたと認識してもよい。また、体温程度の温度を検知したときにはユーザによる「接触行為」がなされたと認識し、接触認識した状態で上方への加速度を検知したときには「抱っこ」がなされたと認識する。ユーザがボディ104を持ち上げるときの物理的接触をセンシングしてもよいし、前輪102にかかる荷重が低下することにより抱っこを認識してもよい。
まとめると、ロボット100は内部センサ128によりユーザの行為を物理的情報として取得し、サーバ200の認識部212は快・不快を判定する。また、サーバ200の認識部212は特徴ベクトルに基づくユーザ識別処理を実行する。When a strong impact is applied to the
In summary, the
サーバ200の認識部212は、ロボット100に対するユーザの各種応対を認識する。各種応対行為のうち一部の典型的な応対行為には、快または不快、肯定または否定が対応づけられる。一般的には快行為となる応対行為のほとんどは肯定反応であり、不快行為となる応対行為のほとんどは否定反応となる。快・不快行為は親密度に関連し、肯定・否定反応はロボット100の行動選択に影響する。
The
認識部156により認識された応対行為に応じて、サーバ200の親密度管理部220はユーザに対する親密度を変化させる。原則的には、快行為を行ったユーザに対する親密度は高まり、不快行為を行ったユーザに対する親密度は低下する。
The
以上の基本構成を前提として、次に、本実施形態におけるロボット100の実装について、特に、本実装の特徴と目的および基本構成との相違点を中心として説明する。なお、説明は第1実施形態と第2実施形態に分けて行う。第1実施形態と第2実施形態をまとめて説明する場合や、特に区別しない場合には「本実施形態」とよぶ。
On the premise of the above basic configuration, next, the implementation of the
[第1実施形態]
図5(a)は、第1実施形態におけるロボット100の正面外観図である。図5(b)は、第1実施形態におけるロボット100の側面外観図である。
第1実施形態におけるロボット100には、顔領域107が設けられる。顔領域107内には目110のほかに鼻109が備えられる。鼻109は、顔領域107の中心近傍であって、目110よりも低い位置に備えられる。鼻109は、左右の目に挟まれるように設けられ、右目から鼻109までの距離と左目から鼻109までの距離は等しい。また、鼻109は目110や顔領域107よりも小さい。鼻109にはユーザによって変形される物理的なデバイス(以下、「凸部」または「突起」とよぶことがある。)が備えられる。[First Embodiment]
FIG. 5A is a front view of the
The
本実施形態においては、鼻109にはアナログスティックが設置される。ユーザは、アナログスティック(鼻109)を上下左右の全方向へ傾斜させることができ、かつ、押し込むこともできる。本実施形態においては、アナログスティックのような物理的デバイスの傾斜および押し込みが「ロボット本体の変形」に該当する。アナログスティックにはタッチを検出するためのセンサ(以下、「鼻センサ」とよぶ)が含まれる。アナログスティックそのものおよびアナログスティックの変形の検知方法については、例えば特開平9−134251号公報等に記載の技術が知られている。
In this embodiment, an analog stick is installed on the
図6は、第1実施形態におけるロボット100のハードウェア構成図である。
第1実施形態におけるロボット100は、図3に示した基本構成に加えて、モニター170およびアナログスティック180を含む。モニター170は、ロボット100の目110に設置され、眼画像を表示させる(詳細後述)。FIG. 6 is a hardware configuration diagram of the
The
図7は、第1実施形態におけるロボットシステム300の機能ブロック図である。
上述のとおり、ロボット100はモニター170およびアナログスティック180を含む。第1実施形態におけるロボット100のデータ処理部136は、更に、操作検知部182、操作履歴管理部184、眼生成部172を含む。操作検知部182は、アナログスティック180の動き、すなわち、傾斜方向、傾斜角(初期位置からの角度)、押し込み量を逐次検知する。第1実施形態における傾斜方向を「変形方向」とよび、傾斜角と押し込み量をまとめて「変形量」とよぶことがある。FIG. 7 is a functional block diagram of the
As mentioned above, the
操作履歴管理部184は、操作検知部182の検知結果を時系列に沿って操作履歴として記憶する。操作履歴はアナログスティック180の変形状態(アナログスティック180が初期位置から動かされている状態)の継続時間(変形継続時間)も含む。操作履歴管理部184はまた、単位時間あたりの変形量として変形速度を算出する。変形方向、変形量、変形速度等、本実施形態における「ロボット本体の変形」の度合いを「変形態様」と総称する。眼生成部172は、目110(モニター170)に表示すべき眼画像を生成する。
The operation history management unit 184 stores the detection result of the operation detection unit 182 as an operation history in chronological order. The operation history also includes the duration (deformation duration) of the deformed state of the analog stick 180 (the state in which the
眼生成部172は、アナログスティック180の変形態様に応じて、モニター170に信号を出力することにより、モニター170に表示させる眼画像を変化させる。動作制御部150は、また、アナログスティック180の変形態様に応じて、モーションを選択する。以下、眼生成部172が眼画像を変化させることを、「ロボット100が眼を動かす」または「ロボット100の眼が変化する」ということがある。また、動作制御部150がモーションを選択し、駆動機構120が選択されたモーションを実行することを、「ロボット100が動く」ということがある。また、「ロボット100が動く」場合において、特定の部位Xを動かすモーションである場合には、「ロボット100がXを動かす」ということがある。例えば、動作制御部150がロボット100の手を動かすモーションを選択し、駆動機構120がそのモーションを実行する場合、「ロボット100が手を動かす」と表現することがある。ユーザが鼻109(アナログスティック180)をいじるとロボット100は眼を動かし、ユーザが鼻109をいじりつづけるとロボット100は眼だけではなく首や手などの体も動かしはじめる。本実施形態における「モーション」はロボット100が体を物理的に動かすことを意味し、眼画像の変化は「モーション」には含まれないものとする。以下、アナログスティック180を動かす際のモニター170の画像およびモーションの変化について詳細に説明する。
The
図8は、眼画像171の外観図である。
眼生成部172は、瞳画像175と周縁画像176を含む眼画像171を生成する。眼生成部172は、眼画像171を動画表示させる。具体的には、瞳画像175を動かすことでロボット100の視線の変化を表現する。FIG. 8 is an external view of the
The
瞳画像175は、瞳孔領域177と角膜領域178を含む。また、瞳画像175には、外光の映り込みを表現するためのキャッチライト179も表示される。眼画像171のキャッチライト179は、外光の反射によって輝いているのではなく、眼生成部172により高輝度領域として表現される画像領域である。
The
眼生成部172は、瞳画像175を上下左右に移動させる。ロボット100の認識部156がユーザを認識したときには、眼生成部172は瞳画像175をユーザの存在する方向に向ける。眼生成部172は、眼画像171のうち瞳画像175を変化させることにより、ロボット100の仮想的な視線(以下、「仮想視線」ということがある。)の変化を表現する。眼画像171の制御の詳細は図10に関連して後述する。
The
眼生成部172は、瞳画像175の形状を変化させてもよい。たとえば、瞳画像175がモニター170の中心にあるときには真円形状とし、周縁部分にあるときには楕円形状に変化させる。瞳画像175の形状をモニター170内の位置に応じて変化させることにより平面のモニター170を実際の眼球のような曲面形状であるかのように見せることができる。
The
眼生成部172は、外部光源の存在方向に対応してキャッチライト179の位置を変化させる。図8は、ロボット100から見て左上方に外部光源が存在する場合のキャッチライト179の表示位置を示している。キャッチライト179の位置を外部光源に連動させることにより、いっそうリアルな眼画像171を表現できる。眼生成部172は、外部光源の方向を撮像画像から画像認識により判定してもよいし、光センサ(図示せず)の検出データから判定してもよい。
The
図9は、眼画像171の拡大図である。
眼画像171においては、瞳画像175と周縁画像176に瞼(まぶた)を示す瞼画像190が重畳される。瞼画像190は、まつ毛192を含む。周縁画像176は、人間の結膜にあたる部分である。FIG. 9 is an enlarged view of the
In the
眼生成部172は、眼画像171のうち、瞼画像190、瞳孔領域177、角膜領域178およびキャッチライト179を変化させる。光量が大きいほど、眼生成部172は瞳孔領域177の直径を断続的または連続的に拡大させる。眼生成部172は、瞳孔領域177だけではなく、瞳画像175の全体を断続的または連続的に拡縮させてもよい。眼生成部172は、光量が特に大きいとき(例えば、所定の閾値よりも大きいとき)には瞼画像190を下げることで「眩しそうな様子」を表現してもよい。
The
図10は、眼画像171の生成方法を示す模式図である。
眼球モデル250は、ロボット100の眼球を模した三次元コンピュータグラフィックスである。眼生成部172は、まず、三次元の球体をポリゴンにて形成し、これにテクスチャ(以下、「眼球テクスチャ」とよぶ)を貼ることにより眼球モデル250を形成する。眼球テクスチャは、瞳画像175を含む画像である。眼球テクスチャは、データ格納部148に含まれる眼画像格納部(図示なし)に格納される。FIG. 10 is a schematic view showing a method of generating an
The
眼球モデル250の前方に、第1面252および第2面254が設定される。第1面252および第2面254は、目110のモニター170の表示面に対応する仮想的な平面である。眼生成部172は、眼球モデル250を第1面252に投影させることにより、三次元の眼球モデル250から2次元の眼球投影画像256を生成する。
The
眼生成部172は、第2面254に瞼画像190を表示させる。第1面252の眼球投影画像256と第2面254の瞼画像190を重ね合わせることにより、図8等に示した眼画像171が生成される。眼生成部172は、右目用と左目用に2つの眼球モデル250を生成し、それぞれについて眼画像171を生成する。以下、第1面252および第2面254をまとめていうときには「眼球面258」とよぶ。
The
眼生成部172は、眼球モデル250を回転させることにより、眼球投影画像256を変化させる。3次元の眼球モデル250を生成してこれを回転させながら第1面252に投影する方式であるため、第1面252に眼画像171を直接描画するよりもロボット100の視線の動きを滑らかに表現できる。二次元の眼画像171であっても、三次元の眼球モデル250を元にして生成・制御されるため、本方式は、生物の眼球に特有の複雑な動きを表現しやすい。
The
眼生成部172は、第1面252とは異なる第2面254に瞼画像190を表示させることにより、瞼画像190を眼球投影画像256に重畳させる。人間は、目の前で手を叩かれたとき、反射的に目をつぶる。このような眼の条件反射をロボット100に実装する上では、瞼画像190を高速で変化させる必要がある。本実施形態においては、第1面252の画像処理と第2面254の画像処理が独立している。眼生成部172は、目をつぶる表現をするときには、第2面254だけを対象として画像制御すればよい。瞬きのときにも、眼生成部172は第2面254を対象として画像処理を実行すればよい。眼球モデル250(眼球投影画像256)と瞼画像190を別々に制御できるため、瞼画像190を高速に制御できる。このような構成により、眼生成部172は眼画像171を動的に生成できる。
The
ロボット100は、アナログスティック180の動きと連動して眼を動かす。ロボット100の眼の外観図を図11(a)、図11(b)、図11(c)、図11(d)に示す。
The
図11(a)はアナログスティック180を初期位置188から上に動かした場合のロボット100の眼の外観図である。
図11(b)はアナログスティック180を初期位置188から右に動かした場合のロボット100の眼の外観図である。
図11(c)はアナログスティック180を初期位置188から下に動かした場合のロボット100の眼の外観図である。
図11(d)はアナログスティック180を初期位置188から左に動かした場合のロボット100の眼の外観図である。FIG. 11A is an external view of the eyes of the
FIG. 11B is an external view of the eyes of the
FIG. 11C is an external view of the eyes of the
FIG. 11D is an external view of the eyes of the
ユーザがアナログスティック180を動かすとき、操作検知部182はアナログスティック180の変形量および変形方向(傾斜角と傾斜方向)を検知する。眼生成部172は検知結果に基づいて眼球モデル250の回転方向と回転量を計算し、眼球モデル250を回転させる。具体的には、アナログスティック180の傾斜方向と同方向を回転方向として設定し、傾斜角に比例する回転量にて眼球モデル250を回転させる。眼生成部172は眼球モデル250を第1面252に投影する。このような制御により、ロボット100の眼画像171は、アナログスティック180の傾斜方向に視線を向けるような動きをする。ユーザはアナログスティック180を動かすことで、ロボット100の視線を変化させることができる。
When the user moves the
図11(a)に示すように、アナログスティック180を上方向に傾けると、ロボット100も視線を上に向ける。図11(b)に示すように、アナログスティック180を右に傾けるとロボット100の視線は右を向く。アナログスティック180を下に傾けるとロボット100の視線は下を向き(図11(c))、左に傾けるとロボット100の視線は左に動く(図11(d))。上下左右以外の他の方向についても同様である。
As shown in FIG. 11A, when the
眼球モデル250を使用することにより、眼画像171をアナログスティック180の動きに高速に追随させることができる。ユーザが鼻109(アナログスティック180)をいじると、ロボット100は即座に眼を動かすから、ユーザはロボット100からの速やかな反応を体感できる。
By using the
ロボット100は、鼻109がいじられるとき、瞳だけではなく、体(頭部、手及び車輪のうち少なくとも1つ)を動かしてもよい。アナログスティック180を素早く動かすとき、ロボット100も頭部や体をすぐに動かすことで反応を示せば、ロボット100において「反射的行動」という生物的な行動特性を表現できる。
The
例えば、ユーザがアナログスティック180を0.1秒以内に右方向に30度以上傾けたとき、ロボット100は頭部を右に向けるとしてもよい。このような制御方法によれば、鼻109(アナログスティック180)をすばやく大きく傾けることで、ロボット100は眼だけでなく頭も動かすという動作表現が可能となる。
For example, when the user tilts the
ロボット100は、鼻109の動きに眼を連動させるだけでなく、鼻109の動き方によっては体も動かすことで、鼻109のいじりに対して多様な反応を示す。ロボット100が体を動かすきっかけとなる鼻109の動きとしては、このほか、ユーザがアナログスティック180を上方向に弾くことや、高速にてアナログスティック180を左右に動かすことであってもよい。アナログスティック180の変形速度が所定の基準値を超えたときを「急激な動き」として定義し、アナログスティック180が急激な動きをしたとき、動作制御部150は複数のモーションのいずれかを選択してもよい。これらのモーションは、頭部を鼻109が動いた方向とは逆方向に回転させる、車輪を駆動して後ろに飛びのく等、生物が行う反射行動を表現するものであればよい。
The
まとめると、鼻109(アナログスティック180)を動かすとき、眼生成部172はアナログスティック180の動きに合わせて眼球モデル250を回転させることで、眼画像171を変化させる。このため、鼻109の動きにより、ロボット100の視線を追随的に動かすことができる。いわば、鼻109が眼の操作デバイスであるかのようなユーザインタフェースが実現される。また、鼻109の動きが所定の条件を満たしたときには、動作制御部150は鼻109の動きに合わせてモーションを選択する。このため、鼻109の動かし方によっては、ロボット100は、眼画像171だけでなく、全身の動きによってユーザからの関わりに応えることができる。
In summary, when the nose 109 (analog stick 180) is moved, the
動作制御部150は、鼻109の動きに追従するモーションを実行させてもよい。このように、眼生成部172はアナログスティック180の動きに合わせて眼画像171を変化させてもよい。また、動作制御部150はアナログスティック180の動きに合わせてモーションを変化させてもよい。これにより、アナログスティック180の操作方向と、眼画像171またはモーションの変化とが連動しているかのような印象をユーザに与えられる。
The
図5(a)、(b)に関連して説明したとおり、鼻109は、目110や顔領域107に比べて小さい。鼻109のどの部分においてもユーザの接触を確実に検出する必要がある。そのため、鼻109の全域または大部分にセンサを設ける必要がある。ロボット100に対して同じ大きさのセンサを設ける場合、顔領域107に比べてより小さい鼻109はセンサの数が少なくて済む。したがって、ロボット100を製造するコストを抑えられる。
As described in relation to FIGS. 5A and 5B, the
また、鼻109は小さいにも関わらずユーザの目に留まりやすい。顔領域107の中央付近に設けられることや、ロボット100の表面に対して凸形状となっていることがその主な要因である。ユーザの目に留まりやすい鼻109に、アナログスティック180(操作デバイス)を設けることで、ロボット100における操作可能な部分(ユーザの接触を検出する部分)をユーザが認識しやすくなる。
Moreover, although the
ロボット100の内部パラメータ、例えば、感情パラメータに基づいて眼画像171を変化させてもよい。例えば、ロボット100のいらだちの度合いを示す感情パラメータの値が所定値以上のときには、眼生成部172はアナログスティック180の傾斜方向とは逆方向に眼球モデル250を回転させてもよい。
The
アナログスティック180の変形態様(変形方向、変形量、変形速度)を変数とし、眼球モデル250の回転方向および回転量を出力として定義する変換関数を用意してもよい。眼生成部172は、アナログスティック180の変形態様および変換関数に基づいて、眼球モデル250の回転方向および回転量を決定してもよい。
A conversion function may be prepared in which the deformation mode (deformation direction, deformation amount, deformation speed) of the
眼生成部172は、感情パラメータに基づいて複数種類の変換関数のいずれかを選択してもよい。眼生成部172は、複数種類の変換関数のいずれかをランダムに選択してもよい。このような制御方法によれば、アナログスティック180の変形と眼の動きの連動性は維持しながらも、眼の動きに多様性を持たせることができる。ロボット100は、同じいじられ方に対して多様な眼の動きで応えるので、ユーザはロボット100のいろいろな表情を楽しめる。また、眼の動きに応じて、ロボット100の感情を推定することも可能となる。
The
ロボット100は、アナログスティック180の操作履歴に応じてモーションを変化させる。上述のとおり、操作検知部182はアナログスティック180の動き、すなわち、変形方向と変形量を逐次検知する。操作履歴管理部184は検知結果を、時系列に沿って操作履歴として記憶する。具体的には、操作履歴管理部184は、検知結果と検知時刻とを対応付けて記憶する。動作制御部150は、操作履歴、すなわちアナログスティック180の動き方に応じたモーションを選択する。
The
アナログスティック180のいじられ方(操作のされ方)によって、状態管理部244は感情パラメータを変化させてもよい。例えば、ユーザが、やさしくアナログスティック180をいじれば、眼生成部172はそのいじり方に連動して眼を動かし始める。更に継続して同じようにいじり続けていれば、状態管理部244は安心感を示す感情パラメータを上昇させる。安心感を示す感情パラメータが所定値以上になると、眼生成部172は瞼画像190を下げる(閉眼する)ことでロボット100の眠気を表現する。このとき、動作制御部150は、頭を上下に動かすモーションを選択することで「うとうと」するさまを表現してもよい。やさしいいじり方、いいかえれば、ロボット100を安心させるアナログスティック180のいじり方は、設計者が任意に定義すればよい。たとえば、アナログスティック180を略同一のペースにて左右に往復運動させることでもよいし、アナログスティック180を動かさないまま鼻センサをアナログスティック180が押し込まれない程度の強さで所定回数以上叩き続けることであってもよい。
The
ユーザが、乱雑にアナログスティック180をいじり続ければ、ロボット100はそのいじり方に連動して眼を動かし始める。更に継続して乱雑にいじり続けていれば、苛立ちを示す感情パラメータが高まりロボット100は眼の動きを止める。また、ロボット100は頭部を左右に動かしユーザの指先をアナログスティック180から離そうとして、「いやいや」を表現する。「乱雑ないじり方」も、設計者により任意に定義されればよい。
If the user keeps messing around with the
一実施形態において、やさしくいじられている状態とは、単調な動きがなされている状態である。アナログスティック180からの出力値で表現するならば、単調な動きとは出力値に周期性があって、かつ、変形量が小さい状態が所定の期間より長く続く動きといえる。一実施形態において、乱雑にいじられている状態は、単調ではない動きがなされている状態である。アナログスティック180からの出力値で表現するならば、出力値に周期性がなく、かつ、変形量が大きい状態が所定の期間より長く続く動きといえる。このように、アナログスティック180の動きに連動して眼を動かし続けるだけでなく、所定条件を満たしたときにロボット100はアナログスティック180と眼の連動の仕方を変化させる。ロボット100は、「眠い」状態を、眼の動きを単に止めるのではなく、瞼を閉じたり身体を動かすことで表現する。
In one embodiment, the state of being gently tampered with is a state of monotonous movement. Expressed by the output value from the
例えば、アナログスティック180を最大傾斜角の30%以下の範囲内にて左右交互に動かす場合(以下、この動かし方を「左右交互傾斜」とよぶ)に、ロボット100は、眼の動きを止め瞼を閉じ頭部を上下に動かして「眠くなってきた」状態を表現するとしてもよい。操作履歴管理部184は、操作履歴を参照し、アナログスティック180の動きが「左右交互傾斜」に該当するかを判定する。左右交互傾斜に該当するとき、眼生成部172は眼球モデル250の動きを止め瞼画像190を表示する。また、動作制御部150は、ロボット100の頭部を上下に動かすモーションを選択する。これにより、ロボット100は目を閉じて頭部を上下に動かし、「眠たい」状態を表現する。
For example, when the
生物が眠たくなるのは安心しているときである。ロボット100をいじり、ロボット100が眠たいという行動表現をすれば、ユーザはロボット100をいじることでロボット100が安心していると感じることができる。状態管理部244は、左右交互傾斜が検出されたとき、安心感を示す感情パラメータを増加させる。安心感を示す感情パラメータは所定値を超過したとき、ロボット100は目を閉じて頭部を上下に動かすとしてもよい。
It is when you feel at ease that an organism becomes sleepy. If the
ユーザがロボット100を横抱きしたときには、ユーザの視界の大部分をロボット100が占めることになる。このとき、ユーザはロボット100の細かな変化に気づきやすくなる。ユーザは、横抱きしたロボット100の鼻109や目110を注視しやすくなる。この状態を検出したとき、例えば、ロボット100のカメラによる撮像画像によりユーザがロボット100を横抱きしている状態を検出したときにおいて、ユーザが鼻109をいじったときに、アナログスティック180の動きと連動して眼が変化すれば、ユーザはロボット100以外のものに意識をとられることなく、ロボット100に没入できる。
When the user holds the
生物は、短期間の刺激には鈍感に反応するが、長期間の刺激にさらされると大きく動きだすことがある。ロボット100においても、ユーザからの接触が続くと徐々に動きを大きなものにしていくことで同様の挙動を表現できる。ユーザが鼻109をいじり続けると、最初は眼だけを動かしていたロボット100は頭部も動かしはじめる。動作制御部150は、変形継続時間が長くなるにつれて、鼻109から遠い箇所を駆動させてもよい。たとえば、鼻109をいじるとロボット100は眼画像171を動かし、鼻109をいじり続けるとロボット100は頭部をゆっくりと動かす。鼻109を更にいじりつづけると、ロボット100は手をうごかし、鼻109を更にいじりつづけるとロボット100はユーザから離れる方向に移動するとしてもよい。変形継続時間は、アナログスティック180の傾斜が継続している時間として定義されてもよいし、鼻センサのタッチの継続時間として定義されてもよい。
Organisms respond insensitively to short-term stimuli, but can begin to move significantly when exposed to long-term stimuli. Even in the
他例として、ユーザが左右交互傾斜を10秒続けた時点で、ロボット100は頭部を上下に動かし、「眠たくなってきてうとうとし始める」状態を表現する。
As another example, when the user continues to tilt the left and right alternately for 10 seconds, the
続けて、ユーザが左右交互傾斜を20秒以上続けたとする。この場合には、ロボット100は、更に、手106をボディ104に寄せ、前輪102および後輪103をボディ104に収納してもよい。このようにユーザが左右交互傾斜を続けると、ロボット100はまず、眼を動かし、続いて、頭を動かすことで「うとうと」し、さらに両手両足を体に寄せて「眠っている」状態になる。
Subsequently, it is assumed that the user continues the left-right alternating inclination for 20 seconds or more. In this case, the
ユーザが左右交互傾斜をするとき、アナログスティック180を速く動かすか、ゆっくり動かすかに応じてロボット100はモーションを変化させてもよい。操作履歴管理部184は、アナログスティック180の変形量および変形方向を操作履歴として記録する。操作履歴管理部184は、操作履歴から変形速度(単位時間あたりの変化量)を計算する。
When the user alternately tilts left and right, the
変形継続時間が10秒以上となったときであって、その10秒間の変形速度が所定値以下の場合には、動作制御部150は頭部を上下に動かすモーションを選択する。一方、変形速度が所定値を超える場合には、動作制御部150は頭部を左右に動かすモーションを選択する。このような制御により、ロボット100は頭部を横に振って「いやいや」を表現する。
When the deformation duration is 10 seconds or more and the deformation speed for 10 seconds is equal to or less than a predetermined value, the
第1実施形態のロボット100は、ユーザによる鼻109のいじり方によってモーションを変化させる。ここでいういじり方とは、単にアナログスティック180の変形方向のみを意味するのではない。たとえば、アナログスティック180を小さく動かすか大きく動かすか、すなわち単調か否かや、速く動かすかゆっくり動かすか、すなわち、乱暴にさわるか撫でるようにさわるかといった細かな動かし方をも含む。ユーザのいじり方の細かな違いに応じてロボット100がモーションを変化させれば、ユーザはロボット100に対して飽きずに接することができる。
The
ロボット100のユーザに対する親密度や、その時々における感情パラメータの状態等、ロボット100の内部パラメータに応じて、「眠たい」状態に至るまでの時間が変化するとしてもよい。
The time required to reach the "sleepy" state may change depending on the internal parameters of the
ロボット100が目を閉じており、移動やモーションを実行しない状態が所定時間以上にわたり継続されているとき(ロボット100が寝ている状態のとき)に、ユーザが鼻109をいじったとする。この状態のときにアナログスティック180の動きを検出すると、ロボット100は目を閉じた眼画像171から開いた眼画像171へ変化させ、移動やモーションを実行するとしてもよい。このように、所定の眼画像171であって、かつ、モーションを実行していないときに、ユーザの接触を検出すると、ロボット100は眼画像171を変化させモーションを実行するとしてもよい。
It is assumed that the user has tampered with the
親密度に応じてロボット100のモーションを変化させてもよい。例えば、親密度が所定値以上のユーザが鼻109をいじると、ロボット100は頭部をユーザに近づける。一方、親密度が所定値未満のユーザが同じように鼻109をいじると、ロボット100は頭部をユーザからそむける。このように、動作制御部150は、アナログスティック180の変形態様およびアナログスティック180を操作するユーザの親密度に応じて、複数のモーションからいずれかのモーションを選択してもよい。具体的には、親密度がT1以上のユーザのよる所定の操作入力がなされたときには動作制御部150はモーションM1〜M3のいずれかをランダムに選択し、親密度がT1未満のユーザによる同じ操作入力がなされたときには動作制御部150はモーションM4〜M6のいずれかをランダムに選択するとしてもよい。
The motion of the
何かに愛着を持たせるためには、人間がそのものに対して関わる時間をできるだけ長くする必要がある。第1実施形態のロボット100はユーザとの親密度によっても挙動が変化する。ユーザが同じようないじり方をしても親密度によってロボット100のモーションが変化するから、ユーザはロボット100に飽きずに接し続けることができる。接し続けることで、ユーザにロボット100に対する愛着を抱かせることができる。また、やさしく接し続けることでロボット100のユーザに対する親密度も高まる。親密度が変化することでロボット100の反応も変化する。鼻109に対する操作、親密度(ロボット100のユーザに対する気持ち)、感情パラメータ(ロボット100の気分)が複雑に影響し合うことでロボット100は状況に応じた多様な行動表現を実現できる。
In order to be attached to something, it is necessary for human beings to spend as much time as possible on themselves. The behavior of the
ロボット100は、ユーザが鼻109をいじると、最初は眼を動かし、次いで頭部を動かし、さらにボディ104を動かしはじめる。また、ロボット100において、「鼻109のアナログスティック180を動かすと眼が動く」機能(以下、この機能を「瞳連動機能」とよぶことがある)が有効になるのは、ユーザがロボット100を、顔をユーザ側に向けて横抱きしていることを条件としてもよい。
When the user tampers with the
ロボット100が横抱きされていないときに、ユーザがアナログスティック180を動かしても、ロボット100の眼は瞬きをするだけであってもよい。ユーザがロボット100を横抱きしていることは、ロボット100の表面の接触を検知するタッチセンサ(図示せず)とロボット100の傾きを検知する加速度センサ(図示せず)によって検知される。認識部156はタッチセンサおよび加速度センサを介してユーザのロボット100への接触を検知する。姿勢判断部(図示せず)は認識部156が検知した検知結果から、ユーザがロボット100へどのような姿勢で接触しているかについて特定する。ユーザがロボット100を横抱きにしていると特定した場合に、姿勢判断部は操作履歴管理部184へ瞳連動機能を有効にするように指示をする。姿勢判断部からの指示を受けた操作履歴管理部184は、瞳連動機能を有効とし、上述のとおりアナログスティック180の動き方に応じた眼の動きを発動させる。このように、ロボット100の抱っこなどの姿勢に応じて、鼻109の操作に対するロボット100の行動特性を変化させてもよい。
Even if the user moves the
ユーザとロボット100が所定の位置関係にあること、ユーザの姿勢が所定の姿勢であることなどをタッチセンサ、加速度センサまたは撮像画像に基づいて検出したことを条件として、姿勢判断部が瞳連動機能を有効にしてもよい。例えば、瞳連動機能が有効となるのは、ユーザがロボット100の顔を自身に向かせて横抱きにしているときである。ユーザがロボット100に意識を集中させていないときにロボット100が反応してもユーザがその反応を見逃す可能性が高い。ロボット100がこの姿勢になったときにアナログスティック180と眼の動きを連動させるとすることで、ユーザの意識をロボット100に集中させてロボット100の細かな変化に気づかせることができる。なお、ユーザがロボット100を横抱きにすることを検出したことに代えて、例えばユーザの膝の上で向かい合わせに座る等ユーザの意識をロボット100に集中させてロボット100の細かな変化に気づかせられる姿勢となっていることを検出したことを、瞳連動機能を有効にするための条件としてもよい。また、タッチセンサや加速度センサに限らず、ロボット100の顔認証技術を用いてユーザとロボット100とが向かい合っているかを検知することを、瞳連動機能を有効にするための条件としてもよい。ロボット100が車輪をボディ104に完全に収納した状態を「抱っこモード」と定義し、「抱っこモード」の状態で、かつ、顔認証技術等によってユーザとロボット100が向かい合っていると特定したときに、瞳連動機能が有効になるとしてもよい。
The posture determination unit has a pupil interlocking function on condition that the user and the
[第2実施形態]
第2実施形態のロボット100は、鼻109が動かされたときの鼻109の軌跡(経路パターン)に応じて眼の動き(眼動作)を変化させる。なお、第2実施形態のロボット100は第1実施形態のロボット100と同じ概観を有する。[Second Embodiment]
The
図12は、第2実施形態におけるロボットシステム300の機能ブロック図である。
第2実施形態におけるロボット100のデータ格納部148は、更に、眼動作格納部174を含む。眼動作格納部174は、アナログスティック180の動き方(変形パターン)とロボットの目の動き(眼動作)とを対応づけて格納する。第2実施形態におけるロボット100のモーション格納部160には、アナログスティック180の変形状態(アナログスティック180が初期位置から動かされている状態)の継続時間(変形継続時間)に応じたモーションも格納されている。FIG. 12 is a functional block diagram of the
The
第2実施形態におけるロボット100の操作履歴管理部184は、操作検知部182の検知結果を時系列に沿って操作履歴として記憶する。操作履歴管理部184は、記憶している操作履歴と眼動作格納部174に格納される変形パターン(詳細後述)の実行条件とを照合し、操作履歴がいずれかの実行条件と一致したとき、その変形パターンに対応づけられる眼動作を実行するよう眼生成部172へ指示する。眼生成部172は、操作履歴管理部184からの指示を受け、眼動作を実行する。「眼動作」とは、第1実施形態と同様、眼球モデル250の回転による眼画像171の変化を意味する。
The operation history management unit 184 of the
第2実施形態におけるロボット100も、鼻109に備えられるアナログスティック180の操作履歴に応じて、眼画像171を変化させる。また、変形継続時間に応じて、モーションを選択し、ロボット100の駆動機構120を制御する。
The
図13は、操作履歴に基づくロボット100の眼動作とモーションについて示すフローチャートである。
上述のとおり、操作履歴管理部184は操作検知部182の検知結果を時系列に沿って操作履歴として記憶していく(S10)。操作履歴管理部184は記憶している操作履歴が眼動作格納部174に格納される変形パターンのいずれかに一致するか否かを判定する(S12)。一致する変形パターンが存在する場合には(S12のY)、操作履歴管理部184は操作履歴に基づき変形状態がどのくらい続いているのか逐次判定する(S14)。一致する変形パターンが存在しない場合には(S12のN)、以降の処理をスキップする。変形継続時間が5秒未満の場合には(S14のN)、操作履歴管理部184は眼生成部172へ変形パターンに対応する眼動作の実行を指示する(S16)。一方、変形継続時間が5秒以上になる場合には(S14のY)、操作履歴管理部184は眼生成部172へ閉眼動作の実行を指示し(S18)、動作制御部150へモーション格納部160よりモーションを照会して駆動機構120に実行させる指示を出す(S20)。FIG. 13 is a flowchart showing eye movements and motions of the
As described above, the operation history management unit 184 stores the detection result of the operation detection unit 182 as an operation history in chronological order (S10). The operation history management unit 184 determines whether or not the stored operation history matches any of the deformation patterns stored in the eye movement storage unit 174 (S12). When there is a matching deformation pattern (Y in S12), the operation history management unit 184 sequentially determines how long the deformation state continues based on the operation history (S14). If there is no matching deformation pattern (N in S12), the subsequent processing is skipped. When the deformation duration is less than 5 seconds (N in S14), the operation history management unit 184 instructs the
具体的には、ロボット100の操作履歴管理部184は、変形パターンにあらかじめ対応づけられる眼動作を選択し、眼生成部172に実行を指示する。たとえば、アナログスティック180を時計回りに1周させるというあらかじめ定められた実行条件によって定義される変形パターンに、眼をぐるぐる回すという眼動作が対応づけられているとする。この場合において、ユーザがアナログスティック180を時計回りに1周させたとき、ロボット100はぐるぐる眼を回す。動作制御部150はまた、変形継続時間にあらかじめ対応づけられる1以上のモーションからいずれかのモーションを選択する。変形継続時間が5秒以上という条件が成立したとき、この変形継続時間にロボット100の頭部を左右に動かすというモーションが対応づけられているとする。この場合、ユーザがアナログスティック180をたとえば6秒動かし続けたとき、ロボット100は頭部を左右に振る。
Specifically, the operation history management unit 184 of the
図14(a)は、眼動作テーブル420のデータ構造図である。図14(b)は、アナログスティック180の変形パターン選択テーブル440のデータ構造図である。
眼動作テーブル420は、アナログスティック180の変形パターンと眼動作の対応関係を定義する。変形パターン選択テーブル440は、各変形パターンがどのようなパラメータで定義されるかを示す。眼動作テーブル420および変形パターン選択テーブル440は、眼動作格納部174に格納される。FIG. 14A is a data structure diagram of the eye movement table 420. FIG. 14B is a data structure diagram of the deformation pattern selection table 440 of the
The eye movement table 420 defines the correspondence between the deformation pattern of the
操作履歴はアナログスティック180の変形方向と変形量と対応する時刻が時系列に沿って記録されたものである。操作履歴を参照することで、アナログスティック180が辿った経路(軌跡)を特定できる。たとえば、時計回りに1周するときの軌跡となる経路R1を辿り、かつ、経路R1を辿る動きが1秒以内となるアナログスティック180の動作は、変形パターンA1と定義される。第2実施形態においては、本実施形態の「変形態様」に経路を含む。同様に、初期位置から左右左の順にアナログスティック180を動かし、初期位置へ戻すときの軌跡となる経路R2を辿り、かつ、経路R2を辿る動きが2秒以内となるアナログスティック180の動作は、変形パターンA2と定義される。初期位置から押し込むときの軌跡となる経路R3を辿り、経路R3を辿る動きが0.5秒以内に行われるアナログスティック180の動作は、変形パターンA3と定義される。
In the operation history, the deformation direction of the
それぞれの変形パターンは眼動作と対応づけられる。例えば、変形パターンA1の場合には、眼生成部172は眼をぐるぐる回す動作(眼動作M1)を実行する。変形パターンA2の場合には、眼生成部172は瞬きをする動作(眼動作M2)を実行する。変形パターンA3の場合には、眼生成部172は両眼を寄せる動作(眼動作M3)を実行する。
Each deformation pattern is associated with eye movement. For example, in the case of the deformation pattern A1, the
ユーザがアナログスティック180を動かすと、内部センサ128を介して操作検知部182がアナログスティック180の動きを検知する。動き方は操作検知部182から操作履歴管理部184へと伝わり、操作履歴管理部184は変形継続時間が5秒未満だった場合にその動き方と眼動作格納部174に格納されている変形パターンの実行条件とを比較する(変形継続時間が5秒以上である場合については後述)。5秒以内の操作であって、アナログスティック180の動き方がいずれかの変形パターンの実行条件と一致した場合には、操作履歴管理部184はその変形パターンに対応づけられる眼動作を特定する。操作履歴管理部184は特定した眼動作の実行を眼生成部172へ指示する。眼生成部172は特定された眼動作を実行する。
When the user moves the
具体的には、たとえば、経路R1を辿るようにユーザがアナログスティック180を動かし、その動きを0.5秒で完了させたとする。この動き方は変形パターンA1の実行条件と一致するから、操作履歴管理部184は変形パターンA1に対応づけられる眼動作M1を特定し、眼生成部172は眼動作M1、すなわち眼をぐるぐる回す動作を行う。
Specifically, for example, it is assumed that the user moves the
第2実施形態におけるロボット100は、眼動作だけでなく、アナログスティック180の変形継続時間に応じてロボット100の挙動が変化する。
In the
図15はモーション選択テーブル460のデータ構造図である。
モーション選択テーブル460は、変形継続時間とモーションの対応関係を定義する。モーション選択テーブル460は、モーション格納部160に格納される。FIG. 15 is a data structure diagram of the motion selection table 460.
The motion selection table 460 defines the correspondence between the deformation duration and the motion. The motion selection table 460 is stored in the
上述のとおり、変形継続時間が5秒以上となった場合には、操作履歴管理部184は眼を閉じる動作(閉眼動作)の実行を指示する。眼生成部172は操作履歴管理部184からの指示に基づき、閉眼動作を実行する。
動作制御部150は、モーション格納部160から変形継続時間が5秒以上の場合に対応するモーションであるモーションC1を特定する。モーションC1は、ロボット100の頭部を左右に動かす動きである。ロボット100は、眼を閉じて頭部を左右に振って「顔をそむける」挙動を示す。As described above, when the deformation duration is 5 seconds or more, the operation history management unit 184 instructs the execution of the eye closing operation (eye closing operation). The
The
変形継続時間が15秒以上となった場合には、動作制御部150はモーションC2を選択する。モーションC2はロボット100の手を上げ下げする動きである。動作制御部150はモーションC1とモーションC2を発動させる。すると、ロボット100はモーションC1とモーションC2の動きをし、眼をつむり、頭を振りながら手をばたばたさせる「いやいや」の動きを表現する。
When the deformation duration is 15 seconds or more, the
動作制御部150は、変形継続時間が短いうちは鼻109から所定範囲内であるロボット100の頭部までの部位を駆動対象とするモーションを選択する。変形継続時間が長くなると、ロボット100の頭部より外を駆動するモーションも選択対象となる。
The
第2実施形態におけるロボット100は、鼻109に設けられたアナログスティック180の動きに応じて眼を動かす。アナログスティック180が動かされ続けると、ロボット100は頭を動かし始める。頭が動き始めてもなお、アナログスティック180が動かされ続けると、ロボット100は体を動かし始める。このように、ユーザが鼻109をいじりつづけることでロボット100は眼を動かし、次いで頭や体を動かし始めるから、ユーザは、ロボット100が触られることに飽きてくる、くすぐったく感じ始める等生物のようなふるまいをしていると感じ、ロボット100に対して生物と接している感覚を味わえる。
The
第2実施形態においては、アナログスティック180は鼻109に設置される。コミュニケーションに際しては、人間は相手の顔を見ることが多い。ロボットと触れ合う際においても同様であり、ユーザはロボット100の顔領域107を見ながらロボット100に触ると考えられる。このとき、ユーザの目に触れる箇所、たとえば、顔や鼻などにユーザが無意識にいじりたくなるものがあれば、ユーザは思わず触ってしまう可能性が高い。第2実施形態のロボット100においては鼻109がそれにあたる。無意識にいじりたくなる鼻109のアナログスティック180を動かすとロボット100がその動きに応じた挙動を示すから、ユーザはロボット100に対して生きているかのような印象を受けてより愛着を抱くようになる。
In the second embodiment, the
図16は、定常時のロボット100の正面図である。図16は、ユーザがロボット100に触れていない定常時に、ロボット100が立っているときの様子を示す図である。
図17は、モーションC1発動時のロボット100の正面図である。図17は、ユーザがロボット100のアナログスティック180を続けて触ったため、ロボット100がモーションC1を発動したときの様子を示す図である。
ユーザがアナログスティック180を動かしていない定常時において、ロボット100の目110は開眼し、正面をじっと見つめる。ユーザがアナログスティック180を動かしつづけ、変形継続時間が5秒を超えると、ロボット100は目110をつむり、頭を背ける。FIG. 16 is a front view of the
FIG. 17 is a front view of the
When the user is not moving the
以上、実施形態に基づいてロボット100を説明した。
本実施形態のロボット100は、アナログスティック180が鼻109に設けられる。無意識にいじりやすい鼻109のユーザによる接触に応じてロボット100が反応するため、ユーザはロボット100が自分と意思疎通するかのように感じ、ロボット100への愛着を持ちやすくなる。The
In the
本実施形態のロボット100は、アナログスティック180の動きに応じて眼を変化させる。また、アナログスティック180がいじられる時間が長いと、ロボット100は頭や体を動かし始める。ユーザがアナログスティック180を少しだけいじると、ロボット100は眼を動かしてユーザに興味を示すそぶりをする。いじり続けると、ロボット100は頭を動かしてユーザの手を避けるそぶりをし、「やめて」という気持ちを表現する。あまりにかまいすぎるとロボット100が手をばたばたさせ始めて「いやいや」を表現し始める。本実施形態のロボット100はアナログスティック180の動きだけでなくその継続時間によっても表情や行動を変化させていく。ユーザはロボット100が「飽きた」「くすぐったい」「うっとうしい」「もっとやって」といった感情(きまぐれさ)を有しているように感じ、また、ロボット100に生物的な挙動を感じることができる。
The
本実施形態のロボット100は、鼻109に設けられたアナログスティック180をユーザがいじると、眼が変化する。また、アナログスティック180をいじる時間が長いと、ロボット100は頭を動かし始め、さらにいじりつづけると体を動かし始める。鼻109をいじるとまずは鼻109の近傍にある顔領域107に位置する部位においてロボット100の挙動が示されるから、ユーザはロボット100の反応を見逃すことがない。いじり続けると顔領域107内だけでなく所定範囲内であるロボット100の頭部内が動きはじめ、更にいじり続けるとロボット100の頭部より外側(所定範囲外)においても挙動が示される。ユーザは、鼻109のいじられ方やいじられる時間によって変化していくロボット100の表情や行動を見て楽しめる。
When the user tampers with the
本実施形態のロボット100は、鼻109に設けられたアナログスティック180の動きに応じて眼を変化させる。変形例としては、撮像デバイスによってユーザを撮像し、モーションセンサによって撮像画像からユーザの動きを検出したのちに、そのユーザの動きに応じて眼を変化させるとしてもよい。ただし、モーションセンサ等の画像処理を伴ってユーザの動きを検出する場合に比べ、アナログスティック180の動きを検出する場合には、ロボット100へのユーザの接触からロボット100の挙動までの時間を短くできる。また、ロボット100へのユーザの接触を確実に検出できる。
The
本実施形態においては、ロボット100本体にアナログスティック180(操作デバイス)が直接設けられる。変形例においては、リモートコントローラ等の操作デバイスをロボット100本体とは別に備えてもよい。ただし、ロボット100本体に操作デバイスが直接設けられる場合には、ユーザはロボット100に直接触れることとなる。よって、操作デバイスがロボット100本体とは別に備える場合とくらべ、ユーザが直感的に操作や制御をしやすい。
In the present embodiment, the analog stick 180 (operation device) is directly provided on the
なお、本発明は上記実施形態や変形例に限定されるものではなく、要旨を逸脱しない範囲で構成要素を変形して具体化することができる。上記実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることにより種々の発明を形成してもよい。また、上記実施形態や変形例に示される全構成要素からいくつかの構成要素を削除してもよい。
以下、他の実施形態について説明する。The present invention is not limited to the above-described embodiment or modification, and the components can be modified and embodied within a range that does not deviate from the gist. Various inventions may be formed by appropriately combining a plurality of components disclosed in the above embodiments and modifications. In addition, some components may be deleted from all the components shown in the above embodiments and modifications.
Hereinafter, other embodiments will be described.
実施形態においては、アナログスティック180の動き(変形)を操作検知部182が検知し、検知結果に応じてロボット100の挙動を決定した。操作検知部182によって検知されるものはこれに限らず、ロボット100本体の変形またはロボット100本体に設けられるデバイスの動きであればよい。検知される変形や動きは、たとえば、ロボット100の首をゆする動き、手を握る動き、体をゆらす動き、ユーザがつねることによる頬の変形など物理的な動作であればよい。また、これらの動作を検知する手段は、たとえばジョイスティック、トラックボール等による物理的な動作を検知する手段であればよい。可撓性を有する外皮の内側にアナログスティック180等を配置してロボット100の表面にこれらの検知手段が露出しない態様としてもよい。
In the embodiment, the operation detection unit 182 detects the movement (deformation) of the
実施形態においては、操作検知部182によって接触が検知される箇所が鼻109であるとした。接触が検知される箇所は鼻109に限られない。例えば、動物でいうところの肉球等丸みを帯びた箇所や、しっぽのように突出している箇所、頬のように変形が想定される箇所等接触を検知できる箇所であればどこでもよい。好ましくは、ユーザが無意識にいじりたく箇所である。
In the embodiment, it is assumed that the
実施形態においては、鼻109をいじられると眼が動くとした。ロボット100の動作箇所は眼に限らず、例えば首、しっぽ、手等の可動な箇所であればどこでもよい。また、操作検知部182によって接触を検知される箇所と動作箇所は近くても遠くてもよく、たとえばしっぽをいじると鼻が動くとしてもよい。
In the embodiment, it is assumed that the eyes move when the
実施形態においては、ロボット100の頭部を所定範囲とし、鼻109がいじられる時間が5秒以上15秒未満であればロボット100の頭部のみを、15秒以上であればロボット100の頭部だけでなく、所定範囲外の部位である手106も駆動した。ロボット100本体の変形またはロボット100本体に設けられるデバイスの動きに応じて駆動する箇所を定める「所定範囲」は、ロボット100の頭部に限られない。例えば、ロボット100の顔領域107でもよいし、ロボット100の足以外の部分としてもよい。ロボット100の駆動機構によって動かせる箇所のうち適宜範囲を設定すればよい。
In the embodiment, the head of the
また、各モーションを発動させる変形継続時間の条件は5秒以上や15秒以上に限らず、例えば1秒以下や1分以上など、様々な時間に設定可能である。 Further, the condition of the deformation duration for activating each motion is not limited to 5 seconds or more and 15 seconds or more, and can be set to various times such as 1 second or less and 1 minute or more.
実施形態においては、鼻109を継続的にいじられている時間(変形継続時間)に応じてモーションを変化させた。変形継続時間に限らず、例えば経路や変形速度などのロボット100本体の変形態様やロボット100に備えられたデバイスの動きなどをモーションを選択するための条件として採用してよい。
In the embodiment, the motion is changed according to the time during which the
変形量の累積値、変形継続時間の累積値、またはロボット100にかかる圧力に応じてロボット100の眼を変化させたり動きを変化させるとしてもよい。たとえば鼻109を弱い力でいじる場合には、眼の動き、頭の動き、体全体の動きへの遷移の仕方が緩やかなため、長時間眼の変化だけとしてもよい。強い力でいじる場合には短時間で体全体の動きへと遷移するとしてもよい。これにより、いじり方に応じたロボット100の挙動がよりバリエーション豊かとなる。
単に撫でる、叩くという触り方とは異なり、本発明のロボット100は「変形」を伴う触り方に応答する。いいかえれば、電気的な接触検出に限らず、物理的な「変形」として接触を検出している。ユーザによっていじる強さや変形量、接触面積等「いじり方」は様々である。ユーザによって異なる「いじり方」に応じてロボット100が表現豊かに反応すれば、ユーザはロボット100に対して愛着を抱くようになる。The eyes of the
Unlike the touching method of simply stroking and hitting, the
実施形態においては、アナログスティック180の動きに応じてロボット100の挙動が決定された。ロボット100の挙動を決定する契機はこれによらず、例えばユーザが無意識にいじりたくなると想定される箇所にセンサを設ける等でもよい。また、ロボット100本体に複数のセンサを設けてもよい。複数のセンサを設ける場合には、そのうちの1つをアナログスティック180の動きを検出するセンサとしてもよい。また、全て同程度の検出精度のセンサとしてもよいし、異なる検出精度のセンサとしてもよい。異なる検出精度のセンサを複数設ける場合には、ユーザのいじりたくなると想定される箇所により高い検出精度のセンサを設けてもよい。この場合の検出精度はユーザがロボット100本体に対する接触地点を変化させるときの変化量に対する検出感度とする。以下、ロボット100本体に設けられたいずれかのセンサによってユーザの接触が検出されることを「ユーザがロボット100に触れる」または「ユーザがロボット100に接触する」ということがある。
In the embodiment, the behavior of the
鼻109以外に設けられるセンサの例として、ロボット100の表面のうち目110を挟む2つの位置に対するユーザの接触を検出するセンサが挙げられる。このセンサによってユーザの接触が検出された場合に、眼生成部172は瞼画像190を下げる(閉眼する)。これにより、目110が覆われたので目をつぶるというロボット100の行動を表現できる。
An example of a sensor provided other than the
ロボット100本体に複数のセンサを設ける場合には、いずれかのセンサにおいてユーザの接触を検出すると、眼生成部172はロボット100の仮想視線をその接触箇所へ向けたような眼画像171を生成するとしてもよい。以下、所定箇所に仮想視線を向けた眼画像171を眼生成部172が所定時間にわたってモニター170に表示することを、「ロボット100が所定箇所を注視する」ということがある。例えば、ユーザがロボット100の手に触れると、ロボット100は手を注視する。あるいは、ユーザがロボット100のお腹に触れると、ロボット100はお腹を注視する。また、ユーザの接触が所定時間を超える場合には、ロボット100はその接触箇所を含む部分を動かすとしてもよい。例えば、ユーザがロボット100の手に触れている時間が5秒を超える場合には、ロボット100はユーザの手からロボット100の手を離そうとするモーションを行う。また、ユーザがロボット100のお腹に触れている時間が10秒を超える場合には、ロボット100はお腹を左右に振るモーションを行う。このように、ロボット100の複数の箇所に設けられる複数のセンサのいずれかにおいてユーザの接触を検出したとき、眼生成部172は接触箇所を注視している眼画像171を生成する。また、いずれかのセンサにおけるユーザの接触の検出時間が所定時間を超えるとき、動作制御部150は接触箇所を含む部分を動かすモーションを実行する。これにより、ユーザは、触られた部分をじっと見た後身をよじるという生物的な挙動をロボット100が示していると感じることができる。
When a plurality of sensors are provided in the
ロボット100本体の全域にわたって高精度なセンサを取り付けると、消費電力が大きくなってしまう。一部のセンサのみ高精度とすることにより、消費電力を抑えられる。また、ユーザのいじりたくなると想定される箇所のセンサのみ高精度にしてユーザの小さな動きをも検出し、その動きに対応するロボット100の挙動を示すとする。こうすることで、「体の他の部分に触れても反応が薄いが、ある点での接触については敏感に感じ取る」という生き物の特性を表現できる。また、ユーザが少し触れただけでもその接触を検出してロボット100が反応を返すから、ユーザは、ロボット100が自分の少しの動きにも反応してくれると感じ、ロボット100とコミュニケーションがとれている感覚を味わえる。なお、検出精度はユーザがロボット100本体に対する接触地点を変化させるときの変化量に対する検出感度に限らず、例えば接触の強さ、接触範囲等を検出する能力であってもよい。また、高精度なセンサとして物理的に動くセンサ、低精度なセンサとして静電容量式のタッチセンサを採用したり、センサの種類は同じであるが検出精度を異ならせたりしてもよい。センサは様々な種類のものを採用でき、上述したセンサ以外にもたとえば、センサがユーザの接触を検知すると力覚フィードバックを行うものであってもよい。
If a high-precision sensor is attached to the entire area of the
実施形態においては、ロボット100の眼動作として、眼をぐるぐる回す動作である眼動作M1、瞬きをする動作である眼動作M2、両眼を寄せる動作である眼動作M3を示した。ロボット100が示す眼動作はこれらに限らない。たとえば、視線をそらす動作、目を見開く動作、目を細める動作等、ロボット100が実現可能な動作であればよい。
In the embodiment, as the eye movements of the
実施形態においては、ロボット100のモーションとして、頭部を左右に動かすモーションであるモーションC1と手を上下に動かすモーションであるモーションC2を示した。ロボット100が示すモーションはこれらに限らない。たとえば、頭部を縦に動かして「うなずく」、頭部を傾けて「首をかしげる」、手を体の後ろにひっこめる、体を前に傾けて「おじぎをする」、足を動かして「後ずさる」、動きをとめて「無視する」等、ロボット100が実現可能な動きであればよい。
In the embodiment, as the motion of the
実施形態においては、鼻109が目110や顔領域107より小さいとした。鼻109の大きさはこれに限らず、目110と同程度かより大きいとしてもよい。また、目110や顔領域107等各部の大小関係についても実施形態に拘束されることはなく、適宜設計変更可能である。
In the embodiment, the
本発明は、ロボット100の鼻109をユーザがいじると、そのいじり方に応じてロボット100が反応を返す。ユーザが無意識にいじる可能性の高い箇所の変化を検知できるセンサを設ける。その箇所をユーザがいじったときにそのいじり方によってロボット100の目が動き、表情が変化し、体が動き出せば、ユーザはロボット100に対する愛着を抱くようになる。いじり方によってロボット100の反応が変化すると、ユーザがロボット100に触れる時間は長くなる。ユーザのロボット100への接触時間を長くできれば、ロボット100に対するユーザの愛着をいっそう深いものにできる。なお、鼻をいじられると、それに連動して眼を動かす動物は存在しない。人間であってもそうした行為はしない。仮にしたとしても、他人に鼻をいじられて、そのいじる方向に連動して眼を動かすことは難しい。ロボット100だからこそ可能な、ひとつの表現と言える。
In the present invention, when the user tampers with the
Claims (15)
眼画像を生成し、ロボットの顔領域に前記眼画像を表示させる眼生成部と、を備え、
前記眼生成部は、前記ロボット本体の変形が検知されたとき、変形態様に応じて前記眼画像を変化させることを特徴とするロボット。An operation detector that detects the deformation of the robot body and
It is provided with an eye generation unit that generates an eye image and displays the eye image on the face area of the robot.
The eye generation unit is a robot characterized in that when a deformation of the robot body is detected, the eye image is changed according to the deformation mode.
前記動作制御部は、前記眼画像の変化が開始された後において、前記ロボット本体の変形態様が所定の条件を満たしたときには、変形態様に応じたモーションを選択することを特徴とする請求項1または2に記載のロボット。Equipped with a motion control unit that selects the motion of the robot
1. The motion control unit is characterized in that, after the change of the eye image is started, when the deformation mode of the robot body satisfies a predetermined condition, the motion control unit selects a motion according to the deformation mode. Or the robot according to 2.
前記眼生成部は、前記操作履歴に応じて前記眼画像を変化させることを特徴とする請求項1〜4のいずれかに記載のロボット。Equipped with an operation history management unit that records the deformation state of the robot body with the passage of time as an operation history.
The robot according to any one of claims 1 to 4, wherein the eye generation unit changes the eye image according to the operation history.
時間経過にともなうロボット本体の変形状態を操作履歴として記録する操作履歴管理部と、を備え、
前記動作制御部は、前記操作履歴に応じてモーションを変化させることを特徴とする請求項1〜5のいずれかに記載のロボット。A motion control unit that selects the motion of the robot,
It is equipped with an operation history management unit that records the deformation state of the robot body with the passage of time as an operation history.
The robot according to any one of claims 1 to 5, wherein the motion control unit changes a motion according to the operation history.
前記操作検知部は、前記突起の変形を検知することを特徴とする請求項8に記載のロボット。The convex portion is a protrusion installed on a portion corresponding to the nose of the robot body.
The robot according to claim 8, wherein the operation detection unit detects deformation of the protrusion.
前記姿勢判断部がユーザによるロボットの抱き上げを特定することを条件として、前記眼生成部は前記変形態様に応じて前記眼画像を変化させることを特徴とする請求項1〜9のいずれかに記載のロボット。It is equipped with a posture determination unit that identifies the posture of the robot.
The invention according to any one of claims 1 to 9, wherein the eye generation unit changes the eye image according to the deformation mode, provided that the posture determination unit identifies the robot being lifted by the user. Robot.
前記選択されたモーションを実行する駆動機構と、
ロボット本体に設けられるデバイスの動きを検知する操作検知部と、を備え、
前記動作制御部は、前記デバイスの動きが検知されたとき、前記デバイスから所定範囲内を駆動対象とするモーションのうち、前記デバイスの動きに応じたモーションを選択することを特徴とするロボット。A motion control unit that selects the motion of the robot,
A drive mechanism that executes the selected motion, and
It is equipped with an operation detection unit that detects the movement of the device provided in the robot body.
The robot is characterized in that, when the movement of the device is detected, the motion control unit selects a motion corresponding to the movement of the device from among the motions to be driven within a predetermined range from the device.
前記ロボットの顔領域に設けられ、ユーザの接触を前記第1のセンサより高精度に検出する第2のセンサと、
眼画像を生成し、前記顔領域に前記眼画像を表示させる眼生成部と、を備え、
前記眼生成部は、前記第2のセンサにおける検出値の変化量に連動して前記眼画像を変化させることを特徴とするロボット。A first sensor installed on the body surface of the robot to detect user contact,
A second sensor provided in the face area of the robot and detecting a user's contact with higher accuracy than the first sensor.
It is provided with an eye generation unit that generates an eye image and displays the eye image in the face region.
The eye generation unit is a robot characterized in that the eye image is changed in association with the amount of change in the detected value of the second sensor.
瞳を動かすことで視線を表現する眼生成部と、を備え、
前記眼生成部は、前記凸部の変形状態に連動して、前記瞳を変化させることを特徴とするロボット。A convex part that imitates the nose and
Equipped with an eye generator that expresses the line of sight by moving the eyes,
The eye generation unit is a robot characterized in that the pupil is changed in conjunction with the deformation state of the convex portion.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024005682A JP2024045247A (en) | 2018-07-02 | 2024-01-17 | robot |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018125815 | 2018-07-02 | ||
JP2018125815 | 2018-07-02 | ||
PCT/JP2019/026249 WO2020009098A1 (en) | 2018-07-02 | 2019-07-02 | Robot |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024005682A Division JP2024045247A (en) | 2018-07-02 | 2024-01-17 | robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020009098A1 true JPWO2020009098A1 (en) | 2021-08-05 |
JPWO2020009098A5 JPWO2020009098A5 (en) | 2022-07-08 |
Family
ID=69060406
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020529004A Pending JPWO2020009098A1 (en) | 2018-07-02 | 2019-07-02 | robot |
JP2024005682A Pending JP2024045247A (en) | 2018-07-02 | 2024-01-17 | robot |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024005682A Pending JP2024045247A (en) | 2018-07-02 | 2024-01-17 | robot |
Country Status (2)
Country | Link |
---|---|
JP (2) | JPWO2020009098A1 (en) |
WO (1) | WO2020009098A1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006198017A (en) * | 2005-01-18 | 2006-08-03 | Sega Toys:Kk | Robot toy |
WO2018016461A1 (en) * | 2016-07-20 | 2018-01-25 | Groove X株式会社 | Autonomous-behavior-type robot that understands emotional communication through physical contact |
WO2018097089A1 (en) * | 2016-11-24 | 2018-05-31 | Groove X株式会社 | Autonomously acting robot changing pupils |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012239557A (en) * | 2011-05-17 | 2012-12-10 | Shain:Kk | Robot toy |
US9375845B1 (en) * | 2014-09-30 | 2016-06-28 | Sprint Communications Company, L.P. | Synchronizing robot motion with social interaction |
-
2019
- 2019-07-02 WO PCT/JP2019/026249 patent/WO2020009098A1/en active Application Filing
- 2019-07-02 JP JP2020529004A patent/JPWO2020009098A1/en active Pending
-
2024
- 2024-01-17 JP JP2024005682A patent/JP2024045247A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006198017A (en) * | 2005-01-18 | 2006-08-03 | Sega Toys:Kk | Robot toy |
WO2018016461A1 (en) * | 2016-07-20 | 2018-01-25 | Groove X株式会社 | Autonomous-behavior-type robot that understands emotional communication through physical contact |
WO2018097089A1 (en) * | 2016-11-24 | 2018-05-31 | Groove X株式会社 | Autonomously acting robot changing pupils |
Also Published As
Publication number | Publication date |
---|---|
WO2020009098A1 (en) | 2020-01-09 |
JP2024045247A (en) | 2024-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11285614B2 (en) | Autonomously acting robot that understands physical contact | |
CN110024000B (en) | Behavior autonomous robot for changing pupil | |
US11498222B2 (en) | Autonomously acting robot that stares at companion | |
JP7231924B2 (en) | Autonomous action robot whose activity level is controlled | |
EP3456487A2 (en) | Robot, method of controlling the same, and program | |
JP7236142B2 (en) | Autonomous action robot | |
US20200206904A1 (en) | Robot that acts comically, and structure thereof | |
JP7420387B2 (en) | robot wearing costume | |
JP2018192559A (en) | Autonomous mobile robot detecting touch to body of curved surface shape | |
JPWO2020009098A1 (en) | robot | |
WO2019088160A1 (en) | Autonomously acting robot capable of executing reflex action | |
JPWO2020111190A1 (en) | Robot with operating device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220629 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230509 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230710 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231017 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240117 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20240129 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20240329 |