JP2019072495A - スキンシップを理解する自律行動型ロボット - Google Patents
スキンシップを理解する自律行動型ロボット Download PDFInfo
- Publication number
- JP2019072495A JP2019072495A JP2018204202A JP2018204202A JP2019072495A JP 2019072495 A JP2019072495 A JP 2019072495A JP 2018204202 A JP2018204202 A JP 2018204202A JP 2018204202 A JP2018204202 A JP 2018204202A JP 2019072495 A JP2019072495 A JP 2019072495A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- motion
- user
- control unit
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/0015—Face robots, animated artificial faces for imitating human expressions
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H11/00—Self-movable toy figures
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H3/00—Dolls
- A63H3/36—Details; Accessories
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H3/00—Dolls
- A63H3/36—Details; Accessories
- A63H3/38—Dolls' eyes
- A63H3/40—Dolls' eyes movable
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/001—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/003—Controls for manipulators by means of an audio-responsive input
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0003—Home robots, i.e. small robots for domestic use
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40202—Human robot coexistence
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40411—Robot assists human in non-industrial environment like home or office
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
- Toys (AREA)
Abstract
【課題】内部状態または外部環境に応じて自律的に行動選択するロボットを提供する。【解決手段】ロボット100には、体表面に対するユーザの接触を検出するために面状のタッチセンサ(静電容量センサ)400が設置される。タッチセンサの接触箇所および接触強度に応じて、快・不快を判定する。判定結果に応じて、ロボットの行動特性が変化する。快・不快に応じて、接触したユーザに対する親密度が変化する。ロボットは曲線形状を有し、かつ、柔らかいボディ104を有する。【選択図】図1
Description
本発明は、内部状態または外部環境に応じて自律的に行動選択するロボット、に関する。
人間は、感覚器官を通して外部環境からさまざまな情報を取得し、行動選択する。意識的に行動選択することもあれば、無意識的な行動選択もある。繰り返し行動はやがて無意識的行動となり、新しい行動は意識領域にとどまる。
人間は、自らの行動を自由に選択する意志、すなわち、自由意志をもっていると信じている。人間が他人に対して愛情や憎しみといった感情を抱くのは、他人にも自由意志があると信じているからである。自由意志を持つ者、少なくとも自由意志を持っていると想定可能な存在は、人の寂しさを癒す存在にもなる。
人間がペットを飼う理由は、人間の役に立つか否かよりも、ペットが癒しを与えてくれるからである。ペットは、多かれ少なかれ自由意志を感じさせる存在であるからこそ、人間のよき伴侶となることができる。
その一方、ペットの世話をする時間を十分に確保できない、ペットを飼える住環境にない、アレルギーがある、死別がつらい、といったさまざまな理由により、ペットをあきらめている人は多い。もし、ペットの役割が務まるロボットがあれば、ペットを飼えない人にもペットが与えてくれるような癒しを与えられるかもしれない(特許文献1参照)。
近年、ロボット技術は急速に進歩しつつあるが、ペットのような伴侶としての存在感を実現するには至っていない。ロボットに自由意志があるとは思えないからである。人間は、ペットの自由意志があるとしか思えないような行動を観察することにより、ペットに自由意志の存在を感じ、ペットに共感し、ペットに癒される。
したがって、人間的・生物的な行動特性を有するロボットであれば、いいかえれば、人間的・生物的な行動を自律的に選択可能なロボットであれば、ロボットへの共感を大きく高めることができると考えられる。
したがって、人間的・生物的な行動特性を有するロボットであれば、いいかえれば、人間的・生物的な行動を自律的に選択可能なロボットであれば、ロボットへの共感を大きく高めることができると考えられる。
本発明は、上記着想に基づいて完成された発明であり、その主たる目的は、人と接触することによってロボットの行動特性を変化させる技術、を提供することにある。
本発明のある態様における自律行動型ロボットは、ロボットの体表面に対するユーザの接触を検出するセンサと、接触箇所および接触強度に応じて、愛情表現レベルを判定する認識部と、愛情表現レベルに応じて、ロボットの行動特性を変化させる動作制御部と、を備える。
本発明の別の態様における自律行動型ロボットは、ユーザの接触を検出するセンサと、接触に応じてロボットのモーションを選択する動作制御部と、動作制御部により選択されたモーションを実行する駆動機構と、弾性体により形成された外皮と、を備える。
センサは、外皮を覆う面形状のセンサとして形成される。
センサは、外皮を覆う面形状のセンサとして形成される。
本発明の別の態様における自律行動型ロボットは、ロボットの体表面に設置され、ロボットに対する接触を検出する面状のセンサと、ロボットに対する接触に応じて、ロボットの動作を制御する動作制御部と、動作制御部により指定された行動を実行する駆動機構と、を備える
ロボットは曲面状の体表面を有する。センサは、ロボットの体表面の曲面に沿って設置される。
ロボットは曲面状の体表面を有する。センサは、ロボットの体表面の曲面に沿って設置される。
本発明の別の態様における自律行動型ロボットは、ロボットの抱え上げを認識する認識部と、ロボットのモーションを選択する動作制御部と、動作制御部により選択されたモーションを実行する駆動機構と、を備える。
認識部は、抱え上げの態様を複数種類に分類する。動作制御部は、抱え上げに対応する複数のモーションのうち、抱え上げの種類に応じたモーションを選択する。
認識部は、抱え上げの態様を複数種類に分類する。動作制御部は、抱え上げに対応する複数のモーションのうち、抱え上げの種類に応じたモーションを選択する。
本発明によれば、ロボットに対する共感を高めやすくなる。
一般に、人はスキンシップ(物理的接触を通じたコミュニケーション)をとることで相手に対する感情を表現する。相手を、抱きしめたり、頬ずりしたり、頭を撫でるなど、お互いの身体や肌の一部を触れあわせる行為を、自らの感情に応じて、無意識におこなう。それは相手がロボットであっても同じであり、ユーザがロボットに対して共感し、単なる機械としてではなく生物として意識するほど、スキンシップへの欲求が顕著になると予想される。本実施の形態におけるロボットは、ユーザからのスキンシップを認識し、そのスキンシップからユーザのロボットに対する感情を理解し、動作態様を変化させる。
図1(a)は、ロボット100の正面外観図である。図1(b)は、ロボット100の側面外観図である。
本実施形態におけるロボット100は、外部環境および内部状態に基づいて行動や仕草(ジェスチャー)を決定する自律行動型のロボットである。外部環境は、カメラやサーモセンサなど各種のセンサにより認識される。内部状態はロボット100の感情を表現するさまざまなパラメータとして定量化される。これらについては後述する。
本実施形態におけるロボット100は、外部環境および内部状態に基づいて行動や仕草(ジェスチャー)を決定する自律行動型のロボットである。外部環境は、カメラやサーモセンサなど各種のセンサにより認識される。内部状態はロボット100の感情を表現するさまざまなパラメータとして定量化される。これらについては後述する。
ロボット100は、屋内行動が前提とされており、たとえば、オーナー家庭の家屋内を行動範囲とする。以下、ロボット100に関わる人間を「ユーザ」とよび、ロボット100が所属する家庭の構成員となるユーザのことを「オーナー」とよぶ。
ロボット100のボディ104は、全体的に丸みを帯びた形状を有し、ウレタンやゴム、樹脂、繊維などやわらかく弾力性のある素材により形成された外皮を含む。ロボット100に服を着せてもよい。丸くてやわらかく、手触りのよいボディ104とすることで、ロボット100はユーザに安心感とともに心地よい触感を提供する。
ロボット100は、総重量が15キログラム以下、好ましくは10キログラム以下、更に好ましくは、5キログラム以下である。生後13ヶ月までに、赤ちゃんの過半数は一人歩きを始める。生後13ヶ月の赤ちゃんの平均体重は、男児が9キログラム強、女児が9キログラム弱である。このため、ロボット100の総重量が10キログラム以下であれば、ユーザは一人歩きできない赤ちゃんを抱きかかえるのとほぼ同等の労力でロボット100を抱きかかえることができる。生後2ヶ月未満の赤ちゃんの平均体重は男女ともに5キログラム未満である。したがって、ロボット100の総重量が5キログラム以下であれば、ユーザは乳児を抱っこするのと同等の労力でロボット100を抱っこできる。
適度な重さと丸み、柔らかさ、手触りのよさ、といった諸属性により、ユーザがロボット100を抱きかかえやすく、かつ、抱きかかえたくなるという効果が実現される。同様の理由から、ロボット100の身長は1.2メートル以下、好ましくは、0.7メートル以下であることが望ましい。本実施形態におけるロボット100にとって、抱きかかえることができるというのは重要なコンセプトである。
ロボット100は、3輪走行するための3つの車輪を備える。図示のように、一対の前輪102(左輪102a,右輪102b)と、一つの後輪103を含む。前輪102が駆動輪であり、後輪103が従動輪である。前輪102は、操舵機構を有しないが、回転速度や回転方向を個別に制御可能とされている。後輪103は、いわゆるオムニホイールからなり、ロボット100を前後左右へ移動させるために回転自在となっている。左輪102aよりも右輪102bの回転数を大きくすることで、ロボット100は左折したり、左回りに回転できる。右輪102bよりも左輪102aの回転数を大きくすることで、ロボット100は右折したり、右回りに回転できる。
前輪102および後輪103は、駆動機構(回動機構、リンク機構)によりボディ104に完全収納できる。走行時においても各車輪の大部分はボディ104に隠れているが、各車輪がボディ104に完全収納されるとロボット100は移動不可能な状態となる。すなわち、車輪の収納動作にともなってボディ104が降下し、床面Fに着座する。この着座状態においては、ボディ104の底部に形成された平坦状の着座面108(接地底面)が床面Fに当接する。
ロボット100は、2つの手106を有する。手106には、モノを把持する機能はない。手106は上げる、振る、振動するなど簡単な動作が可能である。2つの手106も個別制御可能である。
目110にはカメラが内蔵される。目110は、液晶素子または有機EL素子による画像表示も可能である。ロボット100は、目110に内蔵されるカメラのほか、集音マイクや超音波センサなどさまざまなセンサを搭載する。また、スピーカーを内蔵し、簡単な音声を発することもできる。
ロボット100の頭部にはツノ112が取り付けられる。上述のようにロボット100は軽量であるため、ユーザはツノ112をつかむことでロボット100を持ち上げることも可能である。
ロボット100の頭部にはツノ112が取り付けられる。上述のようにロボット100は軽量であるため、ユーザはツノ112をつかむことでロボット100を持ち上げることも可能である。
ロボット100のボディ104には、曲面形状の体表面に沿って複数のタッチセンサ400が設置される。本実施形態におけるタッチセンサ400は、投影型の静電容量センサである。タッチセンサ400においては、折り曲げ可能なプラスチックフィルム上に複数の電極線がマトリックス状に設置される。ユーザが面状のタッチセンサ400に接触すると、接触箇所周辺の静電容量が変化する。タッチセンサ400において互いに交差する電極線が静電容量の変化を検出することにより、接触箇所(座標)が特定される。投影型静電容量方式の場合、マルチタッチも検出可能である。タッチセンサ400と指が直接触れなくても、たとえば、手袋を介したタッチも検出可能である。
図1に示すように、タッチセンサ400はロボット100の体表面の全域に設置される。少なくとも、ロボット100の頭部、腹部、胸部、臀部、腰部、底部、背部および手106などの主要部に設置される。本実施形態における「主要部」とは、少なくとも、頭部および腹部(または胸部)の双方をいう。好ましくは背部も含む。頭部および腹部(または胸部)に加えて背中へのタッチも検出できることが望ましい。底部にタッチセンサ400を設ければ、ひざ上の抱っこを検出するのに便利である。主要部への接触を検出可能であれば、タッチセンサ400のサイズは小さくてもよい。
もちろん、タッチセンサ400は、ロボット100の体表面の全域を覆うことが望ましい。少なくとも体表面の30%以上、好ましくは50%以上を覆うことが望ましい。
もちろん、タッチセンサ400は、ロボット100の体表面の全域を覆うことが望ましい。少なくとも体表面の30%以上、好ましくは50%以上を覆うことが望ましい。
丸くて柔らかいボディ104は、ユーザにロボット100の心地よい触感を与える。また、ロボット100はバッテリー118や制御回路342(後述)などの発熱部品を内蔵するため、内部の熱の一部は体表面に伝わる。ロボット100のボディ104の暖かさも、ロボット100との接触にともなう快感を高める。
図2は、衣装着用時におけるロボット100の正面外観図である。
ユーザは、ロボット100に衣装180を着せることができる。衣装180にはさまざまな種類がある。衣装180にはRFID(Radio Frequency Identifier)タグが縫い付けられている。RFIDタグは、衣装を識別する「衣装ID」を至近距離に発信する。ロボット100は、RFIDタグから衣装IDを読み取ることにより、衣装180を着用していることと、着用している衣装180の種別を特定する。ロボット100は、複数の衣装180を重ね着してもよい。
ユーザは、ロボット100に衣装180を着せることができる。衣装180にはさまざまな種類がある。衣装180にはRFID(Radio Frequency Identifier)タグが縫い付けられている。RFIDタグは、衣装を識別する「衣装ID」を至近距離に発信する。ロボット100は、RFIDタグから衣装IDを読み取ることにより、衣装180を着用していることと、着用している衣装180の種別を特定する。ロボット100は、複数の衣装180を重ね着してもよい。
図3は、ロボット100の構造を概略的に表す断面図である。
図3に示すように、ロボット100のボディ104は、ベースフレーム308、本体フレーム310、一対の樹脂製のホイールカバー312および外皮314を含む。ベースフレーム308は、金属からなり、ボディ104の軸芯を構成するとともに内部機構を支持する。ベースフレーム308は、アッパープレート332とロアプレート334とを複数のサイドプレート336により上下に連結して構成される。複数のサイドプレート336間には通気が可能となるよう、十分な間隔が設けられる。ベースフレーム308の内方には、バッテリー118、制御回路342および各種アクチュエータが収容されている。
図3に示すように、ロボット100のボディ104は、ベースフレーム308、本体フレーム310、一対の樹脂製のホイールカバー312および外皮314を含む。ベースフレーム308は、金属からなり、ボディ104の軸芯を構成するとともに内部機構を支持する。ベースフレーム308は、アッパープレート332とロアプレート334とを複数のサイドプレート336により上下に連結して構成される。複数のサイドプレート336間には通気が可能となるよう、十分な間隔が設けられる。ベースフレーム308の内方には、バッテリー118、制御回路342および各種アクチュエータが収容されている。
本体フレーム310は、樹脂材からなり、頭部フレーム316および胴部フレーム318を含む。頭部フレーム316は、中空半球状をなし、ロボット100の頭部骨格を形成する。胴部フレーム318は、段付筒形状をなし、ロボット100の胴部骨格を形成する。胴部フレーム318は、ベースフレーム308と一体に固定される。頭部フレーム316は、胴部フレーム318の上端部に相対変位可能に組み付けられる。
頭部フレーム316には、ヨー軸320、ピッチ軸322およびロール軸324の3軸と、各軸を回転駆動するためのアクチュエータ326が設けられる。アクチュエータ326は、各軸を個別に駆動するための複数のサーボモータを含む。首振り動作のためにヨー軸320が駆動され、頷き動作のためにピッチ軸322が駆動され、首を傾げる動作のためにロール軸324が駆動される。
頭部フレーム316の上部には、ヨー軸320を支持するプレート325が固定されている。プレート325には、上下間の通気を確保するための複数の通気孔327が形成される。
頭部フレーム316およびその内部機構を下方から支持するように、金属製のベースプレート328が設けられる。ベースプレート328は、クロスリンク機構329(パンタグラフ機構)を介してプレート325と連結される一方、ジョイント330を介してアッパープレート332(ベースフレーム308)と連結されている。
胴部フレーム318は、ベースフレーム308と車輪駆動機構370を収容する。車輪駆動機構370は、回動軸378およびアクチュエータ379を含む。胴部フレーム318の下半部は、ホイールカバー312との間に前輪102の収納スペースSを形成するために小幅とされている。
外皮314は、ウレタンゴムからなり、本体フレーム310およびホイールカバー312を外側から覆う。手106は、外皮314と一体成形される。外皮314の上端部には、外気を導入するための開口部390が設けられる。
図4は、ロボットシステム300の構成図である。
ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。家屋内にはあらかじめ複数の外部センサ114(外部センサ114a、114b、・・・、114n)が設置される。外部センサ114は、家屋の壁面に固定されてもよいし、床に載置されてもよい。サーバ200には、外部センサ114の位置座標が登録される。位置座標は、ロボット100の行動範囲として想定される家屋内においてx,y座標として定義される。
ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。家屋内にはあらかじめ複数の外部センサ114(外部センサ114a、114b、・・・、114n)が設置される。外部センサ114は、家屋の壁面に固定されてもよいし、床に載置されてもよい。サーバ200には、外部センサ114の位置座標が登録される。位置座標は、ロボット100の行動範囲として想定される家屋内においてx,y座標として定義される。
サーバ200は、家庭内に設置される。本実施形態におけるサーバ200とロボット100は1対1で対応する。ロボット100の内蔵するセンサおよび複数の外部センサ114から得られる情報に基づいて、サーバ200がロボット100の基本行動を決定する。
外部センサ114はロボット100の感覚器を補強するためのものであり、サーバ200はロボット100の頭脳を補強するためのものである。
外部センサ114はロボット100の感覚器を補強するためのものであり、サーバ200はロボット100の頭脳を補強するためのものである。
外部センサ114は、定期的に外部センサ114のID(以下、「ビーコンID」とよぶ)を含む無線信号(以下、「ロボット探索信号」とよぶ)を送信する。ロボット100はロボット探索信号を受信するとビーコンIDを含む無線信号(以下、「ロボット返答信号」とよぶ)を返信する。サーバ200は、外部センサ114がロボット探索信号を送信してからロボット返答信号を受信するまでの時間を計測し、外部センサ114からロボット100までの距離を測定する。複数の外部センサ114とロボット100とのそれぞれの距離を計測することで、ロボット100の位置座標を特定する。
もちろん、ロボット100が自らの位置座標を定期的にサーバ200に送信する方式でもよい。
もちろん、ロボット100が自らの位置座標を定期的にサーバ200に送信する方式でもよい。
図5は、感情マップ116の概念図である。
感情マップ116は、サーバ200に格納されるデータテーブルである。ロボット100は、感情マップ116にしたがって行動選択する。図5に示す感情マップ116は、ロボット100の場所に対する好悪感情の大きさを示す。感情マップ116のx軸とy軸は、二次元空間座標を示す。z軸は、好悪感情の大きさを示す。z値が正値のときにはその場所に対する好感が高く、z値が負値のときにはその場所を嫌悪していることを示す。
感情マップ116は、サーバ200に格納されるデータテーブルである。ロボット100は、感情マップ116にしたがって行動選択する。図5に示す感情マップ116は、ロボット100の場所に対する好悪感情の大きさを示す。感情マップ116のx軸とy軸は、二次元空間座標を示す。z軸は、好悪感情の大きさを示す。z値が正値のときにはその場所に対する好感が高く、z値が負値のときにはその場所を嫌悪していることを示す。
図5の感情マップ116において、座標P1は、ロボット100の行動範囲としてサーバ200が管理する屋内空間のうち好感情が高い地点(以下、「好意地点」とよぶ)である。好意地点は、ソファの陰やテーブルの下などの「安全な場所」であってもよいし、リビングのように人が集まりやすい場所、賑やかな場所であってもよい。また、過去にやさしく撫でられたり、触れられたりした場所であってもよい。
ロボット100がどのような場所を好むかという定義は任意であるが、一般的には、小さな子どもや犬や猫などの小動物が好む場所を好意地点として設定することが望ましい。
ロボット100がどのような場所を好むかという定義は任意であるが、一般的には、小さな子どもや犬や猫などの小動物が好む場所を好意地点として設定することが望ましい。
座標P2は、悪感情が高い地点(以下、「嫌悪地点」とよぶ)である。嫌悪地点は、テレビの近くなど大きな音がする場所、お風呂や洗面所のように濡れやすい場所、閉鎖空間や暗い場所、ユーザから乱暴に扱われたことがある不快な記憶に結びつく場所などであってもよい。
ロボット100がどのような場所を嫌うかという定義も任意であるが、一般的には、小さな子どもや犬や猫などの小動物が怖がる場所を嫌悪地点として設定することが望ましい。
ロボット100がどのような場所を嫌うかという定義も任意であるが、一般的には、小さな子どもや犬や猫などの小動物が怖がる場所を嫌悪地点として設定することが望ましい。
座標Qは、ロボット100の現在位置を示す。複数の外部センサ114が定期的に送信するロボット探索信号とそれに対するロボット返答信号により、サーバ200はロボット100の位置座標を特定する。たとえば、ビーコンID=1の外部センサ114とビーコンID=2の外部センサ114がそれぞれロボット100を検出したとき、2つの外部センサ114からロボット100の距離を求め、そこからロボット100の位置座標を求める。
あるいは、ビーコンID=1の外部センサ114は、ロボット探索信号を複数方向に送信し、ロボット100はロボット探索信号を受信したときロボット返答信号を返す。これにより、サーバ200は、ロボット100がどの外部センサ114からどの方向のどのくらいの距離にいるかを把握してもよい。また、別の実施の形態では、前輪102または後輪103の回転数からロボット100の移動距離を算出して、現在位置を特定してもよいし、カメラから得られる画像に基づいて現在位置を特定してもよい。
図5に示す感情マップ116が与えられた場合、ロボット100は好意地点(座標P1)に引き寄せられる方向、嫌悪地点(座標P2)から離れる方向に移動する。
図5に示す感情マップ116が与えられた場合、ロボット100は好意地点(座標P1)に引き寄せられる方向、嫌悪地点(座標P2)から離れる方向に移動する。
感情マップ116は動的に変化する。ロボット100が座標P1に到達すると、座標P1におけるz値(好感情)は時間とともに低下する。これにより、ロボット100は好意地点(座標P1)に到達して、「感情が満たされ」、やがて、その場所に「飽きてくる」という生物的行動をエミュレートできる。同様に、座標P2における悪感情も時間とともに緩和される。時間経過とともに新たな好意地点や嫌悪地点が生まれ、それによってロボット100は新たな行動選択を行う。ロボット100は、新しい好意地点に「興味」を持ち、絶え間なく行動選択する。
感情マップ116は、ロボット100の内部状態として、感情の起伏を表現する。ロボット100は、好意地点を目指し、嫌悪地点を避け、好意地点にしばらくとどまり、やがてまた次の行動を起こす。このような制御により、ロボット100の行動選択を人間的・生物的なものにできる。
なお、ロボット100の行動に影響を与えるマップ(以下、「行動マップ」と総称する)は、図5に示したようなタイプの感情マップ116に限らない。たとえば、好奇心、恐怖を避ける気持ち、安心を求める気持ち、静けさや薄暗さ、涼しさや暖かさといった肉体的安楽を求める気持ち、などさまざまな行動マップを定義可能である。そして、複数の行動マップそれぞれのz値を重み付け平均することにより、ロボット100の目的地点を決定してもよい。
ロボット100は、行動マップとは別に、さまざまな感情や感覚の大きさを示すパラメータを有してもよい。たとえば、寂しさという感情パラメータの値が高まっているときには、安心する場所を評価する行動マップの重み付け係数を大きく設定し、目標地点に到達することでこの感情パラメータの値を低下させてもよい。同様に、つまらないという感覚を示すパラメータの値が高まっているときには、好奇心を満たす場所を評価する行動マップの重み付け係数を大きく設定すればよい。
図6は、ロボット100のハードウェア構成図である。
ロボット100は、内部センサ128、通信機126、記憶装置124、プロセッサ122、駆動機構120およびバッテリー118を含む。駆動機構120は、上述した車輪駆動機構370を含む。プロセッサ122と記憶装置124は、制御回路342に含まれる。各ユニットは電源線130および信号線132により互いに接続される。バッテリー118は、電源線130を介して各ユニットに電力を供給する。各ユニットは信号線132により制御信号を送受する。バッテリー118は、リチウムイオン二次電池であり、ロボット100の動力源である。
ロボット100は、内部センサ128、通信機126、記憶装置124、プロセッサ122、駆動機構120およびバッテリー118を含む。駆動機構120は、上述した車輪駆動機構370を含む。プロセッサ122と記憶装置124は、制御回路342に含まれる。各ユニットは電源線130および信号線132により互いに接続される。バッテリー118は、電源線130を介して各ユニットに電力を供給する。各ユニットは信号線132により制御信号を送受する。バッテリー118は、リチウムイオン二次電池であり、ロボット100の動力源である。
内部センサ128は、ロボット100が内蔵する各種センサの集合体である。具体的には、カメラ、集音マイク、赤外線センサ、サーモセンサ、タッチセンサ、加速度センサ、ニオイセンサなどである。ニオイセンサは、匂いの元となる分子の吸着によって電気抵抗が変化する原理を応用した既知のセンサである。ニオイセンサは、さまざまな匂いを複数種類のカテゴリ(以下、「ニオイカテゴリ」とよぶ)に分類する。
通信機126は、サーバ200や外部センサ114、ユーザの有する携帯機器など各種の外部機器を対象として無線通信を行う通信モジュールである。記憶装置124は、不揮発性メモリおよび揮発性メモリにより構成され、コンピュータプログラムや各種設定情報を記憶する。プロセッサ122は、コンピュータプログラムの実行手段である。駆動機構120は、内部機構を制御するアクチュエータである。このほかには、表示器やスピーカーなども搭載される。
プロセッサ122は、通信機126を介してサーバ200や外部センサ114と通信しながら、ロボット100の行動選択を行う。内部センサ128により得られるさまざまな外部情報も行動選択に影響する。駆動機構120は、主として、車輪(前輪102)と頭部(頭部フレーム316)を制御する。駆動機構120は、2つの前輪102それぞれの回転速度や回転方向を変化させることにより、ロボット100の移動方向や移動速度を変化させる。また、駆動機構120は、車輪(前輪102および後輪103)を昇降させることもできる。車輪が上昇すると、車輪はボディ104に完全に収納され、ロボット100は着座面108にて床面Fに当接し、着座状態となる。
図7は、ロボットシステム300の機能ブロック図である。
上述のように、ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。ロボット100およびサーバ200の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
ロボット100の機能の一部はサーバ200により実現されてもよいし、サーバ200の機能の一部または全部はロボット100により実現されてもよい。
上述のように、ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。ロボット100およびサーバ200の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
ロボット100の機能の一部はサーバ200により実現されてもよいし、サーバ200の機能の一部または全部はロボット100により実現されてもよい。
(サーバ200)
サーバ200は、通信部204、データ処理部202およびデータ格納部206を含む。
通信部204は、外部センサ114およびロボット100との通信処理を担当する。データ格納部206は各種データを格納する。データ処理部202は、通信部204により取得されたデータおよびデータ格納部206に格納されるデータに基づいて各種処理を実行する。データ処理部202は、通信部204およびデータ格納部206のインタフェースとしても機能する。
サーバ200は、通信部204、データ処理部202およびデータ格納部206を含む。
通信部204は、外部センサ114およびロボット100との通信処理を担当する。データ格納部206は各種データを格納する。データ処理部202は、通信部204により取得されたデータおよびデータ格納部206に格納されるデータに基づいて各種処理を実行する。データ処理部202は、通信部204およびデータ格納部206のインタフェースとしても機能する。
データ格納部206は、モーション格納部232、マップ格納部216および個人データ格納部218を含む。
ロボット100は、複数の動作パターン(モーション)を有する。手を震わせる、蛇行しながらオーナーに近づく、首をかしげたままオーナーを見つめる、などさまざまなモーションが定義されている。
ロボット100は、複数の動作パターン(モーション)を有する。手を震わせる、蛇行しながらオーナーに近づく、首をかしげたままオーナーを見つめる、などさまざまなモーションが定義されている。
モーション格納部232は、モーションの制御内容を定義する「モーションファイル」を格納する。各モーションは、モーションIDにより識別される。モーションファイルは、ロボット100のモーション格納部160にもダウンロードされる。どのモーションを実行するかは、サーバ200で決定されることもあるし、ロボット100で決定されることもある。
ロボット100のモーションの多くは、複数の単位モーションを含む複合モーションとして構成される。たとえば、ロボット100がオーナーに近づくとき、オーナーの方に向き直る単位モーション、手を上げながら近づく単位モーション、体を揺すりながら近づく単位モーション、両手を上げながら着座する単位モーションの組み合わせとして表現されてもよい。このような4つのモーションの組み合わせにより、「オーナーに近づいて、途中で手を上げて、最後は体をゆすった上で着座する」というモーションが実現される。モーションファイルには、ロボット100に設けられたアクチュエータの回転角度や角速度などが時間軸に関連づけて定義される。モーションファイル(アクチュエータ制御情報)にしたがって、時間経過とともに各アクチュエータを制御することで様々なモーションが表現される。
先の単位モーションから次の単位モーションに変化するときの移行時間を「インターバル」とよぶ。インターバルは、単位モーション変更に要する時間やモーションの内容に応じて定義されればよい。インターバルの長さは調整可能である。
以下、いつ、どのモーションを選ぶか、モーションを実現する上での各アクチュエータの出力調整など、ロボット100の行動制御にかかわる設定のことを「行動特性」と総称する。ロボット100の行動特性は、モーション選択アルゴリズム、さまざまな状況に対応して選ばれるモーションの選択確率、モーションファイル等により定義される。
マップ格納部216は、複数の行動マップを格納する。個人データ格納部218は、ユーザ、特に、オーナーの情報を格納する。具体的には、ユーザに対する親密度やユーザの身体的特徴・行動的特徴など各種のパラメータを格納する。年齢や性別などの他の属性情報を格納してもよい。
ロボット100はユーザの身体的特徴や行動的特徴に基づいてユーザを識別する。ロボット100は、内蔵のカメラで常時周辺を撮像する。そして、画像に写る人物の身体的特徴と行動的特徴を抽出する。身体的特徴とは、背の高さ、好んで着る服、メガネの有無、肌の色、髪の色、耳の大きさなど身体に付随する視覚的特徴であってもよいし、平均体温や匂い、声質、などその他の特徴も含めてもよい。行動的特徴とは、具体的には、ユーザが好む場所、動きの活発さ、喫煙の有無など行動に付随する特徴である。たとえば、父親として識別されるオーナーは在宅しないことが多く、在宅時にはソファで動かないことが多いが、母親は台所にいることが多く、行動範囲が広い、といった行動上の特徴を抽出する。
ロボット100は、大量の画像情報やその他のセンシング情報から得られる身体的特徴および行動的特徴に基づいて、高い頻度で出現するユーザを「オーナー」としてクラスタリングする。
ロボット100は、大量の画像情報やその他のセンシング情報から得られる身体的特徴および行動的特徴に基づいて、高い頻度で出現するユーザを「オーナー」としてクラスタリングする。
ユーザIDでユーザを識別する方式は簡易かつ確実であるが、ユーザがユーザIDを提供可能な機器を保有していることが前提となる。一方、身体的特徴や行動的特徴によりユーザを識別する方法は画像認識処理負担が大きいものの携帯機器を保有していないユーザでも識別できるメリットがある。2つの方法は一方だけを採用してもよいし、補完的に2つの方法を併用してユーザ特定を行ってもよい。
本実施形態においては、身体的特徴と行動的特徴からユーザをクラスタリングし、ディープラーニング(多層型のニューラルネットワーク)によってユーザを識別する。詳細は後述する。
本実施形態においては、身体的特徴と行動的特徴からユーザをクラスタリングし、ディープラーニング(多層型のニューラルネットワーク)によってユーザを識別する。詳細は後述する。
ロボット100は、ユーザごとに親密度という内部パラメータを有する。ロボット100が、自分を抱き上げる、声をかけてくれるなど、自分に対して好意を示す行動を認識したとき、そのユーザに対する親密度が高くなる。ロボット100に関わらないユーザや、乱暴を働くユーザ、出会う頻度が低いユーザに対する親密度は低くなる。
データ処理部202は、位置管理部208、マップ管理部210、認識部212、動作制御部222および親密度管理部220を含む。
位置管理部208は、ロボット100の位置座標を、図4を用いて説明した方法にて特定する。位置管理部208はユーザの位置座標もリアルタイムで追跡してもよい。
位置管理部208は、ロボット100の位置座標を、図4を用いて説明した方法にて特定する。位置管理部208はユーザの位置座標もリアルタイムで追跡してもよい。
マップ管理部210は、複数の行動マップについて図5に関連して説明した方法にて各座標のパラメータを変化させる。マップ管理部210は、複数の行動マップのいずれかを選択してもよいし、複数の行動マップのz値を加重平均してもよい。たとえば、行動マップAでは座標R1、座標R2におけるz値が4と3であり、行動マップBでは座標R1、座標R2におけるz値が−1と3であるとする。単純平均の場合、座標R1の合計z値は4−1=3、座標R2の合計z値は3+3=6であるから、ロボット100は座標R1ではなく座標R2の方向に向かう。
行動マップAを行動マップBの5倍重視するときには、座標R1の合計z値は4×5−1=19、座標R2の合計z値は3×5+3=18であるから、ロボット100は座標R1の方向に向かう。
行動マップAを行動マップBの5倍重視するときには、座標R1の合計z値は4×5−1=19、座標R2の合計z値は3×5+3=18であるから、ロボット100は座標R1の方向に向かう。
認識部212は、外部環境を認識する。外部環境の認識には、温度や湿度に基づく天候や季節の認識、光量や温度に基づく物陰(安全地帯)の認識など多様な認識が含まれる。認識部212は、更に、人物認識部214と応対認識部228を含む。人物認識部214は、ロボット100の内蔵カメラによる撮像画像から人物を認識し、その人物の身体的特徴や行動的特徴を抽出する。そして、個人データ格納部218に登録されている身体特徴情報や行動特徴情報に基づいて、撮像されたユーザ、すなわち、ロボット100が見ているユーザが、父親、母親、長男などのどの人物に該当するかを判定する。人物認識部214は、表情認識部230を含む。表情認識部230は、ユーザの表情を画像認識することにより、ユーザの感情を推定する。
なお、人物認識部214は、人物以外の移動物体、たとえば、ペットである猫や犬についても特徴抽出を行う。
なお、人物認識部214は、人物以外の移動物体、たとえば、ペットである猫や犬についても特徴抽出を行う。
応対認識部228は、ユーザからロボット100になされたさまざまな応対行為を認識し、快・不快行為に分類する。応対認識部228は、感情推定部250を含む。感情推定部250は、ユーザからロボット100になされたスキンシップに基づいて、ユーザの感情を推定し、愛情表現レベルを特定する。愛情表現レベルは、ロボット100に対するユーザの感情を推定したパラメータである(後述)。
快・不快行為は、ユーザの応対行為が、生物として心地よいものであるか不快なものであるかにより判別される。たとえば、抱っこされることはロボット100にとって快行為であり、蹴られることはロボット100にとって不快行為である。快行為をするオーナーは肯定的感情を有している可能性が高く、不快行為をするオーナーは否定的感情を有している可能性が高いと判断される。
快・不快行為は、ユーザの応対行為が、生物として心地よいものであるか不快なものであるかにより判別される。たとえば、抱っこされることはロボット100にとって快行為であり、蹴られることはロボット100にとって不快行為である。快行為をするオーナーは肯定的感情を有している可能性が高く、不快行為をするオーナーは否定的感情を有している可能性が高いと判断される。
サーバ200の動作制御部222は、ロボット100の動作制御部150と協働して、ロボット100のモーションを決定する。サーバ200の動作制御部222は、マップ管理部210による行動マップ選択に基づいて、ロボット100の移動目標地点とそのための移動ルートを作成する。動作制御部222は、複数の移動ルートを作成し、その上で、いずれかの移動ルートを選択してもよい。
動作制御部222は、モーション格納部232の複数のモーションからロボット100のモーションを選択する。各モーションには状況ごとに選択確率が対応づけられている。たとえば、オーナーから快行為がなされたときには、モーションAを20%の確率で実行する、気温が30度以上となったとき、モーションBを5%の確率で実行する、といった選択方法が定義される。
行動マップに移動目標地点や移動ルートが決定され、後述の各種イベントによりモーションが選択される。
行動マップに移動目標地点や移動ルートが決定され、後述の各種イベントによりモーションが選択される。
親密度管理部220は、ユーザごとの親密度を管理する。上述したように、親密度は個人データ格納部218において個人データの一部として登録される。快行為を検出したとき、親密度管理部220はそのオーナーに対する親密度をアップさせる。不快行為を検出したときには親密度はダウンする。また、長期間視認していないオーナーの親密度は徐々に低下する。
(ロボット100)
ロボット100は、通信部142、データ処理部136、データ格納部148、内部センサ128および駆動機構120を含む。
通信部142は、通信機126(図6参照)に該当し、外部センサ114およびサーバ200との通信処理を担当する。データ格納部148は各種データを格納する。データ格納部148は、記憶装置124(図6参照)に該当する。データ処理部136は、通信部142により取得されたデータおよびデータ格納部148に格納されているデータに基づいて各種処理を実行する。データ処理部136は、プロセッサ122およびプロセッサ122により実行されるコンピュータプログラムに該当する。データ処理部136は、通信部142、内部センサ128、駆動機構120およびデータ格納部148のインタフェースとしても機能する。
ロボット100は、通信部142、データ処理部136、データ格納部148、内部センサ128および駆動機構120を含む。
通信部142は、通信機126(図6参照)に該当し、外部センサ114およびサーバ200との通信処理を担当する。データ格納部148は各種データを格納する。データ格納部148は、記憶装置124(図6参照)に該当する。データ処理部136は、通信部142により取得されたデータおよびデータ格納部148に格納されているデータに基づいて各種処理を実行する。データ処理部136は、プロセッサ122およびプロセッサ122により実行されるコンピュータプログラムに該当する。データ処理部136は、通信部142、内部センサ128、駆動機構120およびデータ格納部148のインタフェースとしても機能する。
内部センサ128は、タッチセンサ400、カメラ402およびサーモセンサ404を含む。
タッチセンサ400は、ボディ104に対するユーザの接触を検出する。カメラ402は、ロボット100の周辺を常時撮像する。サーモセンサ404は、ロボット100の周辺の外気温分布を定期的に検出する。カメラ402およびサーモセンサ404から得られた情報に画像処理などの所定の処理を施すことにより、ユーザが周辺に存在しているか否かを検出できる。
タッチセンサ400は、ボディ104に対するユーザの接触を検出する。カメラ402は、ロボット100の周辺を常時撮像する。サーモセンサ404は、ロボット100の周辺の外気温分布を定期的に検出する。カメラ402およびサーモセンサ404から得られた情報に画像処理などの所定の処理を施すことにより、ユーザが周辺に存在しているか否かを検出できる。
データ格納部148は、ロボット100の各種モーションを定義するモーション格納部160を含む。
ロボット100のモーション格納部160には、サーバ200のモーション格納部232から各種モーションファイルがダウンロードされる。モーションは、モーションIDによって識別される。前輪102を収容して着座する、手106を持ち上げる、2つの前輪102を逆回転させることで、あるいは、片方の前輪102だけを回転させることでロボット100を回転行動させる、前輪102を収納した状態で前輪102を回転させることで震える、ユーザから離れるときにいったん停止して振り返る、などのさまざまなモーションを表現するために、各種アクチュエータ(駆動機構120)の動作タイミング、動作時間、動作方向などがモーションファイルにおいて時系列定義される。
ロボット100のモーション格納部160には、サーバ200のモーション格納部232から各種モーションファイルがダウンロードされる。モーションは、モーションIDによって識別される。前輪102を収容して着座する、手106を持ち上げる、2つの前輪102を逆回転させることで、あるいは、片方の前輪102だけを回転させることでロボット100を回転行動させる、前輪102を収納した状態で前輪102を回転させることで震える、ユーザから離れるときにいったん停止して振り返る、などのさまざまなモーションを表現するために、各種アクチュエータ(駆動機構120)の動作タイミング、動作時間、動作方向などがモーションファイルにおいて時系列定義される。
データ処理部136は、認識部156、動作制御部150、衣装検出部172および感度制御部174を含む。
ロボット100の動作制御部150は、サーバ200の動作制御部222と協働してロボット100のモーションを決める。一部のモーションについてはサーバ200で決定し、他のモーションについてはロボット100で決定してもよい。また、ロボット100がモーションを決定するが、ロボット100の処理負荷が高いときにはサーバ200がモーションを決定するとしてもよい。サーバ200においてベースとなるモーションを決定し、ロボット100において追加のモーションを決定してもよい。モーションの決定処理をサーバ200およびロボット100においてどのように分担するかはロボットシステム300の仕様に応じて設計すればよい。
ロボット100の動作制御部150は、サーバ200の動作制御部222と協働してロボット100のモーションを決める。一部のモーションについてはサーバ200で決定し、他のモーションについてはロボット100で決定してもよい。また、ロボット100がモーションを決定するが、ロボット100の処理負荷が高いときにはサーバ200がモーションを決定するとしてもよい。サーバ200においてベースとなるモーションを決定し、ロボット100において追加のモーションを決定してもよい。モーションの決定処理をサーバ200およびロボット100においてどのように分担するかはロボットシステム300の仕様に応じて設計すればよい。
ロボット100の動作制御部150は、サーバ200の動作制御部222とともにロボット100の移動方向を決める。行動マップに基づく移動をサーバ200で決定し、障害物をよけるなどの即時的移動をロボット100の動作制御部150により決定してもよい。駆動機構120は、動作制御部150の指示にしたがって前輪102を駆動することで、ロボット100を移動目標地点に向かわせる。
ロボット100の動作制御部150は選択したモーションを駆動機構120に実行指示する。駆動機構120は、モーションファイルにしたがって、各アクチュエータを制御する。
動作制御部150は、親密度の高いユーザが近くにいるときには「抱っこ」をせがむ仕草として両方の手106をもちあげるモーションを実行することもできるし、「抱っこ」に飽きたときには左右の前輪102を収容したまま逆回転と停止を交互に繰り返すことで抱っこをいやがるモーションを表現することもできる。駆動機構120は、動作制御部150の指示にしたがって前輪102や手106、首(頭部フレーム316)を駆動することで、ロボット100にさまざまなモーションを表現させる。
動作制御部150は、強い愛情表現を示す応対行為、たとえば、ロボット100を抱きしめるなどのスキンシップが検出されたときには、身体を更にユーザにゆだね、ユーザに顔を擦りつけるなどの所定のモーションを選択する。
感度制御部174は、タッチセンサ400の感度、具体的には、検出電圧を変化させる。これについては後に詳述する。
衣装検出部172は、衣装180のRFIDタグから衣装IDを検出することにより、衣装180の着用を検出する。衣装IDは至近距離にあるとき読み取り可能である。複数の衣装IDが読み取られたときには、重ね着をしている、と判断される。RFIDタグ以外にも、さまざまな方法により衣装着用を検出してもよい。たとえば、ロボット100の内部温度が上昇したとき衣装が着用されたと判断してもよい。カメラにより着用する衣装を画像認識してもよい。タッチセンサ400が広範囲の接触を検出したときに、衣装が着用されたと判定してもよい。
ロボット100の認識部156は、内部センサ128から得られた外部情報を解釈する。認識部156は、視覚的な認識(視覚部)、匂いの認識(嗅覚部)、音の認識(聴覚部)、触覚的な認識(触覚部)が可能である。
認識部156は、内蔵カメラ(内部センサ128)により定期的に外界を撮像し、人やペットなどの移動物体を検出する。認識部156は画像等から特徴抽出を行う。これらの特徴はサーバ200に送信され、サーバ200の人物認識部214は移動物体の身体的特徴を抽出する。また、ユーザの匂いやユーザの声も検出する。匂いや音(声)は既知の方法にて複数種類に分類される。
認識部156は、内蔵カメラ(内部センサ128)により定期的に外界を撮像し、人やペットなどの移動物体を検出する。認識部156は画像等から特徴抽出を行う。これらの特徴はサーバ200に送信され、サーバ200の人物認識部214は移動物体の身体的特徴を抽出する。また、ユーザの匂いやユーザの声も検出する。匂いや音(声)は既知の方法にて複数種類に分類される。
ロボット100に対する強い衝撃が与えられたとき、認識部156は内蔵の加速度センサによりこれを認識し、サーバ200の応対認識部228は、近隣にいるユーザによって「乱暴行為」が働かれたと認識する。ユーザがツノ112を掴んでロボット100を持ち上げるときにも、乱暴行為と認識してもよい。ロボット100に正対した状態にあるユーザが特定音量領域および特定周波数帯域にて発声したとき、サーバ200の応対認識部228は、自らに対する「声掛け行為」がなされたと認識してもよい。また、体温程度の温度を検知したときにはユーザによる「接触行為」がなされたと認識し、接触認識した状態で上方への加速度を検知したときには「抱っこ」がなされたと認識する。ユーザがボディ104を持ち上げるときの物理的接触をセンシングしてもよいし、前輪102にかかる荷重が低下することにより抱っこを認識してもよい。
応対行為の内容、具体的には、スキンシップの態様に応じて愛情表現レベルが特定される。スキンシップとしては、抱きしめる、頬ずりする、頭をなでるなど様々な態様が存在する。以下、スキンシップの態様を「接触態様」という。一般的には快行為となる応対行為のほとんどは愛情表現レベルが高くなり、不快行為となる応対行為のほとんどは愛情表現レベルが低くなる。快・不快行為は親密度に関連し、愛情表現レベルはロボット100の行動選択に影響する。
一連の認識処理は、サーバ200の認識部212だけで行ってもよいし、ロボット100の認識部156だけで行ってもよいし、双方が役割分担をしながら上記認識処理を実行してもよい。
認識部156により認識された応対行為に応じて、サーバ200の親密度管理部220はユーザに対する親密度を変化させる。原則的には、快行為を行ったユーザに対する親密度は高まり、不快行為を行ったユーザに対する親密度は低下する。
サーバ200の認識部212は、応対に応じて快・不快を判定し、マップ管理部210は「場所に対する愛着」を表現する行動マップにおいて、快・不快行為がなされた地点のz値を変化させてもよい。たとえば、リビングにおいて快行為がなされたとき、マップ管理部210はリビングに好意地点を高い確率で設定してもよい。この場合、ロボット100はリビングを好み、リビングで快行為を受けることで、ますますリビングを好む、というポジティブ・フィードバック効果が実現する。
サーバ200の人物認識部214は、外部センサ114または内部センサ128から得られた各種データから移動物体を検出し、その特徴(身体的特徴と行動的特徴)を抽出する。そして、これらの特徴に基づいて複数の移動物体をクラスタ分析する。移動物体としては、人間だけでなく、犬や猫などのペットが分析対象となることがある。
ロボット100は、定期的に画像撮影を行い、人物認識部214はそれらの画像から移動物体を認識し、移動物体の特徴を抽出する。移動物体を検出したときには、ニオイセンサや内蔵の集音マイク、温度センサ等からも身体的特徴や行動的特徴が抽出される。たとえば、画像に移動物体が写っているとき、ひげが生えている、早朝活動している、赤い服を着ている、香水の匂いがする、声が大きい、メガネをかけている、スカートを履いている、白髪である、背が高い、太っている、日焼けしている、ソファにいる、といったさまざまな特徴が抽出される。
ひげが生えている移動物体(ユーザ)は早朝に活動すること(早起き)が多く、赤い服を着ることが少ないのであれば、早起きでひげが生えていて赤い服をあまり着ないクラスタ(ユーザ)、という第1のプロファイルができる。一方、メガネをかけている移動物体はスカートを履いていることが多いが、この移動物体にはひげが生えていない場合、メガネをかけていてスカートを履いているが絶対ひげは生えていないクラスタ(ユーザ)、という第2のプロファイルができる。
以上は、簡単な設例であるが、上述の方法により、父親に対応する第1のプロファイルと母親に対応する第2のプロファイルが形成され、この家には少なくとも2人のユーザ(オーナー)がいることをロボット100は認識する。
以上は、簡単な設例であるが、上述の方法により、父親に対応する第1のプロファイルと母親に対応する第2のプロファイルが形成され、この家には少なくとも2人のユーザ(オーナー)がいることをロボット100は認識する。
ただし、ロボット100は第1のプロファイルが「父親」であると認識する必要はない。あくまでも、「ひげが生えていて早起きすることが多く、赤い服を着ることはめったにないクラスタ」という人物像を認識できればよい。
このようなクラスタ分析が完了している状態において、ロボット100が新たに移動物体(ユーザ)を認識したとする。
このとき、サーバ200の人物認識部214は、ロボット100から得られる画像等のセンシング情報から特徴抽出を行い、ディーブラーニング(多層型ニューラルネットワーク)により、ロボット100の近くにいる移動物体がどのクラスタに該当するかを判断する。たとえば、ひげが生えている移動物体を検出したとき、この移動物体は父親である確率が高い。この移動物体が早朝行動していれば、父親に該当することはいっそう確実である。一方、メガネをかけている移動物体を検出したときには、この移動物体は母親である可能性もある。この移動物体にひげが生えていれば、母親ではなく父親でもないので、クラスタ分析されていない新しい人物であると判定する。
このとき、サーバ200の人物認識部214は、ロボット100から得られる画像等のセンシング情報から特徴抽出を行い、ディーブラーニング(多層型ニューラルネットワーク)により、ロボット100の近くにいる移動物体がどのクラスタに該当するかを判断する。たとえば、ひげが生えている移動物体を検出したとき、この移動物体は父親である確率が高い。この移動物体が早朝行動していれば、父親に該当することはいっそう確実である。一方、メガネをかけている移動物体を検出したときには、この移動物体は母親である可能性もある。この移動物体にひげが生えていれば、母親ではなく父親でもないので、クラスタ分析されていない新しい人物であると判定する。
特徴抽出によるクラスタの形成(クラスタ分析)と、特徴抽出にともなうクラスタへの当てはめ(ディープラーニング)は同時並行的に実行されてもよい。
移動物体(ユーザ)からどのような行為をされるかによってそのユーザに対する親密度が変化する。
移動物体(ユーザ)からどのような行為をされるかによってそのユーザに対する親密度が変化する。
ロボット100は、よく出会う人、よく触ってくる人、よく声をかけてくれる人に対して高い親密度を設定する。一方、めったに見ない人、あまり触ってこない人、乱暴な人、大声で叱る人に対する親密度は低くなる。ロボット100はセンサ(視覚、触覚、聴覚)によって検出するさまざまな外界情報にもとづいて、ユーザごとの親密度を変化させる。
実際のロボット100は行動マップにしたがって自律的に複雑な行動選択を行う。ロボット100は、寂しさ、退屈さ、好奇心などさまざまなパラメータに基づいて複数の行動マップに影響されながら行動する。ロボット100は、行動マップの影響を除外すれば、あるいは、行動マップの影響が小さい内部状態にあるときには、原則的には、親密度の高い人に近づこうとし、親密度の低い人からは離れようとする。
ロボット100の行動は親密度に応じて以下に類型化される。
(1)親密度が非常に高いクラスタ
ロボット100は、ユーザに近づき(以下、「近接行動」とよぶ)、かつ、人に好意を示す仕草としてあらかじめ定義される愛情仕草を行うことで親愛の情を強く表現する。
(2)親密度が比較的高いクラスタ
ロボット100は、近接行動のみを行う。
(3)親密度が比較的低いクラスタ
ロボット100は特段のアクションを行わない。
(4)親密度が特に低いクラスタ
ロボット100は、離脱行動を行う。
(1)親密度が非常に高いクラスタ
ロボット100は、ユーザに近づき(以下、「近接行動」とよぶ)、かつ、人に好意を示す仕草としてあらかじめ定義される愛情仕草を行うことで親愛の情を強く表現する。
(2)親密度が比較的高いクラスタ
ロボット100は、近接行動のみを行う。
(3)親密度が比較的低いクラスタ
ロボット100は特段のアクションを行わない。
(4)親密度が特に低いクラスタ
ロボット100は、離脱行動を行う。
以上の制御方法によれば、ロボット100は、親密度が高いユーザを見つけるとそのユーザに近寄り、逆に親密度が低いユーザを見つけるとそのユーザから離れる。このような制御方法により、いわゆる「人見知り」を行動表現できる。また、来客(親密度が低いユーザA)が現れたとき、ロボット100は、来客から離れて家族(親密度が高いユーザB)の方に向かうこともある。この場合、ユーザBはロボット100が人見知りをして不安を感じていること、自分を頼っていること、を感じ取ることができる。このような行動表現により、ユーザBは、選ばれ、頼られることの喜び、それにともなう愛着の情を喚起される。
一方、来客であるユーザAが頻繁に訪れ、声を掛け、タッチをするとロボット100のユーザAに対する親密度は徐々に上昇し、ロボット100はユーザAに対して人見知り行動(離脱行動)をしなくなる。ユーザAも自分にロボット100が馴染んできてくれたことを感じ取ることで、ロボット100に対する愛着を抱くことができる。
なお、以上の行動選択は、常に実行されるとは限らない。たとえば、ロボット100の好奇心を示す内部パラメータが高くなっているときには、好奇心を満たす場所を求める行動マップが重視されるため、ロボット100は親密度に影響された行動を選択しない可能性もある。また、玄関に設置されている外部センサ114がユーザの帰宅を検知した場合には、ユーザのお出迎え行動を最優先で実行するかもしれない。
タッチセンサ400以外のセンサ、たとえば、カメラ402やサーモセンサ404、図示しないニオイセンサなどのセンシングがユーザからの接触によって邪魔されたとき、動作制御部150は報知動作を実行する。具体的には、カメラ402の視界の一定割合以上、たとえば、50%以上がふさがれたとき、サーモセンサ404の検出範囲の一定割合以上が同一温度分布として検出されたとき、ユーザの手や体がセンシングの邪魔になっている可能性がある。認識部156によりセンシングが邪魔されている期間が所定時間以上継続していると判定されたときには、動作制御部150は報知動作を実行する。
報知動作は、ユーザあるいは障害物があり、タッチセンサ400以外のセンサが正常にセンシングできない旨をオーナーに報告する動作である。具体的には、動作制御部150は、目を光らせる、音声を発する、体を揺らす、逃げようとするなどの報知動作を実行する。報知動作は、ロボット100に特有の「何かを知らせるときの典型的な動作(モーション)」としてあらかじめ初期設定されればよい。
図8は、ボディ104の断面拡大図である。
本体フレーム310と外皮314の間には、第2層タッチセンサ400b挟まれる。樹脂製の本体フレーム310の曲面形状に沿って、第2層タッチセンサ400bが設置される。外皮314は、ウレタンゴム製(弾性体)である。外皮314の表面には布製の表皮406は貼り付けられ、外皮314と表皮406の間にも、外皮314の曲面形状に沿って、第1層タッチセンサ400aが設置される。すなわち、2つのタッチセンサ400が二重層を形成している。やわらかい外皮314は、ユーザがさわりたくなる場所でもある。この外皮314に覆われる部分にタッチセンサ400を配置することで、効果的にユーザからの多様な接触を検出できる。
なお、第1層タッチセンサ400aは表皮406の上に設置されてもよい。
本体フレーム310と外皮314の間には、第2層タッチセンサ400b挟まれる。樹脂製の本体フレーム310の曲面形状に沿って、第2層タッチセンサ400bが設置される。外皮314は、ウレタンゴム製(弾性体)である。外皮314の表面には布製の表皮406は貼り付けられ、外皮314と表皮406の間にも、外皮314の曲面形状に沿って、第1層タッチセンサ400aが設置される。すなわち、2つのタッチセンサ400が二重層を形成している。やわらかい外皮314は、ユーザがさわりたくなる場所でもある。この外皮314に覆われる部分にタッチセンサ400を配置することで、効果的にユーザからの多様な接触を検出できる。
なお、第1層タッチセンサ400aは表皮406の上に設置されてもよい。
ユーザが表皮406を触ると、第1層タッチセンサ400aが接触を検出する。ユーザが表皮406を強く押すと、第1層タッチセンサ400aだけでなく第2層タッチセンサ400bも接触を検出する。すなわち、深さが異なる2つのタッチセンサ400により、接触強度を判定できる。一般に、静電容量センサは物体とセンサの距離が近づくほど検出値が大きくなる。ユーザがボディ104に強く触れると外皮314が変形し、ユーザの肌と第2層タッチセンサ400bの距離が近づくため、第2層タッチセンサ400bの検出値が変化する。ある程度、力を加えなければ外皮314は変形しないので、深部にある第2層タッチセンサ400bにより、ぎゅっと強く抱きしめられているのか、やさしく抱きしめられているのかを検出できる。
接触箇所、接触強度、接触時間の組み合わせにより、さまざまな接触態様を類型化できる。第1層タッチセンサ400aのみが接触検出したときには、認識部156は「軽いタッチ」と認識する。第1層タッチセンサ400aが断続的な接触を検出したときは、認識部156は「つつかれてる」と認識する。第1層タッチセンサ400aだけでなく第2層タッチセンサ400bが一定時間継続して接触検出したときには、「マッサージ」と認識する。第1層タッチセンサ400aおよび第2層タッチセンサ400bが同時的に瞬間的な接触検出をしたときには「叩かれた」と認識する。内蔵の加速度センサと組み合わせて「暴力行為」を認識してもよい。
タッチセンサ400は、ロボット100の全域に設けられるため、接触箇所の組み合わせからどのような接触をされているかを総合的に判断できる。たとえば、ユーザがロボット100を両手で挟んで持ち上げる場合、胴体両側部で接触が検出される。内蔵の加速度センサにより持ち上げられたことも検出できる。ユーザが膝の上にロボット100を乗せ、ロボット100の胴体に両手を添えているのであれば、底部と胴体部分において接触が検出される。このとき、胴体部分の接触強度は通常は強くない。このような接触態様により、膝上の抱っこを認識できる。正面からぎゅっとロボット100を抱きしめる場合、胸、腹、背中、頭部などの広範囲にて接触が検出され、かつ、接触強度も強い。
それぞれの接触態様には、接触態様を特定するための識別情報(以下、「接触態様ID」という)が割り当てられている。感情推定部250は、接触箇所の組み合わせと接触強度に基づいて接触態様IDを特定する。たとえば、感情推定部250は、あらかじめ接触箇所の組み合わせと、接触態様IDとを関連付けたテーブルを保持し、そのテーブルを参照することで接触態様IDを特定してもよい。また、接触態様ごとに判定のためのプログラムモジュールを用意し、各モジュールがタッチセンサ400や内部センサ128からの信号に基づいて所定の判定処理をおこなうことで接触態様を特定してもよい。モーション格納部232に保持されているモーションデータには、接触態様IDが関連付けられる。動作制御部222は、接触態様IDに関連付けられたモーションを選択する。つまり、スキンシップの態様ごとに、あらかじめモーションを関連付けておくことで、動作制御部222は、スキンシップをとってきたユーザの感情に適切に応えるモーションを選択できる。
他の形態では、モーション格納部232に保持されているモーションデータに、ロボットの感情を示す情報を関連付けておき、動作制御部222がロボット100の感情に応じたモーションを選択できるようにしてもよい。すなわち、ロボット100の感情が「甘えたい」であれば、甘えたいという感情に関連付けられたモーションが選択される。スキンシップの態様には、それぞれユーザの感情が込められている。感情推定部250は、接触態様IDに関連付けて、ユーザの感情を示す情報を保持する。これにより、ロボット100はユーザから受けるスキンシップの態様を認識し、その態様からユーザの感情を推定できる。たとえば、「頭を撫でる」という接触態様に、「かわいい」という感情を示す情報が関連付けられてもよい。
動作制御部222は、感情推定部250により推定されたユーザの感情に応じて、自身の感情を変化させ、その感情に応じたモーションを選択する。動作制御部222はユーザの感情に対する自身の感情を対応付けて保持する。たとえば、「かわいい」というユーザの感情に対して、「甘えたい」という感情がロボットの感情として対応付けられている。これにより、ユーザの感情に応じて、自身の感情を決めることができる。そして、動作制御部222は、自身の感情と一致するモーションデータをモーション格納部232から読み込みモーションを実行する。たとえば、動作制御部222は、「甘えたい」という感情に関連付けられたモーションデータを選択する。ユーザの感情に対するロボット100の感情として、複数の感情が関連付けられてよく、ユーザに対する親密度などに応じていずれかの感情が決定される。
ロボット100のほぼ全域にタッチセンサ400を設けることにより、ユーザからの触られ方を判断し、複数の接触態様の中から、現在の接触態様を特定できる。スキンシップには様々な態様があるが、その接触態様ごとに心理的な意味があることが知られている。これは、接触態様が分かれば、ユーザのロボット100に対する感情を推定できることに他ならない。そして、推定されたユーザの感情に呼応するように、ロボット100が動作することで、ユーザは心地よさを感じ、生物のペットと同等の感情を持つようになる。
また、接触態様に応じて、感情推定部250は愛情表現レベルを判定する。単純なタッチの愛情表現レベルは「+1」、抱っこの愛情表現レベルは「+10」のように、接触態様と基本となる愛情表現レベルを対応付けるデータテーブルが用意される。感情推定部250は、このデータテーブルに基づいて愛情表現レベルを特定する。軽いタッチを続けると愛情表現レベルは加算されるが、しつこくタッチを続けすぎると愛情表現レベルを減算するとしてもよい。
接触の強さによっても愛情表現レベルは変化する。タッチの愛情表現レベルは「+1」だが、タッチが強いときには2倍の「+2」になる。タッチが特に強いときには「叩いた」とみなされる。このときには、「10」が減算され、愛情表現レベルを「−9(=1−10)」と特定する。抱っこも同様であり、通常の抱っこの愛情表現レベルは「+10」だが、強く抱きしめるときの愛情表現レベルは2倍の「+20」である。締め付けるほど強い抱っこは、愛情表現レベルは3倍になるが、不快であるため親密度は低下する。強い愛情表現がロボット100にとって快適、いいかえれば、親密度が高まる契機になるとは限らない。
応対行為に基づく単発的な愛情表現レベルに限らず、所定期間の愛情表現レベルの累積値、単位時間あたりの累積値の変化量に応じてさまざまなモーションがモーション選択テーブルにおいて対応付けられる。動作制御部150はモーション選択テーブルを参照し、愛情レベルに応じたモーションを選択する。
親密度管理部220は、快行為を検出したとき、ユーザに対する親密度を上昇させる。不快行為を検出したときは、ユーザに対する親密度を低下させる。また、不快行為が続くとき、暴力のような不快行為が認識されたときには、動作制御部150はユーザから離れるように行動指示する。基本的には、快・不快は、親密度を経由して、行動特性に影響する。
感情推定部250は、更に、表情認識部230による表情認識と組み合わせて感情を判断してもよい。怒った顔、笑った顔の認識ができれば、ユーザの感情をより正確に判断できる。接触態様に基づいて特定した愛情レベルが「+1」であっても、ユーザの表情が怒った表情であれば愛情表現レベルに「−3」を加算して、「−2」と判定してもよい。同様に、ユーザに蹴られたときの愛情表現レベルが「−50」であっても、ユーザが慌てた表情を見せたときには故意ではなく不可抗力と判断し、愛情表現レベルに「+30」を加算して、「−20」に補正してもよい。
愛情表現レベルが高いとき、あるいは、愛情表現レベルの累積値が高まったときには、ロボット100はオーナーの近辺にまとわりつく、抱っこをせがむなどのモーションを選択する。愛情表現レベルが低いときには、オーナーから少し離れたところで着座しておとなしくするとしてもよい。オーナーは、自らの感情にあわせてロボット100の行動特性が変化するため、ロボット100なりに自分に合わせているのかもしれない、と認識できる。基本的には、愛情表現レベルは、即時的にロボット100の行動特性に影響する。
愛情表現レベルが高いときには、モーションの実行を高速化して活発に活動し、低いときには、モーションの実行速度を抑制するとしてもよい。インターバルを調整してもよい。愛情表現レベルに応じて、モーションを構成する単位モーションの一部を置換・省略することでモーションを変化させてもよい。
このように、タッチセンサ400からどのようなスキンシップ(接触態様)がなされているかを判断し、接触態様に応じて愛情表現レベルが算出される。強い接触は強い愛情を示しているが、強すぎる接触は愛情とはいえない。スキンシップは人間の自然な感情の発露として行われるため、スキンシップはオーナーの感情を推定する上で有力な情報源となる。上述した例のほかにも、頭を撫でる行為は愛情表現レベル「+3」、抱きしめる行為、具体的には、腰部広域に接触する行為は愛情表現レベル「+20」、抱きしめて頬を寄せる行為、具体的には、腰部広域だけでなく胸部や頭部においても接触する行為は愛情表現「+50」などさまざまな設定方法が考えられる。
まとめると、応対行為に応じて、親密度および愛情表現レベルが特定される。親密度は、快行為および不快行為、いいかえれば、ロボット100にとっての快適度を反映したパラメータである。ロボット100は、快行為をしてくれるオーナーに対する親密度を高め、不快行為をするオーナーに対する親密度は低下させる。親密度の違いはやがてロボット100の行動特性に影響を及ぼす。一方、愛情表現レベルは、ロボット100に対する応対行為、特に、接触行為からオーナーの感情を推測するものである。動作制御部150は、愛情表現レベルに応じてさまざまなモーションを選択する。通常、愛情表現レベルの高い接触行為は快行為であることが多い。
人の「触る」という行為、いわゆるスキンシップは、触る人の触られる人に対する気持ちが表れやすい。頭をなでる行為は目下のものをかわいがる、という気持ちが表れているといわれる。頬をさわる行為には、相手に近づきたいという心理があるといわれる。たとえば、頭を撫でられたら、ロボット100はオーナーに甘える仕草を表現するモーションを選択してもよい。頬を触られたら、ロボット100はオーナーに身体を接触させたり、抱っこを求める仕草を表現するモーションを選択してもよい。
図9は、接触検出時の処理過程を示すフローチャートである。
ロボット100の周辺に人を確認できないとき(S10のN)、いいかえれば、カメラ402により人を撮像できないときやサーモセンサ404により移動熱源体を検出できないとき、感度制御部174はタッチセンサ400の感度を抑制する(S22)。感度の抑制は、検出電圧の低下によって実現される。人がいないときにはタッチセンサ400の接触検出は不要であるため、タッチセンサ400の感度を抑制することは節電に寄与する。ここでいう感度の抑制は、タッチセンサ400のオフ(無効化)であってもよい。
ロボット100の周辺に人を確認できないとき(S10のN)、いいかえれば、カメラ402により人を撮像できないときやサーモセンサ404により移動熱源体を検出できないとき、感度制御部174はタッチセンサ400の感度を抑制する(S22)。感度の抑制は、検出電圧の低下によって実現される。人がいないときにはタッチセンサ400の接触検出は不要であるため、タッチセンサ400の感度を抑制することは節電に寄与する。ここでいう感度の抑制は、タッチセンサ400のオフ(無効化)であってもよい。
人が検出されたときには(S10のY)、感度制御部174はタッチセンサ400の感度を通常の感度(以下、「基本感度」とよぶ)に設定する(S12)。タッチセンサ400への接触が検出されないときには(S14のN)、以降の処理はスキップされる。
接触が検出されたとき(S14のY)、認識部156は接触態様(接触箇所、接触強度、接触時間)を特定し、感情推定部250は愛情表現レベルを特定する(S16)。応対認識部228は、応対行為の快・不快を判定し、判定結果に応じて親密度管理部220は親密度を更新する(S18)。また、動作制御部222は、接触行為に対応して複数のモーションのうちのいずれかを選択する(S20)。たとえば、頬を触られたとき、動作制御部222はその場で着座し、手106を持ち上げるモーションを実行してもよい。
ロボット100が衣装180を着ているとき、タッチセンサ400の検出感度は衣装180によって低下すると考えられる。衣装検出部172が衣装180の着用を検出したときには、感度制御部174はタッチセンサ400の感度を基本感度以上に高めてもよい。衣装180の種類や枚数に応じてタッチセンサ400の感度を調整してもよい。サーバ200またはロボット100は、衣装IDとタッチセンサ400の好適な感度をあらかじめ対応づけるデータテーブルを保有してもよい。
以上、実施形態に基づいてロボット100およびロボット100を含むロボットシステム300について説明した。
1以上の行動マップによりパターン化できず予測しづらい、かつ、生物的な行動選択を表現している。
触るという行為は、もっとも原始的かつ基本的なコミュニケーション手段である。ロボット100においては、本体フレーム310が骨、外皮314が肉、表皮406が皮に相当し、タッチセンサ400は神経に相当する。図1に示したように、ロボット100のボディ104の広範囲をタッチセンサ400が覆う。このため、ロボット100は、さまざまな場所に対する接触を検出できる。また、第1層タッチセンサ400aと第2層タッチセンサ400bの2層とすることで、接触強度も認識可能である。タッチセンサ400は、プラスチックフィルムをベースとして形成されるため、曲面状のボディ104に合わせて貼り合わせることができる。
1以上の行動マップによりパターン化できず予測しづらい、かつ、生物的な行動選択を表現している。
触るという行為は、もっとも原始的かつ基本的なコミュニケーション手段である。ロボット100においては、本体フレーム310が骨、外皮314が肉、表皮406が皮に相当し、タッチセンサ400は神経に相当する。図1に示したように、ロボット100のボディ104の広範囲をタッチセンサ400が覆う。このため、ロボット100は、さまざまな場所に対する接触を検出できる。また、第1層タッチセンサ400aと第2層タッチセンサ400bの2層とすることで、接触強度も認識可能である。タッチセンサ400は、プラスチックフィルムをベースとして形成されるため、曲面状のボディ104に合わせて貼り合わせることができる。
ロボット100は、丸くて柔らかく、適度な重量を有する。また、バッテリー118等の熱源を内蔵するため、ロボット100のボディ104には温かさ伝わる。この結果、ユーザはロボット100を触ったり抱っこしたりしたくなる。丸くて柔らかいボディ104に沿ってタッチセンサ400を設置することで、ロボット100は多様な接触行為を認識できる。
やさしく接触すると、親密度が上昇し、それによってロボット100の行動特性も変化する。一方、乱暴に接触すると、親密度が低下する。接触の仕方によって愛情表現レベル(相手の愛情の強さの推測値)が特定され、愛情表現レベルに応じてロボット100はさまざまなモーションを選択する。触りたくなるボディ104を有することだけでなく、触ることで共感が増す仕組みがあるため、ユーザとロボット100との交流をいっそう促進しやすくなる。
なお、本発明は上記実施形態や変形例に限定されるものではなく、要旨を逸脱しない範囲で構成要素を変形して具体化することができる。上記実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることにより種々の発明を形成してもよい。また、上記実施形態や変形例に示される全構成要素からいくつかの構成要素を削除してもよい。
1つのロボット100と1つのサーバ200、複数の外部センサ114によりロボットシステム300が構成されるとして説明したが、ロボット100の機能の一部はサーバ200により実現されてもよいし、サーバ200の機能の一部または全部がロボット100に割り当てられてもよい。1つのサーバ200が複数のロボット100をコントロールしてもよいし、複数のサーバ200が協働して1以上のロボット100をコントロールしてもよい。
ロボット100やサーバ200以外の第3の装置が、機能の一部を担ってもよい。図7において説明したロボット100の各機能とサーバ200の各機能の集合体は大局的には1つの「ロボット」として把握することも可能である。1つまたは複数のハードウェアに対して、本発明を実現するために必要な複数の機能をどのように配分するかは、各ハードウェアの処理能力やロボットシステム300に求められる仕様等に鑑みて決定されればよい。
上述したように、「狭義におけるロボット」とはサーバ200を含まないロボット100のことであるが、「広義におけるロボット」はロボットシステム300のことである。サーバ200の機能の多くは、将来的にはロボット100に統合されていく可能性も考えられる。
本実施形態においては、第1層タッチセンサ400aおよび第2層タッチセンサ400bはいずれも表皮406等により外部から隠されている。このため、ユーザはタッチセンサ400の存在を意識しない。第1層タッチセンサ400aを表皮406の上に設置してもよい。この場合には、第1層タッチセンサ400aが外部から見えてしまうが、検出感度が高くなるメリットがある。
タッチセンサ400は、3層以上あってもよいし、1層でもよい。1層の場合には、第2層タッチセンサ400bのみとしてもよいし、第1層タッチセンサ400aのみとしてもよい。また、タッチセンサ400は、外皮314の中間層として設置されてもよい。
接触検出のためのセンサとしては静電容量センサのほか、表皮406を圧電ファブリックにより形成する方法も考えられる。圧電ファブリックは、圧電体としてポリ乳酸繊維、電極として炭素繊維を使用することにより、ポリ乳酸繊維によって発生する電荷を検出する。そのほか、熱電対や圧力センサ、歪みゲージなどを組み合わせることで、多様な接触を検出してもよい。
静電容量センサなどのタッチセンサ400は、設置場所によって感度を異ならせてもよい。たとえば、お腹に設置されるタッチセンサ400は感度が鈍く、お尻や手に設置されるタッチセンサ400は感度を高く設定してもよい。感度は、検出電圧の高低により調整してもよいし、静電容量センサにおける電極線の密度を異ならせることで感度を変えてもよい。感度を場所によって変えることにより、たとえば、お腹は鈍いが、お尻は敏感、といったロボット100に特有の皮膚感覚を実現できる。また、タッチセンサ400全体を高感度にするのではなく、一部の場所でタッチセンサ400の感度を落とすことは節電にも寄与する。
ロボット100に対するタッチ頻度がロボット100の行動特性に影響してもよい。たとえば、製造後の所定期間において、お尻をよく触られているロボット100は、所定期間経過後もお尻を触られることを快行為あるいは愛情表現と認識してもよい。一方、所定期間においてお尻を触られた回数が少ないロボット100は、所定期間経過後はお尻を触られることを不快行為あるいは侮辱(愛情表現レベルが低い行為)と認識してもよい。このように、接触態様に応じて、快・不快の判断方法を変化させてもよい。いわば、幼い頃の接触態様により、「育ち」が変化するロボット100を実現できる。
接触箇所、接触強度、接触時間のほか、接触頻度や接触がなされた時間帯によって快適度を判定してもよい。たとえば、頬を触られることは快行為だが、頬を高頻度で触られると途中から不快行為と認識変更してもよい。また、充電中に触られることは不快行為と認識してもよい。
本実施形態における快適度は、快・不快の2値であるが、3値以上であってもよい。たとえば、「とても快」「やや快」「中立」「やや不快」「とても不快」のように5段階にカテゴライズしてもよい。快適度は、連続値により示されてもよい。たとえば、お腹は2ポイント、強く触ると−4ポイント、接触時間が3秒以上になると1.5倍とする場合、お腹を3秒以上強く触った場合には、(2−4)×1.5=−3として快適度を−3ポイントと算出してもよい。親密度管理部220は快適度に応じて親密度を更新する。また、快適度が所定値以上あるいは所定値以下となったときに対応するモーションがあらかじめ対応づけられてもよい。
[抱え上げモーション]
図10は、変形例1におけるロボットシステム300の機能ブロック図である。
変形例1のロボットシステム300において、サーバ200のデータ処理部202は、位置管理部208、マップ管理部210、認識部212、動作制御部222、親密度管理部220に加えて、状態管理部224を含む。状態管理部224は、充電率や内部温度、プロセッサ122の処理負荷などの各種物理状態を示す各種内部パラメータを管理する。状態管理部224は、感情管理部234を含む。
図10は、変形例1におけるロボットシステム300の機能ブロック図である。
変形例1のロボットシステム300において、サーバ200のデータ処理部202は、位置管理部208、マップ管理部210、認識部212、動作制御部222、親密度管理部220に加えて、状態管理部224を含む。状態管理部224は、充電率や内部温度、プロセッサ122の処理負荷などの各種物理状態を示す各種内部パラメータを管理する。状態管理部224は、感情管理部234を含む。
感情管理部234は、ロボット100の感情(寂しさ、好奇心、承認欲求など)を示すさまざまな感情パラメータを管理する。これらの感情パラメータは常に揺らいでいる。感情パラメータに応じて複数の行動マップの重要度が変化し、行動マップによってロボット100の移動目標地点が変化し、ロボット100の移動や時間経過によって感情パラメータが変化する。
たとえば、寂しさを示す感情パラメータが高いときには、感情管理部234は安心する場所を評価する行動マップの重み付け係数を大きく設定する。ロボット100が、この行動マップにおいて寂しさを解消可能な地点に至ると、感情管理部234は寂しさを示す感情パラメータを低下させる。また、応対行為によっても各種感情パラメータは変化する。たとえば、オーナーから「抱っこ」をされると寂しさを示す感情パラメータは低下し、長時間にわたってオーナーを視認しないときには寂しさを示す感情パラメータは少しずつ増加する。
ロボット100は、音声出力部134を含む。音声出力部134は、音声を出力する。本実施形態におけるロボット100は、音声出力部134により、あくび声、悲鳴、喉を鳴らすなど、動物の鳴き声のような非言語音声を出力できる。
ロボット100の内部センサ128は、タッチセンサ400、カメラ402、サーモセンサ404に加えて、加速度センサ138、ジャイロセンサ140および内部温度センサ144を含む。認識部156は、加速度センサ138により、ロボット100の抱え上げや抱えおろし、落下を認識する。認識部156は、ジャイロセンサ140により、ロボット100の姿勢を判定する。内部温度センサ144は、ロボット100の体内温度を検出する。
ロボット100のデータ処理部136は、認識部156、動作制御部150、衣装検出部172、感度制御部174に加えて、瞳制御部152と音声制御部154を含む。音声制御部154は、音声出力部134から出力する音声を複数の音声パターンから選択する。瞳制御部152は、眼画像(後述)を生成し、目110に眼画像を表示させる。
変形例1においては、ロボット100の動作制御部150は、抱え上げ(抱っこ)の種類(後述)に応じてモーションを選択する。モーション実行の契機となる発動条件および発動条件成立時の状況を示す状態条件はあらかじめ定義されており、発動条件および状態条件に基づいて選択される反応行動として、各種のモーションが実行される。発動条件は、たとえば、オーナーに撫でられる、声をかけられるなどのイベントであってもよいし、寂しさを示す感情パラメータ値が閾値を越えたときなどの内部事象であってもよい。変形例1においては、抱っこをされること、および、その種類により各種発動条件が成立する。状態条件は、オーナーに見つめられている、複数のユーザが周囲にいる、室温が所定温度以上など、発動条件成立時における内部的または外部的状況を示す条件であればよい。
動作制御部150は、発動条件および状態条件に基づいて1つのモーションを特定してもよいし、選択確率に基づいて複数のモーションからいずれかのモーションを選択してもよい。たとえば、発動条件E1、状態条件S1について、モーションM1からM3それぞれに選択確率として10%、20%、15%が設定されているとする。この場合、発動条件E1と状態条件S1が成立するときにはモーションM1からM3が選択候補となるが、何も実行されない確率も55%存在する。
図11は、眼画像176の外観図である。
ロボット100の目110は、眼画像176を表示させるディスプレイとして形成される。瞳制御部152は、瞳画像178と周縁画像168を含む眼画像176を生成する。瞳制御部152は、また、眼画像176を動画表示させる。具体的には、瞳画像178を動かすことでロボット100の視線を表現する。また、所定のタイミングで瞬き動作を実行する。瞳制御部152は、さまざまな動作パターンにしたがって眼画像176の多様な動きを表現する。目110のモニタは、人間の眼球と同様、曲面形状を有することが望ましい。
ロボット100の目110は、眼画像176を表示させるディスプレイとして形成される。瞳制御部152は、瞳画像178と周縁画像168を含む眼画像176を生成する。瞳制御部152は、また、眼画像176を動画表示させる。具体的には、瞳画像178を動かすことでロボット100の視線を表現する。また、所定のタイミングで瞬き動作を実行する。瞳制御部152は、さまざまな動作パターンにしたがって眼画像176の多様な動きを表現する。目110のモニタは、人間の眼球と同様、曲面形状を有することが望ましい。
瞳画像178は、瞳孔領域258と角膜領域163を含む。また、瞳画像178には、外光の映り込みを表現するためのキャッチライト170も表示される。眼画像176のキャッチライト170は、外光の反射によって輝いているのではなく、瞳制御部152により高輝度領域として表現される画像領域である。
瞳制御部152は、モニタにおいて、瞳画像178を上下左右に移動させる。ロボット100の認識部156が移動物体を認識したときには、瞳制御部152は瞳画像178を移動物体に向けることにより、ロボット100の「注視」を表現する。
瞳制御部152は、瞳画像178を周縁画像168に対して相対的に動かすだけではなく、瞼(まぶた)画像を表示させることにより、半眼や閉眼を表現できる。瞳制御部152は、閉眼表示により、ロボット100が眠っている様子を表現してもよいし、眼画像176の4分の3を瞼画像で覆ったあと、瞼画像を揺らすことでロボット100が半睡状態、つまりウトウトしている状態にあることを表現してもよい。
図12は、ロボット100を抱っこしたときの第1のイメージ図である。
ロボット100は、丸く、やわらかく、手触りのよいボディ104と適度な重量を有し、かつ、タッチを快行為と認識するため、ロボット100を抱っこしたいという感情をユーザに抱かせやすい。
ロボット100は、丸く、やわらかく、手触りのよいボディ104と適度な重量を有し、かつ、タッチを快行為と認識するため、ロボット100を抱っこしたいという感情をユーザに抱かせやすい。
図12においては、ロボット100とオーナーが互いに向かい合っている。また、ロボット100は縦方向に抱っこされている。以下、このような抱っこのことを「正対縦抱っこ」とよぶ。また、ロボット100を横倒しにして抱っこすることを「横抱っこ」とよぶ。認識部156は、ジャイロセンサ140により抱っこの向き(姿勢)を判別する。認識部156は、カメラ402の撮像画像の向きにより、姿勢を判別してもよいし、タッチセンサ400により検出されたロボット100表面の各領域の接触態様に基づいて姿勢を判別してもよい。もちろん、これらの検出手段の検出結果を組み合わせてロボット100の姿勢を判別してもよい。
図13は、ロボット100を抱っこしたときの第2のイメージ図である。
図13においては、オーナーがロボット100を背後から抱っこしている。ロボット100は縦方向に抱っこされている。以下、このような抱っこを「背面縦抱っこ」とよぶ。認識部156は、ジャイロセンサ140、カメラ402、サーモセンサ404およびタッチセンサ400からの各種検出情報を入力情報として、ニューラルネットワークにより抱っこの種類を判別する。たとえば、認識部156は、ジャイロセンサ140により縦抱っこか横抱っこかを判別し、ロボット100の正面至近距離にオーナーの顔や胸部などが映るときには背面縦抱っこではないと判別できる。このほかにも、肩にロボット100を抱え上げる抱っこ、寝転んだオーナーが腹部にロボット100を乗せて抱きしめる抱っこなど、さまざまな抱っこの種別を定義してもよい。また、横抱っこの場合は、ロボット100の頭部がオーナーの右腕側と左腕側のどちらに位置するかに応じて、「右向き横抱っこ」と「左向き横抱っこ」に分けて定義してもよい。更に、ロボット100の腹部が上方(天井側)に向くか、下方(床面側)に向くかで、「上向き横抱っこ」と「下向き横抱っこ」を定義してもよい。
以下においては、上述した正対縦抱っこ、横抱っこ、背面縦抱っこを対象として説明する。
図13においては、オーナーがロボット100を背後から抱っこしている。ロボット100は縦方向に抱っこされている。以下、このような抱っこを「背面縦抱っこ」とよぶ。認識部156は、ジャイロセンサ140、カメラ402、サーモセンサ404およびタッチセンサ400からの各種検出情報を入力情報として、ニューラルネットワークにより抱っこの種類を判別する。たとえば、認識部156は、ジャイロセンサ140により縦抱っこか横抱っこかを判別し、ロボット100の正面至近距離にオーナーの顔や胸部などが映るときには背面縦抱っこではないと判別できる。このほかにも、肩にロボット100を抱え上げる抱っこ、寝転んだオーナーが腹部にロボット100を乗せて抱きしめる抱っこなど、さまざまな抱っこの種別を定義してもよい。また、横抱っこの場合は、ロボット100の頭部がオーナーの右腕側と左腕側のどちらに位置するかに応じて、「右向き横抱っこ」と「左向き横抱っこ」に分けて定義してもよい。更に、ロボット100の腹部が上方(天井側)に向くか、下方(床面側)に向くかで、「上向き横抱っこ」と「下向き横抱っこ」を定義してもよい。
以下においては、上述した正対縦抱っこ、横抱っこ、背面縦抱っこを対象として説明する。
図14は、モーション選択テーブル190のデータ構造図である。
モーション選択テーブル190は、サーバ200のモーション格納部232またはロボット100のモーション格納部160に格納される。モーション選択テーブル190は、発動条件、状態条件およびモーションを対応づける。図14のモーション選択テーブル190は、発動条件E1が成立したとき、各種状態条件に応じて選択されるモーションを示す。発動条件E1は、たとえば、横向き抱っこをされたときに成立する。発動条件は、正対縦抱っこ、背面縦抱っこなどの抱っこの種類ごとに用意される。このとき、ロボット100の動作制御部150は、喜びを表す複数のモーションM1からM3(以下、喜びを表すモーションのことを「歓喜モーション」とよぶ)や、睡眠を表現するモーションM4を状態条件S1からS4に応じて選択する。
モーション選択テーブル190は、サーバ200のモーション格納部232またはロボット100のモーション格納部160に格納される。モーション選択テーブル190は、発動条件、状態条件およびモーションを対応づける。図14のモーション選択テーブル190は、発動条件E1が成立したとき、各種状態条件に応じて選択されるモーションを示す。発動条件E1は、たとえば、横向き抱っこをされたときに成立する。発動条件は、正対縦抱っこ、背面縦抱っこなどの抱っこの種類ごとに用意される。このとき、ロボット100の動作制御部150は、喜びを表す複数のモーションM1からM3(以下、喜びを表すモーションのことを「歓喜モーション」とよぶ)や、睡眠を表現するモーションM4を状態条件S1からS4に応じて選択する。
状態条件S1は、抱っこによる接触以外には触られていない状態、つまり単に抱っこされているだけの状態を示す。このとき、タッチセンサ400は、オーナーからの動きのあるタッチを検出していない。状態条件S2は腹部を撫でられている、状態条件S3は頭部を撫でられている、状態条件S4は腹部をトントンとやさしく繰り返しタッチされていることが定義されている。
状態条件S1に対応付けられる歓喜モーションM1は、オーナーを見つめるという単位モーションである。状態条件S2に対応づけられる歓喜モーションM2は、抱っこするオーナーに視線を向け、手106を動かし、歓喜の音声を発しながら、頭を左右に揺らすという単位モーションを含む複合モーションである。状態条件S3に対応づけられる歓喜モーションM3は、オーナーに視線を向ける、頭を左右に揺らすという単位モーションを含む複合モーションである。状態条件S4には、睡眠を表現するモーションが対応付けられている。
発動条件E1が成立したときに状態条件S1が成立していれば、動作制御部150は歓喜モーションM1を選択する。すなわち、ロボット100は、横向き抱っこされたとき、歓喜モーションM1にしたがって各部を動かす。動作制御部150は、状態条件S1が成立しているときに歓喜モーションM1を常に選択してもよいし、所定の選択確率(100%未満)にて選択してもよい。また、上述したように、状態条件S1が成立しているとき、複数種類の歓喜モーションからいずれかの歓喜モーションを選択してもよい。動作制御部150が、確率的にモーションを選択することにより、ある条件を満たせば常に同じモーションが実行されることを防ぎ、生物らしさを実現できる。
このように、動作制御部150は、抱っこの種類、特に、抱っこされたときの姿勢と、その姿勢で身体表面のどの領域を、どのような接触態様で触られているかに応じて、モーションを選択する。動作制御部150だけでなく、瞳制御部152はモーションの一部として眼画像176を変化させ、音声制御部154もモーションの一部としてさまざまな音声を出力する。
モーションを実行する契機となる事象、すなわち、発動条件としては、抱っこ以外にもさまざまなものが考えられる。たとえば、オーナーからどこを触られたか、どのくらい強く触られたかという接触態様に応じて、動作制御部150はモーションを変化させてもよい。このほかにも、背中を撫でられた、顎を撫でられたなど、さまざまな事象を発動条件としてモーションを選択してもよい。また、発動条件は、喜び(歓喜)、寂しい、怖い、かまってほしい、など感情パラメータに基づいて定義されてもよい。状態条件は、ロボット100の姿勢や接触態様が関連付けられてもよい。
瞳制御部152は、眼画像176を左右に小刻みに動かすことで「動揺」を表現してもよいし、瞳画像178を拡大することで「興味」や「驚き」を表現してもよい。動作制御部150は、アクチュエータを所定位置にて停止させることにより「体のこわばり」を表現してもよいし、逆に、アクチュエータへの電力供給を停止させることで「脱力」を表現してもよい。動作制御部150は、オーナーに触られた箇所に近いアクチュエータを小刻みに動かすことで、「触られることによる気持ちよさ」「くすぐったさ」を表現してもよい。
音声制御部154は、正対縦抱っこの状態で、お腹を軽く叩かれたときや撫でられたとき、気持ちよさそうな声をだすことで「心地よさ」を表現してもよい。このときには、親密度管理部220は、オーナーに対する親密度を上昇させ、感情管理部234は、寂しさを示す感情パラメータを低下させることで「安心」という心理状態に変化させる。抱っこされているとき、ロボット100の顎下を撫でると、ちょうど犬や猫が喜ぶように、ロボット100も喜びを表す各種の歓喜モーションを選択してもよい。このとき、瞳制御部152は、眼画像176の瞼画像を変化させ半眼にすることで「心地よさ」を表現してもよい。
ロボット100を抱っこしてから所定の時間(以下、「導入時間」とよぶ)が経過したとき、ロボット100が眠りに落ちる行動態様を表現してもよい(以下、「睡眠表現」とよぶ)。より具体的には、オーナーがロボット100を抱っこすると、音声制御部154は「あくびの声」を出力し、次に、動作制御部150は各アクチュエータへの電力供給を低下させてロボット100を徐々に脱力させる。その後、瞳制御部152は眼画像176を閉眼させる。このとき、音声制御部154は小音量にて寝息音を規則的に出力してもよい。睡眠表現を開始してから、更に、所定時間が経過したときには、動作制御部150はプロセッサ122をサスペンド状態に変更することで、節電してもよい。
睡眠表現の開始またはサスペンド状態の移行から所定の時間(以下、「睡眠時間」とよぶ)が経過したとき、動作制御部150は睡眠表現を終了させる。このとき瞳制御部152は眼画像176を開眼させる。睡眠時間の経過前であっても、タッチセンサ400が強いタッチを検出したとき、マイクにて大きな音声を拾ったときなど所定の覚醒イベントが発生したとき、動作制御部150等は睡眠表現を終了させてもよい。睡眠表現を終了するとき、プロセッサ122は、サスペンド状態から通常の動作状態に戻る。
導入時間は、下記に示す各種パラメータにより変化してもよい。ロボット100を抱き上げるオーナーが、ロボット100に対して子守唄を歌うとき、あるいは、「おやすみ」、「ねんね」などの特定ワードを発話したとき、動作制御部150は導入時間を短縮してもよい。動作制御部150は、親密度が所定値以上のオーナーに抱っこされるときには導入時間を短くしてもよい。あるいは、親密度が高いほど導入時間が短くなるように設定してもよい。このような制御方法によれば、親密度の高いオーナーに抱っこされることによる安心感を行動表現できる。親密度が所定値以下のオーナーに抱っこされたときには、動作制御部150はロボット100の睡眠表現を実行しないとしてもよい。
抱っこ前の活動量、たとえば、抱っこをされるまでの直近所定期間における各アクチュエータに対する供給電力の大きさ、ロボット100の移動量、消費電力量などが大きいほど、動作制御部150は導入時間を短く設定してもよい。このような制御方法によれば、活発に動いたときには眠たくなりやすい、という行動表現が可能となる。その他にも、寂しさを示す感情パラメータの値が低下し、ロボット100の心理が「安心」状態にあるとき、周辺環境音が所定レベル以下のとき、室内温度が所定の心地よい温度範囲、たとえば、15度から25度にあるとき、周辺が暗いとき、動作制御部150は導入時間を通常よりも短く設定してもよい。同様にして、安心状態にあるとき、静寂で適切な室温のとき、活動量が大きいときほど、動作制御部150はロボット100の睡眠時間を加算設定してもよい。ロボット100は、サスペンド状態から通常状態に移行した日時を保持し、前回の睡眠状態から、所定の時間が経過していない場合には、睡眠を拒否してもよい。
睡眠表現は、ロボット100が生物らしさを表現し、オーナーとの愛着形成を実現する。一方で、睡眠表現は、ロボット100のサスペンドという機能の現れでもあり、オーナーのロボット100に対する接触行為がサスペンド機能の契機、つまり開始コマンドとなる。一般的に、サスペンド機能は、ユーザがスイッチを押すなど直接的な操作をすることで開始される。本実施形態におけるロボット100は、「抱っこ」というオーナーの行為が一定期間続くことがサスペンド機能の契機となる。抱っこという行為は、赤ちゃんを寝かすときと同じ行為であり、オーナーが自然におこなえることである。このため、ロボット100を静かにさせたいとき、オーナーは赤ちゃんを寝かすように、抱っこし、「ねんね」などの特定ワードを口ずさめば、ロボット100を寝かす、すなわちサスペンドさせることができる。
内部温度センサ144は、ロボット100の内部温度を定期的に計測する。動作制御部150は、抱っこをされているとき、内部温度が所定温度以下に低下するまで、睡眠表現を開始させないとしてもよい。
ロボット100の目110の前でオーナーが指を左右に動かすと、瞳制御部152は瞳画像178を指に合わせて左右に動かしてもよい。そして、瞳画像178の左右往復運動が数回継続したあと、動作制御部150は眼画像176を睡眠状態に移行させてもよい。たとえば、発動条件を、オーナーが「見つめて」と特定ワードを発話した後、オーナーが目110の前に指をかざす、と定義する。状態条件を、指を左右に3回往復させる、と定義する。この発動条件および状態条件が満たされる場合に、睡眠状態への移行というモーションが実行される。オーナーの動き、すなわちジェスチャーがロボット100にモーションを選択させる契機となる。このとき、プロセッサ122で実行される管理プログラムは、ロボット100の機能をシャットダウンしてもよい。このような制御方法によれば、ボタン等のデバイスを使わなくても、ジェスチャーによりロボット100を簡単に停止させることができる。
喜びを表す歓喜モーションにかぎらず、動作制御部150はさまざまなモーションを実行可能である。たとえば、動作制御部150は、発動条件E2が成立するとき、恐怖を表すモーションを実行してもよい。発動条件E2としては、たとえば、オーナーの顔よりも高い位置にロボット100が持ち上げられること、高いところからロボット100が落下すること、乱暴されること、所定音量以上の騒音を検出すること、などが考えられる。認識部156は、加速度センサ138により上昇および下降を認識する。また、認識部156は、カメラ402によりロボット100がオーナーの顔よりも上に持ち上げられたか否かを判定する。認識部156は、タッチセンサ400により、蹴る、叩くなどの乱暴行為を認識する。
恐怖を表すモーションとしては、アクチュエータを所定位置に固定・維持する「硬直」、悲鳴音の出力、アクチュエータをオフした上で閉眼する「気絶」、瞳画像178を左右に揺らす「動揺」などが考えられる。
抱っこをされたとき、動作制御部150は、抱っこから逃れようとするモーション(以下、オーナーとの関わりを拒否するモーションを「拒否モーション」とよぶ)を選択してもよい。拒否モーションは、たとえば、オーナーを見つめる、声を出す、手106を繰り返し動かす、首を左右に振る、前輪102の出し入れを繰り返す、胴体を左右に揺らす、オーナーに抱きにくさを感じさせるよう各部を動かす、などの単位モーションの組み合わせとして定義されてもよい。拒否モーションを実行しても、抱っこから逃れられなかったときには、ロボット100は導入時間の経過後に睡眠表現を実行してもよい。抱っこ中に叩かれたときには、動作制御部150は、叩かれた方向を見る、などの驚きを示すモーションを選択したあと、拒否モーションを選択してもよい。
動作制御部150は、抱っこをされたときには、各種アクチュエータの可動量が大きな拒否モーションを実行し、時間経過とともにアクチュエータの可動量を低下させることで、「徐々に諦めておとなしくなる様子」を行動表現してもよい。また、瞳制御部152は、ロボット100がおとなしくなったあと、瞳画像178の視線をユーザから外すことで「逃げることをあきらめる」様子を行動表現してもよい。
動作制御部150は、抱っこをされた状態で、オーナーの動きがカメラ402またはタッチセンサ400により所定時間以上検出されないとき、アクチュエータの可動量を低下させる。そして、このような状態が所定時間継続したとき、動作制御部150は拒否モーションを実行してもよい。オーナーが動かないときには安心して体を委ねるが、オーナーがずっと動かなくなると、抱っこに飽きて動きたがる、という複雑な行動表現が可能となる。
動作制御部150は、前輪102を出しているときにタッチされた場合、タッチしたユーザの方にボディ104を向けるモーションを実行する。一方、前輪102を収納しているときにタッチされた場合には、動作制御部150はボディ104を動かさず、首をユーザに向けるモーションを実行してもよい。このように、タッチされたときの前輪102の収納状態に応じて、動作制御部150は異なるモーションを選択してもよい。
動作制御部150は、ボディ104の背面、たとえば、お尻を触られたときには、ボディ104を回転させることにより、ロボット100が触られた箇所を見ようとしても見えなくて戸惑う様子を表現してもよい。ボディ104の同一箇所を連続してタッチされたときには、瞳制御部152は触られた箇所に視線を向けることにより「触られたことを気にする仕草」を行動表現してもよい。更に、同じ箇所を触られ続けたときには、ロボット100は、首をのけぞらせる、脱力する、手106をゆらす、あくび声を出すなどの所定モーションを実行してもよい。動作制御部150は、連続タッチから逃れるために、ユーザから離れる方向にロボット100を移動させてもよい。頭を触られるときには、動作制御部150は首を動かすことでタッチを嫌がるモーションを実行してもよい。瞳制御部152は、タッチが連続したときには、感度制御部174をユーザに向けて睨むなどの不機嫌な表情を表現してもよい。
ツノ112の上半分にタッチセンサ400を設置してもよい。そして、ツノ112の上半分を触られるとき、動作制御部150はさまざまな拒否モーションを選択してもよい。たとえば、ツノ112の上半分を1秒以上タッチされたときや2回以上タッチされたとき、動作制御部150はユーザから逃げることにより「ツノ112を触られるのが嫌い」という特性を表現してもよい。このような制御方法によれば、カメラ402(全天球カメラ)を搭載するツノ112を握られることで視界が塞がれるのを防止しやすくなる。
Claims (7)
- ロボットの体表面に対するユーザの接触を検出するセンサと、
複数の接触箇所の組み合わせに応じて複数種類の接触態様のうちのいずれに該当するかを特定する認識部と、
前記特定された接触態様にあらかじめ対応づけられるモーションを選択する動作制御部と、
前記選択されたモーションを実行する駆動機構と、を備えることを特徴とする自律行動型ロボット。 - ユーザに対するロボットの感情を示す数値として親密度を更新する親密度管理部、を更に備え、
前記認識部は、前記特定した接触態様に応じて、ロボットに対するユーザの感情の推定値として愛情表現レベルを判定し、
前記親密度管理部は、前記愛情表現レベルに応じて前記親密度を更新し、
前記動作制御部は、ユーザによる接触が検出されていないときには、前記親密度に応じてロボットのモーションを選択することを特徴とする請求項1に記載の自律行動型ロボット。 - ユーザに対するロボットの感情を示す数値として親密度を更新する親密度管理部、を更に備え、
前記認識部は、前記特定した接触態様を快適行為または不快行為のいずれかに分類し、快適行為のときには前記親密度を上昇させ、不快行為のときには前記親密度を低下させ、
前記動作制御部は、ユーザによる接触が検出されていないときには、前記親密度に応じてロボットのモーションを選択することを特徴とする請求項1に記載の自律行動型ロボット。 - ロボットの外形には弾性体による外皮が形成され、
前記センサは、前記外皮の内側に設けられることを特徴とする請求項1から3のいずれかに記載の自律行動型ロボット。 - 前記センサは、前記外皮で覆われた範囲を検出範囲とすることを特徴とする請求項4に記載の自律行動型ロボット。
- 周辺領域にユーザが検出されないとき、前記センサの検出感度を抑制する感度制御部、を更に備えることを特徴とする請求項1から5のいずれかに記載の自律行動型ロボット。
- ロボットの衣装着用を検出する衣装検出部と、
前記センサの検出感度を制御する感度制御部、を更に備え、
前記感度制御部は、衣装着用時に前記センサの検出感度を高めることを特徴とする請求項1から5のいずれかに記載の自律行動型ロボット。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016142060 | 2016-07-20 | ||
JP2016142060 | 2016-07-20 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017566426A Division JP6467674B2 (ja) | 2016-07-20 | 2017-07-18 | スキンシップを理解する自律行動型ロボット |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019072495A true JP2019072495A (ja) | 2019-05-16 |
Family
ID=60992528
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017566426A Active JP6467674B2 (ja) | 2016-07-20 | 2017-07-18 | スキンシップを理解する自律行動型ロボット |
JP2018204202A Pending JP2019072495A (ja) | 2016-07-20 | 2018-10-30 | スキンシップを理解する自律行動型ロボット |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017566426A Active JP6467674B2 (ja) | 2016-07-20 | 2017-07-18 | スキンシップを理解する自律行動型ロボット |
Country Status (6)
Country | Link |
---|---|
US (1) | US11285614B2 (ja) |
JP (2) | JP6467674B2 (ja) |
CN (1) | CN109475781B (ja) |
DE (1) | DE112017003651T5 (ja) |
GB (1) | GB2567586A (ja) |
WO (1) | WO2018016461A1 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102118593B1 (ko) * | 2019-12-13 | 2020-06-03 | 주식회사 판도라프로젝트 | 프라모델 시스템 |
KR102208256B1 (ko) * | 2019-09-23 | 2021-01-27 | 여영환 | 리딩 기능을 수행하는 스마트 인형 |
KR20210012748A (ko) * | 2019-07-26 | 2021-02-03 | 주식회사 모랑스 | 장애인과 1인 가구를 위한 정서 공감 인형 및 이를 이용한 시스템 |
KR102295836B1 (ko) * | 2020-11-20 | 2021-08-31 | 오로라월드 주식회사 | 성장형 스마트 토이 장치 및 스마트 토이 시스템 |
JP2021153680A (ja) * | 2020-03-25 | 2021-10-07 | カシオ計算機株式会社 | 機器の制御装置、機器、機器の制御方法及びプログラム |
JP7494479B2 (ja) | 2020-02-12 | 2024-06-04 | カシオ計算機株式会社 | ロボット |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107111314B (zh) * | 2014-11-07 | 2021-10-08 | 索尼公司 | 控制系统、控制方法以及存储介质 |
EP3551393A4 (en) * | 2016-12-12 | 2020-08-12 | Microsoft Technology Licensing, LLC | ROBOT GESTURE GENERATION |
KR102024087B1 (ko) * | 2017-03-31 | 2019-09-23 | 엘지전자 주식회사 | 커뮤니케이션 로봇 |
JP7020159B2 (ja) * | 2018-02-07 | 2022-02-16 | トヨタ自動車株式会社 | コミュニケーション装置およびその制御プログラム |
JP2019184787A (ja) * | 2018-04-09 | 2019-10-24 | 凸版印刷株式会社 | 表示素子モジュール、表示装置、及びロボット |
CN110405778B (zh) * | 2018-04-28 | 2022-10-21 | 深圳果力智能科技有限公司 | 一种机器人 |
TWI655960B (zh) * | 2018-05-03 | 2019-04-11 | 生茂系統開發有限公司 | 結合觸摸式互動電子寵物的照護裝置、系統與方法 |
KR102148032B1 (ko) * | 2018-06-25 | 2020-08-26 | 엘지전자 주식회사 | 로봇 |
KR102148031B1 (ko) * | 2018-06-25 | 2020-10-14 | 엘지전자 주식회사 | 로봇 |
WO2020009098A1 (ja) * | 2018-07-02 | 2020-01-09 | Groove X株式会社 | ロボット |
TWI704471B (zh) * | 2018-09-27 | 2020-09-11 | 仁寶電腦工業股份有限公司 | 互動式電子裝置及其互動方法 |
WO2020105309A1 (ja) * | 2018-11-21 | 2020-05-28 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2020153038A1 (ja) * | 2019-01-22 | 2020-07-30 | ソニー株式会社 | 情報処理装置、および情報処理方法 |
EP3919146A4 (en) * | 2019-01-31 | 2022-04-06 | Sony Group Corporation | ROBOT CONTROL DEVICE, ROBOT CONTROL METHOD AND PROGRAM |
JP7024754B2 (ja) * | 2019-03-25 | 2022-02-24 | カシオ計算機株式会社 | 制御装置、ロボット、制御方法およびプログラム |
US11376743B2 (en) * | 2019-04-04 | 2022-07-05 | Joyhaptics Oy | Systems and methods for providing remote touch |
DE102019213032A1 (de) * | 2019-08-29 | 2021-03-04 | navel robotics GmbH | Roboter mit einer verhaltenssteuerungseinheit und verfahren zur verhaltenssteuerung eines roboters |
CN111368053B (zh) * | 2020-02-29 | 2020-12-11 | 重庆百事得大牛机器人有限公司 | 基于法律咨询机器人的情绪安抚系统 |
US20230165497A1 (en) * | 2020-05-15 | 2023-06-01 | Nippon Telegraph And Telephone Corporation | Contact stimulus calculation apparatus, contact stimulus presentation apparatus, contact stimulus calculation method, contact stimulus presentation method, and program |
JP7287411B2 (ja) * | 2021-03-16 | 2023-06-06 | カシオ計算機株式会社 | 機器の制御装置、機器の制御方法及びプログラム |
US11419399B1 (en) | 2021-09-01 | 2022-08-23 | Spin Master Ltd. | Storage device with movable element |
WO2023037608A1 (ja) * | 2021-09-10 | 2023-03-16 | ソニーグループ株式会社 | 自律移動体、情報処理方法、及び、プログラム |
JPWO2023037609A1 (ja) * | 2021-09-10 | 2023-03-16 | ||
US11865695B2 (en) * | 2021-11-16 | 2024-01-09 | Walton Richardson | Humanoid hugging assembly |
CN118103895A (zh) * | 2021-11-17 | 2024-05-28 | 提姆查克股份有限公司 | 医疗用模拟器 |
CN114800566A (zh) * | 2022-05-07 | 2022-07-29 | 深圳市机器时代科技有限公司 | 一种幼教机器人隐蔽移动结构及其追踪方法 |
Family Cites Families (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2000015396A1 (fr) * | 1998-09-10 | 2000-03-23 | Sony Corporation | Appareil robotique, procede de commande de l'appareil robotique, procede d'affichage et support |
JP2000323219A (ja) | 1999-05-10 | 2000-11-24 | Sony Corp | 接続装置及びロボットシステム |
JP2001191276A (ja) | 1999-10-29 | 2001-07-17 | Sony Corp | ロボットシステム、ロボット装置及びその外装 |
CN1151016C (zh) | 1999-11-30 | 2004-05-26 | 索尼公司 | 机器人设备及其控制方法,和机器人性格判别方法 |
JP2001157977A (ja) * | 1999-11-30 | 2001-06-12 | Sony Corp | ロボット装置及びその制御方法 |
JP2001162058A (ja) * | 1999-12-10 | 2001-06-19 | Iesato Sato | 自律移動型セラピー機器 |
JP2003251580A (ja) * | 2002-02-28 | 2003-09-09 | Matsushita Electric Ind Co Ltd | 人工目およびそれを用いたロボット |
JP4042108B2 (ja) * | 2003-02-19 | 2008-02-06 | ソニー株式会社 | ロボット装置及びその制御方法 |
JP2005103679A (ja) | 2003-09-29 | 2005-04-21 | Toshiba Corp | ロボット装置 |
JP4677585B2 (ja) * | 2005-03-31 | 2011-04-27 | 株式会社国際電気通信基礎技術研究所 | コミュニケーションロボット |
EP1941411B1 (en) | 2005-09-30 | 2011-09-14 | iRobot Corporation | Companion robot for personal interaction |
US20070128979A1 (en) * | 2005-12-07 | 2007-06-07 | J. Shackelford Associates Llc. | Interactive Hi-Tech doll |
US7744442B2 (en) * | 2006-06-09 | 2010-06-29 | Mattel, Inc. | Dolls with alterable facial features |
US8287327B1 (en) * | 2006-08-02 | 2012-10-16 | Ghaly Nabil N | Interactive play set |
TWI306051B (en) * | 2006-12-14 | 2009-02-11 | Ind Tech Res Inst | Robotic apparatus with surface information displaying and interaction capability |
JP4871160B2 (ja) | 2007-02-16 | 2012-02-08 | 株式会社東芝 | ロボットおよびその制御方法 |
GB0714148D0 (en) * | 2007-07-19 | 2007-08-29 | Lipman Steven | interacting toys |
CN101411946B (zh) * | 2007-10-19 | 2012-03-28 | 鸿富锦精密工业(深圳)有限公司 | 玩具恐龙 |
US8583956B2 (en) * | 2008-01-31 | 2013-11-12 | Peter Sui Lun Fong | Interactive device with local area time synchronization capbility |
US8046620B2 (en) * | 2008-01-31 | 2011-10-25 | Peter Sui Lun Fong | Interactive device with time synchronization capability |
US8545283B2 (en) * | 2008-02-20 | 2013-10-01 | Ident Technology Ag | Interactive doll or stuffed animal |
US8939840B2 (en) * | 2009-07-29 | 2015-01-27 | Disney Enterprises, Inc. | System and method for playsets using tracked objects and corresponding virtual worlds |
CA2675913A1 (en) * | 2009-08-20 | 2011-02-20 | Thinking Technology Inc. | Interactive talking toy with moveable and detachable body parts |
US9421475B2 (en) * | 2009-11-25 | 2016-08-23 | Hallmark Cards Incorporated | Context-based interactive plush toy |
US8506343B2 (en) * | 2010-04-30 | 2013-08-13 | Mattel, Inc. | Interactive toy doll for image capture and display |
US8662954B2 (en) * | 2010-04-30 | 2014-03-04 | Mattel, Inc. | Toy doll for image capture and display |
US8483873B2 (en) * | 2010-07-20 | 2013-07-09 | Innvo Labs Limited | Autonomous robotic life form |
US8596147B2 (en) * | 2010-11-30 | 2013-12-03 | Hallmark Cards, Incorporated | Non-rigid sensor for detecting deformation |
JP5172049B2 (ja) * | 2011-06-14 | 2013-03-27 | パナソニック株式会社 | ロボット装置、ロボット制御方法、及びロボット制御プログラム |
JP5765095B2 (ja) * | 2011-06-30 | 2015-08-19 | 富士通株式会社 | ロボット、状況認識方法および状況認識プログラム |
CN103765356B (zh) * | 2011-09-27 | 2016-12-07 | Lg化学株式会社 | 包括导电图案的触控面板 |
US9079113B2 (en) * | 2012-01-06 | 2015-07-14 | J. T. Labs Limited | Interactive personal robotic apparatus |
US9092021B2 (en) * | 2012-01-06 | 2015-07-28 | J. T. Labs Limited | Interactive apparatus |
US9616353B2 (en) * | 2012-03-30 | 2017-04-11 | Mattel, Inc. | Reconfigurable doll |
EP2852881A4 (en) | 2012-05-22 | 2016-03-23 | Intouch Technologies Inc | GRAPHIC USER INTERFACES CONTAINING TOUCH PAD TOUCH INTERFACES FOR TELEMEDICINE DEVICES |
US9796095B1 (en) * | 2012-08-15 | 2017-10-24 | Hanson Robokind And Intelligent Bots, Llc | System and method for controlling intelligent animated characters |
JP2016502694A (ja) * | 2012-10-04 | 2016-01-28 | ディズニー エンタープライゼス インコーポレイテッド | 没入型環境用のインタラクティブ型オブジェクト |
US11020680B2 (en) * | 2012-11-15 | 2021-06-01 | Shana Lee McCart-Pollak | System and method for providing a toy operable for receiving and selectively vocalizing various electronic communications from authorized parties, and for providing a configurable platform independent interactive infrastructure for facilitating optimal utilization thereof |
US20150314454A1 (en) * | 2013-03-15 | 2015-11-05 | JIBO, Inc. | Apparatus and methods for providing a persistent companion device |
GB2511898B (en) * | 2013-03-15 | 2015-07-22 | Mattel Inc | Toy with an illuminable movable portion |
US9934817B2 (en) * | 2013-10-04 | 2018-04-03 | Hallmark Cards, Incorporated | System for recording, sharing, and storing audio |
WO2015089491A1 (en) * | 2013-12-14 | 2015-06-18 | The Regents Of The University Of California | Liquid column-based capacitive sensors |
CN103877727B (zh) * | 2013-12-17 | 2016-08-24 | 西安交通大学 | 一种由手机控制并通过手机进行交互的电子宠物 |
US9329597B2 (en) | 2014-01-17 | 2016-05-03 | Knightscope, Inc. | Autonomous data machines and systems |
JP5935113B1 (ja) * | 2014-11-10 | 2016-06-15 | 株式会社ワンダーフューチャーコーポレーション | タッチパネル、タッチパネルの製造方法、及びタッチパネル一体型表示装置 |
US10959666B2 (en) * | 2015-01-12 | 2021-03-30 | Enbiomedic | Wearable hip joint-action detectors |
WO2016168117A2 (en) * | 2015-04-14 | 2016-10-20 | John James Daniels | Wearable electric, multi-sensory, human/machine, human/human interfaces |
US10037098B2 (en) * | 2015-07-29 | 2018-07-31 | The Board Of Trustees Of The Leland Stanford Junior University | Methods and apparatus concerning sensitive force sensors |
US10452816B2 (en) * | 2016-02-08 | 2019-10-22 | Catalia Health Inc. | Method and system for patient engagement |
US10360859B1 (en) * | 2016-03-23 | 2019-07-23 | Valerie J. Heilbron | Eye animation device and method to show eye expression in 2D and 3D lighted displays |
JP6747506B2 (ja) * | 2016-04-28 | 2020-08-26 | 富士通株式会社 | ロボット |
-
2017
- 2017-07-18 WO PCT/JP2017/025859 patent/WO2018016461A1/ja active Application Filing
- 2017-07-18 CN CN201780044645.7A patent/CN109475781B/zh active Active
- 2017-07-18 DE DE112017003651.8T patent/DE112017003651T5/de not_active Ceased
- 2017-07-18 JP JP2017566426A patent/JP6467674B2/ja active Active
- 2017-07-18 GB GB1902083.3A patent/GB2567586A/en not_active Withdrawn
-
2018
- 2018-10-30 JP JP2018204202A patent/JP2019072495A/ja active Pending
-
2019
- 2019-01-11 US US16/245,261 patent/US11285614B2/en active Active
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210012748A (ko) * | 2019-07-26 | 2021-02-03 | 주식회사 모랑스 | 장애인과 1인 가구를 위한 정서 공감 인형 및 이를 이용한 시스템 |
KR102318218B1 (ko) * | 2019-07-26 | 2021-10-27 | 주식회사 모랑스 | 장애인과 1인 가구를 위한 정서 공감 인형 및 이를 이용한 시스템 |
KR102208256B1 (ko) * | 2019-09-23 | 2021-01-27 | 여영환 | 리딩 기능을 수행하는 스마트 인형 |
KR102118593B1 (ko) * | 2019-12-13 | 2020-06-03 | 주식회사 판도라프로젝트 | 프라모델 시스템 |
JP7494479B2 (ja) | 2020-02-12 | 2024-06-04 | カシオ計算機株式会社 | ロボット |
JP2021153680A (ja) * | 2020-03-25 | 2021-10-07 | カシオ計算機株式会社 | 機器の制御装置、機器、機器の制御方法及びプログラム |
JP7081619B2 (ja) | 2020-03-25 | 2022-06-07 | カシオ計算機株式会社 | 機器の制御装置、機器、機器の制御方法及びプログラム |
US11886970B2 (en) | 2020-03-25 | 2024-01-30 | Casio Computer Co., Ltd. | Apparatus control device, apparatus, apparatus control method, and storage medium |
KR102295836B1 (ko) * | 2020-11-20 | 2021-08-31 | 오로라월드 주식회사 | 성장형 스마트 토이 장치 및 스마트 토이 시스템 |
WO2022107944A1 (ko) * | 2020-11-20 | 2022-05-27 | 오로라월드 주식회사 | 성장형 스마트 토이 장치 및 스마트 토이 시스템 |
Also Published As
Publication number | Publication date |
---|---|
DE112017003651T5 (de) | 2019-04-04 |
US20190143528A1 (en) | 2019-05-16 |
CN109475781A (zh) | 2019-03-15 |
GB201902083D0 (en) | 2019-04-03 |
WO2018016461A1 (ja) | 2018-01-25 |
JPWO2018016461A1 (ja) | 2018-07-26 |
JP6467674B2 (ja) | 2019-02-13 |
GB2567586A (en) | 2019-04-17 |
CN109475781B (zh) | 2020-12-25 |
US11285614B2 (en) | 2022-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018016461A1 (ja) | スキンシップを理解する自律行動型ロボット | |
JP6402320B2 (ja) | 人見知りする自律行動型ロボット | |
JP7231924B2 (ja) | 活動量をコントロールされる自律行動型ロボット | |
JP6508864B2 (ja) | 瞳を変化させるロボット | |
JP6495486B2 (ja) | 自律行動型ロボット及びコンピュータプログラム | |
JP6409207B2 (ja) | 服を着る自律行動型ロボット | |
JP6409209B2 (ja) | 涼しさを求める自律行動型ロボット | |
JP6557840B2 (ja) | ロボット、サーバ及び行動制御プログラム | |
JP6671577B2 (ja) | 人を識別する自律行動型ロボット | |
JP2018192559A (ja) | 曲面形状のボディに対するタッチを検出する自律行動型ロボット |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200309 |