JP2019005591A - 人見知りする自律行動型ロボット - Google Patents
人見知りする自律行動型ロボット Download PDFInfo
- Publication number
- JP2019005591A JP2019005591A JP2018141271A JP2018141271A JP2019005591A JP 2019005591 A JP2019005591 A JP 2019005591A JP 2018141271 A JP2018141271 A JP 2018141271A JP 2018141271 A JP2018141271 A JP 2018141271A JP 2019005591 A JP2019005591 A JP 2019005591A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- moving object
- user
- behavior
- closeness
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/001—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/0015—Face robots, animated artificial faces for imitating human expressions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
- Toys (AREA)
Abstract
【課題】ロボットに対する共感を高めるための行動制御技術、を提供する。【解決手段】ロボットは、移動方向を決定する移動判断部と、指定された移動を実行する駆動機構と、移動物体に対する親密度を更新する親密度管理部と、を備える。ロボットは、親密度の低いユーザからは遠ざかり、親密度の高いユーザには近づく。親密度は、ユーザとロボットの関わりの深さに応じて変化する。ロボットは、移動物体を検出し、移動物体が人見知り行動の対象か否かを所定の判定基準に基づいて判定する認識部と、移動物体が人見知り行動の対象であるとき、人見知り行動を選択する動作判断部と、選択された人見知り行動を実行する駆動機構と、を備える。【選択図】図6
Description
本発明は、内部状態または外部環境に応じて自律的に行動選択するロボット、に関する。
人間は、感覚器官を通して外部環境からさまざまな情報を取得し、行動選択を行う。意識的に行動選択することもあれば、無意識的な行動選択もある。繰り返し行動はやがて無意識的行動となり、新しい行動は意識領域にとどまる。
人間は、自らの行動を自由に選択する意志、すなわち、自由意志をもっていると信じている。人間が他人に対して愛情や憎しみといった感情を抱くのは、他人にも自由意志があると信じているからである。自由意志を持つ者、少なくとも自由意志を持っていると想定可能な存在は、人の寂しさを癒す存在にもなる。
人間がペットを飼う理由は、人間の役に立つか否かよりも、ペットが癒しを与えてくれるからである。ペットは、多かれ少なかれ自由意志を感じさせる存在であるからこそ、人間のよき伴侶となることができる。
その一方、ペットの世話をする時間を十分に確保できない、ペットを飼える住環境にない、アレルギーがある、死別がつらい、といったさまざまな理由により、ペットをあきらめている人は多い。もし、ペットの役割が務まるロボットがあれば、ペットを飼えない人にもペットが与えてくれるような癒しを与えられるかもしれない(特許文献1参照)。
近年、ロボット技術は急速に進歩しつつあるものの、ペットのような伴侶としての存在感を実現するには至っていない。ロボットに自由意志があるとは思えないからである。人間は、ペットの自由意志があるとしか思えないような行動を観察することにより、ペットに自由意志の存在を感じ、ペットに共感し、ペットに癒される。
したがって、人間的・生物的な行動をエミュレートできるロボットであれば、いいかえれば、人間的・生物的な行動を自律的に選択可能なロボットであれば、ロボットへの共感を大きく高めることができると考えられる。
したがって、人間的・生物的な行動をエミュレートできるロボットであれば、いいかえれば、人間的・生物的な行動を自律的に選択可能なロボットであれば、ロボットへの共感を大きく高めることができると考えられる。
本発明は上記課題認識に基づいて完成された発明であり、その主たる目的は、ロボットに対する共感を高めるための行動制御技術、を提供することにある。
本発明のある態様における自律行動型ロボットは、移動方向を決定する移動判断部と、指定された移動を実行する駆動機構と、移動物体に対する親密度を更新する親密度管理部と、を備える。
移動判断部は、第1の閾値よりも低い親密度を設定される第1の移動物体を検出したとき、第1の移動物体から遠ざかる方向を移動方向として決定する。
移動判断部は、第1の閾値よりも低い親密度を設定される第1の移動物体を検出したとき、第1の移動物体から遠ざかる方向を移動方向として決定する。
本発明の別の態様における自律行動型ロボットは、移動方向を決定する移動判断部と、指定された移動を実行する駆動機構と、移動物体に対する親密度を更新する親密度管理部と、を備える。
移動判断部は、所定の閾値よりも高い親密度を設定される移動物体を検出したとき、移動物体に近づく方向を移動方向として決定する。
移動判断部は、所定の閾値よりも高い親密度を設定される移動物体を検出したとき、移動物体に近づく方向を移動方向として決定する。
本発明の別の態様における自律行動型ロボットは、移動物体を検出し、移動物体が人見知り行動の対象か否かを所定の判定基準に基づいて判定する認識部と、移動物体が人見知り行動の対象であるとき、人見知り行動を選択する動作判断部と、選択された人見知り行動を実行する駆動機構と、を備える。
本発明によれば、ロボットに対する共感を高めやすくなる。
図1(a)は、ロボット100の正面外観図である。図1(b)は、ロボット100の側面外観図である。
本実施形態におけるロボット100は、外部環境および内部状態に基づいて行動や仕草(ジェスチャー)を決定する自律行動型のロボットである。外部環境は、カメラやサーモセンサなど各種のセンサにより認識される。内部状態はロボット100の感情を表現するさまざまなパラメータとして定量化される。これらについは後述する。
本実施形態のロボット100は、屋内行動が前提とされており、たとえば、オーナー家庭の家屋内を行動範囲とする。以下、ロボット100に関わる人間を「ユーザ」とよび、ロボット100が所属する家庭の構成員となるユーザのことを「オーナー」とよぶ。
本実施形態におけるロボット100は、外部環境および内部状態に基づいて行動や仕草(ジェスチャー)を決定する自律行動型のロボットである。外部環境は、カメラやサーモセンサなど各種のセンサにより認識される。内部状態はロボット100の感情を表現するさまざまなパラメータとして定量化される。これらについは後述する。
本実施形態のロボット100は、屋内行動が前提とされており、たとえば、オーナー家庭の家屋内を行動範囲とする。以下、ロボット100に関わる人間を「ユーザ」とよび、ロボット100が所属する家庭の構成員となるユーザのことを「オーナー」とよぶ。
ロボット100のボディ104は、全体的に丸みを帯びた形状を有し、ウレタンやゴム、樹脂などやわらかく弾力性のある素材により形成される。ロボット100に服を着せてもよい。丸くてやわらかく、手触りのよいボディ104とすることで、ロボット100はユーザに安心感とともに心地よい触感を提供する。
ロボット100は、総重量が15キログラム以下、好ましくは10キログラム以下、さらに好ましくは、5キログラム以下である。生後13ヶ月までに、赤ちゃんの過半数は一人歩きを始める。生後13ヶ月の赤ちゃんの平均体重は、男児が9キログラム強、女児が9キログラム弱である。このため、ロボット100の総重量が10キログラム以下であれば、ユーザは一人歩きできない赤ちゃんを抱きかかえるのとほぼ同等の労力でロボット100を抱きかかえることができる。
生後2ヶ月未満の赤ちゃんの平均体重は男女ともに5キログラム未満である。したがって、ロボット100の総重量が5キログラム以下であれば、ユーザは乳児を抱っこするのと同等の労力でロボット100を抱っこできる。
生後2ヶ月未満の赤ちゃんの平均体重は男女ともに5キログラム未満である。したがって、ロボット100の総重量が5キログラム以下であれば、ユーザは乳児を抱っこするのと同等の労力でロボット100を抱っこできる。
適度な重さと丸み、柔らかさ、手触りのよさ、といった諸属性により、ユーザがロボット100を抱きかかえやすく、かつ、抱きかかえたくなるという効果が実現される。同様の理由から、ロボット100の身長は1.2メートル以下、好ましくは、0.7メートル以下であることが望ましい。
本実施形態におけるロボット100にとって、抱きかかえることができるというのは重要なコンセプトである。
本実施形態におけるロボット100にとって、抱きかかえることができるというのは重要なコンセプトである。
ロボット100は、車輪102により移動する。2つの車輪102の回転速度や回転方向は個別に制御可能である。また、車輪102をロボット100のボディ104の内部において上方向にスライドさせ、ボディ104に完全格納することもできる。走行時においても車輪102の大部分はボディ104に隠れているが、車輪102がボディ104に完全格納されるとロボット100は移動不可能な状態(以下、「着座状態」とよぶ)となる。着座状態においては、平坦状の着座面108が床面に当接する。
ロボット100は、2つの手106を有する。手106には、モノを把持する機能はない。手106は上げる、振る、振動するなど簡単な動作が可能である。2つの手106も個別制御可能である。
目110にはカメラが内蔵される。目110は、液晶素子または有機EL素子による画像表示も可能である。ロボット100は、目110に内蔵されるカメラのほか、集音マイクや超音波センサなどさまざまなセンサを搭載する。また、スピーカーを内蔵し、簡単な音声を発することもできる。
ロボット100の頭部にはツノ112が取り付けられる。上述のようにロボット100は軽量であるため、ユーザはツノ112をつかむことでロボット100を持ち上げることも可能である。
目110にはカメラが内蔵される。目110は、液晶素子または有機EL素子による画像表示も可能である。ロボット100は、目110に内蔵されるカメラのほか、集音マイクや超音波センサなどさまざまなセンサを搭載する。また、スピーカーを内蔵し、簡単な音声を発することもできる。
ロボット100の頭部にはツノ112が取り付けられる。上述のようにロボット100は軽量であるため、ユーザはツノ112をつかむことでロボット100を持ち上げることも可能である。
図2は、ロボットシステム300の構成図である。
ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。家屋内にはあらかじめ複数の外部センサ114(外部センサ114a,114b,・・・,114n)が設置される。外部センサ114は、家屋の壁面に固定されてもよいし、床に載置されてもよい。サーバ200には、外部センサ114の位置座標が登録される。位置座標は、ロボット100の行動範囲として想定される家屋内においてx,y座標として定義される。
ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。家屋内にはあらかじめ複数の外部センサ114(外部センサ114a,114b,・・・,114n)が設置される。外部センサ114は、家屋の壁面に固定されてもよいし、床に載置されてもよい。サーバ200には、外部センサ114の位置座標が登録される。位置座標は、ロボット100の行動範囲として想定される家屋内においてx,y座標として定義される。
サーバ200は、家庭内に設置される。本実施形態におけるサーバ200とロボット100は1対1で対応する。ロボット100の内蔵するセンサおよび複数の外部センサ114から得られる情報に基づいて、サーバ200がロボット100の基本行動を決定する。
外部センサ114はロボット100の感覚器を補強するためのものであり、サーバ200はロボット100の頭脳を補強するためのものである。
外部センサ114はロボット100の感覚器を補強するためのものであり、サーバ200はロボット100の頭脳を補強するためのものである。
外部センサ114は、定期的に外部センサ114のID(以下、「ビーコンID」とよぶ)を含む無線信号(以下、「ロボット探索信号」とよぶ)を送信する。ロボット100はロボット探索信号を受信するとビーコンIDを含む無線信号(以下、「ロボット返答信号」とよぶ)を返信する。サーバ200は、外部センサ114がロボット探索信号を送信してからロボット返答信号を受信するまでの時間を計測し、外部センサ114からロボット100までの距離を測定する。複数の外部センサ114とロボット100とのそれぞれの距離を計測することで、ロボット100の位置座標を特定する。
もちろん、ロボット100が自らの位置座標を定期的にサーバ200に送信する方式でもよい。
もちろん、ロボット100が自らの位置座標を定期的にサーバ200に送信する方式でもよい。
図3は、感情マップ116の概念図である。
感情マップ116は、サーバ200に格納されるデータテーブルである。ロボット100は、感情マップ116にしたがって行動選択する。図3に示す感情マップ116は、ロボット100の場所に対する好悪感情の大きさを示す。感情マップ116のx軸とy軸は、二次元空間座標を示す。z軸は、好悪感情の大きさを示す。z値が正値のときにはその場所に対する好感が高く、z値が負値のときにはその場所を嫌悪していることを示す。
感情マップ116は、サーバ200に格納されるデータテーブルである。ロボット100は、感情マップ116にしたがって行動選択する。図3に示す感情マップ116は、ロボット100の場所に対する好悪感情の大きさを示す。感情マップ116のx軸とy軸は、二次元空間座標を示す。z軸は、好悪感情の大きさを示す。z値が正値のときにはその場所に対する好感が高く、z値が負値のときにはその場所を嫌悪していることを示す。
図3の感情マップ116において、座標P1は、ロボット100の行動範囲としてサーバ200が管理する屋内空間のうち好感情が高い地点(以下、「好意地点」とよぶ)である。好意地点は、ソファの陰やテーブルの下などの「安全な場所」であってもよいし、リビングのように人が集まりやすい場所、賑やかな場所であってもよい。また、過去にやさしく撫でられたり、触れられたりした場所であってもよい。
ロボット100がどのような場所を好むかという定義は任意であるが、一般的には、小さな子どもや犬や猫などの小動物が好む場所を好意地点として設定することが望ましい。
ロボット100がどのような場所を好むかという定義は任意であるが、一般的には、小さな子どもや犬や猫などの小動物が好む場所を好意地点として設定することが望ましい。
座標P2は、悪感情が高い地点(以下、「嫌悪地点」とよぶ)である。嫌悪地点は、テレビの近くなど大きな音がする場所、お風呂や洗面所のように濡れやすい場所、閉鎖空間や暗い場所、ユーザから乱暴に扱われたことがある不快な記憶に結びつく場所などであってもよい。
ロボット100がどのような場所を嫌うかという定義も任意であるが、一般的には、小さな子どもや犬や猫などの小動物が怖がる場所を嫌悪地点として設定することが望ましい。
ロボット100がどのような場所を嫌うかという定義も任意であるが、一般的には、小さな子どもや犬や猫などの小動物が怖がる場所を嫌悪地点として設定することが望ましい。
座標Qは、ロボット100の現在位置を示す。複数の外部センサ114が定期的に送信するロボット探索信号とそれに対するロボット返答信号により、サーバ200はロボット100の位置座標を特定する。たとえば、ビーコンID=1の外部センサ114とビーコンID=2の外部センサ114がそれぞれロボット100を検出したとき、2つの外部センサ114からロボット100の距離を求め、そこからロボット100の位置座標を求める。
あるいは、ビーコンID=1の外部センサ114は、ロボット探索信号を複数方向に送信し、ロボット100はロボット探索信号を受信したときロボット返答信号を返す。これにより、サーバ200は、ロボット100がどの外部センサ114からどの方向のどのくらいの距離にいるかを把握してもよい。また、別の実施の形態では、車輪102の回転数からロボット100の移動距離を算出して、現在位置を特定してもよいし、カメラから得られる画像に基づいて現在位置を特定してもよい。
図3に示す感情マップ116が与えられた場合、ロボット100は好意地点(座標P1)に引き寄せられる方向、悪意地点(座標P2)から離れる方向に移動する。
あるいは、ビーコンID=1の外部センサ114は、ロボット探索信号を複数方向に送信し、ロボット100はロボット探索信号を受信したときロボット返答信号を返す。これにより、サーバ200は、ロボット100がどの外部センサ114からどの方向のどのくらいの距離にいるかを把握してもよい。また、別の実施の形態では、車輪102の回転数からロボット100の移動距離を算出して、現在位置を特定してもよいし、カメラから得られる画像に基づいて現在位置を特定してもよい。
図3に示す感情マップ116が与えられた場合、ロボット100は好意地点(座標P1)に引き寄せられる方向、悪意地点(座標P2)から離れる方向に移動する。
感情マップ116は動的に変化する。ロボット100が座標P1に到達すると、座標P1におけるz値(好感情)は時間とともに低下する。これにより、ロボット100は好意地点(座標P1)に到達して、「感情が満たされ」、やがて、その場所に「飽きてくる」という生物的行動をエミュレートできる。同様に、座標P2における悪感情も時間とともに緩和される。時間経過とともに新たな好意地点や嫌悪地点が生まれ、それによってロボット100は新たな行動選択を行う。ロボット100は、新しい好意地点に「興味」を持ち、絶え間なく新しい行動選択を行う。
感情マップ116は、ロボット100の内部状態として、感情の起伏を表現する。ロボット100は、好意地点を目指し、嫌悪地点を避け、好意地点にしばらくとどまり、やがてまた次の行動を起こす。このような制御により、ロボット100の行動選択を人間的・生物的なものにすることができる。
なお、ロボット100の行動に影響を与えるマップ(以下、「行動マップ」と総称する)は、図3に示したようなタイプの感情マップ116に限らない。たとえば、好奇心、恐怖を避ける気持ち、安心を求める気持ち、静けさや薄暗さ、涼しさや暖かさといった肉体的安楽を求める気持ち、などさまざまな行動マップを定義可能である。そして、複数の行動マップそれぞれのz値を重み付け平均することにより、ロボット100の目的地点を決定してもよい。
ロボット100は、行動マップとは別に、さまざまな感情や感覚の大きさを示すパラメータを有してもよい。たとえば、寂しさという感情パラメータの値が高まっているときには、安心する場所を評価する行動マップの重み付け係数を大きく設定し、目標地点に到達することでこの感情パラメータの値を低下させてもよい。同様に、つまらないという感覚を示すパラメータの値が高まっているときには、好奇心を満たす場所を評価する行動マップの重み付け係数を大きく設定すればよい。
図4は、ロボット100のハードウェア構成図である。
ロボット100は、内部センサ128,通信機126,記憶装置124,プロセッサ122,駆動機構120およびバッテリー118を含む。各ユニットは電源線130および信号線132により互いに接続される。バッテリー118は、電源線130を介して各ユニットに電力を供給する。各ユニットは信号線132により制御信号を送受する。バッテリー118は、リチウムイオン二次電池などの二次電池であり、ロボット100の動力源である。
ロボット100は、内部センサ128,通信機126,記憶装置124,プロセッサ122,駆動機構120およびバッテリー118を含む。各ユニットは電源線130および信号線132により互いに接続される。バッテリー118は、電源線130を介して各ユニットに電力を供給する。各ユニットは信号線132により制御信号を送受する。バッテリー118は、リチウムイオン二次電池などの二次電池であり、ロボット100の動力源である。
内部センサ128は、ロボット100が内蔵する各種センサの集合体である。具体的には、カメラ、集音マイク、赤外線センサ、サーモセンサ、タッチセンサ、加速度センサ、ニオイセンサなどである。ニオイセンサは、匂いの元となる分子の吸着によって電気抵抗が変化する原理を応用した既知のセンサである。ニオイセンサは、さまざまな匂いを複数種類のカテゴリ(以下、「ニオイカテゴリ」とよぶ)に分類する。
通信機126は、サーバ200や外部センサ114、ユーザの有する携帯機器など各種の外部機器を対象として無線通信を行う通信モジュールである。記憶装置124は、不揮発性メモリおよび揮発性メモリにより構成され、コンピュータプログラムや各種設定情報を記憶する。プロセッサ122は、コンピュータプログラムの実行手段である。駆動機構120は、車輪102や手106等の各機構を制御するアクチュエータである。
このほかには、表示器やスピーカーなども搭載される。
このほかには、表示器やスピーカーなども搭載される。
プロセッサ122は、通信機126を介してサーバ200や外部センサ114と通信しながら、ロボット100の行動選択を行う。内部センサ128により得られるさまざまな外部情報も行動選択に影響する。駆動機構120は、主として、車輪102および手106を制御する。駆動機構120は、2つの車輪102それぞれの回転速度や回転方向を変化させることにより、ロボット100の移動方向や移動速度を変化させる。また、駆動機構120は、車輪102を昇降させることもできる。車輪102が上昇すると、車輪102はボディ104に完全に格納され、ロボット100は着座面108にて床面に当接し、着座状態となる。
駆動機構120がワイヤ134を介して手106を引っ張ることにより、手106を持ち上げることができる。手106を振動させることで手を振るような仕草も可能である。多数のワイヤ134を利用すればさらに複雑な仕草も表現可能である。
図5は、ロボットシステム300の機能ブロック図である。
上述のように、ロボットシステム300は、ロボット100,サーバ200および複数の外部センサ114を含む。ロボット100およびサーバ200の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
ロボット100の機能の一部はサーバ200により実現されてもよいし、サーバ200の機能の一部または全部はロボット100により実現されてもよい。
上述のように、ロボットシステム300は、ロボット100,サーバ200および複数の外部センサ114を含む。ロボット100およびサーバ200の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
ロボット100の機能の一部はサーバ200により実現されてもよいし、サーバ200の機能の一部または全部はロボット100により実現されてもよい。
(サーバ200)
サーバ200は、通信部204、データ処理部202およびデータ格納部206を含む。通信部204は、外部センサ114およびロボット100との通信処理を担当する。データ格納部206は各種データを格納する。データ処理部202は、通信部204により取得されたデータおよびデータ格納部206に格納されているデータに基づいて各種処理を実行する。データ処理部202は、通信部204およびデータ格納部206のインタフェースとしても機能する。
サーバ200は、通信部204、データ処理部202およびデータ格納部206を含む。通信部204は、外部センサ114およびロボット100との通信処理を担当する。データ格納部206は各種データを格納する。データ処理部202は、通信部204により取得されたデータおよびデータ格納部206に格納されているデータに基づいて各種処理を実行する。データ処理部202は、通信部204およびデータ格納部206のインタフェースとしても機能する。
データ格納部206は、マップ格納部216と個人データ格納部218を含む。マップ格納部216は、複数の行動マップを格納する。個人データ格納部218は、ユーザ、特に、オーナーの情報を格納する。具体的には、ユーザに対する親密度やユーザの身体的特徴・行動的特徴など各種のパラメータを格納する。年齢や性別などの他の属性情報を格納してもよい。詳細は後述する。
ロボット100はユーザの身体的特徴や行動的特徴に基づいてユーザを識別する。ロボット100は、内蔵のカメラで常時周辺を撮像する。そして、画像に写る人物の身体的特徴と行動的特徴を抽出する。身体的特徴とは、背の高さ、好んで着る服、メガネの有無、肌の色、髪の色、耳の大きさなど身体に付随する視覚的特徴であってもよいし、平均体温や匂い、声質、などその他の特徴も含めてもよい。行動的特徴とは、具体的には、ユーザが好む場所、動きの活発さ、喫煙の有無など行動に付随する特徴である。たとえば、父親として識別されるオーナーは在宅しないことが多く、在宅時にはソファで動かないことが多いが、母親は台所にいることが多く、行動範囲が広い、といった行動上の特徴を抽出する。
ロボット100は、大量の画像情報やその他のセンシング情報から得られる身体的特徴および行動的特徴に基づいて、高い頻度で出現するユーザを「オーナー」としてクラスタリングする。
ロボット100は、大量の画像情報やその他のセンシング情報から得られる身体的特徴および行動的特徴に基づいて、高い頻度で出現するユーザを「オーナー」としてクラスタリングする。
ユーザIDでユーザを識別する方式は簡易かつ確実であるが、ユーザがユーザIDを提供可能な機器を保有していることが前提となる。一方、身体的特徴や行動的特徴によりユーザを識別する方法は画像認識処理負担が大きいものの携帯機器を保有していないユーザでも識別できるメリットがある。2つの方法は一方だけを採用してもよいし、補完的に2つの方法を併用してユーザ特定を行ってもよい。
本実施形態においては、身体的特徴と行動的特徴からユーザをクラスタリングし、ディープラーニング(多層型のニューラルネットワーク)によってユーザを識別する。詳細は後述する。
本実施形態においては、身体的特徴と行動的特徴からユーザをクラスタリングし、ディープラーニング(多層型のニューラルネットワーク)によってユーザを識別する。詳細は後述する。
ロボット100は、ユーザごとに親密度という内部パラメータを有する。ロボット100が、自分を抱き上げる、声をかけてくれるなど、自分に対して好意を示す行動を認識したとき、そのユーザに対する親密度が高くなる。ロボット100に関わらないユーザや、乱暴を働くユーザ、出会う頻度が低いユーザに対する親密度は低くなる。
データ処理部202は、位置管理部208、マップ管理部210、認識部212、ルート作成部222および親密度管理部220を含む。
位置管理部208は、ロボット100の位置座標を、図2を用いて説明した方法にて特定する。また、位置管理部208はユーザの位置座標もリアルタイムで追跡してもよい。
位置管理部208は、ロボット100の位置座標を、図2を用いて説明した方法にて特定する。また、位置管理部208はユーザの位置座標もリアルタイムで追跡してもよい。
マップ管理部210は、複数の行動マップのいずれかを選択し、選択した行動マップのz値に基づいてロボット100の移動方向を決める。マップ管理部210は、複数の行動マップのz値を加重平均することでロボット100の移動方向を決めてもよい。
たとえば、行動マップAでは座標R1,座標R2におけるz値が4と3であり、行動マップBでは座標R1,座標R2におけるz値が−1と3であるとする。単純平均の場合、座標R1の合計z値は4−1=3,座標R2の合計z値は3+3=6であるから、ロボット100は座標R1ではなく座標R2の方向に向かう。
行動マップAを行動マップBの5倍重視するときには、座標R1の合計z値は4×5−1=19,座標R2の合計z値は3×5+3=18であるから、ロボット100は座標R1の方向に向かう。
たとえば、行動マップAでは座標R1,座標R2におけるz値が4と3であり、行動マップBでは座標R1,座標R2におけるz値が−1と3であるとする。単純平均の場合、座標R1の合計z値は4−1=3,座標R2の合計z値は3+3=6であるから、ロボット100は座標R1ではなく座標R2の方向に向かう。
行動マップAを行動マップBの5倍重視するときには、座標R1の合計z値は4×5−1=19,座標R2の合計z値は3×5+3=18であるから、ロボット100は座標R1の方向に向かう。
認識部212は、外部環境を認識する。外部環境の認識には、温度や湿度に基づく天候や季節の認識、光量や温度に基づく物陰(安全地帯)の認識など多様な認識が含まれる。認識部212は、更に、人物認識部214を含む。人物認識部214は、ロボット100の内蔵カメラによる撮像画像から人物を認識し、その人物の身体的特徴や行動的特徴を抽出する。そして、個人データ格納部218に登録されている身体特徴情報や行動特徴情報に基づいて、撮像されたユーザ、すなわち、ロボット100が見ているユーザが、父親、母親、長男などのどの人物に該当するかを判定する。
なお、人物認識部214は、人物以外、たとえば、ペットである猫や犬についても特徴抽出を行う。以下、ユーザ、または、オーナーとは、人に限らず、ペットも含まれるものとして説明する。
更に、人物認識部214は、ロボット100になされたさまざまな応対行為を認識し、快・不快行為(後述)として認識する。
なお、人物認識部214は、人物以外、たとえば、ペットである猫や犬についても特徴抽出を行う。以下、ユーザ、または、オーナーとは、人に限らず、ペットも含まれるものとして説明する。
更に、人物認識部214は、ロボット100になされたさまざまな応対行為を認識し、快・不快行為(後述)として認識する。
ルート作成部222は、ロボット100の移動すべきルートを作成する。ルート作成部222は、複数の候補ルートを作成し、ロボット100はいずれかのルートを選択してもよい。ルート選択については後述する。
親密度管理部220は、ユーザごとの親密度を管理する。上述したように、親密度は個人データ格納部218において個人データの一部として登録される。個人データ格納部218における親密度の管理については図6に関連して後述する。
(ロボット100)
ロボット100は、通信部142、データ処理部136、データ格納部148、駆動機構120および内部センサ128を含む。
通信部142は、通信機126(図4参照)に該当し、外部センサ114およびサーバ200との通信処理を担当する。データ格納部148は各種データを格納する。データ格納部148は、記憶装置124(図4参照)に該当する。データ処理部136は、通信部142により取得されたデータおよびデータ格納部148に格納されているデータに基づいて各種処理を実行する。データ処理部136は、プロセッサ122およびプロセッサ122により実行されるコンピュータプログラムに該当する。データ処理部136は、通信部142,内部センサ128,駆動機構120およびデータ格納部148のインタフェースとしても機能する。
ロボット100は、通信部142、データ処理部136、データ格納部148、駆動機構120および内部センサ128を含む。
通信部142は、通信機126(図4参照)に該当し、外部センサ114およびサーバ200との通信処理を担当する。データ格納部148は各種データを格納する。データ格納部148は、記憶装置124(図4参照)に該当する。データ処理部136は、通信部142により取得されたデータおよびデータ格納部148に格納されているデータに基づいて各種処理を実行する。データ処理部136は、プロセッサ122およびプロセッサ122により実行されるコンピュータプログラムに該当する。データ処理部136は、通信部142,内部センサ128,駆動機構120およびデータ格納部148のインタフェースとしても機能する。
データ処理部136は、認識部156、移動判断部138および行動判断部140を含む。
駆動機構120は、移動駆動部144と行動駆動部146を含む。移動判断部138は、ロボット100の移動方向を決める。移動駆動部144は、移動判断部138の指示にしたがって車輪102を駆動することで、ロボット100を目標地点に向かわせる。サーバ200のマップ管理部210は、行動マップに基づいて、ロボット100の移動先(目標地点)をリアルタイムで計算する。サーバ200は、目標地点の座標をロボット100に送信し、移動判断部138は目標地点に向けてロボット100を移動させる。
ロボット100の移動方向の大枠を決めるのは行動マップであるが、本実施形態のロボット100は親密度に対応した特定行動も可能である。これについては後述する。
駆動機構120は、移動駆動部144と行動駆動部146を含む。移動判断部138は、ロボット100の移動方向を決める。移動駆動部144は、移動判断部138の指示にしたがって車輪102を駆動することで、ロボット100を目標地点に向かわせる。サーバ200のマップ管理部210は、行動マップに基づいて、ロボット100の移動先(目標地点)をリアルタイムで計算する。サーバ200は、目標地点の座標をロボット100に送信し、移動判断部138は目標地点に向けてロボット100を移動させる。
ロボット100の移動方向の大枠を決めるのは行動マップであるが、本実施形態のロボット100は親密度に対応した特定行動も可能である。これについては後述する。
行動判断部140は、ロボット100の仕草(ジェスチャー)を決める。データ格納部148においては、あらかじめ複数の仕草が定義されている。具体的には、車輪102を収容して着座する仕草、手106を持ち上げる仕草、2つの車輪102を逆回転させることで、あるいは、片方の車輪102だけを回転させることでロボット100を回転行動させる仕草、車輪102を収納した状態で車輪102を回転させることで震える仕草、などが定義される。
行動判断部140は、親密度の高いユーザが近くにいるときには「抱っこ」をせがむ仕草として両方の手106をもちあげる仕草を実行することもできるし、「抱っこ」に飽きたときには車輪102を収容したまま逆回転させることで抱っこをいやがる仕草を表現することもできる。行動駆動部146は、行動判断部140からの指示にしたがって車輪102や手106を駆動することで、ロボット100にさまざまな仕草を表現させる。
認識部156は、内部センサ128から得られた外部情報を解釈する。認識部156は、視覚的な認識(視覚部)、匂いの認識(嗅覚部)、音の認識(聴覚部)、触覚的な認識(触覚部)が可能である。
認識部156は、内蔵カメラ(内部センサ128)により定期的に外界を撮像し、人やペットなどの移動物体であるユーザを検出する。これらの特徴はサーバ200に送信され、サーバ200の人物認識部214は移動物体の身体的特徴を抽出する。また、ユーザの匂いやユーザの声も検出する。匂いや音(声)は既知の方法にて複数種類に分類される。また、内蔵の温度センサにより、触られたときの温度も検出できる。
認識部156は、内蔵カメラ(内部センサ128)により定期的に外界を撮像し、人やペットなどの移動物体であるユーザを検出する。これらの特徴はサーバ200に送信され、サーバ200の人物認識部214は移動物体の身体的特徴を抽出する。また、ユーザの匂いやユーザの声も検出する。匂いや音(声)は既知の方法にて複数種類に分類される。また、内蔵の温度センサにより、触られたときの温度も検出できる。
ロボット100に対する強い衝撃が与えられたとき、認識部156は内蔵の加速度センサによりこれを認識し、サーバ200の人物認識部214は、近隣にいるユーザによって「乱暴行為」が働かれたと認識する。ユーザがツノ112を掴んでロボット100を持ち上げるときにも、乱暴行為と認識してもよい。ロボット100に正対した状態にあるユーザが特定音量領域および特定周波数帯域にて発声したとき、サーバ200の人物認識部214は、自らに対する「声掛け行為」がなされたと認識してもよい。また、体温程度の温度を検知したときにはユーザによる「接触行為」がなされたと認識し、接触認識した状態で上方への加速度を検知したときには「抱っこ」がなされたと認識する。ユーザがボディ104を持ち上げるときの物理的接触をセンシングしてもよいし、車輪102にかかる荷重が低下することにより抱っこを認識してもよい。
このように、サーバ200の人物認識部214は、ロボット100に対するユーザの各種応対を認識する。これらの各種応対行為のうち一部の典型的な応対行為には、快または不快が対応づけられる。検出・分析・判定を含む一連の認識処理は、サーバ200の認識部212だけで行ってもよいし、ロボット100の認識部156だけで行ってもよいし、双方が役割分担をしながら上記認識処理を実行してもよい。
認識部156により認識された応対に応じて、サーバ200の親密度管理部220はユーザに対する親密度を変化させる。原則的には、快行為を行ったユーザに対する親密度は高まり、不快行為を行ったユーザに対する親密度は低下する。
認識部156により認識された応対に応じて、サーバ200の親密度管理部220はユーザに対する親密度を変化させる。原則的には、快行為を行ったユーザに対する親密度は高まり、不快行為を行ったユーザに対する親密度は低下する。
サーバ200の認識部212は、応対に応じて快・不快を判定し、マップ管理部210は「場所に対する愛着」を表現する行動マップにおいて、快・不快行為がなされた地点のz値を変化させてもよい。たとえば、リビングにおいて快行為がなされたとき、マップ管理部210はリビングに好意地点を高い確率で設定してもよい。この場合、ロボット100はリビングを好み、リビングで快好意を受けることで、ますますリビングを好む、というポジティブ・フィードバック効果が実現する。
サーバ200のルート作成部222は、知らない人、すなわち、親密度の低い移動物体を検出した場合(以下、「退避イベント」とよぶ)を想定した移動ルート(以下、「退避ルート」とよぶ)を現在のロボット100の位置を起点として随時作成する。退避ルートを決めるためには、少なくとも(1)最終的な移動位置(以下、「移動終了位置」とよぶ)の選定、および(2)移動を開始する位置(以下、「移動開始位置」とよぶ)が必要になる。ロボット100が知らない人を検出した後に、移動終了位置を探し、移動開始位置から移動終了位置までのルートを作成して、実際の行動に移ると、行動までの時間が長くなってしまう。このため、本来は即時行動であるべき退避行動が不自然になってしまう。
ルート作成部222は、ロボット100の現在位置に応じた退避ルートを、退避イベントが発生していなくても随時作成する。退避イベントが発生した場合に、ロボット100は、ルート作成部222が予め作成している退避ルートに基づいて、即座に退避行動をとることができる。移動開始位置はロボット100の現在位置であればよい。移動終了位置は、ロボット100から所定距離だけ離れた任意の位置でもよいし、親密度が所定値以上のユーザの近辺に設定されてもよい。
ルート作成部222の機能は、サーバ200ではなくロボット100に搭載されてもよい。
ルート作成部222の機能は、サーバ200ではなくロボット100に搭載されてもよい。
マップ管理部210は、隠れることができる家具の位置や安全な場所などロボット100が存在する空間に存在する安全な場所を記録したマップ(以下、「静的マップ」とよぶ)を作成しマップ格納部216に蓄積する。また、マップ管理部210はロボット100が存在する空間(通常は、同一家屋内)にいる親密度の高い人の位置を記録したマップ(以下、「動的マップ」とよぶ)を作成しマップ格納部216に蓄積する。ルート作成部222は、動的マップを静的マップより優先利用してもよい。これにより、退避イベントが発生した際に、ロボット100は、物陰より人の後ろに回り込むという退避行動を優先してとることができる。
ルート作成部222は、マップ格納部216に保存されている静的マップおよび動的マップを参照し、現在のロボット100の位置から最も近い地点を移動終了位置とする。そして、ルート作成部222は移動開始位置から移動終了位置までの退避ルートを随時作成する。ルート作成部222はロボット100が移動する度に、退避ルートを作成してもよいし、定期的に退避ルートを作成してもよい。
[人見知り機能]
図6は、個人データ格納部218の親密度に関するデータ構造を示す図である。
サーバ200の人物認識部214は、外部センサ114または内部センサ128から得られた各種データから移動物体を検出し、その特徴(身体的特徴と行動的特徴)を抽出する。そして、これらの特徴に基づいて複数の移動物体をクラスタ分析する。移動物体としては、人間だけでなく、犬や猫などのペットが分析対象となることがある。
図6は、個人データ格納部218の親密度に関するデータ構造を示す図である。
サーバ200の人物認識部214は、外部センサ114または内部センサ128から得られた各種データから移動物体を検出し、その特徴(身体的特徴と行動的特徴)を抽出する。そして、これらの特徴に基づいて複数の移動物体をクラスタ分析する。移動物体としては、人間だけでなく、犬や猫などのペットが分析対象となることがある。
たとえば、ロボット100は、定期的に画像撮影を行い、人物認識部214はそれらの画像から移動物体を認識し、移動物体の特徴を抽出する。移動物体を検出したときには、ニオイセンサや内蔵の集音マイク、温度センサ等からも身体的特徴や行動的特徴が抽出される。たとえば、画像に移動物体が写っているとき、ひげが生えている、早朝活動している、赤い服を着ている、香水の匂いがする、声が大きい、メガネをかけている、スカートを履いている、白髪である、背が高い、太っている、日焼けしている、ソファにいる、といったさまざまな特徴が抽出される。
ひげが生えている移動物体(ユーザ)は早朝に活動すること(早起き)が多く、赤い服を着ることが少ないのであれば、早起きでひげが生えていて赤い服をあまり着ないクラスタ(ユーザ)、という第1のプロファイルができる。一方、メガネをかけている移動物体はスカートを履いていることが多いが、この移動物体にはひげが生えていない場合、メガネをかけていてスカートを履いているが絶対ひげは生えていないクラスタ(ユーザ)、という第2のプロファイルができる。
以上は、簡単な設例であるが、上述の方法により、父親に対応する第1のプロファイルと母親に対応する第2のプロファイルが形成され、この家には少なくとも2人のユーザ(オーナー)がいることをロボット100は認識する。
以上は、簡単な設例であるが、上述の方法により、父親に対応する第1のプロファイルと母親に対応する第2のプロファイルが形成され、この家には少なくとも2人のユーザ(オーナー)がいることをロボット100は認識する。
ただし、ロボット100は第1のプロファイルが「父親」であると認識する必要はない。あくまでも、「ひげが生えていて早起きすることが多く、赤い服を着ることはめったにないクラスタ」という人物像を認識できればよい。
図6では、上述の方法により、パパ(01)、ママ(02)、幼児(03)、猫(04)、義母(05)、ママの友だち(06)、幼児(07)のように複数のユーザのクラスタリングが行われている。図6では01〜07のようにクラスタ(ユーザ)にラベルが付与されている。
このようなクラスタ分析が完了している状態において、ロボット100が新たに移動物体(ユーザ)を認識したとする。
このとき、サーバ200の人物認識部214は、ロボット100から得られる画像等のセンシング情報から特徴抽出を行い、ロボット100の近くにいる移動物体がどのクラスタに該当するかを判断する。たとえば、ひげが生えている移動物体を検出したとき、この移動物体はパパ(01)である確率が高い。この移動物体が早朝行動していれば、パパ(01)に該当することはいっそう確実である。一方、メガネをかけている移動物体を検出したときには、この移動物体はママ(02)である可能性もある。この移動物体にひげが生えていれば、ママ(02)ではなくパパ(01)でもないので、クラスタ分析されていない新しい人物であると判定する。
特徴抽出によるクラスタの形成(クラスタ分析)と、特徴抽出にともなうクラスタへの当てはめは同時並行的に実行されてもよい。
移動物体(ユーザ)からどのような行為をされるかによってそのユーザに対する親密度が変化する。
このとき、サーバ200の人物認識部214は、ロボット100から得られる画像等のセンシング情報から特徴抽出を行い、ロボット100の近くにいる移動物体がどのクラスタに該当するかを判断する。たとえば、ひげが生えている移動物体を検出したとき、この移動物体はパパ(01)である確率が高い。この移動物体が早朝行動していれば、パパ(01)に該当することはいっそう確実である。一方、メガネをかけている移動物体を検出したときには、この移動物体はママ(02)である可能性もある。この移動物体にひげが生えていれば、ママ(02)ではなくパパ(01)でもないので、クラスタ分析されていない新しい人物であると判定する。
特徴抽出によるクラスタの形成(クラスタ分析)と、特徴抽出にともなうクラスタへの当てはめは同時並行的に実行されてもよい。
移動物体(ユーザ)からどのような行為をされるかによってそのユーザに対する親密度が変化する。
親密度管理部220は、クラスタリングされた各ユーザに対する親密度を増減させる。親密度は、主として(1)検出(視認)、(2)物理的接触、(3)声掛け、により変化する。
親密度は、もっとも親密度が低い、つまり警戒対象とする−100から最も親密度が高い、つまり安全な+100の範囲で変化するものとして説明する。親密度に応じてロボット100の移動物体に対する行動が変化するがこれについては後述する。まず、親密度の変化方法について説明する。
親密度は、もっとも親密度が低い、つまり警戒対象とする−100から最も親密度が高い、つまり安全な+100の範囲で変化するものとして説明する。親密度に応じてロボット100の移動物体に対する行動が変化するがこれについては後述する。まず、親密度の変化方法について説明する。
(1)検出
ロボット100の撮影画像に幼児(03)が検出された場合、幼児(03)はロボット100に「視認」される。より具体的には、撮影画像から得られる特徴情報と撮影時にニオイセンサ等から得られる他の特徴情報に基づいて、検出した移動物体の特徴が幼児(03)のクラスタ(プロファイル)に一致すると判定したとき、視認判定となる。視認判定がなされると、親密度管理部220は幼児(03)の親密度をアップさせる。検出頻度が高いユーザほど親密度が高くなりやすい。
このような制御方法により、よく出会う人について親近感をいだきやすい、という生物的行動をエミュレートする。
単なる検出に限らず、「目が合う」ときに親密度が高くなるとしてもよい。ロボット100の認識部156は、正対するユーザの顔画像を認識し、その顔画像から視線方向を認識し、視線方向が自らに向けられている時間が所定時間以上であるとき、「目が合った」と認識してもよい。
ロボット100の撮影画像に幼児(03)が検出された場合、幼児(03)はロボット100に「視認」される。より具体的には、撮影画像から得られる特徴情報と撮影時にニオイセンサ等から得られる他の特徴情報に基づいて、検出した移動物体の特徴が幼児(03)のクラスタ(プロファイル)に一致すると判定したとき、視認判定となる。視認判定がなされると、親密度管理部220は幼児(03)の親密度をアップさせる。検出頻度が高いユーザほど親密度が高くなりやすい。
このような制御方法により、よく出会う人について親近感をいだきやすい、という生物的行動をエミュレートする。
単なる検出に限らず、「目が合う」ときに親密度が高くなるとしてもよい。ロボット100の認識部156は、正対するユーザの顔画像を認識し、その顔画像から視線方向を認識し、視線方向が自らに向けられている時間が所定時間以上であるとき、「目が合った」と認識してもよい。
(2)物理的接触
ロボット100がユーザを視認し、かつ、ユーザからのタッチ(物理的接触)を検出したときには、ユーザからロボット100に対する興味を示されたと判定し、親密度はアップする。たとえば、ママ(02)に触られたとき、親密度管理部220はママ(02)の親密度をアップさせる。ロボット100は、圧電ファブリックによって外殻を覆うことにより、自らに対するタッチを検出してもよい。温度センサにより、ユーザの体温を検知することでタッチを検出してもよい。ロボット100が抱っこを検出したときには、ロボット100に対する強い親愛が示されたとして、親密度を大きくアップさせてもよい。
一方、蹴られる、叩かれる、ツノ112を掴まれるなどの乱暴行為を検出したときには、親密度管理部220は親密度をダウンさせる。たとえば、幼児(03)に放り投げられたときには、親密度管理部220は幼児(03)に対する親密度を大幅に低下させる。
このような制御方法により、ソフトにタッチしてくれる人には親近感を抱きやすいが乱暴な人は嫌う、という生物的行動をエミュレートする。
ロボット100がユーザを視認し、かつ、ユーザからのタッチ(物理的接触)を検出したときには、ユーザからロボット100に対する興味を示されたと判定し、親密度はアップする。たとえば、ママ(02)に触られたとき、親密度管理部220はママ(02)の親密度をアップさせる。ロボット100は、圧電ファブリックによって外殻を覆うことにより、自らに対するタッチを検出してもよい。温度センサにより、ユーザの体温を検知することでタッチを検出してもよい。ロボット100が抱っこを検出したときには、ロボット100に対する強い親愛が示されたとして、親密度を大きくアップさせてもよい。
一方、蹴られる、叩かれる、ツノ112を掴まれるなどの乱暴行為を検出したときには、親密度管理部220は親密度をダウンさせる。たとえば、幼児(03)に放り投げられたときには、親密度管理部220は幼児(03)に対する親密度を大幅に低下させる。
このような制御方法により、ソフトにタッチしてくれる人には親近感を抱きやすいが乱暴な人は嫌う、という生物的行動をエミュレートする。
(3)声掛け
ロボット100は、自らに向けられた声を検出したときにも親密度を変化させる。たとえば、自分の名前や親愛用語を所定の音量範囲にて検出したとき、親愛度はアップする。親愛用語として「かわいい」「おもしろい」「おいで」のようにあらかじめ典型的な用語パターンを登録しておき、音声認識により親愛用語か否かを判定してもよい。一方、通常の音量範囲を超えた大音量で声を掛けられたときには親密度をダウンさせてもよい。たとえば、大声で叱られたとき、びっくりさせられたときには親愛度は低下する。
また、嫌悪用語をかけられたときには、親愛度を低下させてもよい。嫌悪用語として、「こら」「くるな」「あっちへいけ」「ばか」のようにあらかじめ典型的な用語パターンを登録しておき、音声認識によって嫌悪用語か否かを判定してもよい。
ロボット100は、自らに向けられた声を検出したときにも親密度を変化させる。たとえば、自分の名前や親愛用語を所定の音量範囲にて検出したとき、親愛度はアップする。親愛用語として「かわいい」「おもしろい」「おいで」のようにあらかじめ典型的な用語パターンを登録しておき、音声認識により親愛用語か否かを判定してもよい。一方、通常の音量範囲を超えた大音量で声を掛けられたときには親密度をダウンさせてもよい。たとえば、大声で叱られたとき、びっくりさせられたときには親愛度は低下する。
また、嫌悪用語をかけられたときには、親愛度を低下させてもよい。嫌悪用語として、「こら」「くるな」「あっちへいけ」「ばか」のようにあらかじめ典型的な用語パターンを登録しておき、音声認識によって嫌悪用語か否かを判定してもよい。
ロボット100の名前は、あらかじめユーザにより登録されてもよい。あるいは、ロボット100は、自らに掛けられるさまざまな用語のうち、特に頻繁に掛けられる用語を自分の名前だと認識してもよい。この場合には、「おい」「おいで」のように一般的に頻出しやすい用語については名前認識の候補から除外してもよい。
以上の制御方法によれば、ロボット100は、よく出会う人、よく触ってくる人、よく声をかけてくれる人に対して高い親密度を設定する。一方、めったに見ない人、あまり触ってこない人、乱暴な人、大声で叱る人に対する親密度は低くなる。ロボット100はセンサ(視覚、触覚、聴覚)によって検出するさまざまな外界情報にもとづいて、ユーザごとの親密度を変化させる。
親密度管理部220は、親密度を時間とともに低下させる。たとえば、親密度管理部220は、10分ごとに全ユーザの親密度を1ずつ低下させてもよい。ユーザはロボット100と関わり続けなければ、いいかえれば、ロボット100をかわいがり続けなければ、ロボット100と親密な関係を維持できなくなる。
親密度の変化率は一定である必要はない。シグモイド関数などの任意の関数に基づいて、増減しやすい領域(高感度領域)と変化しにくい領域(低感度領域)を設定してもよい。たとえば、親密度が0から50までは比較的上昇しやすいが、50から80までは上昇しにくいが下降しやすく、80以上になると上昇もしにくいが下降もしにくい、といった設定も可能である。このような設定によれば、親密度が80を超えたときに「崩れにくい強固な信頼関係」を表現できる。
親密度の上昇率と下降率は同程度である必要はない。たとえば、上昇しにくく下降しやすくなるように親密度を設定してもよい。
親密度の上昇率と下降率は同程度である必要はない。たとえば、上昇しにくく下降しやすくなるように親密度を設定してもよい。
各ユーザ(クラスタ)には、親密度に加えて「重要度」も設定される。重要度は、ユーザのうち、オーナーなど特別の重要性を示すパラメータである。本実施形態における重要度は0から1の範囲に正規化される。
重要度=1は家族(オーナー)を示し、0は他人を示す。また、他人ではないが家族ともいえないとき、たとえば、別居の義母(05)に対してはその中間値である0.5が設定される。重要度は、親密度とは別に、ロボット100が尊重すべき存在を認識するための目印となるパラメータである。重要度に応じて、ユーザは特別グループ(オーナーのグループ)と一般グループ(他人のグループ)に分類される。
重要度は、ユーザが入力設定してもよい。たとえば、「ひげが生えていて早朝に行動することが多い人」というクラスタに重要度=1をセットすれば、以後、パパ(01)は特別グループとして扱われる。親密度管理部220は、特別グループと一般グループでは異なるアルゴリズムにて親密度を変化させる。
親密度管理部220は、特別グループのユーザについては親密度の単位時間あたりの低下率を小さく設定する。また、声掛けや抱っこといった快行為を受けた時の親密度の上昇率を高く設定してもよいし、親密度が一定値以下にはならないように制御してもよい。
一方、一般グループのユーザについては親密度の単位時間あたりの低下率を大きく設定する。物理的接触などの快行為を受けた場合の親密度は上昇しにくく設定してもよいし、親密度が一定値以上にはならないように制御してもよい。このように、特別グループと一般グループにおいては、時間経過や快・不快行為にともなう親密度の変化率を異ならせてもよい。
図7では、義母(05)は他人以上、家族未満の表現として重要度が0.5に設定されている。この場合には、特別グループよりは単位時間あたりの親密度の低下率が大きいが一般グループよりは小さい、という中間的な設定がなされてもよい。
一方、一般グループのユーザについては親密度の単位時間あたりの低下率を大きく設定する。物理的接触などの快行為を受けた場合の親密度は上昇しにくく設定してもよいし、親密度が一定値以上にはならないように制御してもよい。このように、特別グループと一般グループにおいては、時間経過や快・不快行為にともなう親密度の変化率を異ならせてもよい。
図7では、義母(05)は他人以上、家族未満の表現として重要度が0.5に設定されている。この場合には、特別グループよりは単位時間あたりの親密度の低下率が大きいが一般グループよりは小さい、という中間的な設定がなされてもよい。
このような制御方法によれば、重要度が高いユーザは親密度を維持しやすくなるので、「家族の絆」を表現することができる。たとえば、出張などで留守にしがちなパパ(01)であっても親密度は下がりにくく、久しぶりにパパ(01)によって抱っこされればすぐに親密度が回復する、といった制御が可能になる。また、家族の一員である幼児(03)に乱暴されても親密度は急落しにくいが、家族の一員ではない別の幼児(07)に乱暴されたときには親密度を急落する、という制御も可能である。このように、重要度に応じて、同じ行為をされても反応が変わる、といった差別的対応を実現できる。
図6では、パパ(01)の親密度は70である。パパ(01)は、仕事や出張のため検出機会は少ないけれども、抱っこなどの快行為をよくしてくれるため高い親密度が設定されているのかもしれない。ママ(02)は家庭にいることが多いため検出されやすく、積極的な声掛けをしてくれるためその親密度は80となっているのかもしれない。幼児(03)は、パパ(01)とママ(02)の子であるが、検出機会は多く関わりも多いがときどき乱暴行為を働くのかもしれない。そのため、幼児(03)との親密度は63になっている。また、この家族は猫(04)を飼っている。猫(04)はよく遊んでくれるし乱暴行為もできないので親密度は90となっている。
以上により、猫(04)が大好きでママ(02)も好きだが、幼児(03)は少し苦手、という行動表現が可能となる。
以上により、猫(04)が大好きでママ(02)も好きだが、幼児(03)は少し苦手、という行動表現が可能となる。
一方、検出機会が少ない義母(05)の親密度は47となっている。また、めったに会わない、乱暴な近所の幼児(07)の親密度は−30となっている。ママの友だち(06)は、親切ではあっても、家族ではなく(重要度0)、めったに会わないため親密度は30に抑制されている。
以上により、義母(05)やママの友だち(06)には馴染んでいるが、たまにやってくる幼児(07)は大嫌い、という行動表現が可能となる。
以上により、義母(05)やママの友だち(06)には馴染んでいるが、たまにやってくる幼児(07)は大嫌い、という行動表現が可能となる。
このように、ユーザの重要度と、ロボット100とユーザの関わりによって、ロボット100の親密度はリアルタイムで変化する。家族を大事にしつつ、自分としっかり関わってくれる人を好むという生物的な親愛感情を表現できる。いいかえれば、乱暴な人やよく知らない人は苦手という「人見知り」を行動表現できる。
図7は、ロボット100の親密度に応じた行動パターンを示すフローチャートである。
上述したように、実際のロボット100は行動マップにしたがって自律的に複雑な行動選択を行う。ロボット100は、寂しさ、退屈さ、好奇心などさまざまなパラメータに基づいて複数の行動マップに影響されながら行動する。図7は、ユーザに対する親密度にともなうロボット100の行動選択を模式的に示すものである。ロボット100は、行動マップの影響を除外すれば、あるいは、行動マップの影響が小さい内部状態にあるときには、原則的には、親密度の高い人に近づこうとし、親密度の低い人からは離れようとする。
以下においては閾値T1<T2<T3であるとして説明する。また、クラスタ分析は十分に実行されており、複数のユーザ(クラスタ)が特定されているものとして説明する。
上述したように、実際のロボット100は行動マップにしたがって自律的に複雑な行動選択を行う。ロボット100は、寂しさ、退屈さ、好奇心などさまざまなパラメータに基づいて複数の行動マップに影響されながら行動する。図7は、ユーザに対する親密度にともなうロボット100の行動選択を模式的に示すものである。ロボット100は、行動マップの影響を除外すれば、あるいは、行動マップの影響が小さい内部状態にあるときには、原則的には、親密度の高い人に近づこうとし、親密度の低い人からは離れようとする。
以下においては閾値T1<T2<T3であるとして説明する。また、クラスタ分析は十分に実行されており、複数のユーザ(クラスタ)が特定されているものとして説明する。
まず、ロボット100の認識部156は、内部センサ128等によりユーザを認識し、人物認識部214はそのユーザがどのクラスタに該当するかを判定する(S10)。このユーザの親密度が閾値T2(中間閾値)以上のときには(S12のY)、移動判断部138はユーザに近づく方向を移動方向として設定し、移動駆動部144は近接行動を実行する(S14)。
更に、ユーザの親密度が閾値T3(上方閾値)以上のときには(S16のY)、行動判断部140は行動駆動部146に指示して愛情仕草を実行させる(S18)。愛情仕草とは、あらかじめ定められた人に好意を示す仕草である。たとえば、着座状態となり、両方の手106を持ち上げて抱っこをせがむ仕草を実行してもよい。また、ユーザのまわりで回転行動してもよいし、ピーピーといった特有の「鳴き声」を内蔵スピーカーから発生させてもよい。あるいは、積極的にユーザに軽く衝突して、ユーザの関心を自分に向けさせようとしてもよい。
閾値がT3未満のときには(S16のN)、愛情仕草は実行されない。
閾値がT3未満のときには(S16のN)、愛情仕草は実行されない。
一方、親密度が閾値T2(中間域値)よりも小さく(S12のN)、しかも、親密度が閾値T1(下方閾値)よりも小さいときには(S20のY)、移動判断部138はユーザから離れる方向を移動方向として設定し、移動駆動部144が離脱行動を実行する。
このクラスタの親密度が閾値T2(中間域値)よりも小さいが(S12のN)、閾値T1(下方閾値)以上のときには(S20のN)、離脱行動は実行されない。
まとめると、ロボット100の行動は親密度に応じて以下に類型化される。
(1)親密度が非常に高いクラスタ(親密度が閾値T3以上)
ロボット100は、近接行動を行い、かつ、愛情仕草を行うことで親愛の情を強く表現する。
(2)親密度が比較的高いクラスタ(親密度が閾値T2以上でT3未満)
ロボット100は、近接行動のみを行う。
(3)親密度が比較的低いクラスタ(親密度が閾値T1以上で閾値T2未満)
ロボット100は特段のアクションを行わない。
(4)親密度が特に低いクラスタ(親密度が閾値T1未満)
ロボット100は、離脱行動を行う。
(1)親密度が非常に高いクラスタ(親密度が閾値T3以上)
ロボット100は、近接行動を行い、かつ、愛情仕草を行うことで親愛の情を強く表現する。
(2)親密度が比較的高いクラスタ(親密度が閾値T2以上でT3未満)
ロボット100は、近接行動のみを行う。
(3)親密度が比較的低いクラスタ(親密度が閾値T1以上で閾値T2未満)
ロボット100は特段のアクションを行わない。
(4)親密度が特に低いクラスタ(親密度が閾値T1未満)
ロボット100は、離脱行動を行う。
以上の制御方法によれば、ロボット100は、親密度が高いユーザを見つけるとそのユーザに近寄り、逆に親密度が低いユーザを見つけるとそのユーザから離れる。このような制御方法により、いわゆる「人見知り」を行動表現できる。また、来客(親密度が低いユーザA)が現れたとき、ロボット100は、来客から離れて家族(親密度が高いユーザB)の方に向かうこともある。この場合、ユーザBはロボット100が人見知りをして不安を感じていること、自分を頼っていること、を感じ取ることができる。このような行動表現により、ユーザBは、選ばれ、頼られることの喜び、それにともなう愛着の情を喚起される。
一方、来客であるユーザAが頻繁に訪れ、声を掛け、タッチをするとロボット100のユーザAに対する親密度は徐々に上昇し、ロボット100はユーザAに対して人見知り行動(離脱行動)をしなくなる。ユーザAも自分にロボット100が馴染んできてくれたことを感じ取ることで、ロボット100に対する愛着を抱くことができる。
なお、以上の行動選択は、常に実行されるとは限らない。たとえば、ロボット100の好奇心を示す内部パラメータが高くなっているときには、好奇心を満たす場所を求める行動マップが重視されるため、ロボット100は親密度に影響された行動を選択しない可能性もある。また、玄関に設置されている外部センサ114がユーザの帰宅を検知した場合には、ユーザのお出迎え行動を最優先で実行するかもしれない。
以上、実施形態に基づいてロボット100およびロボット100を含むロボットシステム300について説明した。
1以上の行動マップによりパターン化できず予測しづらい、かつ、生物的な行動選択を表現している。このような方法により生物的な行動選択をエミュレートする。
ペットに対する愛着は、ペットに必要とされている、頼られているという感覚に起因することが多い。ペットが自分になつくことや、自分以外の存在に対して人見知りをすることは、ユーザのペットに対する愛着を喚起しやすい。人間がペットに対して愛着を感じる起因となりやすい人見知りをロボット100でも実現することにより、ユーザのロボット100に対する愛着を強めることができる。
1以上の行動マップによりパターン化できず予測しづらい、かつ、生物的な行動選択を表現している。このような方法により生物的な行動選択をエミュレートする。
ペットに対する愛着は、ペットに必要とされている、頼られているという感覚に起因することが多い。ペットが自分になつくことや、自分以外の存在に対して人見知りをすることは、ユーザのペットに対する愛着を喚起しやすい。人間がペットに対して愛着を感じる起因となりやすい人見知りをロボット100でも実現することにより、ユーザのロボット100に対する愛着を強めることができる。
なお、本発明は上記実施形態や変形例に限定されるものではなく、要旨を逸脱しない範囲で構成要素を変形して具体化することができる。上記実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることにより種々の発明を形成してもよい。また、上記実施形態や変形例に示される全構成要素からいくつかの構成要素を削除してもよい。
1つのロボット100と1つのサーバ200、複数の外部センサ114によりロボットシステム300が構成されるとして説明したが、ロボット100の機能の一部はサーバ200により実現されてもよいし、サーバ200の機能の一部または全部がロボット100に割り当てられてもよい。1つのサーバ200が複数のロボット100をコントロールしてもよいし、複数のサーバ200が協働して1以上のロボット100をコントロールしてもよい。
ロボット100やサーバ200以外の第3の装置が、機能の一部を担ってもよい。図5において説明したロボット100の各機能とサーバ200の各機能の集合体は大局的には1つの「情報処理装置」として把握することも可能である。1つまたは複数のハードウェアに対して、本発明を実現するために必要な複数の機能をどのように配分するかは、各ハードウェアの処理能力やロボットシステム300に求められる仕様等に鑑みて決定されればよい。
ロボット100やサーバ200以外の第3の装置が、機能の一部を担ってもよい。図5において説明したロボット100の各機能とサーバ200の各機能の集合体は大局的には1つの「情報処理装置」として把握することも可能である。1つまたは複数のハードウェアに対して、本発明を実現するために必要な複数の機能をどのように配分するかは、各ハードウェアの処理能力やロボットシステム300に求められる仕様等に鑑みて決定されればよい。
本実施形態においては、主として、ロボット100の認識部156が内部センサ128を介して、ユーザを検出するとして説明したが、外部センサ114を介して、サーバ200の認識部212がユーザの存在を検出してもよい。外部センサ114も、ニオイセンサや集音マイクを内蔵してもよい。特に、音や匂いについては、内部センサ128の検出精度が不十分であるときでも、外部センサ114との併用により検出精度を向上させることができる。また、ユーザを撮影するときでも、内部センサ128としての内蔵カメラだけでなく外部センサ114に内蔵されるカメラで同じユーザを別角度から撮影すれば、より特徴抽出しやすくなる。
本実施形態においては、ロボット100はさまざまなユーザを撮影し、撮影時に匂いや音声、体温などの他のデータも取得し、これらのデータから特徴抽出を行い、クラスタ分析を行うことで複数のユーザを識別(クラスタリング)するとして説明した。
変形例として、ユーザはあらかじめ各ユーザの身体的特徴や行動的特徴をサーバ200にセットしてもよい。たとえば、パパ(01)の特徴として、ひげが生えていること、早起きであること、身長が170センチメートルであること、喫煙者であること、などの情報をサーバ200の個人データ格納部218に教師データとして与えてもよい。サーバ200は、これらの特徴情報に基づいて、ディープラーニング等の既知の手法によりユーザ検出を行ってもよい。
変形例として、ユーザはあらかじめ各ユーザの身体的特徴や行動的特徴をサーバ200にセットしてもよい。たとえば、パパ(01)の特徴として、ひげが生えていること、早起きであること、身長が170センチメートルであること、喫煙者であること、などの情報をサーバ200の個人データ格納部218に教師データとして与えてもよい。サーバ200は、これらの特徴情報に基づいて、ディープラーニング等の既知の手法によりユーザ検出を行ってもよい。
より簡易なユーザ認識手段として、ロボット100は、ユーザの保有するスマートフォンなどの携帯機器から定期的にユーザIDを受信することでユーザを識別してもよい。ペットについても、首輪にRFID(Radio Frequency Identifier)タグをつけることで簡易な識別が可能である。このような制御方法によれば、ロボット100やサーバ200の処理負担を大幅に軽減できる。
ロボット100が探索信号を送信し、各外部センサ114から返答信号を受信することで、ロボット100が自らの位置座標を特定してもよい。あるいは、外部センサ114が指向性のある探索信号を送信し、それによって、外部センサ114からロボット100までの距離と方向を特定してもよい。
複数のロボット100がお互いに情報交換をしてもよい。第1のロボット100のユーザAに対する親密度が高くなると、第1のロボット100は第2のロボット100に対してユーザAに対する親密度(好印象)を通知してもよい。その後、第2のロボット100は、初対面であってもユーザAに対する親密度をあらかじめ高く初期設定してもよい。
このような制御方法によれば、第1のロボット100に好かれているユーザAは、初対面であっても第2のロボット100に好かれるので、「ロボット100に好かれるタイプ」という感覚をもつことができる。
このような制御方法によれば、第1のロボット100に好かれているユーザAは、初対面であっても第2のロボット100に好かれるので、「ロボット100に好かれるタイプ」という感覚をもつことができる。
第1のロボット100のユーザBに対する親密度が低くなるときにも、第1のロボット100が第2のロボット100に対してユーザBに対する親密度(悪印象)を通知してもよい。その後、第2のロボット100は、初対面であってもユーザBに対する親密度をあらかじめ低く設定してもよい。
このような制御方法によれば、第1のロボット100に嫌われているユーザBは、初対面であっても第2のロボット100に嫌われるので、ロボット100をいじめるユーザは別のロボット100にも嫌われることになる。したがって、ユーザに対する評判が複数のロボット100の間で伝染するような制御も実現できる。
このような制御方法によれば、第1のロボット100に嫌われているユーザBは、初対面であっても第2のロボット100に嫌われるので、ロボット100をいじめるユーザは別のロボット100にも嫌われることになる。したがって、ユーザに対する評判が複数のロボット100の間で伝染するような制御も実現できる。
認識部212は、親密度に基づいて、「好きなタイプ」と「嫌いなタイプ」という分類をしてもよい。たとえば、ロボット100のパパ(01)に対する親密度が急低下したとする。パパ(01)にはひげが生えている、声が大きい、タバコの臭いがする、といった特徴があるとする。この場合、ロボット100は、初対面のユーザからタバコの臭いを検知したときには、そのユーザに対する親密度の初期値を通常よりも低く設定することで「タバコ」に対する偏見を表現できる。同様に、ロボット100はひげの生えている人についても親密度の初期値を低く設定してもよい。すなわち、パパ(01)が嫌いだから、パパ(01)を特徴付けるひげも嫌いであり、ひげが嫌いだからひげの生えている別人も嫌い、という連想的な行動選択が実現される。
逆に、喫煙者であるパパ(01)に対して親密度が非常に高い場合を想定する。この場合、ロボット100は、初対面のユーザからタバコの臭いを検出したときには、そのユーザに対する親密度の初期値を通常よりも高く設定してもよい。すなわち、パパ(01)が好きだから、パパ(01)を特徴付けるタバコの臭いも好きであり、タバコの臭いが好きだから喫煙者が好き、という連想的な行動選択が実現される。
更に、ロボット100は、親密なユーザの匂いを記憶し、その匂いを求める行動をしてもよい。たとえば、パパ(01)に対する親密度が高いときには、ロボット100はパパ(01)と同じような匂いのする場所に魅力を感じるように匂いに基づく行動マップを設定してもよい。親密度管理部220は、ユーザの親密度だけでなく、ユーザの親密度に基づいてニオイカテゴリについても親密度を設定してもよい。たとえば、ユーザ1の匂いがニオイカテゴリ1に属するとき、ニオイカテゴリ1にユーザ1と同等の親密度を設定してもよい。また、ニオイセンサを内蔵する外部センサ114により、サーバ200は屋内各部の匂いをマッピングしてもよい。そして、ニオイカテゴリ1と同様の匂いのする地点を快感地点とする行動マップを設定することで、ロボット100の行動選択に影響を与えてもよい。たとえば、親密度が高いパパ(01)にしばらく会っていないときには、匂いの行動マップを重視することにより、パパ(01)と同じ匂いのする快感地点に惹かれるような行動が実現される。
同様にして、親密度の低いユーザの匂いと同じニオイカテゴリの地点を不快地点としてもよい。たとえば、大嫌いな近所の幼児(07)が帰った後も、その幼児(07)と同じ匂いのする不快地点を嫌う、という行動を実行してもよい。
親密度に基づく行動の選択基準となる閾値T1〜T3は固定値であってもよいし、可変値であってもよい。たとえば、これらの閾値をランダムに変化させることで、ロボット100の気まぐれな行動パターンを表現できる。退屈なとき、たとえば、留守番をしていてユーザの非検出期間が一定時間以上となったときには、閾値T1〜T3を全体的に低下させてもよい。この場合には、親密度がそれほど高くないユーザに対してでも近接行動や愛情仕草が実行されるため、ロボット100の「寂しさ」を行動表現できる。同様にして、部屋が暗いときや、静かなときに閾値を低下させてもよいし、多くの快行為により満足度が高まっているときには閾値を上昇させてもよい。
重要度は、0〜1の範囲でユーザが自由に設定してもよいし、自動的に設定されてもよい。検出頻度が高いユーザ、たとえば、所定期間における検出回数が所定回数以上のユーザは家族の可能性が高いとして重要度を1に設定してもよい。同様に、検出頻度が低いユーザは家族ではないとして重要度を0に設定してもよい。検出頻度に応じて、重要度は0〜1の間で調整されてもよい。
また、早朝時間帯(たとえば、午前6:00から8:00)や夜間時間帯(たとえば、午後8:00から10:00)など、家族しか存在しない可能性が高い所定時間帯において、高頻度で認識されるユーザを家族と判定してもよい。そして、親密度管理部220は、このような時間帯において検出頻度が高いユーザに対して重要度を高く設定してもよい。検出頻度を0から1の間で正規化することにより重要度を決定してもよい。
ロボット100に最初に電源投入をしてから所定時間以内に検出されたユーザを家族と認識してもよい。親密度管理部220は、ロボット100に最初の電源投入をしてから10分以内に検出されたユーザについて重要度を1に設定してもよい。このような制御方法によれば、いわゆる刷り込み(imprinting)と同様の効果を実現できる。
重要度は、固定値でもよいし、可変値でもよい。重要度を変動しにくい長期型のパラメータとし、親密度を変動しやすい短期型のパラメータとしてもよい。重要度は、ユーザが長期間検出されないときに少しずつ低下し、頻繁に検出されると少しずつ上がっていくとしてもよい。そして、この2つのパラメータの組み合わせ、たとえば、加算や乗算により総合親密度を定義してもよい。重要度が所定の閾値以上のときには親密度は上がりやすく下がりにくいアルゴリズムを適用し、重要度が閾値未満のときには親密度は下がりやすく上がりにくいアルゴリズムを適用してもよい。
このような制御方法によれば、家族であれば、たとえ一時的に疎遠になっても、あるいは、乱暴行為を受けたときでも、ロボット100とユーザの絆を維持しやすくなる。重要度が高いため総合親密度が下がりにくいためである。しかし、それでも長期間疎遠になると親密度だけでなく重要度も低下し、総合親密度が低下し、やがて絆も薄れていく。
一方、家族でないユーザにはロボット100はなかなかなつかない。重要度が低いため総合親密度が上がりにくいためである。しかし、それでも長期間関わることで親密度や重要度も徐々に上昇し、総合親密度が高くなり、やがて絆を結ぶことができる。重要度が高くなれば親密度も上昇しやすくなるので、「最初はなかなかなつかなかったけれども急に仲良くなってきた」という状態を実現できる。
非常に強い絆が結ばれ、絶対忠誠状態に入ると、ユーザが死亡した場合やいなくなってしまった場合でも、ロボット100はそのユーザの特徴情報、たとえば、匂いを求め、いなくなったユーザと共通の身体的特徴を有する別のユーザを求めるといった代償行為的な行動表現も可能である。
一方、家族でないユーザにはロボット100はなかなかなつかない。重要度が低いため総合親密度が上がりにくいためである。しかし、それでも長期間関わることで親密度や重要度も徐々に上昇し、総合親密度が高くなり、やがて絆を結ぶことができる。重要度が高くなれば親密度も上昇しやすくなるので、「最初はなかなかなつかなかったけれども急に仲良くなってきた」という状態を実現できる。
非常に強い絆が結ばれ、絶対忠誠状態に入ると、ユーザが死亡した場合やいなくなってしまった場合でも、ロボット100はそのユーザの特徴情報、たとえば、匂いを求め、いなくなったユーザと共通の身体的特徴を有する別のユーザを求めるといった代償行為的な行動表現も可能である。
親密な家族が久しぶりに現れたときには、近接行動のあと、あらゆる愛情仕草を実行することで「大歓迎」を表現してもよい。
ユーザの非検出が続くと、親密度は少しずつ低下する。この場合、最初の1週間では親密度は少ししか低下しないが、1週間を過ぎると親密度は急速に低下するとしてもよい。このような制御方法によれば、「1週間の記憶力」という下等動物に特徴的な記憶力の弱さを表現できる。コンピュータはいつまでも記憶を維持できるところに特徴がある。記憶力の悪さを表現することにより、ロボット100に生物の特徴を取り込むことができる。
重要度に応じて親密度の初期値を異ならせてもよい。
同じ快行為でもその効果を親密度に応じて異ならせてもよい。たとえば、親密度の高いユーザに抱っこされると親密度は更に上昇するが、親密度の低いユーザに無理矢理抱っこされると親密度はかえって低下するとしてもよい。親密度の低いユーザは自分をしっかり認知させ、声を掛け、ボディタッチをしながら徐々に親密度を高めた上で、ロボット100を抱っこすることで親密度を少しずつ高める必要がある。このような制御方法によれば、野生動物の飼育に似た関わりを実現できる。
同じ快行為でもその効果を親密度に応じて異ならせてもよい。たとえば、親密度の高いユーザに抱っこされると親密度は更に上昇するが、親密度の低いユーザに無理矢理抱っこされると親密度はかえって低下するとしてもよい。親密度の低いユーザは自分をしっかり認知させ、声を掛け、ボディタッチをしながら徐々に親密度を高めた上で、ロボット100を抱っこすることで親密度を少しずつ高める必要がある。このような制御方法によれば、野生動物の飼育に似た関わりを実現できる。
本実施形態においては、人に好意を示す愛情仕草について説明したが、人に対する警戒心を示す仕草として警戒仕草が定義されてもよい。警戒仕草としては、たとえば、ユーザに背を向ける、後ずさりする、といった仕草である。ロボット100は、親密度が低いユーザに出会ったときには、警戒仕草をした上で離脱行動をしてもよい。
ロボット100の目110は、瞳画像を表示させるディスプレイであってもよい。ロボット100は、目110の瞳画像の位置や大きさを変化させる「瞳制御部」を備えてもよい。
以下、移動判断部138および行動判断部140を「動作判断部」と総称する。ロボット100は、人間やペットなどの移動物体を検出したとき、その移動物体が人見知り行動の対象となるか否かを判断する。人見知り行動の対象となるか否かの判断基準としては、移動物体に対する親密度が所定の閾値以下であること、特徴抽出した結果、既存のクラスタに分類できないこと(人物同定ができない、または、初対面であること)、などが考えられる。判定基準は、ロボット100の設計者が任意に設定可能である。
人見知り行動は、人見知り行動の対象となるユーザ(以下、「敬遠ユーザ」とよぶ)から離れる方向への移動(逃走)のように、ロボット100と敬遠ユーザのコンタクトの可能性を減少させる行動であればよい。たとえば、ロボット100が瞳画像を敬遠ユーザからそむける、いいかえれば、ロボット100が敬遠ユーザから視線を外すことにより、敬遠ユーザからロボット100へコンタクトされる可能性を減少させてもよい。同様にして、瞳画像を閉眼させる、首や体の方向を敬遠ユーザからそむける、物陰に隠れる(後述)、他のユーザに抱っこされているときには首を曲げて頭部をそのユーザの胸に押し付ける、などが考えられる。ロボット100が抱っこされているときには、敬遠ユーザに瞬間的に視線を向ける、いわゆる、チラ見をしてもよい。また、手106をバタバタと上下動させることにより、敬遠ユーザを威嚇してもよい。威嚇は、実際に威嚇として効果を発揮する必要はなく、威嚇をしているつもりの動作表現であればよい。なお、人語をしゃべるタイプのロボットであれば、敬遠ユーザが検出されたときに、発話量を減少させてもよい。
上述したように、親密度管理部220は、ユーザの視認、物理的接触、声掛けなどの相互作用を契機としてユーザに対する親密度を更新する。ロボット100の認識部156は、ロボット100の体表面に設置されるタッチセンサ、たとえば、静電容量センサによりユーザからの物理的接触を検出してもよい。
サーバ200のルート作成部222は、退避イベントが発生する前にあらかじめ退避ルートを生成する。ロボット100が退避ルートを移動することも「人見知り行動」の一種である。退避ルートの移動開始位置はロボット100の現在位置として設定され、移動終了位置(目的地)はロボット100の現在地点または敬遠ユーザの現在地点から所定距離以上離れた位置、親密度が所定の閾値以上のユーザの存在地点、あるいは、机や椅子などの所定の高さ以上の構造物の存在地点に設定される。退避イベントは、親密度が所定の閾値以下の移動物体(敬遠ユーザ)が検出されることであってもよいし、所定数以上の移動物体が所定期間以内、たとえば、1秒間以内に同時検出されることであってもよい。このような制御方法によれば、見知らぬ人や苦手な人が現れたとき、大勢の人が同時に現れたときにも、ロボット100に人見知り行動を取らせることができる。
上述したように、マップ管理部210は静的マップと動的マップの双方または一方を管理してもよい。静的マップには、「安全地点」が登録される。「安全地点」は、テーブルの下のように上方に遮蔽物がある地点や壁から所定距離以内の地点であってもよい。ロボット100の認識部156は、通常移動中に上記定義にあてはまる場所を検出したとき、サーバ200に検出信号を送信する。サーバ200のマップ管理部210は、そのときのロボット100の現在位置を「安全地点」として静的マップに登録する。「安全地点」はあらかじめ静的マップにユーザによって設定されてもよい。ロボット100は、人見知り行動の対象となるユーザ(移動物体)を検出したときには、動的マップを参照し、親密度が所定の閾値以上となるユーザの存在地点を移動目標地点として設定することにより、敬遠ユーザから距離を取る人見知り行動を実行する。また、ロボット100は、敬遠ユーザを検出したときには、静的マップを参照し、1以上の「安全地点」のうちのいずれか、たとえば、最寄りの安全地点に移動してもよい。
安全地点には、安全度が設定されてもよい。ロボット100は、安全度およびロボット100の現在地点から安全地点までの距離の双方に基づいて移動先となる安全地点を選択してもよい。安全度は、静的マップにおいてユーザが設定してもよいし、遮蔽物の数や大きさ、遮蔽物からの距離などの各種チェック項目を変数とする所定の評価関数に基づいてマップ管理部210が安全度を算出してもよい。
複数のロボット100が存在するときには、一方のロボット100が他方のロボット100に「親密度」を通知してもよい。たとえば、第1のロボット100がユーザAについての十分な情報を有しており、第2のロボット100はユーザAの情報を有していない、または、ほとんど有していないとする。このとき、第1のロボット100はユーザAに対する親密度を第2のロボット100にも通知する。第2のロボット100は、第1のロボット100のユーザAに対する親密度に基づいて、ユーザAに対する自らの親密度を調整する。たとえば、第1のロボット100のユーザAに対する親密度が「80」であり、第2のロボット100のユーザAに対する親密度が「50(中立)」であるとき、第2のロボット100はユーザAに対する親密度をその平均値の「65」に変更してもよいし、第1のロボット100と同じく親密度を80に変更してもよい。このような制御方法によれば、第1のロボット100のユーザAに対する印象が第2のロボット100に伝染し、第2のロボット100のユーザAに対する「先入観」を形成される態様を表現可能となる。
第1のロボット100と第2のロボット100は、親密度情報を交換してもよい。たとえば、第1のロボット100のユーザAに対する親密度が「80」、第2のロボット100のユーザAに対する親密度が「−30」のとき、第1のロボット100は親密度を所定値、たとえば、「10」だけ減算して「70」に下方修正し、第2のロボット100はユーザAに対する親密度を所定値、たとえば、「10」だけ加算して「−20」に上方修正してもよい。このような制御方法によれば、複数のロボットのユーザAに対する「印象」を平準化できるため、他のロボット100の意見により自らの心証を変化させる態様を表現できる。複数のロボット100の間で送受すべき情報としては、親密度のほか、安全地点情報、ユーザのプロファイル情報などさまざまな情報が考えられる。
認識部212は、親密度が閾値T3よりも高いユーザを「好きなタイプ」、閾値T4(≦閾値T3)よりも低いユーザを「嫌いなタイプ」に分類してもよい。親密度管理部220は、好きなタイプのユーザと嫌いなタイプのユーザの特徴を抽出し、好きなタイプのユーザが備え、嫌いなタイプのユーザが備えない特徴を有する第3のユーザに対する親密度を増加させてもよい。同様にして、嫌いなタイプのユーザが備え、好きなタイプのユーザが備えない特徴を有する第4のユーザに対する親密度を減少させてもよい。
たとえば、好きなタイプの1以上のユーザは赤い服を着用することが多く、嫌いなタイプのユーザは赤い服をめったに着用しない場合には、親密度管理部220は別のユーザが赤い服を着用しているときにそのユーザに対する親密度を増加させてもよい。このような制御方法によれば、好きなタイプ、嫌いなタイプの特徴に基づいて、初対面のユーザに対する「先入観」の形成を表現できる。先入観は、ロボット100の「個性」を表現する上でも有効である。ユーザの特徴は、髪を掻く、ツメを噛む、頬杖をつくなどの癖や起床時刻などの行動パターン(行動的特徴)であってもよいし、目の大きさや肌の色、匂い、声質、声量などの身体的特徴であってもよいし、着用する服装であってもよい。
ロボット100またはサーバ200は、ユーザの生活パターンを蓄積する生活パターン蓄積部を備えてもよい。あるいは、ロボット100の通信部142は、外部データベースとして形成される生活パターン蓄積部にアクセスすることにより、ユーザごとの生活パターン情報を適宜取得してもよい。生活パターン蓄積部は、ユーザごとに、起床時刻、出勤等による外出時刻、帰宅時刻および就寝時刻を生活パターン情報として登録する。これらの時刻は通常はばらつきがあるため、それらの平均値や最頻値を代表値として登録してもよい。ユーザごとだけではなく、曜日や季節ごとに、複数種類の生活パターンデータを登録してもよい。
生活パターンはユーザにより設定されてもよい。あるいは、ロボット100がユーザの行動を観察することにより起床時刻等を検出してもよい。たとえば、あるユーザAが寝室から出てくる時刻を生活パターン蓄積部に登録することで、ユーザAの起床時刻を特定してもよい。ロボット100の認識部156は、カメラ等によりユーザAの起床を認識し、通信部142は起床時刻をデータ格納部148または外部データベースに記録することにより、ユーザAの起床時刻を生活パターンとして登録する。
認識部156は、1日のはじめにおいて、最初に起床したユーザBを「家族」と認識してもよい。認識部156は、ユーザBから所定時間以内に起床したユーザも家族と認識してもよい。所定の早朝時間帯に起床したユーザ、所定の夜間時間帯に帰宅したユーザが家族と認識されてもよい。認識部156は、早朝時間帯に起床する確率が所定確率以上であることを条件として、ユーザが家族かゲストかを判定してもよい。
認識部156は、ロボット100が家庭に導入されて最初に電源投入されてから所定時間以内に検出したユーザを家族と認識してもよいし、ユーザがあらかじめロボット100のカメラに自らを写した状態でロボット100に所定操作を施すことにより自らを家族登録してもよい。たとえば、認識部156はユーザCがカメラによって撮像されているとき、ユーザCが「家族だよ」という所定のキーワードを発話したときユーザC(より具体的にはユーザCのプロファイル)に「家族」というレッテルを付与してもよい。更に、家族であるユーザCがユーザDを「家族だよ」と紹介したとき、認識部156はユーザDを家族と認識してもよい。このように、第1のユーザおよび第2のユーザが撮像されている状態において、家族認定されている第1のユーザが第2のユーザも家族である旨を告げたとき、認識部156は第2のユーザを家族として認識してもよい。
人見知り行動は、敬遠ユーザとのコンタクトを回避する行動でもよい。この回避行動は、モノや人などの「遮蔽物」の背後への回り込みであってもよい。たとえば、敬遠ユーザDと、親密度の高いユーザEが存在するとき、ロボット100の存在地点とユーザDの存在地点の間にユーザEが位置するように、いいかえれば、ユーザEによってユーザDから隠れる位置に、移動判断部138(またはルート作成部222)はロボット100の移動方向を決定してもよい。
遮蔽物となるのは、机や壁、椅子などの所定の高さ以上の物体であってもよいし、親密度が所定の閾値以上となるユーザ、家族認定されているユーザ、あるいは、上述のユーザDよりも少なくとも親密度の高い別のユーザEであってもよい。動作判断部は、2人の敬遠ユーザがいるときには、より親密度の低い敬遠ユーザからの回避を優先してもよい。
ロボット100が、ユーザDから実際に隠れる必要はなく、「隠れているつもり」に見える回避行動であってもよい。たとえば、ロボット100が椅子の後ろに隠れても、ユーザDは椅子の後ろにロボット100がいることを視認できるかもしれない。ロボット100は、搭載するカメラにユーザDが映らなくなるまでユーザDから距離をとるとしてもよい。ロボット100は、搭載するカメラの死角にユーザDが入るように移動してもよい。ロボット100のカメラにユーザDが写っていないからといって、ユーザDにロボット100が見えていないとは限らない。この場合には、いわゆる「頭隠して尻隠さず」という生物的な行動表現が可能となる。
動作判断部は、第1の動作中に、人見知り行動の対象となる移動物体が検出されたときには、第1の動作を中止させてもよい。動作判断部は、第1の動作を中止したあと、人見知り行動を駆動機構120に指示してもよい。たとえば、インタフォンなどで誰かの帰宅を検知したとき、ロボット100は玄関にお出迎えのために移動する。しかし、帰宅者が敬遠ユーザであるときには、ロボット100はお出迎えを中断し、居室等に移動(回避行動)してもよい。第1の行動としては、同じ場所を巡回する遊び、涼しい場所を目指す移動、踊りなどさまざまな行動パターンが想定される。
サーバ200またはロボット100は、感情管理部を有してもよい。感情管理部は、ロボット100の感情(寂しさ、好奇心、承認欲求など)を示すさまざまな感情パラメータを管理する。これらの感情パラメータは常に揺らいでいる。感情パラメータに応じて複数の行動マップの重要度が変化し、行動マップによってロボット100の移動目標地点が変化し、ロボット100の移動や時間経過によって感情パラメータが変化する。
たとえば、寂しさを示す感情パラメータが高いときには、感情管理部は安心する場所を評価する行動マップの重み付け係数を大きく設定する。ロボット100が、この行動マップにおいて寂しさを解消可能な地点に至ると、感情管理部は寂しさを示す感情パラメータを低下させる。また、後述の応対行為によっても各種感情パラメータは変化する。たとえば、オーナーから「抱っこ」をされると寂しさを示す感情パラメータは低下し、長時間にわたってオーナーを視認しないときには寂しさを示す感情パラメータは少しずつ増加する。
Claims (21)
- 移動方向を決定する移動判断部と、
前記移動判断部により指定された移動を実行する駆動機構と、
移動物体に対する親密度を更新する親密度管理部と、を備え、
前記移動判断部は、第1の閾値よりも低い親密度を設定される第1の移動物体を検出したとき、あらかじめ登録された、または、あらかじめ検出された安全地点を移動目標地点として設定することを特徴とする自律行動型ロボット。 - 前記移動判断部は、前記第1の閾値よりも高い親密度を設定される第2の移動物体を検出したとき、前記第2の移動物体を安全地点として設定し、前記第2の移動物体に近づく方向を移動方向として決定することを特徴とする請求項1に記載の自律行動型ロボット。
- 前記親密度管理部は、移動物体の検出頻度に応じてその移動物体に対する親密度を変化させることを特徴とする請求項1または2に記載の自律行動型ロボット。
- 前記親密度管理部は、移動物体との物理的接触を検出したとき、その移動物体に対する親密度を変化させることを特徴とする請求項1から3のいずれかに記載の自律行動型ロボット。
- 前記親密度管理部は、移動物体としての人による抱き上げを検出したとき、その移動物体に対する親密度を変化させることを特徴とする請求項4に記載の自律行動型ロボット。
- 前記移動判断部は、前記第1の移動物体と、前記第1の移動物体よりも親密度が高い第3の移動物体の双方を検出したときには、前記第1の移動物体から前記第3の移動物体に向かう方向を移動方向として決定することを特徴とする請求項1から5のいずれかに記載の自律行動型ロボット。
- 匂いを検出し、匂いを分類する嗅覚部、を更に備え、
前記親密度管理部は、移動物体の匂いのカテゴリとその移動物体の親密度とを対応づけ、
前記移動判断部は、第3の閾値よりも親密度が高い移動物体に対応づけられる匂いカテゴリと同一の匂いカテゴリに属する快感地点を検出したとき、前記快感地点に向かう方向を移動方向として設定することを特徴とする請求項1から6のいずれかに記載の自律行動型ロボット。 - 前記親密度管理部は、特別グループに属する移動物体と一般グループに属する移動物体それぞれに対し、異なるアルゴリズムにて親密度を更新することを特徴とする請求項1から7のいずれかに記載の自律行動型ロボット。
- 前記移動判断部は、所定の閾値よりも低い親密度の移動物体が検出されたとき、あらかじめ生成された退避ルートにしたがって移動方向を決定することを特徴とする請求項1から8のいずれかに記載の自律行動型ロボット。
- 複数種類の仕草からいずれかの仕草を選択する行動判断部、を更に備え、
前記行動判断部は、前記第2の移動物体に対して、更に、人に好意を示す仕草として定義される愛情仕草を選択することを特徴とする請求項5に記載の自律行動型ロボット。 - 移動物体を検出し、前記移動物体が人見知り行動の対象か否かを所定の判定基準に基づいて判定する認識部と、
前記移動物体が前記人見知り行動の対象であるとき、人見知り行動を選択する動作判断部と、
前記選択された人見知り行動を実行する駆動機構と、を備え、
前記動作判断部は、第1の動作の実行中に人見知り行動の対象となる移動物体が検出されたときには、前記第1の動作を中断して前記人見知り行動の実行を前記駆動機構に指示することを特徴とする自律行動型ロボット。 - 移動物体との相互作用に基づいて、前記移動物体に対する親密度を更新する親密度管理部と、を更に備え、
前記動作判断部は、前記移動物体に対する親密度が所定の閾値未満であるときに前記人見知り行動を選択することを特徴とする請求項11に記載の自律行動型ロボット。 - 前記動作判断部は、人見知り行動の対象となる移動物体が検出されたとき、前記人見知り行動として前記移動物体を回避する行動を選択することを特徴とする請求項11または12に記載の自律行動型ロボット。
- 前記動作判断部は、前記人見知り行動として、前記人見知り行動の対象となる移動物体が、ロボットの死角に入る位置に回避方向を設定することを特徴とする請求項13に記載の自律行動型ロボット。
- ロボットの移動方向を決定する機能と、
前記ロボットの移動物体に対する親密度を更新する機能と、
第1の閾値よりも低い親密度を設定される第1の移動物体を検出したとき、あらかじめ登録された、または、あらかじめ検出された安全地点を移動目標地点として設定する機能と、をコンピュータに発揮させることを特徴とするロボットの行動制御プログラム。 - 移動物体を検出し、前記移動物体が人見知り行動の対象か否かを所定の判定基準に基づいて判定する機能と、
前記移動物体が前記人見知り行動の対象であるとき、人見知り行動を選択する機能と、
第1の動作の実行中に人見知り行動の対象となる移動物体が検出されたときには、前記第1の動作を中断して前記人見知り行動の実行を前記駆動機構に指示する機能と、をコンピュータに発揮させることを特徴とするロボットの行動制御プログラム。 - 前記移動判断部は、複数の安全地点のうち、前記第1の移動物体から所定距離以上離れた安全地点を移動目標地点として設定することを特徴とする請求項1に記載の自律行動型ロボット。
- 前記移動判断部は、所定の高さ以上の高さを有する物体が存在する地点を安全地点として選択することを特徴とする請求項1に記載の自律行動型ロボット。
- 前記移動判断部は、上方に遮蔽物が存在する地点を安全地点として選択することを特徴とする請求項1に記載の自律行動型ロボット。
- 前記移動判断部は、前記第1の移動物体とロボットを結ぶ直線上に前記第2の移動物体が位置する方向を移動方向として決定することを特徴とする請求項2に記載の自律行動型ロボット。
- ロボットの瞳画像を制御する瞳制御部、を更に備え、
前記瞳制御部は、前記移動物体が前記人見知り行動の対象であるとき、前記人見知り行動としてあらかじめ定義される制御方法にしたがって瞳画像を変化させることを特徴とする請求項11に記載の自律行動型ロボット。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016078051 | 2016-04-08 | ||
JP2016078051 | 2016-04-08 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017557015A Division JP6402320B2 (ja) | 2016-04-08 | 2017-03-16 | 人見知りする自律行動型ロボット |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019005591A true JP2019005591A (ja) | 2019-01-17 |
Family
ID=60001024
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017557015A Active JP6402320B2 (ja) | 2016-04-08 | 2017-03-16 | 人見知りする自律行動型ロボット |
JP2018141271A Pending JP2019005591A (ja) | 2016-04-08 | 2018-07-27 | 人見知りする自律行動型ロボット |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017557015A Active JP6402320B2 (ja) | 2016-04-08 | 2017-03-16 | 人見知りする自律行動型ロボット |
Country Status (6)
Country | Link |
---|---|
US (1) | US11192257B2 (ja) |
JP (2) | JP6402320B2 (ja) |
CN (1) | CN109070330B (ja) |
DE (1) | DE112017001874T5 (ja) |
GB (1) | GB2563786B (ja) |
WO (1) | WO2017175559A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020166371A1 (ja) * | 2019-02-15 | 2020-08-20 | ソニー株式会社 | 移動体、移動方法 |
JP2020151070A (ja) * | 2019-03-19 | 2020-09-24 | パナソニック株式会社 | ロボット及びロボットの制御方法 |
JP2021142211A (ja) * | 2020-03-13 | 2021-09-24 | オムロン株式会社 | 移動支援装置、移動支援方法、及びプログラム |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10427305B2 (en) * | 2016-07-21 | 2019-10-01 | Autodesk, Inc. | Robotic camera control via motion capture |
JP6515899B2 (ja) * | 2016-10-04 | 2019-05-22 | トヨタ自動車株式会社 | 音声対話装置及びその制御方法 |
WO2019088160A1 (ja) * | 2017-11-01 | 2019-05-09 | Groove X株式会社 | 反射行動を実行可能な自律行動型ロボット |
US11453123B2 (en) * | 2017-12-27 | 2022-09-27 | Stmicroelectronics, Inc. | Robotic device with time-of-flight proximity sensing system |
JP6989395B2 (ja) * | 2018-01-10 | 2022-01-05 | パナソニック株式会社 | 相互作用装置、相互作用方法、相互作用プログラム及びロボット |
JP7102169B2 (ja) * | 2018-02-28 | 2022-07-19 | パナソニックホールディングス株式会社 | 装置、ロボット、方法、及びプログラム |
EP3795225A4 (en) * | 2018-05-15 | 2022-03-30 | Sony Group Corporation | CONTROL DEVICE, CONTROL METHOD AND PROGRAM |
JP7326707B2 (ja) * | 2018-06-21 | 2023-08-16 | カシオ計算機株式会社 | ロボット、ロボットの制御方法及びプログラム |
JP7133840B2 (ja) * | 2018-09-03 | 2022-09-09 | 株式会社国際電気通信基礎技術研究所 | ロボット、ロボット制御プログラムおよびロボット制御方法 |
US20220288791A1 (en) * | 2019-04-16 | 2022-09-15 | Sony Group Corporation | Information processing device, information processing method, and program |
DE102019213032A1 (de) * | 2019-08-29 | 2021-03-04 | navel robotics GmbH | Roboter mit einer verhaltenssteuerungseinheit und verfahren zur verhaltenssteuerung eines roboters |
JP7392377B2 (ja) * | 2019-10-10 | 2023-12-06 | 沖電気工業株式会社 | 機器、情報処理方法、プログラム、情報処理システムおよび情報処理システムの方法 |
JP7323475B2 (ja) * | 2020-02-19 | 2023-08-08 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および行動モード設定方法 |
CN112497217B (zh) * | 2020-12-02 | 2022-12-13 | 深圳市香蕉智能科技有限公司 | 一种机器人的交互方法、装置、终端设备及可读存储介质 |
CN112494956A (zh) * | 2020-12-15 | 2021-03-16 | 四川长虹电器股份有限公司 | 一种将物品转换成宠物的拟化方法和宠物拟化系统 |
JP2024076459A (ja) * | 2022-11-25 | 2024-06-06 | カシオ計算機株式会社 | 動作制御装置、動作制御方法、及び、プログラム |
JP2024104905A (ja) * | 2023-01-25 | 2024-08-06 | カシオ計算機株式会社 | ロボット、ロボットの制御方法及びプログラム |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11126017A (ja) * | 1997-08-22 | 1999-05-11 | Sony Corp | 記憶媒体、ロボット、情報処理装置、並びに電子ペットシステム |
WO2000067962A1 (fr) | 1999-05-10 | 2000-11-16 | Sony Corporation | Robot |
JP2000323219A (ja) | 1999-05-10 | 2000-11-24 | Sony Corp | 接続装置及びロボットシステム |
WO2000067959A1 (fr) * | 1999-05-10 | 2000-11-16 | Sony Corporation | Dispositif robotique et procede de commande associe |
US6519506B2 (en) * | 1999-05-10 | 2003-02-11 | Sony Corporation | Robot and control method for controlling the robot's emotions |
JP2000326274A (ja) * | 1999-05-24 | 2000-11-28 | Nec Corp | 自律行動ロボット |
US6539284B2 (en) * | 2000-07-25 | 2003-03-25 | Axonn Robotics, Llc | Socially interactive autonomous robot |
JP2002127059A (ja) | 2000-10-20 | 2002-05-08 | Sony Corp | 行動制御装置および方法、ペットロボットおよび制御方法、ロボット制御システム、並びに記録媒体 |
JP2002137182A (ja) * | 2000-10-31 | 2002-05-14 | Yamaha Motor Co Ltd | 動作内容決定装置 |
JP2002307354A (ja) * | 2000-11-07 | 2002-10-23 | Sega Toys:Kk | 電子玩具 |
JP2003311028A (ja) | 2002-04-26 | 2003-11-05 | Matsushita Electric Ind Co Ltd | ペットロボット装置 |
EP1658937A1 (en) * | 2003-08-21 | 2006-05-24 | TMSUK Co., Ltd. | Robot system and remote operation system of robot |
KR100654676B1 (ko) | 2005-03-07 | 2006-12-08 | 삼성광주전자 주식회사 | 로봇청소기 |
WO2007041295A2 (en) | 2005-09-30 | 2007-04-12 | Irobot Corporation | Companion robot for personal interaction |
JP4682217B2 (ja) * | 2007-03-07 | 2011-05-11 | パナソニック株式会社 | 行動制御装置、方法、プログラム |
KR100953407B1 (ko) * | 2008-04-24 | 2010-04-19 | 한국과학기술원 | 로봇의 호감도 형성장치 및 그 방법 |
JP2009072910A (ja) * | 2008-12-22 | 2009-04-09 | Nec Corp | ロボット装置及びその制御方法 |
JP5429462B2 (ja) * | 2009-06-19 | 2014-02-26 | 株式会社国際電気通信基礎技術研究所 | コミュニケーションロボット |
JP5745429B2 (ja) | 2009-12-22 | 2015-07-08 | アトナープ株式会社 | ロボットおよびロボットを制御する方法 |
JP5172049B2 (ja) | 2011-06-14 | 2013-03-27 | パナソニック株式会社 | ロボット装置、ロボット制御方法、及びロボット制御プログラム |
CN102902271A (zh) * | 2012-10-23 | 2013-01-30 | 上海大学 | 基于双目视觉的机器人目标识别与抓取系统及方法 |
WO2015168852A1 (en) * | 2014-05-06 | 2015-11-12 | SZ DJI Technology Co., Ltd. | Apparatus, systems, and methods for detecting projectile hits on a surface |
WO2016170808A1 (ja) * | 2015-04-22 | 2016-10-27 | ソニー株式会社 | 移動体制御システム、制御方法、および記憶媒体 |
US9776323B2 (en) * | 2016-01-06 | 2017-10-03 | Disney Enterprises, Inc. | Trained human-intention classifier for safe and efficient robot navigation |
CN109153127B (zh) | 2016-03-28 | 2022-05-31 | Groove X 株式会社 | 执行迎接行为的行为自主型机器人 |
-
2017
- 2017-03-16 CN CN201780020525.3A patent/CN109070330B/zh active Active
- 2017-03-16 WO PCT/JP2017/010612 patent/WO2017175559A1/ja active Application Filing
- 2017-03-16 GB GB1815989.7A patent/GB2563786B/en active Active
- 2017-03-16 JP JP2017557015A patent/JP6402320B2/ja active Active
- 2017-03-16 DE DE112017001874.9T patent/DE112017001874T5/de active Pending
-
2018
- 2018-07-27 JP JP2018141271A patent/JP2019005591A/ja active Pending
- 2018-10-01 US US16/147,879 patent/US11192257B2/en active Active
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020166371A1 (ja) * | 2019-02-15 | 2020-08-20 | ソニー株式会社 | 移動体、移動方法 |
JPWO2020166371A1 (ja) * | 2019-02-15 | 2021-12-16 | ソニーグループ株式会社 | 移動体、移動方法 |
JP7468367B2 (ja) | 2019-02-15 | 2024-04-16 | ソニーグループ株式会社 | 移動体、移動方法 |
JP2020151070A (ja) * | 2019-03-19 | 2020-09-24 | パナソニック株式会社 | ロボット及びロボットの制御方法 |
JP7273566B2 (ja) | 2019-03-19 | 2023-05-15 | パナソニックホールディングス株式会社 | ロボット、ロボットの制御方法及びプログラム |
US11969876B2 (en) | 2019-03-19 | 2024-04-30 | Panasonic Intellectual Property Management Co., Ltd. | Robot and control method of robot |
JP2021142211A (ja) * | 2020-03-13 | 2021-09-24 | オムロン株式会社 | 移動支援装置、移動支援方法、及びプログラム |
JP7456211B2 (ja) | 2020-03-13 | 2024-03-27 | オムロン株式会社 | 移動支援装置、移動支援方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2017175559A1 (ja) | 2018-04-12 |
US11192257B2 (en) | 2021-12-07 |
US20190030723A1 (en) | 2019-01-31 |
CN109070330B (zh) | 2022-07-15 |
DE112017001874T5 (de) | 2018-12-27 |
JP6402320B2 (ja) | 2018-10-10 |
GB2563786A (en) | 2018-12-26 |
CN109070330A (zh) | 2018-12-21 |
GB2563786B (en) | 2021-08-04 |
WO2017175559A1 (ja) | 2017-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6402320B2 (ja) | 人見知りする自律行動型ロボット | |
JP6467674B2 (ja) | スキンシップを理解する自律行動型ロボット | |
JP6495486B2 (ja) | 自律行動型ロボット及びコンピュータプログラム | |
JP6475872B2 (ja) | 活動量をコントロールされる自律行動型ロボット | |
JP6494062B2 (ja) | 音源の方向を認識する自律行動型ロボット | |
JP6409206B2 (ja) | お出迎え行動する自律行動型ロボット | |
JP6409207B2 (ja) | 服を着る自律行動型ロボット | |
JP6409209B2 (ja) | 涼しさを求める自律行動型ロボット | |
JP2019149181A (ja) | 瞳を変化させる自律行動型ロボット | |
JP6557840B2 (ja) | ロボット、サーバ及び行動制御プログラム | |
JP6671577B2 (ja) | 人を識別する自律行動型ロボット |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200309 |