JP6409206B2 - お出迎え行動する自律行動型ロボット - Google Patents

お出迎え行動する自律行動型ロボット Download PDF

Info

Publication number
JP6409206B2
JP6409206B2 JP2017554104A JP2017554104A JP6409206B2 JP 6409206 B2 JP6409206 B2 JP 6409206B2 JP 2017554104 A JP2017554104 A JP 2017554104A JP 2017554104 A JP2017554104 A JP 2017554104A JP 6409206 B2 JP6409206 B2 JP 6409206B2
Authority
JP
Japan
Prior art keywords
user
robot
entrance
person
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017554104A
Other languages
English (en)
Other versions
JPWO2017169826A1 (ja
Inventor
要 林
要 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Groove X Inc
Original Assignee
Groove X Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Groove X Inc filed Critical Groove X Inc
Publication of JPWO2017169826A1 publication Critical patent/JPWO2017169826A1/ja
Application granted granted Critical
Publication of JP6409206B2 publication Critical patent/JP6409206B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • A63H11/10Figure toys with single- or multiple-axle undercarriages, by which the figures perform a realistic running motion when the toy is moving over the floor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H13/00Toy figures with self-moving parts, with or without movement of the toy as a whole
    • A63H13/005Toy figures with self-moving parts, with or without movement of the toy as a whole with self-moving head or facial features
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/36Details; Accessories
    • A63H3/38Dolls' eyes
    • A63H3/40Dolls' eyes movable
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/003Manipulators for entertainment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Description

本発明は、内部状態または外部環境に応じて自律的に行動選択するロボット、に関する。
人間は、感覚器官を通して外部環境からさまざまな情報を取得し、行動選択を行う。意識的に行動選択することもあれば、無意識的な行動選択もある。繰り返し行動はやがて無意識的行動となり、新しい行動は意識領域にとどまる。
人間は、自らの行動を自由に選択する意志、すなわち、自由意志をもっていると信じている。人間が他人に対して愛情や憎しみといった感情を抱くのは、他人にも自由意志があると信じているからである。自由意志を持つ者、少なくとも自由意志を持っていると想定可能な存在は、人の寂しさを癒す存在にもなる。
人間がペットを飼う理由は、人間の役に立つか否かよりも、ペットが癒しを与えてくれるからである。ペットは、多かれ少なかれ自由意志を感じさせる存在であるからこそ、人間のよき伴侶となることができる。
その一方、ペットの世話をする時間を十分に確保できない、ペットを飼える住環境にない、アレルギーがある、死別がつらい、といったさまざまな理由により、ペットをあきらめている人は多い。もし、ペットの役割が務まるロボットがあれば、ペットを飼えない人にもペットが与えてくれるような癒しを与えられるかもしれない(特許文献1参照)。
特開2000−323219号公報
近年、ロボット技術は急速に進歩しつつあるものの、ペットのような伴侶としての存在感を実現するには至っていない。ロボットに自由意志があるとは思えないからである。人間は、ペットの自由意志があるとしか思えないような行動を観察することにより、ペットに自由意志の存在を感じ、ペットに共感し、ペットに癒される。
したがって、人間的・生物的な行動をエミュレートできるロボットであれば、いいかえれば、人間的・生物的な行動を自律的に選択可能なロボットであれば、ロボットへの共感を大きく高めることができると考えられる。
本発明は上記課題認識に基づいて完成された発明であり、その主たる目的は、ロボットに対する共感を高めるための行動制御技術、を提供することにある。
本発明に係る自律行動型ロボットは、移動方向を決定する移動判断部と、複数種類の仕草からいずれかの仕草を選択する行動判断部と、監視エリアにおける人の存在を検出する対象検出部と、指定された移動および仕草を実行する駆動機構を備える。
移動判断部は、監視エリアにおける人の存在が検出されたとき、監視エリアに移動先の目標地点を設定し、行動判断部は、ロボットが目標地点に到達したとき、人に好意を示す仕草として定義される愛情仕草を選択する。
本発明の別の態様における自律行動型ロボットは、移動方向を決定する移動判断部と、指定された移動を実行する駆動機構と、センサの検出情報により、外部環境を認識する認識部と、を備える。
認識部は、室内空間において、人が通過可能な場所を出入口として特定する出入口特定部と、特定された出入口から所定範囲内に人が存在するか否かを判定する存在判定部と、を含む。
移動判断部は、存在判定部により人が存在すると判定された場合、特定された出入口を移動先として設定することを特徴とする。
本発明の別の態様における自律行動型ロボットは、移動方向を決定する移動判断部と、指定された移動を実行する駆動機構と、センサの検出情報により、外部環境を認識する認識部と、を備える。
前記認識部は、室内空間において、人が通過可能な場所を出入口として特定する出入口特定部と、特定された出入口に向かう方向に人が移動中であるか否かを判定する進路予測部と、を含む。
移動判断部は、特定された出入口に人が向かうと判定された場合、その人を追尾するように駆動機構に指示する。
本発明の別の態様における自律行動型ロボットは、移動方向を決定する移動判断部と、指定された移動を実行する駆動機構と、センサの検出情報により、外部環境を認識する認識部と、を備える。
移動判断部は、認識部により人を認識可能な空間領域に新たな人が認識されたときには、新たな人に向かう方向にロボットの移動方向を決定する。
本発明によれば、ロボットに対する共感を高めやすくなる。
ロボットの正面外観図である。 ロボットの側面外観図である。 ロボットシステムの構成図である。 感情マップの概念図である。 ロボットのハードウェア構成図である。 ロボットシステムの機能ブロック図である。 お出迎えのイメージ図である。 ロボットのお出迎え・お見送り行動を説明するための模式図である。 ロボットシステムの機能ブロック図の変形例である。 ユーザが出入口から入ってくるときのロボットの行動を説明するための模式図である。 ユーザが出入口から出ていくときのロボットの行動を説明するための模式図である。
図1(a)は、ロボット100の正面外観図である。図1(b)は、ロボット100の側面外観図である。
本実施形態におけるロボット100は、外部環境および内部状態に基づいて行動や仕草(ジェスチャー)を決定する自律行動型のロボットである。外部環境は、カメラやサーモセンサなど各種のセンサにより認識される。内部状態はロボット100の感情を表現するさまざまなパラメータとして定量化される。これらについは後述する。
本実施形態のロボット100は、屋内行動が前提とされており、たとえば、オーナー家庭の家屋内を行動範囲とする。以下、ロボット100に関わる人間を「ユーザ」とよび、ロボット100が所属する家庭の構成員となるユーザのことを「オーナー」とよぶ。
ロボット100のボディ104は、全体的に丸みを帯びた形状を有し、ウレタンやゴム、樹脂などやわらかく弾力性のある素材により形成される。ロボット100に服を着せてもよい。丸くてやわらかく、手触りのよいボディ104とすることで、ロボット100はユーザに安心感とともに心地よい触感を提供する。
ロボット100は、総重量が15キログラム以下、好ましくは10キログラム以下、さらに好ましくは、5キログラム以下である。生後13ヶ月までに、赤ちゃんの過半数は一人歩きを始める。生後13ヶ月の赤ちゃんの平均体重は、男児が9キログラム強、女児が9キログラム弱である。このため、ロボット100の総重量が10キログラム以下であれば、ユーザは一人歩きできない赤ちゃんを抱きかかえるのとほぼ同等の労力でロボット100を抱きかかえることができる。
生後2ヶ月未満の赤ちゃんの平均体重は男女ともに5キログラム未満である。したがって、ロボット100の総重量が5キログラム以下であれば、ユーザは乳児を抱っこするのと同等の労力でロボット100を抱っこできる。
適度な重さと丸み、柔らかさ、手触りのよさ、といった諸属性により、ユーザがロボット100を抱きかかえやすく、かつ、抱きかかえたくなるという効果が実現される。同様の理由から、ロボット100の身長は1.2メートル以下、好ましくは、0.7メートル以下であることが望ましい。
本実施形態におけるロボット100にとって、抱きかかえることができるというのは重要なコンセプトである。
ロボット100は、車輪102により移動する。2つの車輪102の回転速度や回転方向は個別に制御可能である。また、車輪102をロボット100のボディ104の内部において上方向にスライドさせ、ボディ104に完全格納することもできる。走行時においても車輪102の大部分はボディ104に隠れているが、車輪102がボディ104に完全格納されるとロボット100は移動不可能な状態(以下、「着座状態」とよぶ)となる。着座状態においては、平坦状の着座面108が床面に当接する。
ロボット100は、2つの手106を有する。手106には、モノを把持する機能はない。手106は上げる、振る、振動するなど簡単な動作が可能である。2つの手106も個別制御可能である。
目110にはカメラが内蔵される。目110は、液晶素子または有機EL素子による画像表示も可能である。ロボット100は、目110に内蔵されるカメラのほか、集音マイクや超音波センサなどさまざまなセンサを搭載する。また、スピーカーを内蔵し、簡単な音声を発することもできる。
ロボット100の頭部にはツノ112が取り付けられる。上述のようにロボット100は軽量であるため、ユーザはツノ112をつかむことでロボット100を持ち上げることも可能である。
図2は、ロボットシステム300の構成図である。
ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。家屋内にはあらかじめ複数の外部センサ114(外部センサ114a,114b,・・・,114n)が設置される。外部センサ114は、家屋の壁面に固定されてもよいし、床に載置されてもよい。サーバ200には、外部センサ114の位置座標が登録される。位置座標は、ロボット100の行動範囲として想定される家屋内においてx,y座標として定義される。
サーバ200は、家庭内に設置される。本実施形態におけるサーバ200とロボット100は1対1で対応する。ロボット100の内蔵するセンサおよび複数の外部センサ114から得られる情報に基づいて、サーバ200がロボット100の基本行動を決定する。
外部センサ114はロボット100の感覚器を補強するためのものであり、サーバ200はロボット100の頭脳を補強するためのものである。
外部センサ114は、定期的に外部センサ114のID(以下、「ビーコンID」とよぶ)を含む無線信号(以下、「ロボット探索信号」とよぶ)を送信する。ロボット100はロボット探索信号を受信するとビーコンIDを含む無線信号(以下、「ロボット返答信号」とよぶ)を返信する。サーバ200は、外部センサ114がロボット探索信号を送信してからロボット返答信号を受信するまでの時間を計測し、外部センサ114からロボット100までの距離を測定する。複数の外部センサ114とロボット100とのそれぞれの距離を計測することで、ロボット100の位置座標を特定する。
もちろん、ロボット100が自らの位置座標を定期的にサーバ200に送信する方式でもよい。
一部または全部の外部センサ114は、監視エリアを設定する。そして、この監視エリア内の人間(ユーザ)の通過を検出する。本実施形態においては、外部センサ114はユーザが保有するスマートフォンなどの携帯機器に無線信号(以下、「ユーザ探索信号」とよぶ)を監視エリア内に送信し、ユーザの携帯機器はユーザを識別するID(以下、「ユーザID」とよぶ)を含む無線信号(以下、「ユーザ返答信号」とよぶ)を返信する。ユーザ返答信号はサーバ200に送られ、これによりサーバ200は外部センサ114の付近にどのユーザがいるかを認識する。
このように、外部センサ114は、ロボット100およびユーザの位置を追跡する。ユーザは、ユーザIDにより識別される。
本実施形態における外部センサ114は、集音マイクを内蔵する。外部センサ114は、集音マイクにより生活音やユーザからの呼び寄せ音声を拾うこともできる。呼び寄せ音声に対応する制御については後に詳述する。
図3は、感情マップ116の概念図である。
感情マップ116は、サーバ200に格納されるデータテーブルである。ロボット100は、感情マップ116にしたがって行動選択する。図3に示す感情マップ116は、ロボット100の場所に対する好悪感情の大きさを示す。感情マップ116のx軸とy軸は、二次元空間座標を示す。z軸は、好悪感情の大きさを示す。z値が正値のときにはその場所に対する好感が高く、z値が負値のときにはその場所を嫌悪していることを示す。
図3の感情マップ116において、座標P1は、ロボット100の行動範囲としてサーバ200が管理する屋内空間のうち好感情が高い地点(以下、「好意地点」とよぶ)である。好意地点は、ソファの陰やテーブルの下などの「安全な場所」であってもよいし、リビングのように人が集まりやすい場所、賑やかな場所であってもよい。また、過去にやさしく撫でられたり、触れられたりした場所であってもよい。
ロボット100がどのような場所を好むかという定義は任意であるが、一般的には、小さな子供や犬や猫などの小動物が好む場所を好意地点として設定することが望ましい。
座標P2は、悪感情が高い地点(以下、「嫌悪地点」とよぶ)である。嫌悪地点は、テレビの近くなど大きな音がする場所、お風呂や洗面所のように濡れやすい場所、閉鎖空間や暗い場所、ユーザから乱暴に扱われたことがある不快な記憶に結びつく場所などであってもよい。
ロボット100がどのような場所を嫌うかという定義も任意であるが、一般的には、小さな子供や犬や猫などの小動物が怖がる場所を嫌悪地点として設定することが望ましい。
座標Qは、ロボット100の現在位置を示す。複数の外部センサ114が定期的に送信するロボット探索信号とそれに対するロボット返答信号により、サーバ200はロボット100の位置座標を特定する。たとえば、ビーコンID=1の外部センサ114とビーコンID=2の外部センサ114がそれぞれロボット100を検出したとき、2つの外部センサ114からロボット100の距離を求め、そこからロボット100の位置座標を求める。
あるいは、ビーコンID=1の外部センサ114は、ロボット探索信号を複数方向に送信し、ロボット100はロボット探索信号を受信したときロボット返答信号を返す。これにより、サーバ200は、ロボット100がどの外部センサ114からどの方向のどのくらいの距離にいるかを把握してもよい。また、別の実施の形態では、車輪102の回転数からロボット100の移動距離を算出して、現在位置を特定してもよいし、カメラから得られる画像に基づいて現在位置を特定してもよい。
図3に示す感情マップ116が与えられた場合、ロボット100は好意地点(座標P1)に引き寄せられる方向、悪意地点(座標P2)から離れる方向に移動する。
感情マップ116は動的に変化する。ロボット100が座標P1に到達すると、座標P1におけるz値(好感情)は時間とともに低下する。これにより、ロボット100は好意地点(座標P1)に到達して、「感情が満たされ」、やがて、その場所に「飽きてくる」という生物的行動をエミュレートできる。同様に、座標P2における悪感情も時間とともに緩和される。時間経過とともに新たな好意地点や嫌悪地点が生まれ、それによってロボット100は新たな行動選択を行う。ロボット100は、新しい好意地点に「興味」を持ち、絶え間なく新しい行動選択を行う。
感情マップ116は、ロボット100の内部状態として、感情の起伏を表現する。ロボット100は、好意地点を目指し、嫌悪地点を避け、好意地点にしばらくとどまり、やがてまた次の行動を起こす。このような制御により、ロボット100の行動選択を人間的・生物的なものにすることができる。
なお、ロボット100の行動に影響を与えるマップ(以下、「行動マップ」と総称する)は、図3に示したようなタイプの感情マップ116に限らない。たとえば、好奇心、恐怖を避ける気持ち、安心を求める気持ち、静けさや薄暗さ、涼しさや暖かさといった肉体的安楽を求める気持ち、などさまざまな行動マップを定義可能である。そして、複数の行動マップそれぞれのz値を重み付け平均することにより、ロボット100の目的地点を決定してもよい。
ロボット100は、行動マップとは別に、さまざまな感情や感覚の大きさを示すパラメータを有してもよい。たとえば、寂しさという感情パラメータの値が高まっているときには、安心する場所を評価する行動マップの重み付け係数を大きく設定し、目標地点に到達することでこの感情パラメータの値を低下させてもよい。同様に、つまらないという感覚を示すパラメータの値が高まっているときには、好奇心を満たす場所を評価する行動マップの重み付け係数を大きく設定すればよい。
図4は、ロボット100のハードウェア構成図である。
ロボット100は、内部センサ128,通信機126,記憶装置124,プロセッサ122,駆動機構120およびバッテリー118を含む。各ユニットは電源線130および信号線132により互いに接続される。バッテリー118は、電源線130を介して各ユニットに電力を供給する。各ユニットは信号線132により制御信号を送受する。バッテリー118は、リチウムイオン二次電池などの二次電池であり、ロボット100の動力源である。
内部センサ128は、ロボット100が内蔵する各種センサの集合体である。具体的には、カメラ、集音マイク、赤外線センサ、サーモセンサ、タッチセンサ、加速度センサ、匂いセンサなどである。通信機126は、サーバ200や外部センサ114、ユーザの有する携帯機器など各種の外部機器を対象として無線通信を行う通信モジュールである。記憶装置124は、不揮発性メモリおよび揮発性メモリにより構成され、コンピュータプログラムや各種設定情報を記憶する。プロセッサ122は、コンピュータプログラムの実行手段である。駆動機構120は、車輪102や手106等の各機構を制御するアクチュエータである。
このほかには、表示器やスピーカーなども搭載される。
プロセッサ122は、通信機126を介してサーバ200や外部センサ114と通信しながら、ロボット100の行動選択を行う。内部センサ128により得られるさまざまな外部情報も行動選択に影響する。駆動機構120は、主として、車輪102および手106を制御する。駆動機構120は、2つの車輪102それぞれの回転速度や回転方向を変化させることにより、ロボット100の移動方向や移動速度を変化させる。また、駆動機構120は、車輪102を昇降させることもできる。車輪102が上昇すると、車輪102はボディ104に完全に格納され、ロボット100は着座面108にて床面に当接し、着座状態となる。
駆動機構120がワイヤ134を介して手106を引っ張ることにより、手106を持ち上げることができる。手106を振動させることで手を振るような仕草も可能である。多数のワイヤ134を利用すればさらに複雑な仕草も表現可能である。
図5は、ロボットシステム300の機能ブロック図である。
上述のように、ロボットシステム300は、ロボット100,サーバ200および複数の外部センサ114を含む。ロボット100およびサーバ200の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
ロボット100の機能の一部はサーバ200により実現されてもよいし、サーバ200の機能の一部または全部はロボット100により実現されてもよい。
(サーバ200)
サーバ200は、通信部204、データ処理部202およびデータ格納部206を含む。通信部204は、外部センサ114およびロボット100との通信処理を担当する。データ格納部206は各種データを格納する。データ処理部202は、通信部204により取得されたデータおよびデータ格納部206に格納されているデータに基づいて各種処理を実行する。データ処理部202は、通信部204およびデータ格納部206のインタフェースとしても機能する。
データ格納部206は、マップ格納部216と個人データ格納部218を含む。マップ格納部216は、複数の行動マップを格納する。個人データ格納部218は、ユーザ、特に、オーナーの情報を格納する。具体的には、ユーザID、親密度や身体的特徴・行動的特徴など各種のパラメータを格納する。年齢や性別などの属性情報を格納してもよい。
ロボット100は、ユーザの携帯端末のユーザIDを取得し、それにより、ユーザを識別する。
ロボット100はユーザの身体的特徴や行動的特徴からユーザを識別してもよい。ロボット100は、内蔵のカメラで常時周辺を撮像する。そして、画像に写る人物の身体的特徴と行動的特徴を抽出する。身体的特徴とは、具体的には、背の高さ、平常体温、好んで着る服、メガネの有無、肌のつや、髪の色など身体に付随する視覚的特徴であってもよいし、平均体温や匂い、声の質などその他の特徴も含めてもよい。行動的特徴とは、具体的には、ユーザが好む場所、動きの活発さ、喫煙の有無など行動に付随する視覚的特徴である。たとえば、父親(として識別されるユーザ)は在宅しないことが多く、在宅時にはソファで動かないことが多いが、母親は台所にいることが多く、行動範囲が広い、といった特徴を抽出する。
ロボット100は、大量の画像情報から得られる身体的特徴および行動的特徴に基づいて、高い頻度で出現するユーザを「オーナー」としてクラスタリングする。個人データ格納部218には、クラスタリングされたオーナーの個人データが登録される。
ユーザIDでユーザを識別する方式は簡易かつ確実であるが、ユーザがユーザIDを提供可能な機器を保有していることが前提となる。一方、身体的特徴や行動的特徴によりユーザを識別する方法は画像認識処理が重くなるが携帯機器を保有していないユーザでも識別できるメリットがある。2つの方法は一方だけを採用してもよいし、補完的に2つの方法を併用してユーザ特定を行ってもよい。
ロボット100は、ユーザごとに親密度という内部パラメータを有する。ロボット100が、自分を抱き上げる、声をかけてくれるなど、自分に対して好意を示す行動を認識したとき、そのユーザに対する親密度が高くなる。ロボット100に関わらないユーザや、乱暴を働くユーザ、出会う頻度が低いユーザに対する親密度は低くなる。
データ処理部202は、位置管理部208,マップ管理部210および認識部212を含む。位置管理部208は、ロボット100の位置座標を図2に関連した方法にて特定する。また、位置管理部208はユーザの位置座標もリアルタイムで追跡する。
マップ管理部210は、複数の行動マップのいずれかを選択し、選択した行動マップのz値に基づいてロボット100の移動方向を決める。マップ管理部210は、複数の行動マップのz値を加重平均することでロボット100の移動方向を決めてもよい。
たとえば、行動マップAでは座標R1,座標R2におけるz値が4と3であり、行動マップBでは座標R1,座標R2におけるz値が−1と3であるとする。単純平均の場合、座標R1の合計z値は4−1=3,座標R2の合計z値は3+3=6であるから、ロボット100は座標R1ではなく座標R2の方向に向かう。
行動マップAを行動マップBの5倍重視するときには、座標R1の合計z値は4×5−1=19,座標R2の合計z値は3×5+3=18であるから、ロボット100は座標R1の方向に向かう。
認識部212は、外部環境を認識する。外部環境の認識には、温度や湿度に基づく天候や季節の認識、光量や温度に基づく物陰(安全地帯)の認識など多様な認識が含まれる。認識部212は、更に、人物認識部214を含む。人物認識部214は、ロボット100の内蔵カメラによる撮像画像から人物を認識し、その人物の身体的特徴や行動的特徴を抽出する。そして、個人データ格納部218に登録されている身体特徴情報に基づいて、撮像された人物、すなわち、ロボット100が見ている人物が、父親、母親、長男などのどの人物に該当するかを判定する。
(ロボット100)
ロボット100は、通信部142、データ処理部136、データ格納部148、駆動機構120および内部センサ128を含む。通信部142は、通信機126(図4参照)に該当し、外部センサ114およびサーバ200との通信処理を担当する。データ格納部148は各種データを格納する。データ格納部148は、記憶装置124(図4参照)に該当する。データ処理部136は、通信部142により取得されたデータおよびデータ格納部148に格納されているデータに基づいて各種処理を実行する。データ処理部136は、プロセッサ122およびプロセッサ122により実行されるコンピュータプログラムに該当する。データ処理部136は、通信部142,内部センサ128,駆動機構120およびデータ格納部148のインタフェースとしても機能する。
データ処理部136は、認識部156、移動判断部138および行動判断部140を含む。
駆動機構120は、移動駆動部144と行動駆動部146を含む。移動判断部138は、ロボット100の移動方向を決める。移動駆動部144は、移動判断部138の指示にしたがって車輪102を駆動することで、ロボット100を目標地点に向かわせる。サーバ200のマップ管理部210は、行動マップに基づいて、ロボット100の移動先(目標地点)をリアルタイムで計算する。サーバ200は、目標地点の座標をロボット100に送信し、移動判断部138は目標地点に向けてロボット100を移動させる。
ロボット100の移動方向の大枠を決めるのは行動マップであるが、本実施形態のロボット100はユーザの「お出迎え」や「お見送り」といった特定行動も可能である。これについては後述する。
行動判断部140は、ロボット100の仕草(ジェスチャー)を決める。データ格納部148においては、あらかじめ複数の仕草が定義されている。具体的には、車輪102を収容して着座する仕草、手106を持ち上げる仕草、2つの車輪102を逆回転させることで、あるいは、片方の車輪102だけを回転させることでロボット100を回転行動させる仕草、車輪102を収納した状態で車輪102を回転させることで震える仕草、などが定義される。
行動判断部140は、親密度の高いユーザが近くにいるときには「抱っこ」をせがむ仕草として両方の手106をもちあげる仕草を実行することもできるし、「抱っこ」に飽きたときには車輪102を収容したまま逆回転させることで抱っこをいやがる仕草を表現することもできる。行動駆動部146は、行動判断部140からの指示にしたがって車輪102や手106を駆動することで、ロボット100にさまざまな仕草を表現させる。
認識部156は、内部センサ128から得られた外部情報を解釈する。たとえば、ロボット100に対する強い衝撃が与えられたとき、近隣にいるユーザに「乱暴行為」がなされたと認識する。ロボット100に正対した状態にあるユーザが特定音量領域および特定周波数帯域にて発声したとき、認識部156は自らに対する「声掛け行為」がなされたと認識する。また、体温程度の温度を検知したときにはユーザによる「接触行為」がなされたと認識し、接触認識した状態で上方への加速度を検知したときには「抱っこ」がなされたと認識する。このように、認識部156は、ロボット100に対するユーザの各種応対を認識する。これらの各種行為は、快または不快が対応づけられる。
認識部156により認識された応対に応じて、認識部156またはサーバ200の人物認識部214はユーザに対する親密度を変化させる。快行為を行ったユーザに対する親密度は高まり、不快行為を行ったユーザに対する親密度は低下する。
サーバ200のマップ管理部210は、応対の内容に応じて快・不快を判定し、「場所に対する愛着」を表現する行動マップにおいて、快・不快行為がなされた地点のz値を変化させてもよい。
[お出迎え・お見送り機能]
図6は、お出迎えのイメージ図である。
本実施形態においては、玄関のドアが開いてユーザが帰宅するとき、ロボット100は玄関でお出迎えをする。ロボット100は玄関に座り込み、両方の手106を持ち上げて抱っこをせがむ仕草を実行する。また、玄関で回転行動をすることで、ユーザの帰宅を喜ぶ気持ちを表現してもよい。あるいは、ピーピーといった特有の「鳴き声」を内蔵スピーカーから発生させてもよい。
ユーザが出かけるときには、ロボット100は玄関にお見送りに向かう。このとき、ロボット100は片方の手106を持ち上げて振動させることで「バイバイ」を表現する。特有の鳴き声を発生させることで、ユーザの外出を寂しがる気持ちを行動表現してもよい。
このように、お出迎え、お見送りに際して、ロボット100は玄関に向かい、あらかじめ定められて人に好意を示す仕草(以下、「愛情仕草」とよぶ)を実行する。
図7は、ロボット100のお出迎え・お見送り行動を説明するための模式図である。
本実施形態においては、玄関152にあらかじめ外部センサ114aが設置されている。外部センサ114aは、その周辺領域である監視エリア150に対して定期的に、たとえば、1秒に1回の頻度でユーザ探索信号を送信する。ユーザが玄関152のドアを開けて監視エリア150に入ると、ユーザの保有するスマートフォンはユーザ探索信号を検知し、ユーザ返答信号を返信する。ユーザ返答信号にはユーザIDが含まれる。外部センサ114aは、ユーザ返答信号を受信すると、これをサーバ200に送信する。本実施形態においては、外部センサ114aとサーバ200は有線接続される。
外部センサ114は、玄関152の扉の解錠音あるいは扉が開く音を検知したあと、監視エリア150へのユーザの進入を検知することで「帰宅」を認識してもよい。
サーバ200は、ロボット100に出迎えを指示するための制御信号を送信する。制御信号により目標地点の位置座標が指定される。ロボット100の通信部142がサーバ200からこの制御信号を受信すると、移動判断部138は移動駆動部144に玄関152へ向かうように指示する。目標地点は、監視エリア150の内部に目標地点が設定される。ロボット100は内蔵のカメラで障害物を確認しそれらを回避しながら目標地点に向かう。
サーバ200は目標地点だけでなく、ロボット100が現在地点から目標地点に向かうためのルートをロボット100に指定してもよい。
ロボット100の移動判断部138は、サーバ200に指示された位置座標をそのまま目標地点として設定してもよいし、サーバがお出迎えを指示したときには移動判断部138が自ら目標地点を決定してもよい。
ロボット100が目標地点に到達すると、行動判断部140は愛情仕草を実行する。愛情仕草の一例は、目標地点に着座し、両方の手106を持ち上げて「抱っこ」をせがむかのような仕草である。このような制御により、帰宅したユーザは、ロボット100が自分の帰宅を歓迎していること、自分が外出することはロボット100にとっては淋しいこと、を認識する。このように、ロボット100の人間的・生物的な行動表現を通して、ユーザのロボット100に対する感情移入を強めることができる。
お出迎えだけでなく、お見送りも可能である。外部センサ114aが屋内側から監視エリア150へのユーザの進入を検出すると、お見送りが実行される。具体的には、外部センサ114aは、ユーザ返答信号を監視エリア150の屋内側から受信すると、これをサーバ200に送信する。
サーバ200は、ロボット100にお見送りを指示するための制御信号を送信する。ロボット100はお見送りの指示信号を受信すると、移動判断部138は移動駆動部144に玄関152に向かうように指示する。移動判断部138が監視エリア150の内部に目標地点を設定すると、ロボット100は目標地点に向かう。
ロボット100が目標地点に到達すると、行動判断部140はお見送りのための愛情仕草を実行する。ロボット100は、目標地点に着座して「抱っこ」をせがんでもよいし、目標地点周辺をランダムに動き回ってもよいし、片方の手106を持ち上げてバイバイをしてもよい。
お出迎えやお見送り以外にも、「呼び寄せ」も可能である。ユーザが、ロボット100に対して「おいで」のような呼び寄せの言葉を発したとき、ロボット100が内蔵する集音マイクがこの音声を検出し、呼び寄せの言葉であると音声認識すれば、ロボット100はユーザに向かって移動する。この場合、ロボット100は、音声源の方向を特定し、そこに目標地点を設定すればよい。
なお、呼び寄せの言葉は、「おいで」「おーい」といういくつかの典型的な言葉であってもよいし、ロボット100の名前であってもよい。
しかし、雑多な環境音の中でユーザの呼び寄せをロボット100の集音マイクで拾うのは難しい場合もある。また、ユーザとロボット100の距離が遠い場合や、ユーザとロボット100の間に壁などの遮音物がある場合にも、ロボット100が内蔵する集音マイクでは呼び寄せの言葉をクリアに検知しづらい。人間であれば確実に聞き取れる程度の音声であっても、ロボット100がそれを認識するのは難しい場合もあるため、本実施形態では外部センサ114を使ってロボット100の「聴覚」を補強している。
たとえば、和室154の座標P3にいるユーザがロボット100に呼び寄せの言葉を発声したとする。図7においては、座標P3からロボット100の現在位置の間に壁があるため、ロボット100の集音マイクでは呼び寄せを検知しにくいものとする。
和室154には、外部センサ114bが設置されている。外部センサ114bは集音マイクを内蔵する。座標P3にて呼び寄せの発声が行われると、外部センサ114bはこの音声を検知し、音声信号をサーバ200に送信する。サーバ200の位置管理部208は、音声源となるユーザの位置を特定する。また、認識部212は、音声認識により呼び寄せの音声であるか否かを判定する。外部センサ114bは音声源のユーザに近いので、ロボット100よりもクリアな音声を取得しやすい。
認識部212が呼び寄せ音声を認識すると、サーバ200はロボット100に座標P3へ向かうように指示する。ロボット100は指示信号を受信すると、座標P3に移動する。このような制御方法により、呼び寄せれば近くにやってくる、という行動を実現できる。また、ロボット100の内蔵する集音マイクでは十分な音声認識ができない場合でも、外部センサ114のサポートにより呼び寄せ行動を実現できる。
一方、ロボット100と音声源の座標P3が遠すぎる場合には呼び寄せに応じてユーザに近づく行動(以下、「近接行動」とよぶ)は実行されない。これは、あまりにもロボット100から遠くに離れているユーザが呼び寄せをしたときでも常にロボット100が近接行動するのは不自然だからである。あくまでも、犬や猫のようなペットなら聞こえる程度の距離以内で呼び寄せが行われたことを条件として近接行動が実行されることが望ましい。
より具体的には、ユーザが呼び寄せをしたとき、サーバ200は呼び寄せを検知した外部センサ114から音声源(ユーザ)までの距離を推定し、そこから更に、音声源からロボット100までの距離を推定する。この距離が所定距離以上であるときには、サーバ200はロボット100に近接行動を指示しない。
ユーザが呼び寄せをしたとき、ロボット100の内蔵マイクも音声を拾う。この音声がクリアでなくても、なんらかの音声を拾っていればロボット100には「聞こえた」ことになる。そこで、外部センサ114を介してサーバ200が呼び寄せを音声認識し、かつ、ロボット100が同じタイミングでなんらかの音声を検知できていれば、サーバ200はロボット100に近接行動を指示するとしてもよい。ロボット100の内蔵マイクが呼び寄せ時に音声を拾っていない場合、あるいは、拾った音声の音量が所定の閾値以下であるときには、「聞こえなかった」として近接行動を指示しない。
したがって、ユーザの声が小さいときや、壁などの遮音物があって聞こえにくいときには近接行動を実行しない。また、音声源からロボット100が離れていてもユーザの声が大きいときや、壁などの遮音物があっても声が聞こえる程度の距離しか離れていない時には近接行動が実行される。これにより、ロボット100の聴覚レベルを一般的な生物と同様に表現できる。
以上、実施形態に基づいてロボット100およびロボット100を含むロボットシステム300について説明した。
ロボット100は、行動マップ等により、1以上の行動マップによりパターン化できない予測しづらい、かつ、生物的な行動選択を表現している。
ロボット100は、外部センサ114との協働により、ユーザが所定領域、典型的には、玄関152を通過するのを検知し、これに対応してお見送りやお出迎え行動を行う。また、呼び寄せに対応して、生物として想定可能かつ不自然とならない範囲で近接行動を行う。このような方法により生物的な行動選択をエミュレートする。
ペットに対する愛着は、ペットに必要とされている、頼られているという感覚に起因することが多い。帰宅時にお出迎えをしてその場に座り込んで抱っこをせがむお迎え行動や、外出時のお見送り行動などは、ロボット100がユーザに強い興味をもっていることをデモンストレートする上で効果的な行動選択である。これは呼び寄せにともなう近接行動についても同様である。
人間がペットに対して愛着を感じることが多いお出迎えやお見送り、呼び寄せをロボット100でも実現することにより、ユーザのロボット100に対する愛着を強めることができる。
なお、本発明は上記実施形態や変形例に限定されるものではなく、要旨を逸脱しない範囲で構成要素を変形して具体化することができる。上記実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることにより種々の発明を形成してもよい。また、上記実施形態や変形例に示される全構成要素からいくつかの構成要素を削除してもよい。
1つのロボット100と1つのサーバ200、複数の外部センサ114によりロボットシステム300が構成されるとして説明したが、ロボット100の機能の一部はサーバ200により実現されてもよいし、サーバ200の機能の一部または全部がロボット100に割り当てられてもよい。1つのサーバ200が複数のロボット100をコントロールしてもよいし、複数のサーバ200が協働して1以上のロボット100をコントロールしてもよい。
ロボット100やサーバ200以外の第3の装置が、機能の一部を担ってもよい。図5において説明したロボット100の各機能とサーバ200の各機能の集合体は大局的には1つの「情報処理装置」として把握することも可能である。1つまたは複数のハードウェアに対して、本発明を実現するために必要な複数の機能をどのように配分するかは、各ハードウェアの処理能力やロボットシステム300に求められる仕様等に鑑みて決定されればよい。
本実施形態においては、外部センサ114を介して、サーバ200の認識部212が監視エリア150におけるユーザの存在を検出する。変形例として、ロボット100の認識部156が外部センサ114や内部センサ128を介して、監視エリア150におけるユーザの存在を検出してもよい。
ロボット100は、必ずしもユーザを識別しなくてもよいが、ユーザに応じて行動を変化させてもよい。ユーザIDと親密度を対応づけておき、親密度が所定の閾値以上のユーザが帰宅またはお出かけをするときにはお見送りやお迎え行動をするが、閾値未満のときにはそのような行動をしないとしてもよい。
ロボット100は、ユーザの保有するスマートフォンなどの携帯機器から定期的にユーザIDを検知し、高頻度で検知されるユーザIDに対して親密度が高くなるように設定してもよい。また、抱っこなど典型的な親密行動をとったユーザに対して親密度が高くなるように設定してもよい。ユーザがボディ104を持ち上げるときの接触をセンシングしてもよいし、車輪102にかかる荷重が低下することにより抱っこの実行を認識すればよい。親密度は時間経過にともなって漸減してもよい。ロボット100は、加速度センサにより自らに加えられる衝撃を検知することで、自らに対する乱暴行為を認識し、乱暴行為を行ったユーザの親密度を低下させてもよい。ユーザがツノ112を掴んでロボット100を持ち上げるとき、これを乱暴行為と認識してもよい。
ロボット100は、ユーザIDではなく、ユーザの身体的特徴や行動的特徴によりユーザを認識してもよい。たとえば、複数のオーナーとなるべきユーザのうち、メガネをかけているユーザが一人だけであれば、メガネをかけているユーザとそれ以外のユーザを識別できる。そして、このメガネをかけているユーザにユーザID=1を付与することで、そのユーザを認識できる。メガネだけでなく、背の高さ、喫煙行動など身体的特徴や行動的特徴によりユーザを識別してもよい。
外部センサ114は、赤外線等により人を検知する人感センサであってもよい。外部センサ114は、玄関152を人が通過するのを検知したとき、検知信号をサーバ200に送信することでお出迎えやお見送り行動が実現されてもよい。この場合、外部センサ114は必ずしもユーザを識別しなくてもよい。外部センサ114は、内蔵の集音マイクにより、玄関152のドアを開ける音、たとえば、解錠音や施錠音を検出したとき、検知信号をサーバ200に送信してもよい。その他にも、靴箱を開ける音、傘をたたむ音や開く音、「いってきます」や「ただいま」のような呼び掛け音声などを契機として、お見送りや、お出迎えを実行してもよい。
ロボット100が探索信号を送信し、各外部センサ114から返答信号を受信することで、ロボット100が自らの位置座標を特定してもよい。あるいは、外部センサ114が指向性のある探索信号を送信し、それによって、外部センサ114からロボット100までの距離と方向を特定してもよい。
ロボット100は、人間に限らず、猫や犬などの動物の通過を検出してもよい。
ロボット100の内部センサ128が高精度であれば、外部センサ114は必須ではない。また、サーバ200が外部センサ114の機能を備えてもよい。ロボット100の内部センサ128が解錠音を高精度で検出できれば、外部センサ114やサーバ200がなくてもロボット100はお出迎え行動を実行できる。
複数のロボット100がお互いに情報交換をしてもよい。第1のロボット100がユーザの帰宅を検知すると、第1のロボット100が第2のロボット100に帰宅を無線通信により通知し、それにより、第1および第2のロボット100がお出迎え行動をしてもよい。お見送りについても同様である。
一般に家族のひとりひとりの生活パターンはほとんど固定化する。たとえば、父親は朝6時半頃に家を出て、夜9時頃に帰宅する。子どもは朝7時50分頃に家を出て、夕方3時頃に帰宅する。このように日々の生活パターンは決まってくる。ロボット100は、ユーザごとの生活パターンを蓄積する生活パターン蓄積部を更に備え、図5の移動判断部138は生活パターン蓄積部に登録されているユーザ毎の帰宅や外出の時間に基づいて行動をおこなってもよい。生活パターン蓄積部は、サーバ200のデータ格納部206の一部として形成されてもよいし、ロボット100のデータ格納部148の一部として形成されてもよい。
ロボット100は、いずれかのユーザの帰宅時間が近づいてきたら玄関近くへ移動し、ユーザの帰宅を待つ仕草、たとえば、着座や回転移動などを実行してもよい。また、いずれかのユーザの外出時間が近づくと、そのユーザのトラッキングを優先的に実行し、ユーザが玄関に向かうことを迅速に検出し、後を追う行動をしてもよい。
ロボット100は、蓄積された生活パターンに基づいて、各種センサの感度を調整してもよい。たとえば、帰宅時間帯が近づいてきたら、マイクの感度(電圧増幅率)を上げて、玄関を開ける音や、玄関の外側にある門扉を開け閉めする音を検出してもよい。ロボット100は経験に基づいて、行動を予測することにより、自然なタイミングでお迎えや、お見送りができる。
ロボット100がユーザS1に抱っこされている状況において、他のユーザS2が外出するときには、ロボット100は各ユーザに対する親密度に応じて行動を変える。
たとえば、抱っこしているユーザS1より外出するユーザS2に対する親密度が高い場合、ロボット100は「イヤイヤ」の仕草、具体的には、車輪102をボディ104に格納した状態で車輪102を回転させる行為や手106を強く振動させる行為などを実行して抱っこから解放されるように動く。ロボット100は、抱っこから逃れ、より親密なユーザS2を玄関まで見送る。
抱っこをしているユーザS1より外出するユーザS2に対する親密度が低い場合、ロボット100は、抱っこされたままで、手106を軽く振る。
お出迎えの際の愛情仕草を段階的に表現してもよい。ロボット100は、最初にお出迎えをする際は単に手106を持ち上げて「抱っこ」をせがむ。抱っこしてもらえなければ、ロボット100は、手106を激しく動かし自分の存在をアピールする。それでも抱っこしてもらえなければ、ロボット100は、車輪102を収容して抱っこしてくれなければ動かない、としてもよい。それでも抱っこしてもらえなければ、ユーザに体当たりしてもよいし、ユーザの周りを周回してもよい。
図8は、ロボットシステム300の機能ブロック図の変形例である。
変形例において、ロボット100のデータ処理部136は、瞳制御部406を備える。認識部156は、出入口特定部400、存在判定部402および進路予測部404を含む。変形例におけるロボット100の目110は、瞳画像を表示させるディスプレイである。瞳制御部406は、目110の瞳画像の位置や大きさを変化させる。
変形例においても、サーバ200の人物認識部214は、ロボット100のユーザに対する親密度をユーザごとに管理する。人物認識部214は、ユーザから抱っこされるなど所定の快行為をされたとき、そのユーザに対する親密度を増加させる。一方、ユーザから叩かれるなど所定の不快行為をされたとき、そのユーザに対する親密度を減少させる。
出入口特定部400は、室内空間における出入口を特定する。ここでいう「出入口」は、玄関扉、室内扉および窓など人が通り抜け可能な開口部であればよい。出入口の室内空間における位置座標はあらかじめロボットシステム300に初期設定されてもよい。この場合には、出入口特定部400は位置座標情報に基づいて出入口を特定する。また、出入口特定部400は、開閉により状態が変化する、あるいは、通常時は壁でありながらユーザなどの移動物体が通過することもある可変壁を「出入口」と画像認識してもよい。
存在判定部402は、出入口特定部400により特定された出入口の付近にユーザがいるか否かを判定する。ここでいう「特定された出入口」は、実際の出入口である必要はなく、ロボット100が出入口と認識した場所であればよい。存在判定部402は、集音マイクやカメラなど各種センサにより、出入口から所定範囲内、たとえば、1メートル以内の範囲にユーザが画像認識されたとき、出入口付近に人がいる、と判定する。実質的には、出入口の周辺に監視エリア150が設定されるのと同等の作用が生じる。出入口付近に外部センサ114が設置されるときには、外部センサ114からの検出信号により、出入口付近に人がいると判断してもよい。
進路予測部404は、出入口に向かって移動中のユーザが存在するか否かを判定する。進路予測部404は、ロボット100の周辺にいるユーザの位置を追跡・監視し、いずれかのユーザが出入口の方向に向かっているか、好ましくは、出入口から所定範囲内にいずれかのユーザが進入したか否かを判定する。出入口付近に外部センサ114が設置される場合には、進路予測部404も、外部センサ114からの検出信号により、出入口に向かって移動中のユーザが存在するか否かを判断してもよい。
図9は、ユーザが出入口から入ってくるときのロボット100の行動を説明するための模式図である。
室内空間408は、ロボット100が各種センサにより認識した閉鎖された空間である。室内空間408は、屋内の部屋であってもよいし、家屋であってもよい。ロボット100は、出入口特定部400により出入口410の場所を特定済みであるとする。図9においては、ユーザP1〜P3が室内空間408の内部に存在し、新たに、ユーザP4が出入口410から入ってくる状況を示している。出入口410の近くの壁には外部センサ114が設置されている。
ロボット100の存在判定部402は、出入口410の周辺画像を撮像することにより、出入口410の周辺領域、たとえば、出入口410から1メートル以内の範囲にユーザが存在するか否かを定期的に監視する。外部センサ114が設置されている場合には、存在判定部402は、外部センサ114からの検出信号により監視し、外部センサ114が出入口410のそばに設置されていないときには出入口410の周辺画像を定期的に確認することでユーザの存否を監視する。ロボット100は、カメラとして全天球カメラまたは反天球カメラなどの周囲を撮像できるカメラを備えることにより、ロボット100の背面側に出入口410が位置している場合でも出入口410の周辺画像を撮像し、状態の変化を検出できる。ここでいう「状態の変化」とは、出入口410付近における移動物体の通過検出、音声の検出、温度変化など、定常状態とは異なる事象の発生であればよい。
出入口410の周辺領域においてユーザP4が存在すると判定されたとき、移動判断部138は出入口410が存在する方向を移動先に設定する。このような制御方法によれば、出入口410をユーザP4が通過するときにロボット100による「お出迎え」や「お見送り」を行動表現できる。
ロボット100の存在判定部402は、マイクロフォンアレイなどの指向性のある音声検出器により、出入口410の方向から音声が検出されたときに出入口410の周辺にユーザが存在すると判定してもよい。マイクロフォンアレイは複数のマイクロフォンを備えるため、音声を検出するだけでなく、発声源の方向を特定することもできる。たとえば、出入口410の開錠音を検出したとき、ロボット100は出入口410の方向に移動してもよい。
存在判定部402は、特定のキーワードを音声検出したとき、出入口410の周辺にユーザがいると判定してもよい。特定のキーワードとは、「ただいま」「おかえり」「いってらっしゃい」「バイバイ」「いってきます」「おいで」などの帰宅や出発にともなって発せられる典型的な用語であればよい。ユーザが出かけるとき、または、帰宅したときに本人または周りの人間が発する典型的な言葉を「特定音声」としてサーバ200等のデータベースにあらかじめ登録しておく。特定音声が検出されたとき、ロボット100は特定音声の発声地点に向かうとしてもよい。
室内空間408に複数のユーザP1〜P3が存在する状況において、新たにユーザP4が出入口410の付近に現れたときには、ユーザP1〜P3のいずれかはユーザP4を出迎えるために出入口410の方向に移動するかもしれない。ここではユーザP1、P2がユーザP4を出迎えたとする。ロボット100は、出迎えに向かうユーザP1、P2を先導することなく、2人のユーザの後ろから出入口410に向かうとしてもよい。このような制御方法によれば、室内空間408に新たに登場したユーザP4に興味をもちながらも、他のユーザP1、P2の陰に隠れて近づくという行動表現が可能となる。このような行動により、ロボット100の「臆病さ」と「好奇心」を表現できる。
人物認識部214は、新たに登場したユーザP4が知っているユーザであるか、いいかえれば、すでにデータベースに登録されているかを判断する。たとえば、ユーザP4の行動的・身体的特徴が既に登録されているいずれかのユーザの特徴情報(プロファイル)に該当するときにはユーザP4は「既知のユーザ」である。
なお、ユーザP4が、ユーザIDを発信可能な携帯端末を所有しているときには、人物認識部214はユーザIDが登録済みであるか否かに応じて、ユーザP4が既知のユーザであるか否かを判断する。
ロボット100は、ユーザP4が知っているユーザ(登録済みユーザ)であるか否かに応じて行動態様を変化させる。行動判断部140は、ユーザP4が既知のユーザであるときには、手106を振る、首をうごかす、接近速度をアップさせる、などの行動により、「歓迎の意」を行動表現してもよい。反対に、未知のユーザである場合には、お出迎えを中止してユーザP4から距離を取る、その場に停止する、他の既知ユーザの陰に隠れるなどの回避行動をとってもよい。
なお、ロボット100が登録(認識)しているユーザがユーザP1〜P4の4人であって4人は在室している状況を想定する。ここで新たな人が検出されたときには、この人は100%の確率で未知の「来訪者」であると推定できる。ユーザP1〜P3が在室しているときに新たな人が検出されたときには、この人はユーザP4かもしれないし、未知の「来訪者」かもしれない。人物認識部214または移動判断部138は、来訪者である確率は50%であると判定する。ユーザP1、P2が在室しているときに新たな人が検出されたときには、この人はユーザP3、P4または未知の「来訪者」である。人物認識部214または移動判断部138は、来訪者である確率は33%であると判定する。上記の判定方法により、来訪者である確率が所定値以上であるときに限り、ロボット100は出迎えに向かうユーザに追随して「消極的な出迎え」をするとしてもよい。
ロボット100またはサーバ200は、ユーザの生活パターンを蓄積する生活パターン蓄積部を備えてもよい。あるいは、ロボット100の通信部142は、外部データベースとして形成される生活パターン蓄積部にアクセスすることにより、ユーザごとの生活パターン情報を適宜取得してもよい。生活パターン蓄積部は、ユーザごとに、起床時刻、出勤等による外出時刻、帰宅時刻および就寝時刻を生活パターン情報として登録する。これらの時刻は通常はばらつきがあるため、それらの平均値や最頻値を代表値として登録してもよい。ユーザごとだけではなく、曜日や季節ごとに、複数種類の生活パターンデータを登録してもよい。
存在判定部402は、ユーザの生活パターン情報を参照して、ユーザの帰宅時刻を予測してもよい。移動判断部138は、ユーザの予測された帰宅時刻が近づくと、出入口410の方向に移動し、ユーザを前もって「お出迎え」してもよい。このような制御方法によれば、高い精度にてお出迎えを実現しやすくなる。あるいは、帰宅時刻が近づかなければお出迎えをしないとしてもよい。
図10は、ユーザが出入口から出ていくときのロボット100の行動を説明するための模式図である。
ロボット100は、室内空間408にいるユーザP1〜P3の位置および移動方向を定期的に認識する。ここでは、ユーザP3が出入口410に向かって移動を開始したとする。進路予測部404は、ユーザP3が出入口410に向かって移動しているか否かを判定する。具体的には、ユーザP3の移動方向が出入口410を目指しており、かつ、そのような移動が所定時間以上継続しているとき、進路予測部404はユーザP3が出入口410を通って室内空間408から出ようとしていると判断する。
移動判断部138は、ユーザP3が出入口410に向かって移動していると判断されたとき、ユーザP3を追尾して移動するように駆動機構120を制御する。このような制御方法によれば、出入口410をユーザP3が通過するときにロボット100による「お見送り」を行動表現できる。
移動判断部138はロボット100が出入口410を通り抜けるのを禁止してもよい。すなわち、室内空間408において出入口410の付近までは移動するがそれ以上は追いかけないとすることで、ロボット100が室内空間408から出てしまわないように移動規制してもよい。また、「待て」「そこまで」「バイバイ」などの特定のキーワードが発話されたことを条件として、出入口410の通過をやめるとしてもよい。
進路予測部404は、ユーザの生活パターン情報を参照して、ユーザの外出時刻を予測してもよい。移動判断部138は、ユーザP3について予測された外出時刻を含む時間帯においてユーザP3が実際に出入口410の方向に移動したときに、出入口410の方向に移動し、ユーザを「お見送り」してもよい。たとえば、ユーザP3の外出予想時刻が19時であれば、その前後1時間の18時半から19時半までをお見送りのための準備時間帯として設定し、準備時間帯においてはユーザP3を優先監視する。具体的には、ユーザP3の位置検出の頻度を高める、定期的にカメラをユーザP3に向けるなどの設定が行われる。このような制御方法によれば、ユーザが出入口410を通り抜けるごとにお見送り行動をするのではなく、外出する可能性が高いタイミングで効果的にお見送り行動を実行しやすくなる。
ロボット100が、ユーザP1に対して所定のコミュニケーション行動を実行しているときに別のユーザに対する「お見送り」「お出迎え」を実行してもよい。ここでいうコミュニケーション行動とは、ユーザP1に抱っこされること、ユーザP1を見つめること、ユーザP1の付近を周回することなど、ユーザP1に対する興味や注意を表現する行動であればよい。
ロボット100がユーザP1とのコミュニケーション行動を実行しているときに、出入口410から所定範囲内にユーザP4の存在が特定されたとき、あるいは、出入口410の付近に設置される外部センサ114がユーザP4の接近を検出したとき、移動判断部138および行動判断部140はコミュニケーション行動を中止し、移動判断部138はユーザP4を出迎える行動を実行してもよい。また、ユーザP4が既知のユーザであること、ユーザP4に対する親密度が所定の閾値以上であること、あるいは、ユーザP4に対する親密度がユーザP1に対する親密度以上であること、などを条件として、ユーザP1とのコミュニケーション行動を中断するとしてもよい。
また、ロボット100がユーザP1とのコミュニケーション行動を実行しているとき、ユーザP3が出入口410に向かったときにもコミュニケーション行動が中止され、移動判断部138はユーザP3をお見送りしてもよい。ユーザP3が既知のユーザであること、ユーザP3に対する親密度が所定の閾値以上であること、あるいは、ユーザP3に対する親密度がユーザP1に対する親密度以上であること、などを条件として、ユーザP1とのコミュニケーション行動を中断するとしてもよい。
ロボット100は、ロボット100の周辺の認識可能な空間領域に新たなユーザが入ってきたときにそのユーザのいる方向に移動してもよい。ここでいう「認識可能な空間領域」とは、内蔵のカメラによって「人」であると認識可能な範囲である。あるいは、カメラによって「人」と認識できるだけでなく、人と認識されたそのユーザが既知のユーザであるか否かを画像認識できる範囲としてもよい。このような制御方法によれば、ロボット100が認知可能な範囲をあたかも「ナワバリ」として設定し、このナワバリに入ってきたユーザに対して興味をもって接近するかのような行動表現が可能となる。認識可能な空間領域の大きさは、ロボット100が内蔵するカメラの性能や画像処理能力に依存する。このため、認識可能な空間領域の大きさにより、実質的にロボット100の「視力」を表現できる。
このほか、ロボット100は自らが移動可能な空間領域に新たなユーザが入ってきたときにユーザのいる方向に移動してもよい。本実施形態におけるロボット100は、屋内行動を前提として設計されている。ロボット100は、屋内のすべてを移動可能であってもよいし、浴室や寝室など進入禁止の部屋を設定されてもよい。このように、ロボット100はあらかじめ移動可能範囲が設定されている。ロボット100は、この移動可能範囲に新たなユーザが存在することを認識したときにはそのユーザのそばに近寄るとしてもよい。この場合にも、ロボット100があたかもナワバリをもっているかのような行動表現が可能となる。
ロボット100が瞳画像をユーザに向ける仕草、いいかえれば、ロボット100がユーザに視線を向ける仕草を「愛情仕草」の一種として定義してもよい。ロボット100が頭部またはボディ104をユーザに向ける仕草を「愛情仕草」の一種として定義してもよい。このように目110やボディ104をユーザに向ける仕草により、ユーザに対してロボット100が興味を持っている旨を表現してもよい。一般的には、人は相手に好意を示すとき、相手に視線を向ける、じっと見つめる、瞳を見開く、向き直る(首や体を向ける)、などの行動をとる。ロボット100においても、瞳画像をユーザに向ける、その状態を所定時間、たとえば、1.0秒以上維持する、瞳画像を拡大させる、頭や体をユーザに向けることで人間と同様の愛情表現が可能であり、このような仕草を人に好意を示す愛情仕草として定義してもよい。
その他の愛情仕草としては、ユーザに追従して移動する、抱っこをされたときに首を上下させる、抱っこをされたときにユーザに顔を近づけるように首を動かす、抱っこをされた姿勢でボディ104を揺らす、自転する、ペンギンのように手108を上下させる、などが考えられる。
生活パターンはユーザにより設定されてもよい。あるいは、ロボット100がユーザの行動を観察することにより起床時刻等を検出してもよい。たとえば、あるユーザAが寝室から出てくる時刻を生活パターン蓄積部に登録することで、ユーザAの起床時刻を特定してもよい。ロボット100の認識部156は、カメラ等によりユーザAの起床を認識し、通信部142は起床時刻をデータ格納部148または外部データベースに記録することにより、ユーザAの起床時刻を生活パターンとして登録する。
ユーザAの外出時刻の最頻値が午前7時50分であるとする。ロボット100は、午前7時50分の10分前の午前7時40分になると、ユーザAを探し、ユーザAを追跡する。ユーザAが監視エリア150(あるいは、出入口410の付近)に移動するときには、ロボット100はユーザAに追従して監視エリア150に向かう。このような生活パターン情報に基づく予測行動により、ロボット100はより確実にユーザAをお見送りしやすくなる。ロボット100は、生活パターン情報を参照し、ユーザの外出予定時刻(最頻値、平均値等)を予測し、外出予定時刻よりも所定時間前からユーザに対する追跡行動を開始してもよい。そして、ユーザが玄関152の監視エリア150に進入したときや、特定音声が検出されたとき、ユーザが玄関152の扉を開けたとき、愛情仕草を実行することで「お見送り」をしてもよい。お出迎えと同様、外出予定時刻の所定時間前にならなければ「お見送り」を実行しないとしてもよい。
同様にして、ユーザAの帰宅時刻の最頻値が午後8時20分であるとする。ロボット100は、午後8時20分の20分前の午後8時になると監視エリア150に移動し、ユーザAの帰宅を待ち構えてもよい。あるいは、監視エリア150の扉の解錠音を検出可能な範囲に位置し、ユーザAのお出迎えのために待機してもよい。このように、ロボット100は、生活パターン情報を参照し、ユーザの帰宅予定時刻(最頻値、平均値等)を予測し、帰宅予定時刻よりも所定時間前に監視エリア150付近の所定エリアに移動してもよい。そして、ユーザが玄関152の監視エリア150に進入したときや、特定のキーワードが検出されたとき、ユーザが玄関152の扉を開けたとき、愛情仕草を実行することで「お出迎え」をしてもよい。
玄関152に設置される外部センサ114は、ユーザの監視エリア150への進入を検出し、サーバ200に通知する。サーバ200は、ロボット100に「お出迎え」や「お見送り」を指示する制御信号を送信し、ロボット100はサーバ200の指定する目標地点に移動する。ロボット100は、目標地点に到達すると、ユーザに対して愛情仕草を実行する。
ロボット100の認識部156が、ユーザが扉を通過するのを内蔵のカメラにて確認したとき、お出迎えまたはお見送り行動をサーバ200からの指示を待つことなく主体的に実行してもよい。扉の近くに設置される外部センサ114が、ユーザが扉を通過するのを検出する場合、外部センサ114は検出信号をサーバ200に送信し、サーバ200がロボット100にお出迎え等を指示してもよい。あるいは、外部センサ114からロボット100に直接検出信号を送信し、ロボット100の移動判断部138は外部センサ114のIDに対応する扉の存在する方向に移動目標地点を設定してもよい。ロボット100が移動目標地点に到達したあと、認識部156がカメラによってユーザを画像認識したとき、ロボット100は愛情仕草を実行する。
ロボット100は、扉の開閉音を内蔵のマイクロフォン(センサ)または外部センサ114に内蔵されるマイクロフォンが検出したとき、扉に移動し、ユーザを画像認識したときに愛情仕草を実行してもよい。ユーザが扉を通過したときに限らず、扉の開閉のように通過が予見される状況にあるときにも、ロボット100はお出迎え等を実行してもよい。
監視エリア150へのユーザの進入や扉の開閉以外にも「お出迎えやお見送りをすべき状況」を検出する方法として、「ただいま」「おかえり」「いってらっしゃい」「バイバイ」「いってきます」「おいで」などの特定音声を検出してもよい。ユーザが出かけるとき、または、帰宅したときに本人または周りの人間が発する典型的な言葉を「特定音声」としてサーバ200等のデータベースにあらかじめ登録しておく。特定音声が検出されたとき、ロボット100は特定音声の発声地点に向かい、ユーザに対して愛情仕草を実行するとしてもよい。
ロボット100は、特定音声を検出したとき、特定音声の発生源に移動し、ユーザを画像認識したことを契機として愛情仕草を実行してもよい。なお、複数種類の愛情仕草のいずれを実行するかはランダムに選択されてもよいし、ユーザに対する親密度や感情パラメータなどの変数に応じて愛情仕草を選択してもよい。
複数のロボット100が存在するときには、一方のロボット100が他方のロボット100に「帰宅」や「外出」を通知してもよい。たとえば、第1のロボット100は玄関152の扉の開閉音または解錠音を検出したとき、第1のロボット100は開閉音検出を無線通信により第2のロボット100にも通知する。第1のロボット100が開閉音等の検知によりユーザの帰宅を認識したときには自らお出迎え行動を実行するだけでなく帰宅検知を第2のロボット100にも通知することで、帰宅を認識していなかった第2のロボット100もお出迎え行動を実行できる。第2のロボット100は、玄関152から遠い場所にいて開閉音や解錠音を検知できなかったときでも、第1のロボット100と同様にお出迎え行動等を実行できる。
より具体的には、第1のロボット100は、玄関152に人の存在を検知したとき、玄関152を移動先の目標地点として設定し、目標地点に到達したときに愛情仕草を実行する。また、第1のロボット100は、玄関152における人の存在を検知したとき、検知信号を第2のロボット100に送信する。第2のロボット100は検知信号を受信したとき、玄関152を移動先の目標地点として設定し、目標地点に到達したときに第1のロボット100と同様にして愛情仕草を実行する。お見送りについても同様である。第1のロボット100が扉の開閉を検知したとき、人が扉を通過するのを検知したとき、特定音声を検知したときにも、同様にして検知信号を第2のロボット100に送信してもよい。
ロボット100は、親密度に応じて行動を変化させてもよい。たとえば、ユーザS1に抱っこされている状況において別のユーザS2の外出や帰宅が検出されたとき、ユーザS1に対する親密度とユーザS2に対する親密度を比較し、親密度が高い方のユーザに対する行動を優先する。ユーザS1に呼びかけられたときに別のユーザS2の外出や帰宅が検出されたときも同様である。ロボット100は、第2のユーザが玄関152の監視エリア150に進入したときや第2のユーザによる特定音声が検出されたとき、すなわち、第2のユーザの帰宅が認識されたときには、在宅中の第1のユーザに対する親密度よりも第2のユーザに対する親密度が高いことを条件として、お出迎え行動やお見送り行動を実行してもよい。
第1のユーザから指示される行動を実行中であるとき、あるいは、第1のユーザと接触中であるときに第2のユーザが帰宅したときには、第1のユーザに対する親密度と第2のユーザの親密度の差分に応じて愛情仕草を変化させてもよい。たとえば、第1のユーザよりも格段に親密な(差分が第1の閾値以上)第2のユーザが帰宅したときには、ロボット100は第1のユーザから離れて玄関152に移動し、第2のユーザに抱っこをせがんでもよい。第1のユーザと同程度に親密な(差分が第2の閾値以上、第1の閾値未満)第2のユーザが帰宅したときには、ロボット100は玄関152にいったん移動して第2のユーザを見つめたあと、第1のユーザのいる場所に戻るとしてもよい。更に、第1のユーザよりも親密ではない(差分が第2の閾値未満)第2のユーザが帰宅したときには、ロボット100は第2のユーザに対して愛情仕草を実行しないとしてもよい。
ロボット100は、玄関152の扉を通り抜けることはできないが、室内扉は通り抜けることができる。また、通過できない室内扉が設定されてもよい。サーバ200は、通過可能な扉と通過不可能な扉の位置をマップ登録し、ロボット100はこのマップにしたがって移動可能範囲を制限してもよい。ユーザは、「待て」などの所定の音声(以下、「待機音声」とよぶ)を発することでロボット100が室内扉を通り抜けるのを禁止できてもよい。ロボット100は、室内扉を通り抜けてユーザを追いかけるとき、ユーザが「待て」「来るな」「そこまで」などの待機音声を発声したときには、室内扉を通り抜けず停止してもよい。また、ロボット100は、待機音声により通り抜けを禁止された扉は、以後も通り抜けないように学習してもよい。このような制御方法によれば、待機音声によりロボット100の行動可能範囲をコントロールできる。
ロボット100の認識部156は、玄関152の扉の解錠音や開閉音のほか、インタフォンの音や玄関152の扉を開けたときに鳴るようにセットされたメロディを検知することにより、ユーザの帰宅を検出してもよい。また、在宅のユーザたちの会話から帰宅可能性を判断してもよい。たとえば、ロボット100の認識部156は、在宅者の会話において「くる」「帰る」などの特定音声を認識したとき、外出中のユーザの帰宅が近いと判断してもよい。この場合には、ロボット100は直ちに玄関152に移動してもよいし、玄関152の解錠音を検出可能な所定地点を移動目標地点に設定してもよい。
オーナーの全員が在宅しているとき、インタフォンの音などにより来客が検出されたときには、ロボット100はオーナーの後ろについて行き、控えめに出迎え行動をしてもよい。たとえば、オーナーの後ろをついていき、愛情仕草を実行することなく、居室にすぐに引き返してもよい。
ロボット100は、お出迎えやお見送りに際し、移動目標地点と現在地点の間に障害物があるとき、たとえば、居室の扉が閉鎖されているために玄関152に到達できないときには、その障害物の手前で停止して待機し、ユーザを視認した段階で愛情仕草を実行してもよい。たとえば、玄関152までのルートがガラスの室内扉により閉鎖されているときには、室内扉の手前で停止し、ガラス越しに帰宅したユーザを視認したときに愛情仕草を実行してもよい。このように移動目標地点は、玄関152のようにユーザの存在する地点でなくてもよく、ユーザが存在する地点に向かうルート上に設定される地点であればよい。
室内扉をユーザが通過するとき、生活パターン情報を参照して、長期退出か一時退出かを判定してもよい。そして、長期退出のときに限り、お見送り行動を実行するとしてもよい。たとえば、ユーザBは、通常、午前9時から午前10時の間(第1時間帯)に室内扉を通過するときには外出する確率が所定の閾値以上であるが、午後1時から午後3時の間(第2時間帯)に室内扉を通過するときには外出する確率は所定の閾値よりも小さいとする。ロボット100は、ユーザBが室内扉を通過する時間帯が第1時間帯のときにはお見送り行動を実行せず、第2時間帯のときにはお見送りを実行するとしてもよい。
また、コートを着用している、帽子をかぶっている、水筒を下げているなどの外出を示すオブジェクトを検出したときに長期外出と判断してお見送り行動を実行するとしてもよい。室内扉をユーザが通過するとき、「いってらっしゃい」「いってきます」等の特定音声を検出したとき、長期退出と判断してもよい。
サーバ200のデータ処理部202またはロボット100のデータ処理部136は、感情管理部を有してもよい。感情管理部は、ロボット100の感情(寂しさ、好奇心、承認欲求など)を示すさまざまな感情パラメータを管理する。これらの感情パラメータは常に揺らいでいる。感情パラメータに応じて複数の行動マップの重要度が変化し、行動マップによってロボット100の移動目標地点が変化し、ロボット100の移動や時間経過によって感情パラメータが変化する。
たとえば、寂しさを示す感情パラメータが高いときには、感情管理部は安心する場所を評価する行動マップの重み付け係数を大きく設定する。ロボット100が、この行動マップにおいて寂しさを解消可能な地点に至ると、感情管理部は寂しさを示す感情パラメータを低下させる。また、後述の応対行為によっても各種感情パラメータは変化する。たとえば、オーナーから「抱っこ」をされると寂しさを示す感情パラメータは低下し、長時間にわたってオーナーを視認しないときには寂しさを示す感情パラメータは少しずつ増加する。
ロボット100は、外部センサ114を自ら設置してもよい。ロボット100が家庭に導入されたとき、ロボット100は外部センサ114の設置場所をユーザに指示してもよいし、自ら外部センサ114を設置してもよい。

Claims (24)

  1. 移動方向を決定する移動判断部と、
    複数種類の仕草からいずれかの仕草を選択する行動判断部と、
    監視エリアにおける人の存在を検出する対象検出部と、
    指定された移動および仕草を実行する駆動機構と、を備え、
    前記移動判断部は、前記監視エリアにおける人の存在が検出されたとき、前記監視エリアに移動先の目標地点を設定し、
    前記行動判断部は、自装置が前記目標地点に到達する前に前記監視エリアから自装置に向かって移動する人が新たに検出されたとき、前記目標地点への移動を中断して前記新たに検出された人に対して、人に好意を示す仕草として定義される愛情仕草の実行を指示することを特徴とする自律行動型ロボット。
  2. 前記愛情仕草は、着座行動であることを特徴とする請求項1に記載の自律行動型ロボット。
  3. 人を認識する人物認識部、を更に備え、
    前記行動判断部は、認識した人物に応じて複数種類の愛情仕草から実行対象となる愛情仕草を選択することを特徴とする請求項1または2に記載の自律行動型ロボット。
  4. 前記愛情仕草に対する人からの応対を検出する応対認識部を更に備え、
    前記応対認識部が人から好意的な応対を受けたことを検出した場合に、前記行動判断部は別の愛情仕草を選択することを特徴とする請求項1から3のいずれかに記載の自律行動型ロボット。
  5. 前記監視エリアにはあらかじめセンサが設置されており、
    前記センサは、前記監視エリアにおける人の通過を検出したとき検出信号を送信し、
    前記対象検出部は、前記検出信号により人の通過を検出することを特徴とする請求項1から4のいずれかに記載の自律行動型ロボット。
  6. 前記センサは集音マイクを含み、呼びかけ音を検出したときにも前記検出信号を送信することを特徴とする請求項5に記載の自律行動型ロボット。
  7. 前記移動判断部は、自律行動型ロボットの現在地点から前記監視エリアまでの距離が所定距離以下であることを条件として、前記監視エリアに前記目標地点を設定することを特徴とする請求項1から6のいずれかに記載の自律行動型ロボット。
  8. 移動方向を決定する移動判断部と、
    指定された移動を実行する駆動機構と、
    センサの検出情報により、外部環境を認識する認識部と、を備え、
    前記認識部は、
    室内空間において、人が通過可能な場所を出入口として特定する出入口特定部と、
    前記特定された出入口から所定範囲内に人が存在するか否かを判定する存在判定部と、を含み、
    前記移動判断部は、第1のユーザを対象とした所定のコミュニケーション行動の実行中において、前記特定された出入口から所定範囲内に第2のユーザが存在すると判定されたとき、前記コミュニケーション行動を中断させて前記特定された出入口への移動を前記駆動機構に指示することを特徴とする自律行動型ロボット。
  9. 前記存在判定部は、前記特定された出入口が存在する方向において前記センサにより状態の変化が検出されたとき、人が存在すると判定することを特徴とする請求項8に記載の自律行動型ロボット。
  10. 前記存在判定部は、前記センサにより特定のキーワードを含む音声が検出されたとき、人が存在すると判定することを特徴とする請求項8に記載の自律行動型ロボット。
  11. 前記移動判断部は、前記室内空間における人の存在状況に基づいて来訪者の可能性を推定し、来訪者の可能性が高いと判定した場合、前記室内空間に存在する人に追従して前記特定された出入口へ移動するように前記駆動機構に指示することを特徴とする請求項8から10のいずれかに記載の自律行動型ロボット。
  12. 来訪者が登録済みのユーザであるか否かに応じて、移動時の行動態様を変化させる行動判断部、を更に備えることを特徴とする請求項11に記載の自律行動型ロボット。
  13. 前記存在判定部は、ユーザの生活パターン情報を参照して、前記ユーザの帰宅時刻を予測し、
    前記移動判断部は、前記予測された帰宅時刻の所定時間前に前記特定された出入口へ移動するように前記駆動機構に指示することを特徴とする請求項8から12のいずれかに記載の自律行動型ロボット。
  14. 前記存在判定部は、外部に設置されたセンサにより室内空間への接近物体が検出されたとき、前記特定された出入口の周辺に人が存在すると判定することを特徴とする請求項8から13のいずれかに記載の自律行動型ロボット。
  15. 移動方向を決定する移動判断部と、
    指定された移動を実行する駆動機構と、
    センサの検出情報により、外部環境を認識する認識部と、を備え、
    前記認識部は、
    室内空間において、人が通過可能な場所を出入口として特定する出入口特定部と、
    前記特定された出入口に向かう方向に人が移動中であるか否かを判定する進路予測部と、を含み、
    前記移動判断部は、第1のユーザを対象とした所定のコミュニケーション行動の実行中において、前記特定された出入口に向かう方向に第2のユーザが移動中であると判定されたとき、前記コミュニケーション行動を中断させて前記特定された出入口への移動を前記駆動機構に指示することを特徴とする自律行動型ロボット。
  16. 前記移動判断部は、前記特定された出入口への移動を前記駆動機構に指示するとき、前記駆動機構に対して前記特定された出入口の通過を禁止することを特徴とする請求項15に記載の自律行動型ロボット。
  17. 前記移動判断部は、前記特定された出入口への移動を前記駆動機構に指示するとき、前記センサにより特定のキーワードを含む音声が検出されたときに前記駆動機構に対して前記特定された出入口の通過を禁止することを特徴とする請求項15に記載の自律行動型ロボット。
  18. 前記進路予測部は、ユーザの生活パターン情報を参照して、前記ユーザの外出時刻を予測し、
    前記移動判断部は、前記予測された外出時刻を含む所定の時間帯以外において前記ユーザが前記特定された出入口へ移動するとき、前記ユーザを追尾させないことを特徴とする請求項15から17のいずれかに記載の自律行動型ロボット。
  19. 前記移動判断部は、前記第2のユーザの親密度が前記第1のユーザの親密度より高いことを条件として、前記コミュニケーション行動を中断させることを特徴とする請求項15に記載の自律行動型ロボット。
  20. 移動方向を決定する移動判断部と、
    指定された移動を実行する駆動機構と、
    センサの検出情報により、外部環境を認識する認識部と、を備え、
    前記移動判断部は、第1のユーザを対象とした所定のコミュニケーション行動の実行中において、第2のユーザが存在すると判定されたとき、前記コミュニケーション行動を中断させて前記第2のユーザの存在方向への移動を前記駆動機構に指示することを特徴とする自律行動型ロボット。
  21. 前記移動判断部は、前記第2のユーザが検出されたあと前記第2のユーザが登録済みのユーザに該当するか否かを画像認識によって判別できたとき、前記第2のユーザに向かう方向への移動を前記駆動機構に指示することを特徴とする請求項20に記載の自律行動型ロボット。
  22. センサの検出情報により、室内空間において人が通過可能な場所を出入口として特定する機能と、
    前記特定された出入口から所定範囲内に人が存在するか否かを判定する機能と、
    第1のユーザを対象とした所定のコミュニケーション行動の実行中において、前記特定された出入口から所定範囲内に第2のユーザが存在すると判定されたとき、前記コミュニケーション行動を中断させて前記特定された出入口への移動を自律行動型ロボットの駆動機構に指示する機能と、を前記自律行動型ロボットに発揮させることを特徴とするコンピュータプログラム。
  23. センサの検出情報により、室内空間において人が通過可能な場所を出入口として特定する機能と、
    前記特定された出入口に向かう方向に人が移動中であるか否かを判定する機能と、
    第1のユーザを対象とした所定のコミュニケーション行動の実行中において、前記特定された出入口に向かう方向に第2のユーザが移動中であると判定されたとき、前記コミュニケーション行動を中断させて前記特定された出入口への移動を自律行動型ロボットの駆動機構に指示する機能と、を前記自律行動型ロボットに発揮させることを特徴とするコンピュータプログラム。
  24. センサの検出情報により、外部環境を認識する機能と、
    第1のユーザを対象とした所定のコミュニケーション行動の実行中において、認識可能な空間領域において第2のユーザの存在が認識されたときには、前記コミュニケーション行動を中断して前記第2のユーザに向かう方向への移動を指示する機能と、を自律行動型ロボットに発揮させることを特徴とするコンピュータプログラム。
JP2017554104A 2016-03-28 2017-03-16 お出迎え行動する自律行動型ロボット Active JP6409206B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016063466 2016-03-28
JP2016063466 2016-03-28
PCT/JP2017/010594 WO2017169826A1 (ja) 2016-03-28 2017-03-16 お出迎え行動する自律行動型ロボット

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018156030A Division JP2019010728A (ja) 2016-03-28 2018-08-23 お出迎え行動する自律行動型ロボット

Publications (2)

Publication Number Publication Date
JPWO2017169826A1 JPWO2017169826A1 (ja) 2018-04-12
JP6409206B2 true JP6409206B2 (ja) 2018-10-24

Family

ID=59964378

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017554104A Active JP6409206B2 (ja) 2016-03-28 2017-03-16 お出迎え行動する自律行動型ロボット
JP2018156030A Pending JP2019010728A (ja) 2016-03-28 2018-08-23 お出迎え行動する自律行動型ロボット

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018156030A Pending JP2019010728A (ja) 2016-03-28 2018-08-23 お出迎え行動する自律行動型ロボット

Country Status (6)

Country Link
US (1) US11135727B2 (ja)
JP (2) JP6409206B2 (ja)
CN (1) CN109153127B (ja)
DE (1) DE112017001573B4 (ja)
GB (1) GB2563785B (ja)
WO (1) WO2017169826A1 (ja)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112017001874T5 (de) 2016-04-08 2018-12-27 Groove X, Inc. Autonom handelnder Roboter mit Schüchternheit
CN109414824B (zh) * 2016-07-08 2022-07-26 Groove X 株式会社 穿衣服的行为自主型机器人
US10427305B2 (en) * 2016-07-21 2019-10-01 Autodesk, Inc. Robotic camera control via motion capture
JP6565853B2 (ja) * 2016-09-29 2019-08-28 トヨタ自動車株式会社 コミュニケーション装置
JP6515899B2 (ja) * 2016-10-04 2019-05-22 トヨタ自動車株式会社 音声対話装置及びその制御方法
US11100384B2 (en) 2017-02-14 2021-08-24 Microsoft Technology Licensing, Llc Intelligent device user interactions
US10467510B2 (en) 2017-02-14 2019-11-05 Microsoft Technology Licensing, Llc Intelligent assistant
US11010601B2 (en) * 2017-02-14 2021-05-18 Microsoft Technology Licensing, Llc Intelligent assistant device communicating non-verbal cues
US10449463B2 (en) * 2017-05-09 2019-10-22 Wowwee Group Ltd. Interactive robotic toy
US11584018B2 (en) 2017-11-13 2023-02-21 Teenage Engineering Ab User interactive electronic system and method for controlling a robotic arm
WO2019187834A1 (ja) * 2018-03-30 2019-10-03 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US11468590B2 (en) 2018-04-24 2022-10-11 Cyberoptics Corporation Wireless substrate-like teaching sensor for semiconductor processing
WO2019213264A1 (en) * 2018-05-01 2019-11-07 Piaggio Fast Forward, Inc. Method for determining self-driving vehicle behavior models, a self-driving vehicle, and a method of navigating a self-driving vehicle
WO2019211932A1 (ja) * 2018-05-01 2019-11-07 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び自律行動ロボット制御システム
JP7327391B2 (ja) * 2018-05-15 2023-08-16 ソニーグループ株式会社 制御装置、制御方法及びプログラム
JP2019207463A (ja) * 2018-05-28 2019-12-05 株式会社日立製作所 ロボット、行動検知サーバ、および行動検知システム
JPWO2019240208A1 (ja) * 2018-06-13 2021-06-24 Groove X株式会社 ロボットおよびその制御方法、ならびにプログラム
CN110605722A (zh) * 2018-06-14 2019-12-24 中瑞福宁机器人(沈阳)有限公司 养老服务机器人三层级关怀系统
JP7176244B2 (ja) * 2018-06-20 2022-11-22 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
JP7298860B2 (ja) * 2018-06-25 2023-06-27 Groove X株式会社 仮想キャラクタを想定する自律行動型ロボット
WO2020017111A1 (ja) * 2018-07-20 2020-01-23 ソニー株式会社 エージェント、存在確率マップ作成方法、エージェントの行動制御方法、及びプログラム
US11154991B2 (en) 2018-09-26 2021-10-26 Disney Enterprises, Inc. Interactive autonomous robot configured for programmatic interpretation of social cues
JP7379814B2 (ja) * 2018-11-21 2023-11-15 富士フイルムビジネスイノベーション株式会社 自律移動装置およびプログラム
JP7444460B2 (ja) 2018-12-03 2024-03-06 Groove X株式会社 ロボット用充電ステーション
KR20210099217A (ko) * 2019-01-03 2021-08-12 엘지전자 주식회사 로봇 시스템의 제어 방법
KR102279597B1 (ko) * 2019-01-28 2021-07-20 엘지전자 주식회사 인공지능 이동 로봇 및 이의 제어 방법
WO2020158642A1 (ja) * 2019-01-31 2020-08-06 ソニー株式会社 ロボットの制御装置、ロボットの制御方法、及びプログラム
JP7273538B2 (ja) * 2019-02-26 2023-05-15 パナソニックホールディングス株式会社 装置、方法、及びプログラム
CN109857114A (zh) * 2019-02-26 2019-06-07 温州市职业中等专业学校 校园移动智能机器人及校园智能管理系统
JP7024754B2 (ja) * 2019-03-25 2022-02-24 カシオ計算機株式会社 制御装置、ロボット、制御方法およびプログラム
JP7320240B2 (ja) * 2019-04-01 2023-08-03 国立大学法人豊橋技術科学大学 ロボット
KR20210138181A (ko) * 2019-04-11 2021-11-19 엘지전자 주식회사 안내 로봇 및 안내 로봇의 동작 방법
US11429113B2 (en) * 2019-08-08 2022-08-30 Lg Electronics Inc. Serving system using robot and operation method thereof
EP4032594A4 (en) * 2019-09-17 2022-11-16 Sony Group Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
CN112536801A (zh) * 2019-09-23 2021-03-23 上海庐真实业有限公司 一种早教机器人
CN111300437B (zh) * 2019-12-06 2022-01-04 西南石油大学 一种图书馆图书智能收集存储集运机器人
KR20210078060A (ko) * 2019-12-18 2021-06-28 삼성전자주식회사 사용자와의 인터랙션 중 인터럽션(제3자로부터의 개입)을 방지하는 로봇
JP7351757B2 (ja) * 2020-01-24 2023-09-27 株式会社日立製作所 移動するロボットを制御する方法
CN114006959A (zh) * 2020-07-27 2022-02-01 Oppo广东移动通信有限公司 电子设备
KR102576788B1 (ko) * 2020-08-21 2023-09-11 한국전자통신연구원 로봇 인터랙션 행위 생성 장치 및 방법
CN115427126B (zh) * 2020-12-10 2023-12-26 松下知识产权经营株式会社 机器人控制方法以及信息提供方法
CN113050505B (zh) * 2021-03-25 2021-12-24 广东凌霄泵业股份有限公司 一种远程控制型多功能spa浴缸智能控制器
CN113534813A (zh) * 2021-07-30 2021-10-22 珠海一微半导体股份有限公司 移动机器人作业方法、系统及芯片
DE102023201628B3 (de) 2023-02-22 2024-05-16 BSH Hausgeräte GmbH Bestimmung eines Zustands eines Fensters oder einer Tür in einem Haushalt
US11826670B1 (en) * 2023-07-27 2023-11-28 Placo Bubbles Limited Moving bubble toy animal

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100721075B1 (ko) * 1998-09-10 2007-05-23 소니 가부시끼 가이샤 로봇 장치, 로봇 장치의 제어 방법, 표시 방법 및 컴퓨터로 판독 가능한 기록 매체
US6519506B2 (en) * 1999-05-10 2003-02-11 Sony Corporation Robot and control method for controlling the robot's emotions
WO2000067959A1 (fr) 1999-05-10 2000-11-16 Sony Corporation Dispositif robotique et procede de commande associe
JP2000323219A (ja) 1999-05-10 2000-11-24 Sony Corp 接続装置及びロボットシステム
JP2001188551A (ja) * 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体
JP2003296855A (ja) * 2002-03-29 2003-10-17 Toshiba Corp 監視装置
JP2004034274A (ja) * 2002-07-08 2004-02-05 Mitsubishi Heavy Ind Ltd 会話ロボット及びその動作方法
JP3885019B2 (ja) * 2002-11-29 2007-02-21 株式会社東芝 セキュリティシステム及び移動ロボット
JP4411900B2 (ja) * 2003-08-08 2010-02-10 ソニー株式会社 電子機器間の相互成長システム、電子機器及びロボット装置
JP2005103679A (ja) * 2003-09-29 2005-04-21 Toshiba Corp ロボット装置
JP2005103722A (ja) * 2003-09-30 2005-04-21 Toshiba Corp 協調ロボット装置、システム、およびナビゲーションロボット装置
JP4315872B2 (ja) * 2004-07-28 2009-08-19 本田技研工業株式会社 移動ロボットの制御装置
ATE524784T1 (de) * 2005-09-30 2011-09-15 Irobot Corp Begleitroboter für persönliche interaktion
JP2007152442A (ja) * 2005-11-30 2007-06-21 Mitsubishi Heavy Ind Ltd ロボット案内システム
JP2007316966A (ja) * 2006-05-26 2007-12-06 Fujitsu Ltd 移動ロボット、その制御方法及びプログラム
US20080056933A1 (en) * 2006-08-29 2008-03-06 Moore Barrett H Self-Propelled Sterilization Robot and Method
JP4871160B2 (ja) * 2007-02-16 2012-02-08 株式会社東芝 ロボットおよびその制御方法
JP4949969B2 (ja) * 2007-08-20 2012-06-13 国立大学法人埼玉大学 コミュニケーションロボットとその動作方法
JP5429462B2 (ja) * 2009-06-19 2014-02-26 株式会社国際電気通信基礎技術研究所 コミュニケーションロボット
JP5392028B2 (ja) * 2009-11-26 2014-01-22 富士通株式会社 自律移動ロボット
JP2011224679A (ja) * 2010-04-16 2011-11-10 Toyota Motor Corp 応対ロボット、応対制御方法、及び応対制御プログラム
JP5552710B2 (ja) * 2010-11-25 2014-07-16 株式会社国際電気通信基礎技術研究所 ロボットの移動制御システム、ロボットの移動制御プログラムおよびロボットの移動制御方法
EP2708334B1 (en) * 2011-05-12 2020-05-06 IHI Corporation Device and method for controlling prediction of motion
JP5927797B2 (ja) * 2011-07-26 2016-06-01 富士通株式会社 ロボット制御装置、ロボットシステム、ロボット装置の行動制御方法、及びプログラム
US8761933B2 (en) * 2011-08-02 2014-06-24 Microsoft Corporation Finding a called party
EP2852881A4 (en) * 2012-05-22 2016-03-23 Intouch Technologies Inc GRAPHIC USER INTERFACES CONTAINING TOUCH PAD TOUCH INTERFACES FOR TELEMEDICINE DEVICES
US9156476B2 (en) * 2012-10-02 2015-10-13 Trevor O'Neill System and method for remote control of unmanned vehicles
CN103341268B (zh) * 2013-05-24 2016-02-10 广州睿火智能科技有限公司 多功能装置及其应用方法
US9329597B2 (en) * 2014-01-17 2016-05-03 Knightscope, Inc. Autonomous data machines and systems
EP2933064A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics System, method and computer program product for handling humanoid robot interaction with human
EP2933065A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Humanoid robot with an autonomous life capability
JP2016022537A (ja) * 2014-07-16 2016-02-08 国立大学法人 筑波大学 ロボット
JP6330617B2 (ja) * 2014-10-21 2018-05-30 ソニー株式会社 情報処理装置、通信システム、情報処理方法およびプログラム
CN204712059U (zh) * 2015-06-12 2015-10-21 姚显平 礼仪迎宾仿真机器人模特

Also Published As

Publication number Publication date
JPWO2017169826A1 (ja) 2018-04-12
GB2563785A (en) 2018-12-26
WO2017169826A1 (ja) 2017-10-05
CN109153127A (zh) 2019-01-04
DE112017001573T5 (de) 2018-12-20
US11135727B2 (en) 2021-10-05
GB201815713D0 (en) 2018-11-07
JP2019010728A (ja) 2019-01-24
GB2563785B (en) 2021-03-03
DE112017001573B4 (de) 2020-01-30
CN109153127B (zh) 2022-05-31
US20180333862A1 (en) 2018-11-22

Similar Documents

Publication Publication Date Title
JP6409206B2 (ja) お出迎え行動する自律行動型ロボット
JP6494062B2 (ja) 音源の方向を認識する自律行動型ロボット
JP6402320B2 (ja) 人見知りする自律行動型ロボット
JP6436548B2 (ja) 自律行動型ロボット
JP6475872B2 (ja) 活動量をコントロールされる自律行動型ロボット
JP6467674B2 (ja) スキンシップを理解する自律行動型ロボット
JP6495486B2 (ja) 自律行動型ロボット及びコンピュータプログラム
JP6409209B2 (ja) 涼しさを求める自律行動型ロボット
JP6472113B2 (ja) 自然な距離感を保つ自律行動型ロボットおよびプログラム
JP6557840B2 (ja) ロボット、サーバ及び行動制御プログラム
JP2019022935A (ja) 服を着る自律行動型ロボット
JP6671577B2 (ja) 人を識別する自律行動型ロボット
JP6574970B2 (ja) ゲストを受け入れるロボット
JP6575005B2 (ja) ロボットの関節に好適なジョイント構造
JPWO2018207908A1 (ja) ロボット、装身具及びロボット制御プログラム

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20171130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180903

R150 Certificate of patent or registration of utility model

Ref document number: 6409206

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

RG99 Written request for provisional registration

Free format text: JAPANESE INTERMEDIATE CODE: R313G99

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250