JP6409206B2 - お出迎え行動する自律行動型ロボット - Google Patents
お出迎え行動する自律行動型ロボット Download PDFInfo
- Publication number
- JP6409206B2 JP6409206B2 JP2017554104A JP2017554104A JP6409206B2 JP 6409206 B2 JP6409206 B2 JP 6409206B2 JP 2017554104 A JP2017554104 A JP 2017554104A JP 2017554104 A JP2017554104 A JP 2017554104A JP 6409206 B2 JP6409206 B2 JP 6409206B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- robot
- entrance
- person
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H11/00—Self-movable toy figures
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H11/00—Self-movable toy figures
- A63H11/10—Figure toys with single- or multiple-axle undercarriages, by which the figures perform a realistic running motion when the toy is moving over the floor
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H13/00—Toy figures with self-moving parts, with or without movement of the toy as a whole
- A63H13/005—Toy figures with self-moving parts, with or without movement of the toy as a whole with self-moving head or facial features
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H3/00—Dolls
- A63H3/36—Details; Accessories
- A63H3/38—Dolls' eyes
- A63H3/40—Dolls' eyes movable
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H2200/00—Computerized interactive toys, e.g. dolls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/001—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/003—Manipulators for entertainment
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
- Toys (AREA)
Description
したがって、人間的・生物的な行動をエミュレートできるロボットであれば、いいかえれば、人間的・生物的な行動を自律的に選択可能なロボットであれば、ロボットへの共感を大きく高めることができると考えられる。
移動判断部は、監視エリアにおける人の存在が検出されたとき、監視エリアに移動先の目標地点を設定し、行動判断部は、ロボットが目標地点に到達したとき、人に好意を示す仕草として定義される愛情仕草を選択する。
認識部は、室内空間において、人が通過可能な場所を出入口として特定する出入口特定部と、特定された出入口から所定範囲内に人が存在するか否かを判定する存在判定部と、を含む。
移動判断部は、存在判定部により人が存在すると判定された場合、特定された出入口を移動先として設定することを特徴とする。
前記認識部は、室内空間において、人が通過可能な場所を出入口として特定する出入口特定部と、特定された出入口に向かう方向に人が移動中であるか否かを判定する進路予測部と、を含む。
移動判断部は、特定された出入口に人が向かうと判定された場合、その人を追尾するように駆動機構に指示する。
移動判断部は、認識部により人を認識可能な空間領域に新たな人が認識されたときには、新たな人に向かう方向にロボットの移動方向を決定する。
本実施形態におけるロボット100は、外部環境および内部状態に基づいて行動や仕草(ジェスチャー)を決定する自律行動型のロボットである。外部環境は、カメラやサーモセンサなど各種のセンサにより認識される。内部状態はロボット100の感情を表現するさまざまなパラメータとして定量化される。これらについは後述する。
本実施形態のロボット100は、屋内行動が前提とされており、たとえば、オーナー家庭の家屋内を行動範囲とする。以下、ロボット100に関わる人間を「ユーザ」とよび、ロボット100が所属する家庭の構成員となるユーザのことを「オーナー」とよぶ。
生後2ヶ月未満の赤ちゃんの平均体重は男女ともに5キログラム未満である。したがって、ロボット100の総重量が5キログラム以下であれば、ユーザは乳児を抱っこするのと同等の労力でロボット100を抱っこできる。
本実施形態におけるロボット100にとって、抱きかかえることができるというのは重要なコンセプトである。
目110にはカメラが内蔵される。目110は、液晶素子または有機EL素子による画像表示も可能である。ロボット100は、目110に内蔵されるカメラのほか、集音マイクや超音波センサなどさまざまなセンサを搭載する。また、スピーカーを内蔵し、簡単な音声を発することもできる。
ロボット100の頭部にはツノ112が取り付けられる。上述のようにロボット100は軽量であるため、ユーザはツノ112をつかむことでロボット100を持ち上げることも可能である。
ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。家屋内にはあらかじめ複数の外部センサ114(外部センサ114a,114b,・・・,114n)が設置される。外部センサ114は、家屋の壁面に固定されてもよいし、床に載置されてもよい。サーバ200には、外部センサ114の位置座標が登録される。位置座標は、ロボット100の行動範囲として想定される家屋内においてx,y座標として定義される。
外部センサ114はロボット100の感覚器を補強するためのものであり、サーバ200はロボット100の頭脳を補強するためのものである。
もちろん、ロボット100が自らの位置座標を定期的にサーバ200に送信する方式でもよい。
このように、外部センサ114は、ロボット100およびユーザの位置を追跡する。ユーザは、ユーザIDにより識別される。
感情マップ116は、サーバ200に格納されるデータテーブルである。ロボット100は、感情マップ116にしたがって行動選択する。図3に示す感情マップ116は、ロボット100の場所に対する好悪感情の大きさを示す。感情マップ116のx軸とy軸は、二次元空間座標を示す。z軸は、好悪感情の大きさを示す。z値が正値のときにはその場所に対する好感が高く、z値が負値のときにはその場所を嫌悪していることを示す。
ロボット100がどのような場所を好むかという定義は任意であるが、一般的には、小さな子供や犬や猫などの小動物が好む場所を好意地点として設定することが望ましい。
ロボット100がどのような場所を嫌うかという定義も任意であるが、一般的には、小さな子供や犬や猫などの小動物が怖がる場所を嫌悪地点として設定することが望ましい。
あるいは、ビーコンID=1の外部センサ114は、ロボット探索信号を複数方向に送信し、ロボット100はロボット探索信号を受信したときロボット返答信号を返す。これにより、サーバ200は、ロボット100がどの外部センサ114からどの方向のどのくらいの距離にいるかを把握してもよい。また、別の実施の形態では、車輪102の回転数からロボット100の移動距離を算出して、現在位置を特定してもよいし、カメラから得られる画像に基づいて現在位置を特定してもよい。
図3に示す感情マップ116が与えられた場合、ロボット100は好意地点(座標P1)に引き寄せられる方向、悪意地点(座標P2)から離れる方向に移動する。
ロボット100は、内部センサ128,通信機126,記憶装置124,プロセッサ122,駆動機構120およびバッテリー118を含む。各ユニットは電源線130および信号線132により互いに接続される。バッテリー118は、電源線130を介して各ユニットに電力を供給する。各ユニットは信号線132により制御信号を送受する。バッテリー118は、リチウムイオン二次電池などの二次電池であり、ロボット100の動力源である。
このほかには、表示器やスピーカーなども搭載される。
上述のように、ロボットシステム300は、ロボット100,サーバ200および複数の外部センサ114を含む。ロボット100およびサーバ200の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
ロボット100の機能の一部はサーバ200により実現されてもよいし、サーバ200の機能の一部または全部はロボット100により実現されてもよい。
サーバ200は、通信部204、データ処理部202およびデータ格納部206を含む。通信部204は、外部センサ114およびロボット100との通信処理を担当する。データ格納部206は各種データを格納する。データ処理部202は、通信部204により取得されたデータおよびデータ格納部206に格納されているデータに基づいて各種処理を実行する。データ処理部202は、通信部204およびデータ格納部206のインタフェースとしても機能する。
ロボット100は、ユーザの携帯端末のユーザIDを取得し、それにより、ユーザを識別する。
ロボット100は、大量の画像情報から得られる身体的特徴および行動的特徴に基づいて、高い頻度で出現するユーザを「オーナー」としてクラスタリングする。個人データ格納部218には、クラスタリングされたオーナーの個人データが登録される。
マップ管理部210は、複数の行動マップのいずれかを選択し、選択した行動マップのz値に基づいてロボット100の移動方向を決める。マップ管理部210は、複数の行動マップのz値を加重平均することでロボット100の移動方向を決めてもよい。
たとえば、行動マップAでは座標R1,座標R2におけるz値が4と3であり、行動マップBでは座標R1,座標R2におけるz値が−1と3であるとする。単純平均の場合、座標R1の合計z値は4−1=3,座標R2の合計z値は3+3=6であるから、ロボット100は座標R1ではなく座標R2の方向に向かう。
行動マップAを行動マップBの5倍重視するときには、座標R1の合計z値は4×5−1=19,座標R2の合計z値は3×5+3=18であるから、ロボット100は座標R1の方向に向かう。
ロボット100は、通信部142、データ処理部136、データ格納部148、駆動機構120および内部センサ128を含む。通信部142は、通信機126(図4参照)に該当し、外部センサ114およびサーバ200との通信処理を担当する。データ格納部148は各種データを格納する。データ格納部148は、記憶装置124(図4参照)に該当する。データ処理部136は、通信部142により取得されたデータおよびデータ格納部148に格納されているデータに基づいて各種処理を実行する。データ処理部136は、プロセッサ122およびプロセッサ122により実行されるコンピュータプログラムに該当する。データ処理部136は、通信部142,内部センサ128,駆動機構120およびデータ格納部148のインタフェースとしても機能する。
駆動機構120は、移動駆動部144と行動駆動部146を含む。移動判断部138は、ロボット100の移動方向を決める。移動駆動部144は、移動判断部138の指示にしたがって車輪102を駆動することで、ロボット100を目標地点に向かわせる。サーバ200のマップ管理部210は、行動マップに基づいて、ロボット100の移動先(目標地点)をリアルタイムで計算する。サーバ200は、目標地点の座標をロボット100に送信し、移動判断部138は目標地点に向けてロボット100を移動させる。
ロボット100の移動方向の大枠を決めるのは行動マップであるが、本実施形態のロボット100はユーザの「お出迎え」や「お見送り」といった特定行動も可能である。これについては後述する。
認識部156により認識された応対に応じて、認識部156またはサーバ200の人物認識部214はユーザに対する親密度を変化させる。快行為を行ったユーザに対する親密度は高まり、不快行為を行ったユーザに対する親密度は低下する。
サーバ200のマップ管理部210は、応対の内容に応じて快・不快を判定し、「場所に対する愛着」を表現する行動マップにおいて、快・不快行為がなされた地点のz値を変化させてもよい。
図6は、お出迎えのイメージ図である。
本実施形態においては、玄関のドアが開いてユーザが帰宅するとき、ロボット100は玄関でお出迎えをする。ロボット100は玄関に座り込み、両方の手106を持ち上げて抱っこをせがむ仕草を実行する。また、玄関で回転行動をすることで、ユーザの帰宅を喜ぶ気持ちを表現してもよい。あるいは、ピーピーといった特有の「鳴き声」を内蔵スピーカーから発生させてもよい。
このように、お出迎え、お見送りに際して、ロボット100は玄関に向かい、あらかじめ定められて人に好意を示す仕草(以下、「愛情仕草」とよぶ)を実行する。
本実施形態においては、玄関152にあらかじめ外部センサ114aが設置されている。外部センサ114aは、その周辺領域である監視エリア150に対して定期的に、たとえば、1秒に1回の頻度でユーザ探索信号を送信する。ユーザが玄関152のドアを開けて監視エリア150に入ると、ユーザの保有するスマートフォンはユーザ探索信号を検知し、ユーザ返答信号を返信する。ユーザ返答信号にはユーザIDが含まれる。外部センサ114aは、ユーザ返答信号を受信すると、これをサーバ200に送信する。本実施形態においては、外部センサ114aとサーバ200は有線接続される。
外部センサ114は、玄関152の扉の解錠音あるいは扉が開く音を検知したあと、監視エリア150へのユーザの進入を検知することで「帰宅」を認識してもよい。
サーバ200は目標地点だけでなく、ロボット100が現在地点から目標地点に向かうためのルートをロボット100に指定してもよい。
ロボット100の移動判断部138は、サーバ200に指示された位置座標をそのまま目標地点として設定してもよいし、サーバがお出迎えを指示したときには移動判断部138が自ら目標地点を決定してもよい。
なお、呼び寄せの言葉は、「おいで」「おーい」といういくつかの典型的な言葉であってもよいし、ロボット100の名前であってもよい。
ロボット100は、行動マップ等により、1以上の行動マップによりパターン化できない予測しづらい、かつ、生物的な行動選択を表現している。
人間がペットに対して愛着を感じることが多いお出迎えやお見送り、呼び寄せをロボット100でも実現することにより、ユーザのロボット100に対する愛着を強めることができる。
ロボット100やサーバ200以外の第3の装置が、機能の一部を担ってもよい。図5において説明したロボット100の各機能とサーバ200の各機能の集合体は大局的には1つの「情報処理装置」として把握することも可能である。1つまたは複数のハードウェアに対して、本発明を実現するために必要な複数の機能をどのように配分するかは、各ハードウェアの処理能力やロボットシステム300に求められる仕様等に鑑みて決定されればよい。
ロボット100の内部センサ128が高精度であれば、外部センサ114は必須ではない。また、サーバ200が外部センサ114の機能を備えてもよい。ロボット100の内部センサ128が解錠音を高精度で検出できれば、外部センサ114やサーバ200がなくてもロボット100はお出迎え行動を実行できる。
ロボット100は、いずれかのユーザの帰宅時間が近づいてきたら玄関近くへ移動し、ユーザの帰宅を待つ仕草、たとえば、着座や回転移動などを実行してもよい。また、いずれかのユーザの外出時間が近づくと、そのユーザのトラッキングを優先的に実行し、ユーザが玄関に向かうことを迅速に検出し、後を追う行動をしてもよい。
たとえば、抱っこしているユーザS1より外出するユーザS2に対する親密度が高い場合、ロボット100は「イヤイヤ」の仕草、具体的には、車輪102をボディ104に格納した状態で車輪102を回転させる行為や手106を強く振動させる行為などを実行して抱っこから解放されるように動く。ロボット100は、抱っこから逃れ、より親密なユーザS2を玄関まで見送る。
抱っこをしているユーザS1より外出するユーザS2に対する親密度が低い場合、ロボット100は、抱っこされたままで、手106を軽く振る。
変形例において、ロボット100のデータ処理部136は、瞳制御部406を備える。認識部156は、出入口特定部400、存在判定部402および進路予測部404を含む。変形例におけるロボット100の目110は、瞳画像を表示させるディスプレイである。瞳制御部406は、目110の瞳画像の位置や大きさを変化させる。
室内空間408は、ロボット100が各種センサにより認識した閉鎖された空間である。室内空間408は、屋内の部屋であってもよいし、家屋であってもよい。ロボット100は、出入口特定部400により出入口410の場所を特定済みであるとする。図9においては、ユーザP1〜P3が室内空間408の内部に存在し、新たに、ユーザP4が出入口410から入ってくる状況を示している。出入口410の近くの壁には外部センサ114が設置されている。
なお、ユーザP4が、ユーザIDを発信可能な携帯端末を所有しているときには、人物認識部214はユーザIDが登録済みであるか否かに応じて、ユーザP4が既知のユーザであるか否かを判断する。
ロボット100は、室内空間408にいるユーザP1〜P3の位置および移動方向を定期的に認識する。ここでは、ユーザP3が出入口410に向かって移動を開始したとする。進路予測部404は、ユーザP3が出入口410に向かって移動しているか否かを判定する。具体的には、ユーザP3の移動方向が出入口410を目指しており、かつ、そのような移動が所定時間以上継続しているとき、進路予測部404はユーザP3が出入口410を通って室内空間408から出ようとしていると判断する。
また、コートを着用している、帽子をかぶっている、水筒を下げているなどの外出を示すオブジェクトを検出したときに長期外出と判断してお見送り行動を実行するとしてもよい。室内扉をユーザが通過するとき、「いってらっしゃい」「いってきます」等の特定音声を検出したとき、長期退出と判断してもよい。
Claims (24)
- 移動方向を決定する移動判断部と、
複数種類の仕草からいずれかの仕草を選択する行動判断部と、
監視エリアにおける人の存在を検出する対象検出部と、
指定された移動および仕草を実行する駆動機構と、を備え、
前記移動判断部は、前記監視エリアにおける人の存在が検出されたとき、前記監視エリアに移動先の目標地点を設定し、
前記行動判断部は、自装置が前記目標地点に到達する前に前記監視エリアから自装置に向かって移動する人が新たに検出されたとき、前記目標地点への移動を中断して前記新たに検出された人に対して、人に好意を示す仕草として定義される愛情仕草の実行を指示することを特徴とする自律行動型ロボット。 - 前記愛情仕草は、着座行動であることを特徴とする請求項1に記載の自律行動型ロボット。
- 人を認識する人物認識部、を更に備え、
前記行動判断部は、認識した人物に応じて複数種類の愛情仕草から実行対象となる愛情仕草を選択することを特徴とする請求項1または2に記載の自律行動型ロボット。 - 前記愛情仕草に対する人からの応対を検出する応対認識部を更に備え、
前記応対認識部が人から好意的な応対を受けたことを検出した場合に、前記行動判断部は別の愛情仕草を選択することを特徴とする請求項1から3のいずれかに記載の自律行動型ロボット。 - 前記監視エリアにはあらかじめセンサが設置されており、
前記センサは、前記監視エリアにおける人の通過を検出したとき検出信号を送信し、
前記対象検出部は、前記検出信号により人の通過を検出することを特徴とする請求項1から4のいずれかに記載の自律行動型ロボット。 - 前記センサは集音マイクを含み、呼びかけ音を検出したときにも前記検出信号を送信することを特徴とする請求項5に記載の自律行動型ロボット。
- 前記移動判断部は、自律行動型ロボットの現在地点から前記監視エリアまでの距離が所定距離以下であることを条件として、前記監視エリアに前記目標地点を設定することを特徴とする請求項1から6のいずれかに記載の自律行動型ロボット。
- 移動方向を決定する移動判断部と、
指定された移動を実行する駆動機構と、
センサの検出情報により、外部環境を認識する認識部と、を備え、
前記認識部は、
室内空間において、人が通過可能な場所を出入口として特定する出入口特定部と、
前記特定された出入口から所定範囲内に人が存在するか否かを判定する存在判定部と、を含み、
前記移動判断部は、第1のユーザを対象とした所定のコミュニケーション行動の実行中において、前記特定された出入口から所定範囲内に第2のユーザが存在すると判定されたとき、前記コミュニケーション行動を中断させて前記特定された出入口への移動を前記駆動機構に指示することを特徴とする自律行動型ロボット。 - 前記存在判定部は、前記特定された出入口が存在する方向において前記センサにより状態の変化が検出されたとき、人が存在すると判定することを特徴とする請求項8に記載の自律行動型ロボット。
- 前記存在判定部は、前記センサにより特定のキーワードを含む音声が検出されたとき、人が存在すると判定することを特徴とする請求項8に記載の自律行動型ロボット。
- 前記移動判断部は、前記室内空間における人の存在状況に基づいて来訪者の可能性を推定し、来訪者の可能性が高いと判定した場合、前記室内空間に存在する人に追従して前記特定された出入口へ移動するように前記駆動機構に指示することを特徴とする請求項8から10のいずれかに記載の自律行動型ロボット。
- 来訪者が登録済みのユーザであるか否かに応じて、移動時の行動態様を変化させる行動判断部、を更に備えることを特徴とする請求項11に記載の自律行動型ロボット。
- 前記存在判定部は、ユーザの生活パターン情報を参照して、前記ユーザの帰宅時刻を予測し、
前記移動判断部は、前記予測された帰宅時刻の所定時間前に前記特定された出入口へ移動するように前記駆動機構に指示することを特徴とする請求項8から12のいずれかに記載の自律行動型ロボット。 - 前記存在判定部は、外部に設置されたセンサにより室内空間への接近物体が検出されたとき、前記特定された出入口の周辺に人が存在すると判定することを特徴とする請求項8から13のいずれかに記載の自律行動型ロボット。
- 移動方向を決定する移動判断部と、
指定された移動を実行する駆動機構と、
センサの検出情報により、外部環境を認識する認識部と、を備え、
前記認識部は、
室内空間において、人が通過可能な場所を出入口として特定する出入口特定部と、
前記特定された出入口に向かう方向に人が移動中であるか否かを判定する進路予測部と、を含み、
前記移動判断部は、第1のユーザを対象とした所定のコミュニケーション行動の実行中において、前記特定された出入口に向かう方向に第2のユーザが移動中であると判定されたとき、前記コミュニケーション行動を中断させて前記特定された出入口への移動を前記駆動機構に指示することを特徴とする自律行動型ロボット。 - 前記移動判断部は、前記特定された出入口への移動を前記駆動機構に指示するとき、前記駆動機構に対して前記特定された出入口の通過を禁止することを特徴とする請求項15に記載の自律行動型ロボット。
- 前記移動判断部は、前記特定された出入口への移動を前記駆動機構に指示するとき、前記センサにより特定のキーワードを含む音声が検出されたときに前記駆動機構に対して前記特定された出入口の通過を禁止することを特徴とする請求項15に記載の自律行動型ロボット。
- 前記進路予測部は、ユーザの生活パターン情報を参照して、前記ユーザの外出時刻を予測し、
前記移動判断部は、前記予測された外出時刻を含む所定の時間帯以外において前記ユーザが前記特定された出入口へ移動するとき、前記ユーザを追尾させないことを特徴とする請求項15から17のいずれかに記載の自律行動型ロボット。 - 前記移動判断部は、前記第2のユーザの親密度が前記第1のユーザの親密度より高いことを条件として、前記コミュニケーション行動を中断させることを特徴とする請求項15に記載の自律行動型ロボット。
- 移動方向を決定する移動判断部と、
指定された移動を実行する駆動機構と、
センサの検出情報により、外部環境を認識する認識部と、を備え、
前記移動判断部は、第1のユーザを対象とした所定のコミュニケーション行動の実行中において、第2のユーザが存在すると判定されたとき、前記コミュニケーション行動を中断させて前記第2のユーザの存在方向への移動を前記駆動機構に指示することを特徴とする自律行動型ロボット。 - 前記移動判断部は、前記第2のユーザが検出されたあと前記第2のユーザが登録済みのユーザに該当するか否かを画像認識によって判別できたとき、前記第2のユーザに向かう方向への移動を前記駆動機構に指示することを特徴とする請求項20に記載の自律行動型ロボット。
- センサの検出情報により、室内空間において人が通過可能な場所を出入口として特定する機能と、
前記特定された出入口から所定範囲内に人が存在するか否かを判定する機能と、
第1のユーザを対象とした所定のコミュニケーション行動の実行中において、前記特定された出入口から所定範囲内に第2のユーザが存在すると判定されたとき、前記コミュニケーション行動を中断させて前記特定された出入口への移動を自律行動型ロボットの駆動機構に指示する機能と、を前記自律行動型ロボットに発揮させることを特徴とするコンピュータプログラム。 - センサの検出情報により、室内空間において人が通過可能な場所を出入口として特定する機能と、
前記特定された出入口に向かう方向に人が移動中であるか否かを判定する機能と、
第1のユーザを対象とした所定のコミュニケーション行動の実行中において、前記特定された出入口に向かう方向に第2のユーザが移動中であると判定されたとき、前記コミュニケーション行動を中断させて前記特定された出入口への移動を自律行動型ロボットの駆動機構に指示する機能と、を前記自律行動型ロボットに発揮させることを特徴とするコンピュータプログラム。 - センサの検出情報により、外部環境を認識する機能と、
第1のユーザを対象とした所定のコミュニケーション行動の実行中において、認識可能な空間領域において第2のユーザの存在が認識されたときには、前記コミュニケーション行動を中断して前記第2のユーザに向かう方向への移動を指示する機能と、を自律行動型ロボットに発揮させることを特徴とするコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016063466 | 2016-03-28 | ||
JP2016063466 | 2016-03-28 | ||
PCT/JP2017/010594 WO2017169826A1 (ja) | 2016-03-28 | 2017-03-16 | お出迎え行動する自律行動型ロボット |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018156030A Division JP2019010728A (ja) | 2016-03-28 | 2018-08-23 | お出迎え行動する自律行動型ロボット |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017169826A1 JPWO2017169826A1 (ja) | 2018-04-12 |
JP6409206B2 true JP6409206B2 (ja) | 2018-10-24 |
Family
ID=59964378
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017554104A Active JP6409206B2 (ja) | 2016-03-28 | 2017-03-16 | お出迎え行動する自律行動型ロボット |
JP2018156030A Pending JP2019010728A (ja) | 2016-03-28 | 2018-08-23 | お出迎え行動する自律行動型ロボット |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018156030A Pending JP2019010728A (ja) | 2016-03-28 | 2018-08-23 | お出迎え行動する自律行動型ロボット |
Country Status (6)
Country | Link |
---|---|
US (1) | US11135727B2 (ja) |
JP (2) | JP6409206B2 (ja) |
CN (1) | CN109153127B (ja) |
DE (1) | DE112017001573B4 (ja) |
GB (1) | GB2563785B (ja) |
WO (1) | WO2017169826A1 (ja) |
Families Citing this family (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112017001874T5 (de) | 2016-04-08 | 2018-12-27 | Groove X, Inc. | Autonom handelnder Roboter mit Schüchternheit |
CN109414824B (zh) * | 2016-07-08 | 2022-07-26 | Groove X 株式会社 | 穿衣服的行为自主型机器人 |
US10427305B2 (en) * | 2016-07-21 | 2019-10-01 | Autodesk, Inc. | Robotic camera control via motion capture |
JP6565853B2 (ja) * | 2016-09-29 | 2019-08-28 | トヨタ自動車株式会社 | コミュニケーション装置 |
JP6515899B2 (ja) * | 2016-10-04 | 2019-05-22 | トヨタ自動車株式会社 | 音声対話装置及びその制御方法 |
US11100384B2 (en) | 2017-02-14 | 2021-08-24 | Microsoft Technology Licensing, Llc | Intelligent device user interactions |
US10467510B2 (en) | 2017-02-14 | 2019-11-05 | Microsoft Technology Licensing, Llc | Intelligent assistant |
US11010601B2 (en) * | 2017-02-14 | 2021-05-18 | Microsoft Technology Licensing, Llc | Intelligent assistant device communicating non-verbal cues |
US10449463B2 (en) * | 2017-05-09 | 2019-10-22 | Wowwee Group Ltd. | Interactive robotic toy |
US11584018B2 (en) | 2017-11-13 | 2023-02-21 | Teenage Engineering Ab | User interactive electronic system and method for controlling a robotic arm |
WO2019187834A1 (ja) * | 2018-03-30 | 2019-10-03 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US11468590B2 (en) | 2018-04-24 | 2022-10-11 | Cyberoptics Corporation | Wireless substrate-like teaching sensor for semiconductor processing |
WO2019213264A1 (en) * | 2018-05-01 | 2019-11-07 | Piaggio Fast Forward, Inc. | Method for determining self-driving vehicle behavior models, a self-driving vehicle, and a method of navigating a self-driving vehicle |
WO2019211932A1 (ja) * | 2018-05-01 | 2019-11-07 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、及び自律行動ロボット制御システム |
JP7327391B2 (ja) * | 2018-05-15 | 2023-08-16 | ソニーグループ株式会社 | 制御装置、制御方法及びプログラム |
JP2019207463A (ja) * | 2018-05-28 | 2019-12-05 | 株式会社日立製作所 | ロボット、行動検知サーバ、および行動検知システム |
JPWO2019240208A1 (ja) * | 2018-06-13 | 2021-06-24 | Groove X株式会社 | ロボットおよびその制御方法、ならびにプログラム |
CN110605722A (zh) * | 2018-06-14 | 2019-12-24 | 中瑞福宁机器人(沈阳)有限公司 | 养老服务机器人三层级关怀系统 |
JP7176244B2 (ja) * | 2018-06-20 | 2022-11-22 | カシオ計算機株式会社 | ロボット、ロボットの制御方法及びプログラム |
JP7298860B2 (ja) * | 2018-06-25 | 2023-06-27 | Groove X株式会社 | 仮想キャラクタを想定する自律行動型ロボット |
WO2020017111A1 (ja) * | 2018-07-20 | 2020-01-23 | ソニー株式会社 | エージェント、存在確率マップ作成方法、エージェントの行動制御方法、及びプログラム |
US11154991B2 (en) | 2018-09-26 | 2021-10-26 | Disney Enterprises, Inc. | Interactive autonomous robot configured for programmatic interpretation of social cues |
JP7379814B2 (ja) * | 2018-11-21 | 2023-11-15 | 富士フイルムビジネスイノベーション株式会社 | 自律移動装置およびプログラム |
JP7444460B2 (ja) | 2018-12-03 | 2024-03-06 | Groove X株式会社 | ロボット用充電ステーション |
KR20210099217A (ko) * | 2019-01-03 | 2021-08-12 | 엘지전자 주식회사 | 로봇 시스템의 제어 방법 |
KR102279597B1 (ko) * | 2019-01-28 | 2021-07-20 | 엘지전자 주식회사 | 인공지능 이동 로봇 및 이의 제어 방법 |
WO2020158642A1 (ja) * | 2019-01-31 | 2020-08-06 | ソニー株式会社 | ロボットの制御装置、ロボットの制御方法、及びプログラム |
JP7273538B2 (ja) * | 2019-02-26 | 2023-05-15 | パナソニックホールディングス株式会社 | 装置、方法、及びプログラム |
CN109857114A (zh) * | 2019-02-26 | 2019-06-07 | 温州市职业中等专业学校 | 校园移动智能机器人及校园智能管理系统 |
JP7024754B2 (ja) * | 2019-03-25 | 2022-02-24 | カシオ計算機株式会社 | 制御装置、ロボット、制御方法およびプログラム |
JP7320240B2 (ja) * | 2019-04-01 | 2023-08-03 | 国立大学法人豊橋技術科学大学 | ロボット |
KR20210138181A (ko) * | 2019-04-11 | 2021-11-19 | 엘지전자 주식회사 | 안내 로봇 및 안내 로봇의 동작 방법 |
US11429113B2 (en) * | 2019-08-08 | 2022-08-30 | Lg Electronics Inc. | Serving system using robot and operation method thereof |
EP4032594A4 (en) * | 2019-09-17 | 2022-11-16 | Sony Group Corporation | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM |
CN112536801A (zh) * | 2019-09-23 | 2021-03-23 | 上海庐真实业有限公司 | 一种早教机器人 |
CN111300437B (zh) * | 2019-12-06 | 2022-01-04 | 西南石油大学 | 一种图书馆图书智能收集存储集运机器人 |
KR20210078060A (ko) * | 2019-12-18 | 2021-06-28 | 삼성전자주식회사 | 사용자와의 인터랙션 중 인터럽션(제3자로부터의 개입)을 방지하는 로봇 |
JP7351757B2 (ja) * | 2020-01-24 | 2023-09-27 | 株式会社日立製作所 | 移動するロボットを制御する方法 |
CN114006959A (zh) * | 2020-07-27 | 2022-02-01 | Oppo广东移动通信有限公司 | 电子设备 |
KR102576788B1 (ko) * | 2020-08-21 | 2023-09-11 | 한국전자통신연구원 | 로봇 인터랙션 행위 생성 장치 및 방법 |
CN115427126B (zh) * | 2020-12-10 | 2023-12-26 | 松下知识产权经营株式会社 | 机器人控制方法以及信息提供方法 |
CN113050505B (zh) * | 2021-03-25 | 2021-12-24 | 广东凌霄泵业股份有限公司 | 一种远程控制型多功能spa浴缸智能控制器 |
CN113534813A (zh) * | 2021-07-30 | 2021-10-22 | 珠海一微半导体股份有限公司 | 移动机器人作业方法、系统及芯片 |
DE102023201628B3 (de) | 2023-02-22 | 2024-05-16 | BSH Hausgeräte GmbH | Bestimmung eines Zustands eines Fensters oder einer Tür in einem Haushalt |
US11826670B1 (en) * | 2023-07-27 | 2023-11-28 | Placo Bubbles Limited | Moving bubble toy animal |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100721075B1 (ko) * | 1998-09-10 | 2007-05-23 | 소니 가부시끼 가이샤 | 로봇 장치, 로봇 장치의 제어 방법, 표시 방법 및 컴퓨터로 판독 가능한 기록 매체 |
US6519506B2 (en) * | 1999-05-10 | 2003-02-11 | Sony Corporation | Robot and control method for controlling the robot's emotions |
WO2000067959A1 (fr) | 1999-05-10 | 2000-11-16 | Sony Corporation | Dispositif robotique et procede de commande associe |
JP2000323219A (ja) | 1999-05-10 | 2000-11-24 | Sony Corp | 接続装置及びロボットシステム |
JP2001188551A (ja) * | 1999-12-28 | 2001-07-10 | Sony Corp | 情報処理装置および方法、並びに記録媒体 |
JP2003296855A (ja) * | 2002-03-29 | 2003-10-17 | Toshiba Corp | 監視装置 |
JP2004034274A (ja) * | 2002-07-08 | 2004-02-05 | Mitsubishi Heavy Ind Ltd | 会話ロボット及びその動作方法 |
JP3885019B2 (ja) * | 2002-11-29 | 2007-02-21 | 株式会社東芝 | セキュリティシステム及び移動ロボット |
JP4411900B2 (ja) * | 2003-08-08 | 2010-02-10 | ソニー株式会社 | 電子機器間の相互成長システム、電子機器及びロボット装置 |
JP2005103679A (ja) * | 2003-09-29 | 2005-04-21 | Toshiba Corp | ロボット装置 |
JP2005103722A (ja) * | 2003-09-30 | 2005-04-21 | Toshiba Corp | 協調ロボット装置、システム、およびナビゲーションロボット装置 |
JP4315872B2 (ja) * | 2004-07-28 | 2009-08-19 | 本田技研工業株式会社 | 移動ロボットの制御装置 |
ATE524784T1 (de) * | 2005-09-30 | 2011-09-15 | Irobot Corp | Begleitroboter für persönliche interaktion |
JP2007152442A (ja) * | 2005-11-30 | 2007-06-21 | Mitsubishi Heavy Ind Ltd | ロボット案内システム |
JP2007316966A (ja) * | 2006-05-26 | 2007-12-06 | Fujitsu Ltd | 移動ロボット、その制御方法及びプログラム |
US20080056933A1 (en) * | 2006-08-29 | 2008-03-06 | Moore Barrett H | Self-Propelled Sterilization Robot and Method |
JP4871160B2 (ja) * | 2007-02-16 | 2012-02-08 | 株式会社東芝 | ロボットおよびその制御方法 |
JP4949969B2 (ja) * | 2007-08-20 | 2012-06-13 | 国立大学法人埼玉大学 | コミュニケーションロボットとその動作方法 |
JP5429462B2 (ja) * | 2009-06-19 | 2014-02-26 | 株式会社国際電気通信基礎技術研究所 | コミュニケーションロボット |
JP5392028B2 (ja) * | 2009-11-26 | 2014-01-22 | 富士通株式会社 | 自律移動ロボット |
JP2011224679A (ja) * | 2010-04-16 | 2011-11-10 | Toyota Motor Corp | 応対ロボット、応対制御方法、及び応対制御プログラム |
JP5552710B2 (ja) * | 2010-11-25 | 2014-07-16 | 株式会社国際電気通信基礎技術研究所 | ロボットの移動制御システム、ロボットの移動制御プログラムおよびロボットの移動制御方法 |
EP2708334B1 (en) * | 2011-05-12 | 2020-05-06 | IHI Corporation | Device and method for controlling prediction of motion |
JP5927797B2 (ja) * | 2011-07-26 | 2016-06-01 | 富士通株式会社 | ロボット制御装置、ロボットシステム、ロボット装置の行動制御方法、及びプログラム |
US8761933B2 (en) * | 2011-08-02 | 2014-06-24 | Microsoft Corporation | Finding a called party |
EP2852881A4 (en) * | 2012-05-22 | 2016-03-23 | Intouch Technologies Inc | GRAPHIC USER INTERFACES CONTAINING TOUCH PAD TOUCH INTERFACES FOR TELEMEDICINE DEVICES |
US9156476B2 (en) * | 2012-10-02 | 2015-10-13 | Trevor O'Neill | System and method for remote control of unmanned vehicles |
CN103341268B (zh) * | 2013-05-24 | 2016-02-10 | 广州睿火智能科技有限公司 | 多功能装置及其应用方法 |
US9329597B2 (en) * | 2014-01-17 | 2016-05-03 | Knightscope, Inc. | Autonomous data machines and systems |
EP2933064A1 (en) * | 2014-04-17 | 2015-10-21 | Aldebaran Robotics | System, method and computer program product for handling humanoid robot interaction with human |
EP2933065A1 (en) * | 2014-04-17 | 2015-10-21 | Aldebaran Robotics | Humanoid robot with an autonomous life capability |
JP2016022537A (ja) * | 2014-07-16 | 2016-02-08 | 国立大学法人 筑波大学 | ロボット |
JP6330617B2 (ja) * | 2014-10-21 | 2018-05-30 | ソニー株式会社 | 情報処理装置、通信システム、情報処理方法およびプログラム |
CN204712059U (zh) * | 2015-06-12 | 2015-10-21 | 姚显平 | 礼仪迎宾仿真机器人模特 |
-
2017
- 2017-03-16 WO PCT/JP2017/010594 patent/WO2017169826A1/ja active Application Filing
- 2017-03-16 JP JP2017554104A patent/JP6409206B2/ja active Active
- 2017-03-16 CN CN201780020480.XA patent/CN109153127B/zh active Active
- 2017-03-16 DE DE112017001573.1T patent/DE112017001573B4/de active Active
- 2017-03-16 GB GB1815713.1A patent/GB2563785B/en active Active
-
2018
- 2018-07-26 US US16/045,760 patent/US11135727B2/en active Active
- 2018-08-23 JP JP2018156030A patent/JP2019010728A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
JPWO2017169826A1 (ja) | 2018-04-12 |
GB2563785A (en) | 2018-12-26 |
WO2017169826A1 (ja) | 2017-10-05 |
CN109153127A (zh) | 2019-01-04 |
DE112017001573T5 (de) | 2018-12-20 |
US11135727B2 (en) | 2021-10-05 |
GB201815713D0 (en) | 2018-11-07 |
JP2019010728A (ja) | 2019-01-24 |
GB2563785B (en) | 2021-03-03 |
DE112017001573B4 (de) | 2020-01-30 |
CN109153127B (zh) | 2022-05-31 |
US20180333862A1 (en) | 2018-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6409206B2 (ja) | お出迎え行動する自律行動型ロボット | |
JP6494062B2 (ja) | 音源の方向を認識する自律行動型ロボット | |
JP6402320B2 (ja) | 人見知りする自律行動型ロボット | |
JP6436548B2 (ja) | 自律行動型ロボット | |
JP6475872B2 (ja) | 活動量をコントロールされる自律行動型ロボット | |
JP6467674B2 (ja) | スキンシップを理解する自律行動型ロボット | |
JP6495486B2 (ja) | 自律行動型ロボット及びコンピュータプログラム | |
JP6409209B2 (ja) | 涼しさを求める自律行動型ロボット | |
JP6472113B2 (ja) | 自然な距離感を保つ自律行動型ロボットおよびプログラム | |
JP6557840B2 (ja) | ロボット、サーバ及び行動制御プログラム | |
JP2019022935A (ja) | 服を着る自律行動型ロボット | |
JP6671577B2 (ja) | 人を識別する自律行動型ロボット | |
JP6574970B2 (ja) | ゲストを受け入れるロボット | |
JP6575005B2 (ja) | ロボットの関節に好適なジョイント構造 | |
JPWO2018207908A1 (ja) | ロボット、装身具及びロボット制御プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20171130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180327 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180507 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180807 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180903 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6409206 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
RG99 | Written request for provisional registration |
Free format text: JAPANESE INTERMEDIATE CODE: R313G99 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |