JPWO2013114493A1 - コミュニケーション引き込みシステム、コミュニケーション引き込み方法およびコミュニケーション引き込みプログラム - Google Patents

コミュニケーション引き込みシステム、コミュニケーション引き込み方法およびコミュニケーション引き込みプログラム Download PDF

Info

Publication number
JPWO2013114493A1
JPWO2013114493A1 JP2013556049A JP2013556049A JPWO2013114493A1 JP WO2013114493 A1 JPWO2013114493 A1 JP WO2013114493A1 JP 2013556049 A JP2013556049 A JP 2013556049A JP 2013556049 A JP2013556049 A JP 2013556049A JP WO2013114493 A1 JPWO2013114493 A1 JP WO2013114493A1
Authority
JP
Japan
Prior art keywords
robot
pull
subject
communication
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013556049A
Other languages
English (en)
Other versions
JP5987842B2 (ja
Inventor
新 石黒
新 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2013556049A priority Critical patent/JP5987842B2/ja
Publication of JPWO2013114493A1 publication Critical patent/JPWO2013114493A1/ja
Application granted granted Critical
Publication of JP5987842B2 publication Critical patent/JP5987842B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

ロボットと人とのコミュニケーションの開始を円滑にすることができるコミュニケーション引き込みシステムを提供することを目的とする。コミュニケーション引き込みシステムは、対象者とコミュニケーションをとるロボットに搭載されるコミュニケーション引き込みシステムであって、対象者の位置を特定する人特定部200と、特定された対象者の位置に向けて光を移動させる光源制御部201と、対象者にロボットの方向を認識させるための引き込み動作の実行を、ロボットに指示する引き込み制御部203と、ロボットを対象者が認知したかどうか判断する人認知特定部204とを備え、ロボットを対象者が認知したと判断された場合、ロボットに対象者とのコミュニケーションの開始を指示する。

Description

本発明は、人とコミュニケーションをとるロボットに用いられるコミュニケーション引き込みシステムに関する。
ロボットの社会的ニーズは高まっており、人とコミュニケーションをとるロボットが開発されている。そのようなロボットが対話などのコミュニケーションを始める際、コミュニケーションをとる対象者とコミュニケーションを開始するための意思疎通を図る必要がある。
また、二足歩行を行うヒューマノイドロボットおよび車輪により走行する走行ロボット等の移動可能なロボット(以下、移動ロボットと呼ぶ)が開発されている。人とコミュニケーションを取るために、相手に近づく移動ロボットを用いた場合、障害物に衝突する可能性があるなど、安全性に課題がある。そこで、安全性に関する課題を解決するために、特許文献1には、移動ロボットの動作内容の変化に伴って変動する危険範囲を人に視覚的に認識させ、安全性を向上させる技術が開示されている。
また、移動しないロボットであっても、シグナル音を鳴らすなどのアテンションを発したり、音声を発してコミュニケーションをとる対象者の名前を呼びかけたりすることにより、対象者を引き込む技術が考えられる。
特開2009−123045号公報
しかし、特許文献1の技術を用いてロボットがコミュニケーションをとる対象者に近づこうとしても、周囲の環境により近づくことが困難である場合がある。例えば、障害物があったり、対象者との距離が離れていたりすると、ロボットが確実に対象者に近づけるとは限らない。
また、移動しないロボットが、シグナル音を鳴らすなどのアテンションを発したとしても、例えば対象者以外の人間が周囲にいた場合、特定の相手にアテンションを伝えることは困難である。また、対象者の名前が分からなければ、対象者の名前を呼びかけることができない。
本発明は、ロボットと人とのコミュニケーションの開始を円滑にすることができるコミュニケーション引き込みシステムを提供することを目的とする。
本発明によるコミュニケーション引き込みシステムは、対象者とコミュニケーションをとるロボットに搭載されるコミュニケーション引き込みシステムであって、前記対象者の位置を特定する人特定部と、特定された前記対象者の位置に向けて光を移動させる光源制御部と、前記対象者に前記ロボットの方向を認識させるための引き込み動作の実行を、前記ロボットに指示する引き込み制御部と、前記ロボットを前記対象者が認知したかどうか判断する人認知特定部とを備え、前記ロボットを前記対象者が認知したと判断された場合、前記ロボットに前記対象者とのコミュニケーションの開始を指示することを特徴とする。
本発明によるコミュニケーション引き込み方法は、対象者とコミュニケーションをとるロボットに搭載されるコミュニケーション引き込み方法であって、前記対象者の位置を特定し、特定された前記対象者の位置に向けて光を移動させ、前記対象者に前記ロボットの方向を認識させるための引き込み動作の実行を、前記ロボットに指示し、前記ロボットを前記対象者が認知したかどうか判断し、前記ロボットを前記対象者が認知したと判断された場合、前記ロボットに前記対象者とのコミュニケーションの開始を指示することを特徴とする。
本発明によるコミュニケーション引き込みプログラムは、コンピュータに、対象者とコミュニケーションをとるロボットにコミュニケーション引き込み処理を実行させるコミュニケーション引き込みプログラムであって、コンピュータに、前記対象者の位置を特定する人特定処理と、特定された前記対象者の位置に向けて光を移動させる光源制御処理と、前記対象者に前記ロボットの方向を認識させるための引き込み動作の実行を、前記ロボットに指示する引き込み制御処理と、前記ロボットを前記対象者が認知したかどうか判断する人認知特定処理と、前記ロボットを前記対象者が認知したと判断された場合、前記ロボットに前記対象者とのコミュニケーションの開始を指示する処理とを実行させることを特徴とする。
本発明によれば、ロボットと人とのコミュニケーションの開始を円滑にすることができる。
本発明によるコミュニケーション引き込みシステムの第1の実施形態を用いたロボットの外観を示す概略図である。 本発明によるコミュニケーション引き込みシステムの第1の実施形態の構成を示すブロック図である。 引き込み制御部の構成を示すブロック図である。 本発明によるコミュニケーション引き込みシステムの第1の実施形態および第2の実施形態の動作を示すフローチャートである。 戦略DBに記憶された引き込み動作の戦略の一例を示す説明図である。 本発明によるコミュニケーション引き込みシステムの第2の実施形態を用いたロボットの外観を示す概略図である。
実施形態1.
図1は、本発明によるコミュニケーション引き込みシステムの第1の実施形態(実施形態1)を用いたロボットの外観を示す概略図である。図1に示すロボットは、コミュニケーションを行うことを想起させる外観を有し、投影モジュール100、頭部101、センシングモジュール102、腕103を備える。
投影モジュール100は、光源を有し床や壁などに光を照射したり、映像を投影したりすることができる。また、投影モジュール100は、機械制御によって投影角度の調節が可能であり、特定の場所を投影することができる。
センシングモジュール102は、コミュニケーションをとる対象者(以下、人と称することがある)や光源の場所の特定、および対象者が光源から発せられる光に気付いたかどうかの判定を行う。センシングモジュール102は、例えば、カメラまたは赤外線センサ等により実現可能である。
頭部101および腕103は、モータやサーバ機構等により駆動可能である。頭部101は例えば、対象者へうなずく動作を行うことができる。腕103は、例えば、手招きする動作を行うことができる。
図2は、本発明によるコミュニケーション引き込みシステムの第1の実施形態の構成を示すブロック図である。図2に示すように、本実施形態のコミュニケーション引き込みシステムは、人特定部200、光源制御部201、引き込み制御部203および人認知特定部204を備える。
人特定部200は、カメラの画像認識等を用いて、人の位置の検出や人の動きの検出を行い、コミュニケーションを行う対象者の位置を特定する。
光源制御部201は、特定された人の位置に従って、投影モジュール100の光源が発する光が動く経路を決定し、その経路に沿って光が照射されるように光源を制御する(例えば、光源の出射方向を変える。)ことで光(付帯的には、光の出射位置)を移動させる。
引き込み制御部203は、対象者にロボットの方向を認識させるように動作する。例えば、引き込み制御部203は、ロボットの頭部101を対象者の方に向けさせて、ロボットからの光であることを認知させるように動作させる。さらに、光をロボットの方向を移動させてもよい。また、ロボットの動きと光の動きを連動させてもよい。
人認知特定部204は、対象者がロボットを認知したかどうか判断する。例えば、カメラが撮影した画像から、対象者がロボットの方向へ顔を向けたり、ロボットの方向に移動したりしたことが確認された場合、対象者が光を認識したと判断する。コミュニケーション引き込みシステムは、対象者が光を認知したと判断された場合、ロボットに、対象者とのコミュニケーションの開始を指示する。対象者が光を認知していないと判断された場合、再度、引き込み制御部203がロボットの方向を認識させる動作が行われる。
なお、本実施形態のコミュニケーション引き込みシステムが備える人特定部200、光源制御部201、引き込み制御部203および人認知特定部204は、プログラムに基づいて処理を実行するCPUで実現可能である。
図3は、引き込み制御部203の構成を示すブロック図である。引き込み制御部203は、引き込み状況把握部210、引き込み動作選定部220、戦略DB(Data Base)230、引き込み動作制御部240、ロボット動作DB(Data Base)250を備える。戦略DBに記憶されるロボットの引き込み動作は、人がコミュニケーションを促すのと同様なモーションであり、対象者にロボットを認知させるために、例えば光の動き(光の照射位置の移動)に合わせて、その人を凝視したり手を振ったりする動作である。
引き込み状況把握部210は、ロボットが何回引き込み動作を行ったか、どのような引き込み動作を行ったか、対象者がロボットを認知したかなどの状況を取得する。
引き込み動作選定部220は、予め引き込み動作の戦略を記憶した戦略DB230を用い、引き込み状況把握部210が把握した引き込み等の状況に基づいて、ロボットが行う動作を選定する。
引き込み動作制御部240は、引き込み動作選定部220が選択したロボットの動作をロボットにさせる制御を行う。具体的には、引き込み動作制御部240は、ロボット動作DB250から、光の動きパターンと、ロボットの機械制御のスクリプト等を取得し、そのスクリプトの内容をロボットに実行させる。
次に、本実施形態のコミュニケーション引き込みシステムの動作を説明する。図4は、本発明によるコミュニケーション引き込みシステムの第1の実施形態の動作を示すフローチャートである。
始めに、人特定部200は、対象となる人の位置を把握する(ステップS001)。具体的には、人特定部200は、人の位置を特定するために、例えばステレオカメラなどにより実現されるセンシングモジュール102を利用して画像認識を行い、対象者とロボットとの距離や角度を認識する。また、センシングモジュール102として、例えば、超音波や赤外線の距離センサ、レーザレンジセンサなど、画像認識以外のセンシング手段を用いてもよい。
人特定部200は、例えばレーザレンジセンサを利用した場合、人以外の障害物を事前にマスク処理した上で、一定間隔のセンシングによって動く物体を人と捕らえ、ロボットからの角度、距離および動く方向を知る。そして、人特定部200は、コミュニケーションを成立させたい対象者を、例えば最もロボットから近い人物に設定する。また、人特定部200は、例えば子どもを対象にする場合は、背の高さ等のセンシング状況から子どもと判断し設定する。
対象者が設定されたら、光源制御部201は、設定された対象者の方向に光を移動させる(ステップS002)。図1に示した投影モジュール100の高さが、手動または距離センサ等で事前に設定される。ロボットとの距離は人特定部200が検知しているため、光源制御部201は、当該距離、および投影モジュール100とセンシングモジュール102との距離に基づいて、投影モジュール100の投影角を計算する。光源制御部201は、投影モジュール100から光を投影し、計算された投影角となるように投影モジュール100を動作させ、光を移動させる。
光源制御部201は、対象者の動きが早い場合は、その動きのスピードおよび距離から到達点を推定し、投影モジュール100の駆動速度を加味して推定した場所に向けて光を投影するように制御する。なお、投影モジュール100は、例えばレーザポインタなど照射範囲が狭い光源により実現してもよいが、広範囲に投影できるプロジェクタを用いてもよい。
次に、引き込み制御部203は、対象者にロボットの方向を認識させ、コミュニケーションさせるように誘導するために、ロボットに対して引き込み動作を実行する指示を与える(ステップS003)。引き込み制御部203は、ステップS002の動作により対象者に光が到着するのと同時に、ロボットの機械を駆動させる。ロボットにさせる引き込み動作は、人がコミュニケーションを促すのと同様なモーションであり、例えば光の動きに合わせて、その人を凝視したり手を振ったりして対象者にロボットを認知させる動作である。また、投影モジュール100以外にLED(Light Emitting Diode)やスピーカなどの引き込み手段をロボットに搭載し、引き込み手段が光を発したり、音を出したりしてもよい。
引き込み制御部203の動作を詳細に説明する。引き込み制御部203は、始めに、引き込みの状況を分析する。引き込み状況把握部210は、何回引き込みを行ったか、どのような引き込みを行ったか、人認知特定部204で何らかの反応が見られたかなどの状況を取得する。
引き込み動作選定部220は、予め引き込み動作の戦略を記憶した戦略DB230を用い、引き込み状況把握部210が把握した引き込み等の状況に基づいて、ロボットが行う動作を設定する。引き込み動作選定部220は、ロボットが動作を選定する際に、コンテンツや時間帯などに応じて、引き込み動作の戦略を選定する。例えば、引き込み動作選定部220は、たくさんの人がロボットの前を通るような時間帯では、対象者を引き込めなかった場合、次の人へアプローチを実施する戦略を選定する。
図5は、戦略DB230に記憶された引き込み動作の戦略の一例を示す説明図である。図5に示す戦略は、引き込む回数によって、引き込む動作を変更する例である。具体的には、引き込み動作制御部240は、光の動作に関しては、引き込む回数が3回までの場合、光をゆっくりと動かし、引き込む回数が9回までの場合は光を激しく動かし、引き込む回数が10回に達したら引き込みを諦める。また、引き込み動作制御部240は、ロボットの動作に関しては、引き込む回数が3回までの場合、頭部101を動作させて対象者の方を向き、引き込む回数が9回までの場合は腕103を動作させて対象者へ手を振り、引き込む回数が10回に達したら次の対象者を見つける動作を行う。引き込み動作制御部240は、光の動作とロボットの動作を両方行ってもよいし、いずれか一方のみ行ってもよい。
引き込み動作制御部240は、引き込み動作選定部220が選択したロボットの動作をロボットにさせる制御を行う。具体的には、動作データベース250から、光の動きパターン、およびロボットの機械制御のスクリプト等を取得し、ロボットに実行させる。
次に、引き込み制御部203が制御する引き込み動作の他の例について説明する。例えば、投影モジュール100として、プロジェクタなど、画像投影が可能なモジュール用いる場合は、引き込み制御部203は、矢印を投影しロボットの方角を示したり、画像の色を徐々に変化させたりする。または、ロボットにスピーカを備えた場合、引き込み制御部203は、スピーカから言葉を発しその言葉を変化させてもよい。または、引き込み制御部203は、ロボットのCG(Computer Graphics)キャラクタを表示させて、映像に情報を載せてもよい。また、例えば、投影モジュール100に空中に投影が可能なシステムを用いた場合、引き込み制御部203は、ロボットの分身を空中に投影させて対象者に近づけるような表示をしてもよい。
上記のような引き込み動作の他の例を実施するためには、図5に示した例と同様に、「徐々に色を変える」、「言葉を変える」など選択肢を戦略DB230に予め設定しておき、ロボット動作DB250にそれらの動作を実施するためのスクリプト等を予め記憶しておく。そして、引き込み動作制御部240は、引き込み動作選定部220が選択したロボットの動作を、ロボット動作DB250に記憶されたスクリプトに基づいてロボットにさせる制御を行う。
ステップS003における引き込み動作が行われた後、人認知特定部204は、対象者がロボットに気付いたどうか、つまりコミュニケーションの引き込みに成功したかどうかを判定する(ステップS004)。人がロボットを認知していないと判定された場合は、ステップS003の処理が再び行われる。
ステップS004における人認知特定部204の動作を、具体的に説明する。カメラなどを利用する場合は、顔向きの判定処理や顔検出処理を行い、ロボットの方を向いているかどうかをスコア化する。人認知特定部204は、センシングモジュール102にカメラ以外の機器、例えば、レーザレンジセンサを利用する場合、ロボットとの距離が縮まった等の情報によって、ロボットの方を向いているかどうかをスコア化する。スコアが、ある閾値を超えた場合、人認知特定部204は、引き込み動作が成功したと判断する。そして、コミュニケーション引き込みシステムは、ロボットに、対象者へうなずいたり、手招きしたりなどの成功時の動作をさせ、対話や情報提供等の対象者とのコミュニケーションの開始を指示する。スコアが低い場合は、人がロボットを認知していないと判定され、ステップS003の処理が再び行われる。
本実施形態のコミュニケーション引き込みシステムは、ロボットがコミュニケーションを行う対象者に物理的に近づくのではなく、光を利用してロボットが人に近づくことを擬似的に行うことできる。そのため、本実施形態のコミュニケーション引き込みシステムによれば、ロボットと対象者との距離が離れている場合や、障害物があって近づけない場合、またはロボットが移動手段を持たない場合においてもコミュニケーションの開始を円滑にすることができる。
また、本実施形態のコミュニケーション引き込みシステムによれば、対象者に対して音声のみで呼びかけるという方法とは異なり、例えば、対象者が名前の知らない相手である場合、他の音源がある場合、場所が広い場合、どこから声が出ているか特定できない場合でも対象者を引き込むことができる。
実施形態2.
本発明によるコミュニケーション引き込みシステムの他の実施形態として、操作者による遠隔通信を利用した例を説明する。以下の説明において、第1の実施形態と同様の構成および動作は、説明を省略する。図6は、本発明によるコミュニケーション引き込みシステムの第2の実施形態(実施形態2)を用いたロボットの外観を示す概略図である。図6に示すロボットは、図1に示すロボットが備える構成の他に、通信モジュール105を備え、ネットワーク107を介してPC(Personal Computer)106と接続されている。
通信モジュール105は、ネットワーク接続を可能とする通信インターフェースである。ネットワーク107は、例えば無線LANなどである。PC106は、ネットワークへの接続が可能であればよく、種類は限定されない。例えば、携帯電話やタブレットでもよい。センシングモジュール102は、例えばカメラであり、センシングモジュール102が撮影した映像は、通信モジュール105からネットワーク107を経由してパソコン106へ送信される。操作者は、パソコン106に表示されるロボットのセンシングデータを見ながらロボットの機械の遠隔操作を行うことができる。
本実施形態においては、第1の実施形態の人特定部200、光源制御部201、引き込み制御部203および人認知特定部204が行っていた動作を、操作者が、PC106を操作することにより手動で行う。以下、本実施形態の動作の一例を図4に示すフローチャートを用いて説明する。
操作者が、ロボットの前を通った人とコミュニケーションをとりたい場合、対象となる人の位置を把握する(ステップS001)。具体的には、操作者がPC106の画面に表示されたカメラ映像を見て、対象者の位置を把握する。
次に、操作者は、投影モジュール100から発する光を移動させて、対象者とコミュニケーションのきっかけを作る(ステップS002)。具体的には、操作者は、対象者の居場所、または対象者の移動を見越して移動先と想定される場所を、画面上でクリックするなどのポイント動作を行う。クリック等のポイント動作に従い、投影モジュール100が発する光が画面上のターゲットに対して移動する。この際、ロボットの向きおよびターゲットの位置に基づいて、投影モジュール100の制御角度が決められる。
次に、引き込み動作についても、操作者がPC106を用いて光や機械を制御することで、第1の実施形態において引き込み制御部203が行う動作を手動で行う(ステップS003)。
次に、操作者は、カメラの映像を見て、対象者がロボットの方向に振り向いたと判断したら(ステップS004のYES)、コミュニケーションを開始する。対象者がロボットの方向に振り向いていないと判断したら(ステップS004のNO)、再びステップS003の引き込み動作が行われる。
なお、ステップS001からステップS004までの動作の全てを操作者が手動で行ってもよいが、動作の一部を第1の実施形態と同様に図2で示した構成要素を用いて自動で行ってもよい。例えば、ステップS003の動作のみ、第1の実施形態と同様に、予め設定した戦略に基づいて引き込み制御部203が実施し、他の動作を操作者が手動で行ってもよい。
本実施形態のコミュニケーション引き込みシステムによれば、操作者が引き込み動作等を手動で行うことができるので、ロボット操作の自由度が増す。そのため、システムによる制御では対象者の引き込み等が困難な状況でもコミュニケーションの開始を円滑にすることができる。
また、上記の実施形態では、以下の(1)〜(3)に示すようなコミュニケーション引き込みシステムも開示されている。
(1)対象者とコミュニケーションをとるロボットに搭載されるコミュニケーション引き込みシステムであって、対象者の位置を特定する人特定部(例えば、人特定部200)と、特定された対象者の位置に向けて光を移動させる光源制御部(例えば、光源制御部201)と、対象者にロボットの方向を認識させるための引き込み動作の実行を、ロボットに指示する引き込み制御部(例えば、引き込み制御部203)と、ロボットを対象者が認知したかどうか判断する人認知特定部(例えば、人認知特定部204)とを備え、ロボットを対象者が認知したと判断された場合、ロボットに対象者とのコミュニケーションの開始を指示することを特徴とするコミュニケーション引き込みシステム。
(2)コミュニケーション引き込みシステムは、引き込み制御部が、引き込み動作として、音または光の出力を指示するように構成されていてもよい。
(3)コミュニケーション引き込みシステムは、引き込み制御部が、引き込み動作として、ロボット自体の動作を指示するように構成されていてもよい。
この出願は、2012年2月3日に出願された日本出願特願2012−22106を基礎とする優先権を主張し、その開示の全てをここに取り込む。
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
産業上の利用の可能性
本発明は、広告や情報提供システム、またはテレプレゼンスロボットに適用される。
100 投影モジュール
101 頭部
102 センシングモジュール
103 腕
105 通信モジュール
106 パソコン
107 ネットワーク
200 人特定部
201 光源制御部
203 制御部
204 人認知特定部
210 状況把握部
220 動作選定部
240 動作制御部
250 動作データベース
230 戦略DB
250 ロボット動作DB

Claims (5)

  1. 対象者とコミュニケーションをとるロボットに搭載されるコミュニケーション引き込みシステムであって、
    前記対象者の位置を特定する人特定部と、
    特定された前記対象者の位置に向けて光を移動させる光源制御部と、
    前記対象者に前記ロボットの方向を認識させるための引き込み動作の実行を、前記ロボットに指示する引き込み制御部と、
    前記ロボットを前記対象者が認知したかどうか判断する人認知特定部とを備え、
    前記ロボットを前記対象者が認知したと判断された場合、前記ロボットに前記対象者とのコミュニケーションの開始を指示する
    ことを特徴とするコミュニケーション引き込みシステム。
  2. 引き込み制御部は、
    引き込み動作として、音または光の出力を指示する
    請求項1記載のコミュニケーション引き込みシステム。
  3. 引き込み制御部は、
    引き込み動作として、ロボット自体の動作を指示する
    請求項1または請求項2記載のコミュニケーション引き込みシステム。
  4. 対象者とコミュニケーションをとるロボットに搭載されるコミュニケーション引き込み方法であって、
    前記対象者の位置を特定し、
    特定された前記対象者の位置に向けて光を移動させ、
    前記対象者に前記ロボットの方向を認識させるための引き込み動作の実行を、前記ロボットに指示し、
    前記ロボットを前記対象者が認知したかどうか判断し、
    前記ロボットを前記対象者が認知したと判断された場合、前記ロボットに前記対象者とのコミュニケーションの開始を指示する
    ことを特徴とするコミュニケーション引き込み方法。
  5. コンピュータに、
    対象者とコミュニケーションをとるロボットにコミュニケーション引き込み処理を実行させるコミュニケーション引き込みプログラムであって、
    コンピュータに、
    前記対象者の位置を特定する人特定処理と、
    特定された前記対象者の位置に向けて光を移動させる光源制御処理と、
    前記対象者に前記ロボットの方向を認識させるための引き込み動作の実行を、前記ロボットに指示する引き込み制御処理と、
    前記ロボットを前記対象者が認知したかどうか判断する人認知特定処理と、
    前記ロボットを前記対象者が認知したと判断された場合、前記ロボットに前記対象者とのコミュニケーションの開始を指示する処理と
    を実行させるためのコミュニケーション引き込みプログラム。
JP2013556049A 2012-02-03 2012-11-15 コミュニケーション引き込みシステム、コミュニケーション引き込み方法およびコミュニケーション引き込みプログラム Expired - Fee Related JP5987842B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013556049A JP5987842B2 (ja) 2012-02-03 2012-11-15 コミュニケーション引き込みシステム、コミュニケーション引き込み方法およびコミュニケーション引き込みプログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012022106 2012-02-03
JP2012022106 2012-02-03
PCT/JP2012/007325 WO2013114493A1 (ja) 2012-02-03 2012-11-15 コミュニケーション引き込みシステム、コミュニケーション引き込み方法およびコミュニケーション引き込みプログラム
JP2013556049A JP5987842B2 (ja) 2012-02-03 2012-11-15 コミュニケーション引き込みシステム、コミュニケーション引き込み方法およびコミュニケーション引き込みプログラム

Publications (2)

Publication Number Publication Date
JPWO2013114493A1 true JPWO2013114493A1 (ja) 2015-05-11
JP5987842B2 JP5987842B2 (ja) 2016-09-07

Family

ID=48904583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013556049A Expired - Fee Related JP5987842B2 (ja) 2012-02-03 2012-11-15 コミュニケーション引き込みシステム、コミュニケーション引き込み方法およびコミュニケーション引き込みプログラム

Country Status (6)

Country Link
US (1) US9662788B2 (ja)
EP (1) EP2810748A4 (ja)
JP (1) JP5987842B2 (ja)
CN (1) CN104093527A (ja)
AU (1) AU2012368731A1 (ja)
WO (1) WO2013114493A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9956687B2 (en) * 2013-03-04 2018-05-01 Microsoft Technology Licensing, Llc Adapting robot behavior based upon human-robot interaction
US9056396B1 (en) * 2013-03-05 2015-06-16 Autofuss Programming of a robotic arm using a motion capture system
DE102013215409A1 (de) * 2013-08-06 2015-02-12 Robert Bosch Gmbh Projektionseinheit für eine selbsttätig mobile Plattform, Transportroboter und Verfahren zum Betrieb einer selbsttätig mobilen Plattform
US20180009118A1 (en) * 2015-02-17 2018-01-11 Nec Corporation Robot control device, robot, robot control method, and program recording medium
US10427305B2 (en) * 2016-07-21 2019-10-01 Autodesk, Inc. Robotic camera control via motion capture
JP6565853B2 (ja) * 2016-09-29 2019-08-28 トヨタ自動車株式会社 コミュニケーション装置
US11010601B2 (en) * 2017-02-14 2021-05-18 Microsoft Technology Licensing, Llc Intelligent assistant device communicating non-verbal cues
US10467509B2 (en) 2017-02-14 2019-11-05 Microsoft Technology Licensing, Llc Computationally-efficient human-identifying smart assistant computer
US11100384B2 (en) 2017-02-14 2021-08-24 Microsoft Technology Licensing, Llc Intelligent device user interactions
US10929759B2 (en) 2017-04-06 2021-02-23 AIBrain Corporation Intelligent robot software platform
US10839017B2 (en) 2017-04-06 2020-11-17 AIBrain Corporation Adaptive, interactive, and cognitive reasoner of an autonomous robotic system utilizing an advanced memory graph structure
US11151992B2 (en) 2017-04-06 2021-10-19 AIBrain Corporation Context aware interactive robot
US10963493B1 (en) * 2017-04-06 2021-03-30 AIBrain Corporation Interactive game with robot system
US10810371B2 (en) 2017-04-06 2020-10-20 AIBrain Corporation Adaptive, interactive, and cognitive reasoner of an autonomous robotic system
JP6572943B2 (ja) * 2017-06-23 2019-09-11 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
JP6800183B2 (ja) * 2018-07-13 2020-12-16 本田技研工業株式会社 コミュニケーション装置
CN109159130A (zh) * 2018-09-03 2019-01-08 北京云迹科技有限公司 用于机器人的移动位置提示方法及装置、机器人
CN110245628B (zh) * 2019-06-19 2023-04-18 成都世纪光合作用科技有限公司 一种检测人员讨论场景的方法和装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001224867A (ja) * 1999-05-13 2001-08-21 Masanobu Kujirada 擬似ペット
JP2002350555A (ja) * 2001-05-28 2002-12-04 Yamaha Motor Co Ltd 人検出装置
JP2003326479A (ja) * 2003-05-26 2003-11-18 Nec Corp 自律行動ロボット
JP2007118129A (ja) * 2005-10-27 2007-05-17 Advanced Telecommunication Research Institute International コミュニケーションロボットおよびそれを用いた注意制御システム
JP2007242056A (ja) * 2001-09-13 2007-09-20 Sharp Corp 群ロボットシステム
JP2009045692A (ja) * 2007-08-20 2009-03-05 Saitama Univ コミュニケーションロボットとその動作方法
JP2009113190A (ja) * 2007-11-09 2009-05-28 Toyota Motor Corp 自律動作型ロボットおよび自律動作型ロボットの動作制御方法
JP2010082714A (ja) * 2008-09-30 2010-04-15 Mitsubishi Heavy Ind Ltd コミュニケーションロボット
JP2011000656A (ja) * 2009-06-17 2011-01-06 Advanced Telecommunication Research Institute International 案内ロボット
JP2011227237A (ja) * 2010-04-19 2011-11-10 Honda Motor Co Ltd コミュニケーションロボット

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60036599T2 (de) * 1999-05-10 2008-02-07 Sony Corp. Robotervorrichtung, steuerverfahren und aufzeichnungsmedium
JP4026758B2 (ja) * 2002-10-04 2007-12-26 富士通株式会社 ロボット
JP2009123045A (ja) 2007-11-16 2009-06-04 Toyota Motor Corp 移動ロボット及び移動ロボットの危険範囲の表示方法
JP4560078B2 (ja) * 2007-12-06 2010-10-13 本田技研工業株式会社 コミュニケーションロボット
TWM374628U (en) * 2009-10-05 2010-02-21 Wen-Chun Chen Control device capable of executing different actions by determining human body approaching distance
KR20120054845A (ko) * 2010-11-22 2012-05-31 삼성전자주식회사 로봇의 음성인식방법
US20120274646A1 (en) * 2011-04-29 2012-11-01 Randy Johnson Laser particle projection system
US20130138499A1 (en) * 2011-11-30 2013-05-30 General Electric Company Usage measurent techniques and systems for interactive advertising
WO2013176760A1 (en) * 2012-05-22 2013-11-28 Intouch Technologies, Inc. Graphical user interfaces including touchpad driving interfaces for telemedicine devices
US8996174B2 (en) * 2012-06-21 2015-03-31 Rethink Robotics, Inc. User interfaces for robot training

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001224867A (ja) * 1999-05-13 2001-08-21 Masanobu Kujirada 擬似ペット
JP2002350555A (ja) * 2001-05-28 2002-12-04 Yamaha Motor Co Ltd 人検出装置
JP2007242056A (ja) * 2001-09-13 2007-09-20 Sharp Corp 群ロボットシステム
JP2003326479A (ja) * 2003-05-26 2003-11-18 Nec Corp 自律行動ロボット
JP2007118129A (ja) * 2005-10-27 2007-05-17 Advanced Telecommunication Research Institute International コミュニケーションロボットおよびそれを用いた注意制御システム
JP2009045692A (ja) * 2007-08-20 2009-03-05 Saitama Univ コミュニケーションロボットとその動作方法
JP2009113190A (ja) * 2007-11-09 2009-05-28 Toyota Motor Corp 自律動作型ロボットおよび自律動作型ロボットの動作制御方法
JP2010082714A (ja) * 2008-09-30 2010-04-15 Mitsubishi Heavy Ind Ltd コミュニケーションロボット
JP2011000656A (ja) * 2009-06-17 2011-01-06 Advanced Telecommunication Research Institute International 案内ロボット
JP2011227237A (ja) * 2010-04-19 2011-11-10 Honda Motor Co Ltd コミュニケーションロボット

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
M. M. HOQUE, T. ONUKI, Y. KOBAYASHI, Y. KUNO: ""Controlling human attention through robot's gaze behaviors"", 2011 4TH INTERNATIONAL CONFERENCE ON HUMAN SYSTEM INTERACTIONS (HSI), JPN6016010826, 19 May 2011 (2011-05-19), pages 195 - 202, ISSN: 0003357553 *

Also Published As

Publication number Publication date
AU2012368731A1 (en) 2014-08-21
WO2013114493A1 (ja) 2013-08-08
CN104093527A (zh) 2014-10-08
US20150032254A1 (en) 2015-01-29
EP2810748A4 (en) 2016-09-07
EP2810748A1 (en) 2014-12-10
JP5987842B2 (ja) 2016-09-07
US9662788B2 (en) 2017-05-30

Similar Documents

Publication Publication Date Title
JP5987842B2 (ja) コミュニケーション引き込みシステム、コミュニケーション引き込み方法およびコミュニケーション引き込みプログラム
EP3178617B1 (en) Hybrid reality based i-bot navigation and control
US11491661B2 (en) Communication robot and control program of communication robot
JP5318623B2 (ja) 遠隔操作装置および遠隔操作プログラム
US7653458B2 (en) Robot device, movement method of robot device, and program
JP2012236244A (ja) ロボット装置、ロボット装置の制御方法、並びにロボット装置制御用プログラム
JP2003340764A (ja) 案内ロボット
JP7259843B2 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2021220679A1 (ja) ロボット制御装置、方法、及びプログラム
JP2024023193A (ja) 情報処理装置及び情報処理方法
KR20190084912A (ko) 사용자의 액션에 따라 제어 가능한 인공 지능 장치 및 그의 동작 방법
JP2015066624A (ja) ロボット制御システム、ロボット制御プログラムおよび説明ロボット
KR20190104103A (ko) 애플리케이션 구동 방법 및 장치
JP2024009862A (ja) 情報処理装置、情報処理方法、およびプログラム
JP7439826B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US20200401139A1 (en) Flying vehicle and method of controlling flying vehicle
JP7139643B2 (ja) ロボット、ロボットの制御方法及びプログラム
JP2023095918A (ja) ロボット、ロボットの制御方法及びプログラム
KR102301763B1 (ko) 이동로봇을 제어하기 위한 시스템 및 방법
WO2020166373A1 (ja) 情報処理装置および情報処理方法
JP2021064299A (ja) 制御システム、端末装置、制御方法及びコンピュータプログラム
WO2020213244A1 (ja) 情報処理装置、情報処理方法、及びプログラム
KR20240086905A (ko) 특정인을 추적하는 로봇시스템
KR101439249B1 (ko) 공간 점유 정보를 이용한 로봇 동작 생성 장치 및 방법
KR102360857B1 (ko) 특정인을 추적하는 로봇시스템

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160725

R150 Certificate of patent or registration of utility model

Ref document number: 5987842

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees