JP2011000681A - コミュニケーションロボット - Google Patents

コミュニケーションロボット Download PDF

Info

Publication number
JP2011000681A
JP2011000681A JP2009146168A JP2009146168A JP2011000681A JP 2011000681 A JP2011000681 A JP 2011000681A JP 2009146168 A JP2009146168 A JP 2009146168A JP 2009146168 A JP2009146168 A JP 2009146168A JP 2011000681 A JP2011000681 A JP 2011000681A
Authority
JP
Japan
Prior art keywords
communication
user
familiarity
robot
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009146168A
Other languages
English (en)
Other versions
JP5429462B2 (ja
Inventor
Takayuki Kanda
崇行 神田
Masahiro Shiomi
昌裕 塩見
Satoshi Satake
聡 佐竹
Dylan Fairchild Glas
フェアチャイルド グラス ディラン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2009146168A priority Critical patent/JP5429462B2/ja
Publication of JP2011000681A publication Critical patent/JP2011000681A/ja
Application granted granted Critical
Publication of JP5429462B2 publication Critical patent/JP5429462B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】コミュニケーション対象との親密度に応じて多様なコミュニケーション行動を実行することができるコミュニケーションロボットを提供する。
【解決手段】コミュニケーションロボットは、一連の行動プログラムからなる行動モジュールを実行することによってコミュニケーション行動を取るものであり、対象となるユーザとの親密度を記憶したユーザ親密度記憶手段と、ユーザとの対話距離、ユーザとの接触状況、ユーザの顔の表情、ユーザの視線の位置などユーザの現在の反応をセンシングしたセンシング情報に基づいてセンシング親密度を算出するセンシング親密度算出手段と、ユーザ親密度とセンシング親密度とに基づいてコミュニケーション親密度を算出するコミュニケーション親密度算出手段と、コミュニケーション親密度に対応付けた行動を実行するときの行動モジュール実行情報が記憶されている行動モジュール実行情報記憶手段を有する。
【選択図】図7

Description

この発明は、コミュニケーションロボットに関し、特にたとえば、一連の行動プログラムからなる行動モジュールを実行することによって、1または複数のコミュニケーション対象との間でコミュニケーション行動を取るコミュニケーションロボットに関する。
本件出願人は、特許文献1において、コミュニケーションロボットを提案している。たとえば、特許文献1のコミュニケーションロボットは、複数のユーザ(コミュニケーション対象)が所持しているRFID(Radio Frequency Identification)タグが送信する情報を受信することで、近傍あるいは周囲に存在するユーザを識別する。そして、このコミュニケーションロボットは、各RFIDタグが送信する際の電波強度から、最近傍のユーザを特定してコミュニケーション行動をとり、その実行したコミュニケーション行動の履歴を、当該コミュニケーション行動を実行したコミュニケーション対象に対応づけて記録する。
特開2007−320033号[B25J 13/08]
特許文献1の技術では、コミュニケーション行動履歴を残しておくことで、或るユーザに一度話した内容を当該ユーザに再び話すようなことを回避できる。しかしながら、特許文献1の技術では、過去に提示した情報を提示するかしないかをON/OFF的に切り替えることしかできないため、コミュニケーション対象に適した多様なコミュニケーション行動をコミュニケーションロボットが実行しているとは言い難い。
それゆえに、この発明の主たる目的は、新規な、コミュニケーションロボットを提供することである。
この発明のさらに他の目的は、コミュニケーション対象に適した多様なコミュニケーション行動を実行することができる、コミュニケーションロボットを提供することである。
本発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明などは、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。
第1の発明は、一連の行動プログラムからなる行動モジュールを実行することによって、1または複数のコミュニケーション対象との間でコミュニケーション行動を取るコミュニケーションロボットであって、コミュニケーション対象を個別に識別し、当該コミュニケーション対象の個人識別情報を取得する識別情報取得手段、コミュニケーション対象の個人識別情報に対応付けて、当該コミュニケーション対象のユーザ親密度を記憶するユーザ親密度記憶手段、識別情報取得手段によって取得された個人識別情報に対応するユーザ親密度を前記ユーザ親密度記憶手段から読み出す第1読み出し手段、コミュニケーション対象のセンシング情報を取得するセンシング情報取得手段、センシング情報取得手段によって取得されたセンシング情報に基づいて、コミュニケーション対象のセンシング親密度を算出するセンシング親密度算出手段、第1読み出し手段によって読み出されたユーザ親密度と親密度算出手段によって算出されたセンシング親密度とに基づいて、コミュニケーション行動を取るときのコミュニケーション親密度を算出するコミュニケーション親密度算出手段、コミュニケーション親密度に対応付けて行動モジュール実行情報を記憶する行動モジュール実行情報記憶手段、コミュニケーション親密度算出手段によって算出されたコミュニケーション親密度に対応する行動モジュール実行情報を実行情報記憶手段から読み出す第2読み出し手段、および第2読み出し手段によって読み出された行動モジュール実行情報を参照して、行動モジュールを実行する行動モジュール実行手段を備える、コミュニケーションロボットである。
第1の発明では、コミュニケーションロボット(10)は、一連の行動プログラムからなる行動モジュールを実行することによってコミュニケーション行動を取るものであり、コミュニケーション対象となるユーザの個人識別情報を取得する識別情報取得手段(102)を備えている。ユーザ親密度記憶手段(108)には、個々のユーザに対してコミュニケーションロボットが設定するユーザ親密度がユーザの個人識別情報に対応付けて記憶されている。第1読み出し手段(S27)は、個人識別情報に対応するユーザを特定し、そのユーザのユーザ親密度をユーザ親密度記憶手段から読み出す。センシング情報取得手段(S29)は、ユーザのセンシング情報を取得し、センシング親密度算出手段(S31)は、そのセンシング情報に基づいて、センシング親密度を算出する。そして、コミュニケーション親密度算出手段(S33)は、ユーザ親密度とセンシング親密度とに基づいて、コミュニケーション親密度を算出する。また、行動モジュール実行情報記憶手段(110,112)には、コミュニケーション親密度に対応付けて、行動モジュールを実行するときの行動モジュール実行情報が記憶されている。行動モジュール実行手段(S39)は、コミュニケーション親密度に応じて行動モジュール実行情報記憶手段から読み出した行動モジュール実行情報を参照して、行動モジュールを実行する。
第1の発明によれば、コミュニケーション親密度に従ってビヘイビアを実行することができる。したがって、コミュニケーション対象に適した多様なコミュニケーション行動を実行することができる。
第2の発明は、第1の発明に従属し、行動モジュール実行手段によって行動モジュールが実行された後、コミュニケーション対象のユーザ親密度を加算するか否かを判断する判断手段、および判別手段によってコミュニケーション対象のユーザ親密度を加算すると判別されたとき、ユーザ親密度記憶手段に記憶されている当該コミュニケーション対象のユーザ親密度を更新する更新手段をさらに備える。
第2の発明では、判断手段(S41)は、ビヘイビアの実行終了後にコミュニケーション対象となったユーザのユーザ親密度を加算するかどうかを判断する。ユーザ親密度を加算する場合には、更新手段(S43)は、コミュニケーション対象となったユーザのユーザ親密度を1加算して、ユーザ親密度記憶手段(108)を更新する。
第2の発明によれば、ユーザ親密度を逐次的に変化させることで、時宜に適したコミュニケーション行動を実行することができる。
第3の発明は、第1または2の発明に従属し、行動モジュール実行情報は、コミュニケーション行動を取るときの発話内容を含む。
第3の発明では、行動モジュール実行情報記憶手段(110,112)は、たとえば、発話内容データベース(110)を含み、この発話内容データベースには、コミュニケーションロボット(10)がコミュニケーション行動を取るときの発話内容がコミュニケーション親密度に対応付けて記憶されている。
第4の発明は、第1ないし3のいずれかの発明に従属し、行動モジュール実行情報は、前記コミュニケーション行動を取るときの前記コミュニケーション対象との対話距離を含む。
第4の発明では、行動モジュール実行情報記憶手段(110,112)は、たとえば、発話状況データベース(112)を含み、この発話状況データベースには、コミュニケーションロボット(10)がコミュニケーション行動を取るときのユーザとの対話距離がコミュニケーション親密度に対応付けて記憶されている。
第5の発明は、第1ないし4のいずれかの発明に従属し、行動モジュール実行情報は、コミュニケーション行動を取る時間に対するコミュニケーション対象にアイコンタクトする時間の割合を含む。
第5の発明では、行動モジュール実行情報記憶手段(110,112)は、たとえば、発話状況データベース(112)を含み、この発話状況データベースには、コミュニケーションロボット(10)がコミュニケーション行動を取る時間に対するコミュニケーション対象にアイコンタクトする時間の割合がコミュニケーション親密度に対応付けて記憶されている。
第6の発明は、第1ないし5のいずれかの発明に従属し、コミュニケーション対象は固有の無線タグを保有し、識別情報取得手段は、無線タグのタグ情報を取得するタグ情報取得手段を含み、ユーザ親密度記憶手段は、無線タグのタグ情報に対応付けてコミュニケーション対象のユーザ親密度を記憶する。
第6の発明では、コミュニケーション対象となるユーザは、それぞれ、無線タグ(12)を装着しており、識別情報取得手段(102)は、たとえばRFIDのようなタグ情報を取得する。ユーザ親密度記憶手段(108)には、個々のユーザに対してコミュニケーションロボットが設定するユーザ親密度がタグ情報に対応付けて記憶されている。
この発明によれば、コミュニケーション対象であるユーザのユーザ親密度とセンシング親密度とに基づいてコミュニケーション親密度が算出され、このコミュニケーション親密度に従ってビヘイビアを実行するため、コミュニケーション対象に適した多様なコミュニケーション行動を実行することができる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
この発明の一実施例のコミュニケーションロボットおよびユーザの一例を示す図解図である。 図1に示すコミュニケーションロボットの一例を示す外観図である。 図1に示すコミュニケーションロボットの電気的な構成を示すブロック図である。 ユーザ情報DBに記憶されるテーブルの一例を示す図解図である。 発話内容DBに記憶されるテーブルの一例を示す図解図である。 発話状況DBに記憶されるテーブルの一例を示す図解図である。 コミュニケーションロボットの動作の一例を示すフロー図である。 図7の親密度に従ったビヘイビアの実行処理の動作の一例を示すフロー図である。
図1を参照して、この実施例のコミュニケーションロボット(以下、単に「ロボット」という。)10は、一連の行動プログラムからなる行動モジュールを実行することによってコミュニケーション行動を取るものである。
図1に示すように、このロボット10の近傍或いは周囲には、コミュニケーション対象となるユーザA、ユーザBおよびユーザCが存在し、たとえば、このユーザA、ユーザBおよびユーザCは、それぞれ、無線タグ(RFIDタグ)12を所持或いは装着している。無線タグ12は、それぞれ、固有のRFIDなどのタグ情報(個人識別情報)を所定周波数の電波に重畳して、一定の時間間隔で送信(発信)する。なお、図1では、3人のユーザが存在する場合について示してあるが、ユーザは1人以上であればよい。
図2を参照して、ロボット10のハードウェア面の構成を詳細に説明する。図2に示すように、ロボット10は台車30を含み、台車30の下面にはロボット10を自律移動させる2つの車輪32および1つの従輪34が設けられる。2つの車輪32は車輪モータ36(図3参照)によってそれぞれ独立に駆動され、台車30すなわちロボット10を前後左右の任意方向に動かすことができる。また、従輪34は車輪32を補助する補助輪である。したがって、ロボット10は、配置された空間内を自律制御によって移動可能である。ただし、ロボット10は、或る場所に固定的に配置されても構わない。
台車30の上には、円柱形のセンサ取り付けパネル38が設けられ、このセンサ取り付けパネル38には、多数の赤外線距離センサ40が取り付けられる。これらの赤外線距離センサ40は、センサ取り付けパネル38すなわちロボット10の周囲の物体(人間や障害物など)との距離を測定するものである。
なお、この実施例では、距離センサとして、赤外線距離センサを用いるようにしてあるが、赤外線距離センサに代えて、超音波距離センサやミリ波レーダなどを用いることもできる。
センサ取り付けパネル38の上には、胴体42が直立するように設けられる。また、胴体42の前方中央上部(人の胸に相当する位置)には、上述した赤外線距離センサ40がさらに設けられ、ロボット10の前方の主として人間との距離を計測する。また、胴体42には、その側面側上端部のほぼ中央から伸びる支柱44が設けられ、支柱44の上には、全方位カメラ46が設けられる。全方位カメラ46は、ロボット10の周囲を撮影するものであり、後述する眼カメラ70とは区別される。この全方位カメラ46としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら赤外線距離センサ40および全方位カメラ46の設置位置は、当該部位に限定されず適宜変更され得る。
胴体42の両側面上端部(人の肩に相当する位置)には、それぞれ、肩関節48Rおよび肩関節48Lによって、上腕50Rおよび上腕50Lが設けられる。図示は省略するが、肩関節48Rおよび肩関節48Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節48Rは、直交する3軸のそれぞれの軸廻りにおいて上腕50Rの角度を制御できる。肩関節48Rの或る軸(ヨー軸)は、上腕50Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。同様にして、肩関節48Lは、直交する3軸のそれぞれの軸廻りにおいて上腕50Lの角度を制御できる。肩関節48Lの或る軸(ヨー軸)は、上腕50Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。
また、上腕50Rおよび上腕50Lのそれぞれの先端には、肘関節52Rおよび肘関節52Lが設けられる。図示は省略するが、肘関節52Rおよび肘関節52Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸回りにおいて前腕54Rおよび前腕54Lの角度を制御できる。
前腕54Rおよび前腕54Lのそれぞれの先端には、人の手に相当する球体56Rおよび球体56Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人間の手の形をした「手」を用いることも可能である。また、図示は省略するが、台車30の前面,肩関節48Rと肩関節48Lとを含む肩に相当する部位,上腕50R,上腕50L,前腕54R,前腕54L,球体56Rおよび球体56Lには、それぞれ、接触センサ58(図3で包括的に示す)が設けられる。台車30の前面の接触センサ58は、台車30への人間や他の障害物の接触を検知する。したがって、ロボット10は、その自身の移動中に障害物との接触が有ると、それを検知し、直ちに車輪32の駆動を停止してロボット10の移動を急停止させることができる。また、その他の接触センサ58は、当該各部位に触れたかどうかを検知する。なお、接触センサ58の設置位置は、当該部位に限定されず、適宜な位置(人の胸,腹,脇,背中および腰に相当する位置)に設けられてもよい。
胴体42の中央上部(人の首に相当する位置)には首関節60が設けられ、さらにその上には頭部62が設けられる。図示は省略するが、首関節60は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット10の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。
頭部62には、人の口に相当する位置に、スピーカ64が設けられる。スピーカ64は、ロボット10が、それの周辺の人間に対して音声ないし音によってコミュニケーションを取るために用いられる。また、人の耳に相当する位置には、マイク66Rおよびマイク66Lが設けられる。以下、右のマイク66Rと左のマイク66Lとをまとめてマイク66ということがある。マイク66は、周囲の音、とりわけコミュニケーションを実行する対象である人間の音声を取り込む。さらに、人の目に相当する位置には、眼球部68Rおよび眼球部68Lが設けられる。眼球部68Rおよび眼球部68Lは、それぞれ眼カメラ70Rおよび眼カメラ70Lを含む。以下、右の眼球部68Rと左の眼球部68Lとをまとめて眼球部68ということがある。また、右の眼カメラ70Rと左の眼カメラ70Lとをまとめて眼カメラ70ということがある。
眼カメラ70は、ロボット10に接近した人間の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。また、眼カメラ70は、上述した全方位カメラ46と同様のカメラを用いることができる。たとえば、眼カメラ70は、眼球部68内に固定され、眼球部68は、眼球支持部(図示せず)を介して頭部62内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部62の上に向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部62の正面側(顔)が向く方向に直行する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部68ないし眼カメラ70の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ64,マイク66および眼カメラ70の設置位置は、当該部位に限定されず、適宜な位置に設けられてよい。
このように、この実施例のロボット10は、車輪32の独立2軸駆動,肩関節48の3自由度(左右で6自由度),肘関節52の1自由度(左右で2自由度),首関節60の3自由度および眼球支持部の2自由度(左右で4自由度)の合計17自由度を有する。
図3はロボット10の電気的な構成を示すブロック図である。この図3を参照して、ロボット10は、CPU80を含む。CPU80は、マイクロコンピュータ或いはプロセッサとも呼ばれ、バス82を介して、メモリ84,モータ制御ボード86,センサ入力/出力ボード88および音声入力/出力ボード90に接続される。
メモリ84は、図示は省略をするが、ROM、HDDおよびRAMを含む。ROMおよびHDDには、ロボット10のビヘイビアを制御するためのプログラムやデータが記憶されている。ここで、ビヘイビアとは、行動モジュールによって実現されるロボット10のコミュニケーション行動を示しており、ROMおよびHDDには、複数の行動モジュールが各ビヘイビアに対応付けて記憶されている。また、RAMは、ワークメモリやバッファメモリとして用いられる。
モータ制御ボード86は、たとえばDSPで構成され、各腕や首関節および眼球部などの各軸モータの駆動を制御する。すなわち、モータ制御ボード86は、CPU80からの制御データを受け、右眼球部68Rの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ92」と示す)の回転角度を制御する。同様にして、モータ制御ボード86は、CPU80からの制御データを受け、左眼球部68Lの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ94」と示す)の回転角度を制御する。
また、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Rの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Rの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ96」と示す)の回転角度を制御する。同様にして、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Lの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Lの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ98」と示す)の回転角度を制御する。
さらに、モータ制御ボード86は、CPU80からの制御データを受け、首関節60の直交する3軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ100」と示す)の回転角度を制御する。そして、モータ制御ボード86は、CPU80からの制御データを受け、車輪32を駆動する2つのモータ(図3では、まとめて「車輪モータ36」と示す)の回転角度を制御する。なお、この実施例では、車輪モータ36を除くモータは、制御を簡素化するためにステッピングモータ(すなわち、パルスモータ)を用いる。ただし、車輪モータ36と同様に直流モータを用いるようにしてもよい。また、ロボット12の身体部位を駆動するアクチュエータは、電流を動力源とするモータに限らず適宜変更された、たとえば、他の実施例では、エアアクチュエータが適用されてもよい。
センサ入力/出力ボード88は、モータ制御ボード86と同様に、DSPで構成され、各センサからの信号を取り込んでCPU80に与える。すなわち、赤外線距離センサ40のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード88を通じてCPU80に入力される。また、全方位カメラ46からの映像信号が、必要に応じてセンサ入力/出力ボード88で所定の処理を施してからCPU80に入力される。眼カメラ70からの映像信号も、同様にして、CPU80に入力される。また、上述した複数の接触センサ58(図3では、まとめて「接触センサ58」と示す)からの信号がセンサ入力/出力ボード88を介してCPU80に与えられる。音声入力/出力ボード90もまた、同様に、DSPで構成され、CPU80から与えられる音声合成データに従った音声または声がスピーカ64から出力される。また、マイク66からの音声入力が、音声入力/出力ボード90を介してCPU80に与えられる。
また、CPU80は、バス82を介して無線タグ読取装置102が接続される。無線タグ読取装置102は、アンテナ(図示せず)を介して、無線タグ12(RFIDタグ)から送信されるタグ情報の重畳された電波を受信する。そして、無線タグ読取装置102は、受信した電波信号を増幅し、当該電波信号から識別信号を分離し、当該タグ情報を復調(デコード)してCPU80に与える。上述したように、無線タグ12は、ロボット10の近傍或いは周囲に存在する人間(ユーザA,ユーザB,ユーザC)に装着され、無線タグ読取装置102は、通信可能範囲内の無線タグ12を検出する。なお、無線タグ12は、アクティブ型であってもよいし、無線タグ読取装置102から送信される電波に応じて駆動されるパッシブ型であってもよい。
また、CPU80は、バス82を介して通信LANボード104に接続される。通信LANボード104は、たとえばDSPで構成され、CPU80から与えられた送信データを無線通信装置106に与え、無線通信装置106は送信データを、ネットワークを介して外部コンピュータに送信する。また、通信LANボード104は、無線通信装置106を介してデータを受信し、受信したデータをCPU80に与える。
さらに、CPU80は、バス82を介して複数のデータベース(以下、DB)に接続される。具体的には、CPU80は、ユーザ情報DB108、発話内容DB110、ならびに発話状況DB112に接続される。
ユーザ情報DB108には、図3に示すように、コミュニケーション対象となるユーザの名前に関連付けて、ユーザに装着された無線タグ12のRFID(タグ情報)、ならびにユーザの親密度(ユーザ親密度)がテーブルで記憶されている。ここで、ユーザ親密度とは、個々のユーザに対してロボット10が設定している親密度を示す数値であり、0から3までの整数で表わされ、数値が大きいほど親密度が高い。ユーザは、予めロボット10の開発者等が外部コンピュータを操作してユーザ情報DB108に登録しておくことができ、新たなユーザを追加する場合には、当該新しいユーザのユーザ親密度は“0”である。そして、後で詳細に説明するように、ロボット10がユーザに対して特定のコミュニケーション行動(ビヘイビア)を実行することによって、当該ユーザのユーザ親密度が加算されることとなる。
たとえば、このユーザ情報テーブルでは、ユーザAに装着された無線タグ12は、“AAAA”というRFIDを有しており、ユーザAのユーザ親密度は、“2”であることが分かる。また、ユーザBに装着された無線タグ12は、“BBBB”というRFIDを有しており、ユーザBのユーザ親密度は、“3”であることが分かる。さらに、ユーザCに装着された無線タグ12は、“CCCC”というRFIDを有しており、ユーザCのユーザ親密度は、“1”であることが分かる。
発話内容DB110および発話状況DB112には、ロボット10がコミュニケーション行動(ビヘイビア)を実行するときの親密度(コミュニケーション親密度)に関連付けて、行動モジュールの実行に関する情報(行動モジュール実行情報)が記憶されている。したがって、これら発話内容DB110および発話状況DB112が行動モジュール実行情報記憶手段に該当する。
ここで、コミュニケーション親密度とは、ロボット10がコミュニケーション行動(ビヘイビア)を実行するときの親密度を示す数値であり、0から3までの整数で表わされ、数値が大きいほど親密度が高い。後で詳細に説明するように、コミュニケーション親密度は、コミュニケーション対象となるユーザのユーザ親密度とセンシング親密度とに基づいて算出され、ロボット10は、このコミュニケーション親密度に応じて読み出した行動モジュール実行情報を参照して、行動モジュールを実行する。
図4に示すように、発話内容DB110には、ロボット10が「Talk(挨拶)」、「Guide(道案内)」、「Bye(ばいばい)」といったビヘイビアを実行するときの発話内容(発話内容情報)が、コミュニケーション親密度が1の場合、コミュニケーション親密度が2の場合、コミュニケーション親密度が3の場合というように、ロボット10のコミュニケーション親密度に関連付けて、テーブルで記憶されている。また、テーブルには、ビヘイビアを実行した後でコミュニケーション対象となったユーザのユーザ親密度を1加算するか否かの設定が、ビヘイビアごとに“YES”か“NO”で記憶されている。
たとえば、この発話内容情報テーブルでは、「Talk(挨拶)」のビヘイビアを実行するとき、コミュニケーション親密度が1の場合にロボット10が「はじめして」と発話し、コミュニケーション親密度が2の場合にロボット10が「こんにちは」と発話し、コミュニケーション親密度が3の場合にロボット10が「こんにちは、また来てくれてありがとう」と発話することが分かる。また、「Guide(道案内)」のビヘイビアを実行するとき、コミュニケーション親密度が1の場合にロボット10が「ショッピングセンターの中を案内しましょうか?」と発話し、コミュニケーション親密度が2の場合にロボット10が「どこか案内しようか?」と発話し、コミュニケーション親密度が3の場合にロボット10が「どこでも案内するので、よかったら聞いてね」と発話することが分かる。さらに、「Bye(ばいばい)」のビヘイビアを実行するとき、コミュニケーション親密度が1の場合にロボット10が「ばいばい」と発話し、コミュニケーション親密度が2の場合にロボット10が「また来てね」と発話し、コミュニケーション親密度が3の場合にロボット10が「今日は来てくれてありがとう、また来てね」と発話することが分かる。さらにまた、「Bye(ばいばい)」のビヘイビアを実行終了した後、そのコミュニケーション対象となったユーザのユーザ親密度が1加算されることが分かる。
また、図5に示すように、発話状況DB112には、コミュニケーション親密度に関連付けて、ロボット10がビヘイビアを実行するときの発話状況に関する情報(発話状況情報)がテーブルで記憶されている。一例を挙げると、テーブルには、ロボット10がビヘイビアを実行するときのユーザとの対話距離、ならびにロボット10がコミュニケーション行動を取る時間に対するユーザにアイコンタクトする時間の割合が、ロボット10のコミュニケーション親密度に関連付けて記憶されている。
たとえば、この発話状況情報テーブルでは、「ロボット10のコミュニケーション親密度が1の場合には、ロボット10の発話時のユーザとの対話距離が3.0mであり、ロボット10が発話時にユーザに対してアイコンタクトを維持する時間の割合が10%であることが分かる。また、ロボット10のコミュニケーション親密度が2の場合には、ロボット10の発話時のユーザとの対話距離が2.0mであり、ロボット10が発話時にユーザに対してアイコンタクトを維持する時間の割合が40%であることが分かる。さらに、ロボット10のコミュニケーション親密度が3の場合には、ロボット10の発話時のユーザとの対話距離が0.8mであり、ロボット10が発話時にユーザに対してアイコンタクトを維持する時間の割合が70%であることが分かる。
ただし、図4、図5および図6に示すテーブルの構成はあくまで一例であり、テーブルの構成は、本発明の技術的思想を実現できる構成であればどのようなものでもかまわない。
このようなロボット12のコミュニケーション行動(ビヘイビア)を実現するためのプログラムは、上述したように、モジュール化された「行動モジュール」として実行される。行動モジュールの実行順序は、行動モジュールの短期的な遷移ないし推移である「行動モジュールの状態遷移」として設定され、長期的に首尾一貫した前後関係または調和した状況を維持しているコミュニケーション行動が実現される。
この実施例では、ロボット10は、コミュニケーション行動(ビヘイビア)を実行するとき、無線タグ読取装置102によって通信可能範囲内の無線タグ12を検出し、無線タグ12を装着しているユーザ(ユーザA,ユーザB,ユーザC)からコミュニケーション対象とするユーザを特定する。
コミュニケーション対象とするユーザを特定すると、ロボット10は、そのユーザのセンシング情報を取得する。ここで、センシング情報とは、コミュニケーション対象となるユーザのロボット10に対する現在の反応をセンシングしたものであり、この実施例では、センシング情報は、「ユーザとの対話距離」、「触覚センサ」、「ユーザの顔の表情」、「ユーザの視線の位置」の4つのパラメータからなる。そして、ロボット10は、これらのパラメータのそれぞれにおいて、親密度が“0”か“1”か“2”か“3”かを判断する。
「ユーザとの対話距離」では、赤外線距離センサ40によってロボット10とユーザとの対話距離を検出し、その検出結果によって親密度が“0”か“1”か“2”か“3”かを判断する。たとえば、その対話距離が所定の親密距離(たとえば、0.5m程度)以下であれば親密度を“3”とし、所定の個人距離(たとえば、1.2m程度)以下であれば親密度を“2”とし、所定の社会距離(たとえば、3.5m程度)以下であれば親密度を“1”とし、そうでなければ、親密度を“0”とする。
また、「触覚センサ」では、接触センサ58によってユーザがロボット10に触れたかどうかを検出し、その検出結果によって親密度が“0”か“3”かを判断する。たとえば、過去1分間にロボット10の頭がユーザになでられた場合には、親密度を“3”とし、そうでなければ、親密度を“0”とする。
また、「ユーザの顔の表情」では、全方位カメラ46ないし眼カメラ70で撮影された顔画像に基づいてユーザの顔の表情を検出し、その検出結果によって親密度が“0”か“3”かを判断する。たとえば、ロボット10とユーザとの対話時間に対する当該ユーザが笑っている顔の表情(笑顔)をしている時間の割合が70%以上であれば、親密度を“3”とし、そうでなければ、親密度を“0”とする。
また、「ユーザの視線の位置」では、全方位カメラ46ないし眼カメラ70で撮影された顔画像に基づいてユーザの視線の位置を検出し、その検出結果によって親密度が“0”か“1”か“2”か“3”かを判断する。たとえば、ロボット10とユーザとの対話時間に対するユーザの視線の位置がロボット10の顔に向けられている時間の割合が70%以上であれば親密度を“3”とし、その時間の割合が50%以上であれば親密度を“2”とし、その時間の割合が25%以上であれば親密度を“1”とし、そうでなければ、親密度を“0”とする。
そして、各パラメータの親密度の数値の中で最も大きい数値をセンシング親密度とする。ここで、センシング親密度は,ユーザのセンシング情報に基づいて算出される親密度を示す数値であり、0から3までの整数で表わされ、数値が大きいほど親密度が高い。たとえば、「ユーザとの対話距離」での親密度が2であり、「触覚センサ」での親密度が0であり、「ユーザの顔の表情」での親密度が3であり、「ユーザの視線の位置」での親密度が1である場合には、センシング親密度は3となる。
センシング親密度を算出すると、ロボット10は、そのセンシング親密度の数値と、ユーザ情報DB104から読み出したユーザのユーザ親密度の数値との中で、小さい方の数値をコミュニケーション親密度とする。たとえば、ユーザ親密度が2であり、センシング親密度が3である場合には、コミュニケーション親密度は2となる。
そして、ロボット10は、ビヘイビアに対応する行動モジュールのプログラムデータをメモリ84から読み出し、そのプログラムデータに、発話内容DB110からコミュニケーション親密度に応じて読み出した発話内容情報、ならびに発話状況DB112からコミュニケーション親密度に応じて読み出した発話状況情報を与えることによって、行動モジュールに規定される行動を行う。
具体的には、ロボット10のCPU80は、図7に示すフロー図に従って全体処理を実行する。
処理が開始されると、CPU80は、先ず、ステップS1で、停止命令があるか否かを判断する。ここでは、たとえば、外部コンピュータから終了指示があったか、あるいは、ロボット10を停止させるための終了ボタンが押されたかどうか等を判断する。
ステップS1で“YES”であれば、続くステップS3で終了処理を実行して、ロボット10の動作処理を終了する。この終了処理では、ロボット10の体の各部位をそれぞれのホームポジションに戻すようにしてもよい。
一方、ステップS1で“NO”であれば、つまり停止命令がなければ、ステップS5で、行動モジュールの状態遷移によって指定されている最初のビヘイビアを選択する。ここでは、たとえば、行動モジュールの状態遷移に関する情報(遷移情報)がロボット10の開発者等によって外部コンピュータからロボット10に送信され、この遷移情報を受信したロボット10が遷移情報に従って最初のビヘイビアに対応する行動モジュールのデータをメモリ104から読み出す。
続いて、ステップS7で、ビヘイビアがコミュニケーション親密度に従うものであるか否かを判断する。すなわち、そのビヘイビアが発話内容DB110に登録されているビヘイビアであるか否かを判断する。ステップS7で“YES”であれば、ステップS9で、親密度に従ったビヘイビアの実行処理(図8参照)を開始して、ステップS13に進む。
一方、ステップS7で“NO”であれば、ステップS11で、親密度に従わないビヘイビアの実行処理を開始する。すなわち、そのビヘイビアに対応する行動モジュールをメモリ104から読み出して、その行動モジュールに規定されるコミュニケーション行動を行い、ステップS13に進む。
続くステップS13では、行動モジュールの状態遷移によって指定されている全てのビヘイビアの実行が完了したか否かを判断する。ステップS13で“YES”であれば、つまり行動モジュールの状態遷移によって指定されている全てのビヘイビアの実行が完了していれば、ステップS1へ戻って、処理が繰り返される。
一方、ステップS13で“NO”であれば、つまり、まだ全てのビヘイビアの実行が完了していなければ、ステップS15で、行動モジュールの状態遷移によって指定されている次のビヘイビアを選択する。ステップS15の処理を終了すると、ステップS7に戻って、処理を繰り返す。
図8は、図7に示したステップS9の親密度に従ったビヘイビアの実行処理のフロー図である。ロボット10のCPU80は、親密度に従ったビヘイビアの実行処理を開始すると、ステップS21で個人識別情報を取得する。ここでは、CPU80は、無線タグ読取装置102からの入力を検出する。
続くステップS23では、個人識別情報を取得できたかどうかを判断する。ステップS23で“NO”であれば、たとえば、ロボット10の近傍或いはその周囲に無線タグ12を装着したユーザが存在しない場合には、ステップS25で、たとえば「EXPLORE(周囲環境を巡回して調査)」のように周囲環境を調査する所定のビヘイビアを実行して、ステップS21に戻り、処理を繰り返す。
一方、ステップS23で“YES”であれば、たとえば、無線タグ12のタグ情報を取得できた場合には、続くステップS27で、ユーザ情報DB104を参照して、個人識別情報を取得したユーザ(ユーザA,ユーザB,ユーザC)からコミュニケーション対象とするユーザを特定する。たとえば、ここでは、1の無線タグ12を検出した場合には、その無線タグ12を装着しているユーザをコミュニケーション対象とし、複数の無線タグ12を検出した場合には、当該無線タグ12を装着している複数のユーザの中で最もユーザ親密度が高いユーザをコミュニケーション対象とする。
そして、ステップS29では、コミュニケーション対象としたユーザのセンシング情報を取得し、続くステップS31で、このセンシング情報に基づいて、センシング親密度を算出する。ここでは、ロボット10は、センシング情報として、「ユーザとの対話距離」、「触覚センサ」、「ユーザの顔の表情」、「ユーザの視線の位置」の4つを検出する。そして、その4つのパラメータのそれぞれにおいて、親密度が“0”か“1”か“2”か“3”かを判断し、各パラメータの親密度の数値の中で最も大きい数値をセンシング親密度とする。
次に、ステップS33では、ユーザ情報DB104から読み込んだユーザ自身のユーザ親密度とステップS31で算出したセンシング親密度とに基づいて、コミュニケーション親密度を算出する。ここでは、たとえば、ロボット10は、センシング親密度の数値と、ユーザ情報DB104から読み出したユーザのユーザ親密度の数値との中で、小さい方の数値をコミュニケーション親密度とする。
そして、ステップS35で、コミュニケーション親密度に対応する発話内容情報を発話内容DB110から読み出し、ステップS37で、コミュニケーション親密度に対応する発話状況情報を発話状況DB110から読み出す。
続くステップS39では、発話内容情報と発話状況情報とを参照して、ビヘイビアを実行する。ここでは、ビヘイビアに対応する行動モジュールのプログラムデータをメモリ84から読み出し、そのプログラムデータに、ステップS35で発話内容DB110から読み出した発話内容情報、ならびにステップS37で発話状況DB112から読み出した発話状況情報を与えることによって、行動モジュールに規定される行動を行う。
そして、ステップS41で、ビヘイビアの実行終了後にユーザのユーザ親密度を加算するかどうかを判断する。ステップS41で“YES”であれば、すなわち、実行情報DB110のテーブルに“YES”と登録されていれば、ステップS43でコミュニケーション対象となったユーザのユーザ親密度を1加算して、ユーザ情報DB108を更新する。ステップS43の処理を終了すると、親密度に従ったビヘイビアの実行処理を終了して、ステップS13(図7参照)に進む。一方、ステップS41で“NO”であれば、すなわち、実行情報DB110のテーブルに“NO”と登録されていれば、そのまま親密度に従ったビヘイビアの実行処理を終了して、ステップS13(図7参照)に進む。
このように、この実施例では、ユーザを個別に識別する個人識別情報からコミュニケーション対象のユーザが特定され、そのユーザのユーザ親密度とセンシング親密度とに基づいて、ロボット10のコミュニケーション親密度が算出される。そして、ロボット10は、このコミュニケーション親密度に応じて実行情報DB110から読み出した行動モジュール実行情報を参照して、行動モジュールを実行する。したがって、コミュニケーション対象に適した多様なコミュニケーション行動を実行することができる。
また、この実施例では、特定のビヘイビアの実行終了後にコミュニケーション対象となったユーザのユーザ親密度が1加算されて、ユーザ情報DB108が更新される。したがって、ユーザのユーザ親密度を逐次的に変化させることができ、時宜に適したコミュニケーション行動を実行することができる。
なお、この実施例では、無線タグ読取装置102によって無線タグ12を検出し、この無線タグ12のタグ情報によってユーザを特定したが、ユーザを個別に識別する個人識別情報を取得することができるのであれば、無線タグ12のタグ情報に限定される必要はない。たとえば、無線タグ読取装置102に代えてカメラを設け、その撮影画像に基づく顔認識によって、ユーザを個別に識別するようにしてもよい。かかる場合には、ユーザ情報DB108には、コミュニケーション対象となるユーザの名前に関連付けて、ユーザの顔画像データや顔の特徴データ(個人識別情報)、ならびにユーザ親密度がテーブルで記憶されることとなる。
また、この実施例では、ロボット10のCPU80は、ユーザ情報DB108、発話内容DB110、ならびに発話状況DB112に接続されたが、これに限定される必要はない。たとえば、これらのデータベースのいずれも、外部のネットワーク上にアクセス可能に設けるようにしてもよい。かかる場合には、通信LANボード104は、無線通信装置106を介してデータを受信し、受信したデータをCPU80に与える。
さらにまた、この実施例では、センシング情報に基づいて算出されるパラメータの親密度が離散値、たとえば、“0”か“1”か“2”か“3”かであり、各パラメータの親密度の数値の中で最も大きい数値をセンシング親密度としたが、これに限定される必要はない。たとえば、パラメータの親密度は、0.5などの小数点以下を含む値であってもよい。かかる場合には、ユーザ親密度の数値とセンシング親密度の数値との中で、小さい方の数値をコミュニケーション親密度とするのではなく、ユーザ親密度の数値とセンシング親密度の数値との中で、大きい方の数値をコミュニケーション親密度とするとよい。
10 …コミュニケーションロボット
12 …無線タグ
60 …赤外線距離センサ
66 …全方位カメラ
78 …接触センサ
84 …スピーカ
86 …マイク
90 …眼カメラ
80 …CPU
82 …バス
84 …メモリ
86 …モータ制御ボード
88 …センサ入力/出力ボード
90 …音声入力/出力ボード
102 …無線タグ読取装置
104 …通信LANボード
106 …無線通信装置
108 …ユーザ情報DB
110 …発話内容DB
112 …発話状況DB

Claims (6)

  1. 一連の行動プログラムからなる行動モジュールを実行することによって、1または複数のコミュニケーション対象との間でコミュニケーション行動を取るコミュニケーションロボットであって、
    前記コミュニケーション対象を個別に識別し、当該コミュニケーション対象の個人識別情報を取得する識別情報取得手段、
    前記コミュニケーション対象の個人識別情報に対応付けて、当該コミュニケーション対象のユーザ親密度を記憶するユーザ親密度記憶手段、
    前記識別情報取得手段によって取得された個人識別情報に対応するユーザ親密度を前記ユーザ親密度記憶手段から読み出す第1読み出し手段、
    前記コミュニケーション対象のセンシング情報を取得するセンシング情報取得手段、
    前記センシング情報取得手段によって取得されたセンシング情報に基づいて、前記コミュニケーション対象のセンシング親密度を算出するセンシング親密度算出手段、
    前記第1読み出し手段によって読み出されたユーザ親密度と前記親密度算出手段によって算出されたセンシング親密度とに基づいて、前記コミュニケーション行動を取るときのコミュニケーション親密度を算出するコミュニケーション親密度算出手段、
    前記コミュニケーション親密度に対応付けて行動モジュール実行情報を記憶する行動モジュール実行情報記憶手段、
    前記コミュニケーション親密度算出手段によって算出されたコミュニケーション親密度に対応する行動モジュール実行情報を前記実行情報記憶手段から読み出す第2読み出し手段、および
    前記第2読み出し手段によって読み出された行動モジュール実行情報を参照して、前記行動モジュールを実行する行動モジュール実行手段を備える、コミュニケーションロボット。
  2. 前記行動モジュール実行手段によって前記行動モジュールが実行された後、前記コミュニケーション対象のユーザ親密度を加算するか否かを判断する判断手段、および
    前記判別手段によって前記コミュニケーション対象のユーザ親密度を加算すると判別されたとき、前記ユーザ親密度記憶手段に記憶されている当該コミュニケーション対象のユーザ親密度を更新する更新手段をさらに備える、請求項1記載のコミュニケーションロボット。
  3. 前記行動モジュール実行情報は、前記コミュニケーション行動を取るときの発話内容を含む、請求項1または2記載のコミュニケーションロボット。
  4. 前記行動モジュール実行情報は、前記コミュニケーション行動を取るときの前記コミュニケーション対象との対話距離を含む、請求項1ないし3のいずれかに記載のコミュニケーションロボット。
  5. 前記行動モジュール実行情報は、前記コミュニケーション行動を取る時間に対する前記コミュニケーション対象にアイコンタクトする時間の割合を含む、請求項1ないし4のいずれかに記載のコミュニケーションロボット。
  6. 前記コミュニケーション対象は固有の無線タグを保有し、
    前記識別情報取得手段は、前記無線タグのタグ情報を取得するタグ情報取得手段を含み、
    前記ユーザ親密度記憶手段は、前記無線タグのタグ情報に対応付けて前記コミュニケーション対象のユーザ親密度を記憶する、請求項1ないし5のいずれかに記載のコミュニケーションロボット。
JP2009146168A 2009-06-19 2009-06-19 コミュニケーションロボット Active JP5429462B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009146168A JP5429462B2 (ja) 2009-06-19 2009-06-19 コミュニケーションロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009146168A JP5429462B2 (ja) 2009-06-19 2009-06-19 コミュニケーションロボット

Publications (2)

Publication Number Publication Date
JP2011000681A true JP2011000681A (ja) 2011-01-06
JP5429462B2 JP5429462B2 (ja) 2014-02-26

Family

ID=43559082

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009146168A Active JP5429462B2 (ja) 2009-06-19 2009-06-19 コミュニケーションロボット

Country Status (1)

Country Link
JP (1) JP5429462B2 (ja)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013154458A (ja) * 2012-01-31 2013-08-15 Fujitsu Ltd 対話装置、対話プログラムおよび対話方法
JP2013157795A (ja) * 2012-01-30 2013-08-15 Casio Comput Co Ltd 情報処理装置、情報処理方法及びプログラム、並びに情報処理システム
WO2014162161A1 (en) * 2013-04-01 2014-10-09 Tosy Robotics Joint Stock Company Shoulder and arm arrangement for a humanoid robot
WO2014162162A1 (en) * 2013-04-01 2014-10-09 Tosy Robotics Joint Stock Company Sound system for humanoid robot
JP2016500533A (ja) * 2012-10-17 2016-01-14 チャイナ インダストリーズ リミテッドChina Industries Limited インタラクティブ玩具
JP2016087402A (ja) * 2014-10-31 2016-05-23 ヤリー インコーポレイテッド ユーザーとの相互作用が可能な玩具およびその玩具のユーザーとの相互作用方法
JP2016177442A (ja) * 2015-03-19 2016-10-06 ヤフー株式会社 情報処理装置及び方法
JP2016177440A (ja) * 2015-03-19 2016-10-06 ヤフー株式会社 情報処理装置及び方法
JP2016177441A (ja) * 2015-03-19 2016-10-06 ヤフー株式会社 情報処理装置及び方法
JP2017514227A (ja) * 2014-04-17 2017-06-01 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe ロボット上のソフトウェアアプリケーションの実行
JPWO2016068262A1 (ja) * 2014-10-29 2017-08-10 京セラ株式会社 コミュニケーションロボット
JP2017159410A (ja) * 2016-03-10 2017-09-14 大日本印刷株式会社 案内ロボット制御システム、プログラム及び案内ロボット
WO2017175559A1 (ja) * 2016-04-08 2017-10-12 Groove X株式会社 人見知りする自律行動型ロボット
WO2018012219A1 (ja) * 2016-07-11 2018-01-18 Groove X株式会社 自律行動型ロボット
JP6309673B1 (ja) * 2017-06-09 2018-04-11 六月 林 デバイスと操作者との間に恋愛感情を形成する恋愛感情形成装置、恋愛感情形成方法、及びプログラム
CN109153127A (zh) * 2016-03-28 2019-01-04 Groove X 株式会社 执行迎接行为的行为自主型机器人
JP2019053351A (ja) * 2017-09-12 2019-04-04 大日本印刷株式会社 応対装置、コンピュータプログラム及び応対方法
CN109644303A (zh) * 2016-08-29 2019-04-16 Groove X 株式会社 识别声源方向的行为自主型机器人
JP2019193964A (ja) * 2018-05-02 2019-11-07 国立大学法人豊橋技術科学大学 ロボット
JP2020037141A (ja) * 2018-09-03 2020-03-12 株式会社国際電気通信基礎技術研究所 ロボット、ロボット制御プログラムおよびロボット制御方法
CN110919643A (zh) * 2018-09-20 2020-03-27 深圳市优必选科技有限公司 机器人交互方法、机器人及具有存储功能的装置
JP2020049596A (ja) * 2018-09-27 2020-04-02 富士通株式会社 コミュニケーションロボット、制御方法及び制御プログラム
US10613538B2 (en) 2015-04-22 2020-04-07 Sony Corporation Mobile body control system, control method, and storage medium
WO2020213245A1 (ja) * 2019-04-16 2020-10-22 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN112497217A (zh) * 2020-12-02 2021-03-16 深圳市香蕉智能科技有限公司 一种机器人的交互方法、装置、终端设备及可读存储介质
JP2021097765A (ja) * 2019-12-20 2021-07-01 株式会社東海理化電機製作所 制御装置およびプログラム
US11474499B2 (en) 2018-10-24 2022-10-18 Toyota Jidosha Kabushiki Kaisha Communication robot and control program of communication robot
US11491661B2 (en) 2018-10-24 2022-11-08 Toyota Jidosha Kabushiki Kaisha Communication robot and control program of communication robot
WO2023068536A1 (ko) * 2021-10-21 2023-04-27 삼성전자주식회사 로봇 및 이의 제어 방법

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000326274A (ja) * 1999-05-24 2000-11-28 Nec Corp 自律行動ロボット
JP2001188779A (ja) * 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体
JP2004090109A (ja) * 2002-08-29 2004-03-25 Sony Corp ロボット装置およびロボット装置の対話方法
JP2004216513A (ja) * 2003-01-15 2004-08-05 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2005279896A (ja) * 2004-03-30 2005-10-13 Advanced Telecommunication Research Institute International ロボット
JP2006181651A (ja) * 2004-12-24 2006-07-13 Toshiba Corp 対話型ロボット、対話型ロボットの音声認識方法および対話型ロボットの音声認識プログラム
JP2006247780A (ja) * 2005-03-10 2006-09-21 Advanced Telecommunication Research Institute International コミュニケーションロボット

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000326274A (ja) * 1999-05-24 2000-11-28 Nec Corp 自律行動ロボット
JP2001188779A (ja) * 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体
JP2004090109A (ja) * 2002-08-29 2004-03-25 Sony Corp ロボット装置およびロボット装置の対話方法
JP2004216513A (ja) * 2003-01-15 2004-08-05 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2005279896A (ja) * 2004-03-30 2005-10-13 Advanced Telecommunication Research Institute International ロボット
JP2006181651A (ja) * 2004-12-24 2006-07-13 Toshiba Corp 対話型ロボット、対話型ロボットの音声認識方法および対話型ロボットの音声認識プログラム
JP2006247780A (ja) * 2005-03-10 2006-09-21 Advanced Telecommunication Research Institute International コミュニケーションロボット

Cited By (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013157795A (ja) * 2012-01-30 2013-08-15 Casio Comput Co Ltd 情報処理装置、情報処理方法及びプログラム、並びに情報処理システム
JP2013154458A (ja) * 2012-01-31 2013-08-15 Fujitsu Ltd 対話装置、対話プログラムおよび対話方法
JP2016500533A (ja) * 2012-10-17 2016-01-14 チャイナ インダストリーズ リミテッドChina Industries Limited インタラクティブ玩具
US10671903B2 (en) 2012-10-17 2020-06-02 China Industries Limited Interactive toy
WO2014162161A1 (en) * 2013-04-01 2014-10-09 Tosy Robotics Joint Stock Company Shoulder and arm arrangement for a humanoid robot
WO2014162162A1 (en) * 2013-04-01 2014-10-09 Tosy Robotics Joint Stock Company Sound system for humanoid robot
JP2017514227A (ja) * 2014-04-17 2017-06-01 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe ロボット上のソフトウェアアプリケーションの実行
JPWO2016068262A1 (ja) * 2014-10-29 2017-08-10 京セラ株式会社 コミュニケーションロボット
US10366689B2 (en) 2014-10-29 2019-07-30 Kyocera Corporation Communication robot
JP2016087402A (ja) * 2014-10-31 2016-05-23 ヤリー インコーポレイテッド ユーザーとの相互作用が可能な玩具およびその玩具のユーザーとの相互作用方法
JP2016177442A (ja) * 2015-03-19 2016-10-06 ヤフー株式会社 情報処理装置及び方法
JP2016177441A (ja) * 2015-03-19 2016-10-06 ヤフー株式会社 情報処理装置及び方法
JP2016177440A (ja) * 2015-03-19 2016-10-06 ヤフー株式会社 情報処理装置及び方法
US10613538B2 (en) 2015-04-22 2020-04-07 Sony Corporation Mobile body control system, control method, and storage medium
US11385647B2 (en) 2015-04-22 2022-07-12 Sony Corporation Mobile body control system, control method, and storage medium
JP2017159410A (ja) * 2016-03-10 2017-09-14 大日本印刷株式会社 案内ロボット制御システム、プログラム及び案内ロボット
US11135727B2 (en) * 2016-03-28 2021-10-05 Groove X, Inc. Autonomously acting robot that performs a greeting action
CN109153127A (zh) * 2016-03-28 2019-01-04 Groove X 株式会社 执行迎接行为的行为自主型机器人
CN109153127B (zh) * 2016-03-28 2022-05-31 Groove X 株式会社 执行迎接行为的行为自主型机器人
GB2563786A (en) * 2016-04-08 2018-12-26 Groove X Inc Autonomous robot exhibiting shyness
US11192257B2 (en) 2016-04-08 2021-12-07 Groove X, Inc. Autonomously acting robot exhibiting shyness
JPWO2017175559A1 (ja) * 2016-04-08 2018-04-12 Groove X株式会社 人見知りする自律行動型ロボット
GB2563786B (en) * 2016-04-08 2021-08-04 Groove X Inc Autonomously acting robot exhibiting shyness
WO2017175559A1 (ja) * 2016-04-08 2017-10-12 Groove X株式会社 人見知りする自律行動型ロボット
GB2565959B (en) * 2016-07-11 2021-10-13 Groove X Inc Autonomously acting robot
US11213763B2 (en) 2016-07-11 2022-01-04 Groove X, Inc. Autonomously acting robot
WO2018012219A1 (ja) * 2016-07-11 2018-01-18 Groove X株式会社 自律行動型ロボット
JPWO2018012219A1 (ja) * 2016-07-11 2018-07-19 Groove X株式会社 自律行動型ロボット
GB2565959A (en) * 2016-07-11 2019-02-27 Groove X Inc Autonomous-behavior-type robot
CN109644303B (zh) * 2016-08-29 2021-07-23 Groove X 株式会社 对发声体作出动作的机器人
US11376740B2 (en) * 2016-08-29 2022-07-05 Groove X, Inc. Autonomously acting robot that recognizes direction of sound source
CN109644303A (zh) * 2016-08-29 2019-04-16 Groove X 株式会社 识别声源方向的行为自主型机器人
JP6309673B1 (ja) * 2017-06-09 2018-04-11 六月 林 デバイスと操作者との間に恋愛感情を形成する恋愛感情形成装置、恋愛感情形成方法、及びプログラム
JP2018206273A (ja) * 2017-06-09 2018-12-27 六月 林 デバイスと操作者との間に恋愛感情を形成する恋愛感情形成装置、恋愛感情形成方法、及びプログラム
JP2019053351A (ja) * 2017-09-12 2019-04-04 大日本印刷株式会社 応対装置、コンピュータプログラム及び応対方法
JP2019193964A (ja) * 2018-05-02 2019-11-07 国立大学法人豊橋技術科学大学 ロボット
JP7133836B2 (ja) 2018-05-02 2022-09-09 国立大学法人豊橋技術科学大学 ロボット
JP2020037141A (ja) * 2018-09-03 2020-03-12 株式会社国際電気通信基礎技術研究所 ロボット、ロボット制御プログラムおよびロボット制御方法
JP7133840B2 (ja) 2018-09-03 2022-09-09 株式会社国際電気通信基礎技術研究所 ロボット、ロボット制御プログラムおよびロボット制御方法
CN110919643B (zh) * 2018-09-20 2021-12-17 深圳市优必选科技有限公司 机器人交互方法、机器人及具有存储功能的装置
CN110919643A (zh) * 2018-09-20 2020-03-27 深圳市优必选科技有限公司 机器人交互方法、机器人及具有存储功能的装置
JP2020049596A (ja) * 2018-09-27 2020-04-02 富士通株式会社 コミュニケーションロボット、制御方法及び制御プログラム
JP7225642B2 (ja) 2018-09-27 2023-02-21 富士通株式会社 コミュニケーションロボット、制御方法及び制御プログラム
US11474499B2 (en) 2018-10-24 2022-10-18 Toyota Jidosha Kabushiki Kaisha Communication robot and control program of communication robot
US11491661B2 (en) 2018-10-24 2022-11-08 Toyota Jidosha Kabushiki Kaisha Communication robot and control program of communication robot
CN113661036A (zh) * 2019-04-16 2021-11-16 索尼集团公司 信息处理装置、信息处理方法以及程序
WO2020213245A1 (ja) * 2019-04-16 2020-10-22 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP7439826B2 (ja) 2019-04-16 2024-02-28 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
JP2021097765A (ja) * 2019-12-20 2021-07-01 株式会社東海理化電機製作所 制御装置およびプログラム
CN112497217A (zh) * 2020-12-02 2021-03-16 深圳市香蕉智能科技有限公司 一种机器人的交互方法、装置、终端设备及可读存储介质
WO2023068536A1 (ko) * 2021-10-21 2023-04-27 삼성전자주식회사 로봇 및 이의 제어 방법

Also Published As

Publication number Publication date
JP5429462B2 (ja) 2014-02-26

Similar Documents

Publication Publication Date Title
JP5429462B2 (ja) コミュニケーションロボット
JP5033994B2 (ja) コミュニケーションロボット
JP5366048B2 (ja) 情報提供システム
JP7119896B2 (ja) コミュニケーションロボットおよびコミュニケーションロボットの制御プログラム
JP7173031B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2004216513A (ja) コミュニケーションロボット
JP4386367B2 (ja) コミュニケーションロボット改良システム
JP2009241166A (ja) ロボット遠隔操作システム
JP2004230479A (ja) コミュニケーションロボットおよびそれを用いたコミュニケーションシステム
JP2007222968A (ja) コミュニケーションロボット
JP7120254B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP5145569B2 (ja) 対象物特定方法および装置
JP2024023193A (ja) 情報処理装置及び情報処理方法
JP2009131914A (ja) ロボット制御システム
JP4677593B2 (ja) コミュニケーションロボット
JP2007160427A (ja) ロボット制御システム
JP4617428B2 (ja) 動作生成システム
JP2007130691A (ja) コミュニケーションロボット
JP2004034274A (ja) 会話ロボット及びその動作方法
JP5842245B2 (ja) コミュニケーションロボット
JP5324956B2 (ja) 道案内ロボット
JP5163202B2 (ja) 物品推定システム
JP5866646B2 (ja) コミュニケーションシステム、発話内容生成装置、発話内容生成プログラムおよび発話内容生成方法
JP5194314B2 (ja) コミュニケーションシステム
CN211806147U (zh) 一种基于模块化机器人的主控单元及模块化机器人

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120501

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131119

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5429462

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250