JP2010267143A - コミュニケーション情報を収集するロボット装置 - Google Patents

コミュニケーション情報を収集するロボット装置 Download PDF

Info

Publication number
JP2010267143A
JP2010267143A JP2009119061A JP2009119061A JP2010267143A JP 2010267143 A JP2010267143 A JP 2010267143A JP 2009119061 A JP2009119061 A JP 2009119061A JP 2009119061 A JP2009119061 A JP 2009119061A JP 2010267143 A JP2010267143 A JP 2010267143A
Authority
JP
Japan
Prior art keywords
person
communication information
unit
robot
conversation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009119061A
Other languages
English (en)
Other versions
JP5240060B2 (ja
Inventor
Yoshiro Haneda
芳朗 羽田
Shinji Kanda
真司 神田
Yuichi Murase
有一 村瀬
Yoji Hidaka
洋士 日高
Hidenori Sekiguchi
英紀 関口
Akira Fujii
彰 藤井
Masafumi Asai
雅文 浅井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2009119061A priority Critical patent/JP5240060B2/ja
Publication of JP2010267143A publication Critical patent/JP2010267143A/ja
Application granted granted Critical
Publication of JP5240060B2 publication Critical patent/JP5240060B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】組織内の様々な場所での人と人とのコミュニケーションを柔軟に収集可能とする
【解決手段】オフィスロボットは、人物認識部309により会話している人物を認識しながら近づき、その会話している人物を個人認証部306により個人認証した後、その会話している人物によるコミュニケーション情報をコミュニケーション情報検出部(310等)で検出して収集する会話人物コミュニケーション情報収集部(303等)と、会話している人物によるコミュニケーション情報を、そのコミュニケーション情報を発信した人物と、その人物が会話している人物と、そのコミュニケーション情報とを関連付けてコミュニケーションデータベースに記録するコミュニケーション情報ログ記録部(303等)とを備えるように構成される。
【選択図】図1

Description

本発明は、組織内での人同士のコミュニケーションを活性化するための技術に関する。
企業をはじめとする組織内での人と人との繋がりをデータベース化するための従来技術zとして、電子メールの宛先、送信元、題目等を解析してデータベース化する方法や、異動履歴などの人事情報をデータベース化する方法がある。
特開2007−18201
ここで、組織内の人と人とのコミュニケーションは、電子メールやコンピュータ入力画面等に限られるものではく、オフィス内等の様々な場所でコミュニケーションが図られている。
しかし、従来技術では、オフィス内等の様々な場所でのコミュニケーション情報を柔軟に収集することはできなかった。
また、コミュニケーションにおける人と人との繋がりの度合い(会って会話をする程親しいか否か等)や、どんな会話のやり取りがあるか(交換する情報の内容)等の繋がりの質まで知ることはできなかった。
そこで、本発明の1つの側面では、組織内の様々な場所での人と人とのコミュニケーションを柔軟に収集可能とすることを目的とする。
態様の一例は、人物を個人認証する個人認証部と、人物が発声する音声を認識する音声認識部と、人物を認識する人物認識部と、人物によるコミュニケーション情報を検出するコミュニケーション情報検出部を備え、自律走行するロボット装置として実現され、人物認識部により会話している人物を認識しながら近づき、その会話している人物を個人認証部により個人認証した後、その会話している人物によるコミュニケーション情報をコミュニケーション情報検出部で検出して収集する会話人物コミュニケーション情報収集部と、会話している人物によるコミュニケーション情報を、そのコミュニケーション情報を発信した人物と、その人物が会話している人物と、そのコミュニケーション情報とを関連付けてコミュニケーションデータベースに記録するコミュニケーション情報ログ記録部とを備えるように構成される。
態様の一例によれば、ロボット装置が組織のオフィス内等の様々な場所に移動しながらコミュニケーション情報を柔軟に収集することが可能となる。
また、態様の一例によれば、コミュニケーションにおける人と人との繋がりの度合い(会って会話をする程親しいか否か等)や、どんな会話のやり取りがあるか(交換する情報の内容)等の繋がりの質などを、容易に把握することが可能となる。
オフィス内コミュニケーション情報収集システムの実施形態の構成図である。 図1のオフィスロボット101の外観構成を示す図である。 オフィスロボット基本機能の構成図である。 オフィスロボット101(ロボット1)を使って人と人との会話履歴をデータベース化する手順の概略を説明する図である。 コミュニケーションデータベースのデータ構成例を示す図である。 人と人との会話履歴をデータベース化する動作を示すメイン動作フローチャートである。 音声会話のログ処理を示す動作フローチャートである。 キーワードテーブルのデータ構成例を示す図である。 会話中に情報検索動作が行われた場合のログ処理を示す動作フローチャートである。 会話中にファイルサーバ104へのアクセスが行われた場合のログ処理を示す動作フローチャートである。 参照ファイルテーブルのデータ構成例を示す図である。 ヒューマンナレッジ検索処理を示す動作フローチャートである。 キーワード該当者テーブルのデータ構成例を示す図である。 ヒューマンナレッジ検索により生成されるネットワーク図の表示例を示す図である。 ヒューマンナレッジ検索に基づく誘導処理を示す動作フローチャートである。 ヒューマンナレッジ検索に基づく情報共有メール送付処理を示す動作フローチャートである。 ヒューマンナレッジ検索に基づく遠隔テレビ会話処理を示す動作フローチャートである。
以下、本発明を実施するための形態について図面を参照しながら詳細に説明する。
図1は、オフィス内コミュニケーション情報収集システムの実施形態の構成図である。
この実施形態のシステムのネットワーク107には、企業等のオフィス内で人と人とのコミュニケーション情報を収集するオフィスロボット101が、無線装置108を介して無線通信により接続される。ネットワーク107には、人と人との繋がりデータベース102が接続され、このデータベースには、オフィスロボット101が収集したコミュニケーション情報が蓄積される。
本実施形態では、オフィスロボット101がオフィス内を自律的に走行し、オフィス内の人からの呼びかけに応じて、又は自律的に人に寄っていって、人と人との会話等のコミュニケーション情報を収集する。そして、オフィスロボット101は、無線装置108と通信することにより、収集したコミュニケーション情報を人と人との繋がりデータベース102にコミュニケーションデータベースとして蓄積してゆく。このようにして、本実施形態では、組織内の様々な場所での人と人とのコミュニケーションを柔軟に収集することが可能となる。このときオフィスロボット101は、人と人との会話の内容も併せてコミュニケーション情報として収集することができる。
本実施形態において、コミュニケーション情報は、オフィスロボット101のほか、メールサーバ103、ファイルサーバ104、業務データベース105、個人端末106、ロボットサーバ109等からも収集され、人と人との繋がりデータベース102にコミュニケーションデータベースとして蓄積される。メールサーバ103は、オフィス内外で送受信される電子メールを管理する。ファイルサーバ104は、個人端末106等から入出力されるファイルデータを管理する。業務データベース105は、給与データベース、営業データベース、生産管理データベース、グループウェアなどであり、それぞれ給与データ、営業データ、生産管理データ、社内情報データ等を管理する。個人端末106は、例えばパーソナルコンピュータである。ロボットサーバ109は、オフィスロボット101の運行管理、計算パワーの提供の機能を有する。例えば、データベース検索処理などがオフィスロボット101に搭載sれる情報端末では処理しきれないときなどに使用される。103〜106,109の各部で扱われる上述の全ての情報がコミュニケーション情報となり得る。
図2は、図1のオフィスロボット101の外観構成を示す図である。図2(a)は正面から見た外観図、図2(b)は背面から見た外観図、図2(c)は、内部透視図、図2(d)は、各部の名称表である。
ロボット1は、図1のオフィスロボット101自体である。
頭部2には、ロボット1の顔の部分である。
胴体部3は、ロボット1の胴体にあたる部分である。
走行機構部4には、ロボット1の走行機構が搭載される。
着脱可能なマガジンラック5は、組織内の雑誌等の搬送を行う。
交換可能な搬送ユニット6には、各種荷物の搬送台が設置可能である。
タッチパネル付きディスプレイ7は、ロボット1の上部に設置される。ロボット1の横にいる人は、タッチパネル付きディスプレイ7を使って、様々なコミュニケーション情報を表示させたり入力したりできる。
表情用LEDパネル8は、ロボット1の表情を演出する。
フロアライト9は、走行面を照明する。
スピーカ10は、ロボット1が人に会話するときの音声を発声する。
カメラ11は、ロボット1の顔の目に相当する部分であり、周囲の画像を撮像する。
ステレオカメラ用透明カバーもしくは開口部12は、内部のステレオカメラユニット28の開口部分である。
マイクロフォンもしくはマイクロフォンアレイ13は、顔の耳に相当する部分であり、周囲の音声を録音する。
回転走査型測距センサ開口部14は、回転走査型測距センサ36の開口部分である。
超音波センサ15は、前後左右4箇所に設置され、ロボット1が前後左右前方の障害物を把握するために、前後左右方向に超音波を照射して反射波を検知する。超音波センサ15は、ステレオカメラユニット28等の光学センサで検知できないガラスなどの透過性障害物を検知するためのセンサである。
PSD(Position Sensitive Device)測距センサ16は、ロボット前方に下向きに設置され、段差やロボット裾部近くの障害物を検知する。
裾部カバー17は、バンパーの役割を有する。
RFID(Radio Frequency IDentifier)タグリーダアンテナ18は、着脱可能なマガジンラック5に載せられた雑誌等に貼付されているRFIDタグに対して、読取り又は書込みのための電波を送受信する。また、個人が持つ認証用タグとの通信にも使用する。
RFIDタグリーダライタ19は、RFIDタグリーダアンテナ18で読み取られたRFIDタグの情報に基づいて、着脱可能なマガジンラック5に載せられた雑誌の種類等を判別する。逆に、RFIDタグの書き込みも行う。また、個人認証用タグの判別にも使用する。
温度センサ20及び湿度センサ21は、頭部2に搭載され、それぞれオフィス内の温度及び湿度を検知する。
エレベータ制御リモコン22は、ロボット1がエレベータに乗ろうとするときに、エレベータをリモコン操作する。
セキュリティゲート走査用リモコン23は、ロボット1がセキュリティゲートを通過しようとするときに、セキュリティゲートをリモコン操作する。
空調制御用リモコン24は、ロボット1が、温度センサ20及び湿度センサ21でのオフィス内の温度及び湿度の検知結果や、人の検知結果に基づいて、オフィス内の空調装置をリモコン操作する。
非常停止スイッチ25は、ロボット1の周囲の人がロボット1を非常停止させるために押すスイッチである。
UWB(Ultra Wide Band:超広帯域)無線端末装置26は、UWBアンテナユニット27が送受信した位置測定用電波を処理する。
ステレオカメラユニット28は、環境計測センサの1つであり、ロボット周囲の環境を認識するために、周囲の画像を撮像する。
ステレオカメラ用チルト台29は、ステレオカメラユニット28を上下方向にチルト動作させる。
画像認識モジュール30は、ステレオカメラユニット28が撮像した画像データを処理する。
ロボット制御コンピュータ31は、ロボット1の全体的な動作を制御するためのコンピュータであり、後述する図3の機能構成を実現する。また、このコンピュータは後述する情報処理端末も兼ねている。
無線通信装置32は、図1の無線装置108との間で、コミュニケーション情報を通信する。
加速度センサ33は、少なくとも2軸以上の方向の加速度を計測できるセンサであり、ロボット1自身がどの程度の加速度で走行しているかを把握したり、障害物にぶつかったことを検知するための加速度を計測したりする。
ジャイロセンサ34は、ロボットがどの程度の角速度で回転しているかを把握するためのセンサである。
温度センサ(センサ温度補償用)35は、各種センサを正常動作させるために各種センサの温度を検知する。
センサ基板36は、加速度センサ33、ジャイロセンサ34、温度センサ35を搭載する基板である。加速度センサの座標系
の原点
の位置が、左右の駆動輪46の中心と一致し、かつ加速度の検出軸の少なくとも一つの向きが、ロボットが前後に移動する方向と一致するように、センサ基板36はロボットに設置される。
回転走査型測距センサ38は、2次元的に広がる対象物までの距離を測定するために、回転走査しながらビームを発射して反射波を受信することでレーザの伝搬時間を計測する。回転走査型測距センサ38は、例えばレーザレンジファインダとして実現される。また、LEDを発光源とするビームを用いて実現することも可能である。
回転走査型測距センサ用チルト台39は、回転走査型測距センサ38を上下方向にチルト動作させる。
バッテリ40は、ロボット1を駆動させるための電源である。
電圧変換装置41は、バッテリ40が出力する電圧から、各種制御用電圧を生成する。
駆動輪42は、駆動用モータ43が発生する駆動力に基づいて、ロボット1を走行させる。
ステアリング用モータ44は、駆動輪46の向きを変えるためのモータである。
モータ駆動装置45は、モータ43およびモータ44の動作を制御する。
キャスタ46は、ロボットを床面上に支持するための補助輪である。
図3は、図2のロボット1(図1のオフィスロボット101)のロボット制御コンピュータ31がプログラムを実行する機能として実現されるオフィスロボット基本機能の構成図である。
コミュニケーション情報収集制御部301は、オフィスロボット101(ロボット1)においてコミュニケーション情報を収集して、周囲の人に画像又は音声によって提示したり、図1の人と人との繋がりデータベース102に蓄積したりする機能を実現する。
オフィス内移動制御部302は、オフィスロボット101の移動、走行を制御する。
画像入力部304は、図2のステレオカメラユニット28、もしくはカメラ11から入力されたロボット周囲の画像情報を入力する機能である。
音声入力部305は、図2のマイクロフォンもしくはマイクロフォンアレイ13から入力されたロボット周囲の人の音声情報や環境音を入力する機能である。
表情制御部319は、図2の表情用LEDパネル8を制御してオフィスロボット101に表情を形成させる機能である。
電飾制御部320は、図2のフロアライト9等を制御してオフィスロボット101の電飾を表示させる機能である。
RFIDタグread/write部321は、図2のRFIDタグリーダライタ19に対してRFIDタグの読み取り/書き込みを制御する。
オフィスロボット全体制御部303は、コミュニケーション情報収集制御部301、オフィス内移動制御部302、画像入力部304、音声入力部305、表情制御部319、電飾制御部320、及びRFIDタグread/write部321の全体的な動作を制御する。
コミュニケーション情報収集制御部301は、個人認証部306、顔検知部307、音声認識部308、人物認識部309、会話キーワード検出部310、音声出力部311、データ通信部312、及び情報提示部313を含む。
個人認証部306は、画像入力部304から入力する顔画像情報、音声入力部305から入力する音声情報、RFIDタグread/write部から入力する個人認証情報に基づいて、個人を認証する。
顔検知部307は、画像入力部304から入力する顔画像情報に基づいて、人物の認識を行うための顔検知処理を実行する。
音声認識部308は、音声入力部305から入力する音声情報に基づいて、音声認識を実行する。
人物認識部309は、個人認証部306、顔検知部307、又は音声認識部308の処理結果に基づいて、人物を認識する。
会話キーワード検出部310は、音声認識部308で認識された音声データからキーワードを検出する。
音声出力部311は、図2のスピーカ10に音声を出力する機能である。
情報提示部313は、図2のタッチパネル付きディスプレイ313に、コミュニケーション情報等を提示する機能である。
データ通信部312は、図2の無線通信装置32を制御して、図1の無線装置108との間でコミュニケーション情報等の通信を実行する機能である。
オフィス内移動制御部302は、自律走行部314、位置推定部315、環境計測部316、走行制御部317、及び異常検出部318を含む。
位置推定部315は、図2のUWB無線端末装置26及びUWBアンテナユニット27による位置測定結果に基づいて、現在位置を推定する。
環境計測部316は、図2のステレオカメラユニット28、回転走査型測距センサ36などの環境計測センサを使って、オフィスロボット101の周囲の環境を計測する。
走行制御部317は、図2のモータ駆動装置45を制御して、オフィスロボット101の走行を制御する。
自律走行部314は、位置推定部315、環境計測部316、走行制御部317を総合的に制御して、自律走行を制御する。
異常検知部318は、加速度センサ33等の検知結果に基づいて、障害物や人との接触、衝突を検知し、自律走行部314における自律走行を制御する。
図4(a)は、オフィスロボット101(ロボット1)を使って人と人との会話履歴をデータベース化する手順の概略を示す動作フローチャートである。また、図5は、図1の人と人との繋がりデータベース102内のコミュニケーションデータベースのデータ構成例を示す図である。
まず、オフィスロボット101がオフィス内を、自律走行により移動する(図4(a)のステップS401)。
その後、オフィスロボット101は、例えば、オフィス内で会話中のA,B,Fさんに呼び止められたため、その場所に移動する(図4(a)のステップS402)。
図2で説明したが、オフィスロボット101には、図4(b)に示されるように、人を認識するためのカメラ11、マイクロフォン13、及びタッチパネル付ディスプレイ7などが搭載されている。オフィスロボット101は、マイクロフォン13を使って呼び止められたことを認識し、カメラ11での撮像動作に基づいてA,B,Fさんを探しながら、移動する。
その後、図4(c)に示されるように、オフィスロボット101は、A,B,Fさんの近くに行って、会話ログ動作を開始する。
ここで例えば会話中に、A,B,Fさんのうち誰かが、オフィスロボット101のタッチパネル付ディスプレイ7(情報端末31に接続されている)を使って、図1のファイルサーバ104アクセスしてそのファイルを閲覧することができる。これを受けてオフィスロボット101は、コミュニケーションデータベース内の該当者のテーブル(図5の(a)、(b)、(c)の何れか)の「参照」欄に、使用ファイル履歴を追加する(図4(a)のステップS403)。
一方、会話中に、A,B,Fさんのうち誰かが、オフィスロボット101の情報端末を使って、情報検索を行うことができる。情報検索としては、図1のネットワーク107に接続して社内の業務データベース105を検索したり、ネットワーク107から特には図示しないインターネットに接続して、インターネット上の情報を検索したりすることが可能である。情報検索は、オフィスロボット101のタッチパネル付ディスプレイ7を情報端末として使用することでキーワードをタッチ入力したり、マイクロフォン13(図4(b)参照)を情報端末として使用することでキーワードを音声入力したりして実行できる。これを受けてオフィスロボット101は、コミュニケーションデータベース内の該当者のテーブル(図5の(a)、(b)、(c)の何れか)の「キーワード」欄に、キーワードの入力履歴を検索履歴として追加する(図4(a)のステップS404)。
或いは、オフィスロボット101は、A,B,Fさんの会話をマイクロフォン13から逐次入力して音声認識を実行し、認識された音声から頻繁に出てくる単語を抽出する。そして、オフィスロボット101は、コミュニケーションデータベース内の各人のテーブルの「キーワード」欄に、頻繁に出てくる単語を会話履歴として追加する(図4(a)のステップS405)。
上述の動作において、オフィスロボット101は、コミュニケーションデータベースへの記録動作を、A,B,Fさんの会話が終了したあとに実行してもよいし、会話中に逐次実行してもよい。
また、オフィスロボット101は、コミュニケーションデータベースへの記録時に、図5に示されるように、「時刻」欄、「形態」欄=「chat」、「相手」欄=「A,B,F」、「chat場所」欄=会話をしている場所、等の情報も記録する。なお、図1の人と人との繋がりデータベース102内のコミュニケーションデータベースには、メールサーバ103などからも、各人毎のメール中のキーワードなどが記録される。この場合には、「形態」欄=「email」、「email方向」欄=「from」(受信メールの場合)又は「to」(送信メールの場合)なども併せて記録される。
図6、図7、図9、図10は、図3の基本機能の構成をベースとして、図4で概略を説明した、オフィスロボット101(ロボット1)が実行する人と人との会話履歴をデータベース化する動作の、具体例を示す動作フローチャートである。この動作フローチャートは、図2のロボット制御コンピュータ31が、特には図示しないメモリに記憶された制御プログラムを実行する動作として実現され図3のオフィスロボット全体制御部303の機能として実現される。
まず、図6は、人と人との会話履歴をデータベース化する動作を示すメイン動作フローチャートである。
図3のオフィスロボット全体制御部303は、通常状態において、図3のオフィス内移動制御部302内の自律走行部314に対して、オフィス内の自律走行を指示する(図6のステップS601)。
次に、オフィスロボット全体制御部303は、ワーカー(オフィスの従業員等)に呼ばれたか否かを判定する(図6のステップS602)。この判定は、図3の人物認識部309の出力又は図2のタッチパネル付きディスプレイ313からのタッチ入力等に基づいて行われる。
ワーカーに呼ばれておらずステップS602の判定がnoならば、オフィスロボット全体制御部303は、ステップS601の処理に戻る。この結果、図3のオフィス内移動制御部302内の自律走行部314に対して、引き続きオフィス内の自律走行が指示される。
ワーカーに呼ばれてステップS602の判定がyesとなると、オフィスロボット全体制御部303は、図3の人物認識部309の出力に基づいて個人認証を行い(図6のステップS603)、会話ログの開始を指示する(図6のステップS604)。
この結果、オフィスロボット全体制御部303は、ステップS606で会話終了が判定されるまで、ステップS605の会話ログ処理を繰り返し実行する。なお、会話終了の判定は、ワーカーからの音声又はパネルタッチによる終了指示又は一定時間の無入力により、図3の人物認識部309の出力又は図2のタッチパネル付きディスプレイ313からのタッチ入力を認識して行われる。
図7、図9、及び図10は、図6のステップS605の会話ログ処理の詳細を示す動作フローチャートである。これらの処理は並列して実行される。
図7は、音声会話のログ処理を示す動作フローチャートである。この処理は、図4のステップS405の手順に対応する。
まず、オフィスロボット全体制御部303は、図3の音声入力部305及び音声認識部308に指示を出して音声認識処理を実行させる(図7のステップS701)。音声認識部308は、言い換えれば、コミュニケーション情報検出部である。
次に、オフィスロボット全体制御部303は、会話キーワード検出部310に問合せを行い、認識された音声からキーワードが検知されたか否かを判定する(図7のステップS702)。
キーワードが検知されておらずステップS702の判定がnoならば、オフィスロボット全体制御部303は、ステップS701の処理に戻って、音声認識処理の指示を繰り返す。
キーワードが検知されてステップS702の判定がyesとなると、オフィスロボット全体制御部303は、特には図示しないメモリに記憶されるキーワードテーブル上で、キーワード毎の出現回数をカウントする(図7のステップS703)。その後、オフィスロボット全体制御部303は、ステップS701の処理に戻って、音声認識処理の指示を繰り返す。図8は、キーワードテーブルのデータ構成例を示す図である。このテーブルは、キーワード毎に出現回数を保持する。
ステップS703の処理を実施する部分は、言い換えれば、会話している人物による音声から抽出されるキーワードによるコミュニケーション情報を収集する会話人物コミュニケーション情報収集部である。
図9は、会話中に情報検索動作が行われた場合のログ処理を示す動作フローチャートである。この処理は、図4のステップS404の手順に対応する。
まず、オフィスロボット全体制御部303は、タッチパネル付ディスプレイ7(図2又は図4(b)参照)、又は音声入力部305及び音声認識部308に指示を出して、検索キーワードの入力を待つ(図9のステップS901)。これらの処理を行う部分は、言い換えれば、検索キーワードとしてのコミュニケーション情報を検出するコミュニケーション情報検出部である。
次に、オフィスロボット全体制御部303は、検索キーワードが入力されたか否かを判定する(図9のステップS902)。
検索キーワードが入力されておらずステップS902の判定がnoならば、オフィスロボット全体制御部303は、ステップS901の処理に戻って、検索キーワードの入力待ちを繰り返す。
検索キーワードが入力されてステップS902の判定がyesとなると、オフィスロボット全体制御部303は、前述した図8に例示されるキーワードテーブル上で、キーワード毎の出現回数をカウントする(図9のステップS903)。その後、オフィスロボット全体制御部303は、ステップS701の処理に戻って、検索キーワードの入力待ちを繰り返す。図8は、キーワードテーブルのデータ構成例を示す図である。このテーブルは、キーワード毎に出現回数を保持する。
ステップS903の処理を実施する部分は、言い換えれば、会話している人物による検索キーワードによるコミュニケーション情報を収集する会話人物コミュニケーション情報収集部である。
図10は、会話中にファイルサーバ104(図1)へのアクセスが行われた場合のログ処理を示す動作フローチャートである。この処理は、図4のステップS403の手順に対応する。
まず、オフィスロボット全体制御部303は、タッチパネル付ディスプレイ7(図2又は図4(b)参照)を監視して、ファイルオープン指示を待つ(図10のステップS1001)。この処理を行う部分は、言い換えれば、ファイル指定としてのコミュニケーション情報を検出するコミュニケーション情報検出部である。
次に、オフィスロボット全体制御部303は、ファイルオープン指示が行われて実際にファイルサーバ104に対してファイルオープンが実行されたか否かを判定する(図10のステップS1002)。
ファイルオープンが実行されておらずステップS1002の判定がnoならば、オフィスロボット全体制御部303は、ステップS1001の処理に戻って、ファイルオープン指示待ちを繰り返す。
ファイルオープンが実行されてステップS1002の判定がyesとなると、オフィスロボット全体制御部303は、特には図示しないメモリに記憶される参照ファイルテーブルに、開いたファイル名を記録する(図10のステップS1003)。その後、オフィスロボット全体制御部303は、ステップS1001の処理に戻って、ファイルオープン指示待ちを繰り返す。図11は、参照ファイルテーブルのデータ構成例を示す図である。このテーブルは、例えば参照ファイル名を保持する。
ステップS1003の処理を実施する部分は、言い換えれば、会話している人物による参照ファイル名によるコミュニケーション情報を収集する会話人物コミュニケーション情報収集部である。
以上説明した図7、図9、図10の動作フローチャートとして、図6のステップS605の会話ログ処理が実行される。
その後、会話が終了して図6のステップS606の判定がyesとなると、オフィスロボット全体制御部303は、会話ログをコミュニケーションデータベースに記録する処理を実行する(図6のステップS607)。
具体的にはまず、オフィスロボット全体制御部303は、図7のステップS703又は図9のステップS903でキーワードテーブルに記録したキーワードのうち、出現回数が多い所定順位までのキーワード、又は出現回数が所定回数以上のキーワードを抽出する。そして、オフィスロボット全体制御部303は、その抽出したキーワードを、図5のデータ構成例を有するコミュニケーションデータベースの会話中の該当者に対応するテーブルの「キーワード」欄に記録する。この処理は、図4のステップS404又はS405の処理に対応する。
また、オフィスロボット全体制御部303は、図10のステップS1003で参照ファイルテーブルに記録した参照ファイル名を、図5のデータ構成例を有するコミュニケーションデータベースの会話中の該当者に対応するテーブルの「参照」欄に記録する。この処理は、図4のステップS403の処理に対応する。
以上のステップS607の処理を実行する部分は、言い換えれば、会話している人物によるコミュニケーション情報(キーワードや参照ファイル名)を、そのコミュニケーション情報を発信した人物と、その人物が会話している人物と、そのコミュニケーション情報とを関連付けてコミュニケーションデータベースに記録するコミュニケーション情報ログ記録部である。
以上のステップS607の処理の後、オフィスロボット全体制御部303は、制御を図6のステップS601に戻す。
以上説明した実施形態により、オフィスロボット101がオフィス内等の様々な場所に移動しながらコミュニケーション情報を柔軟に収集することが可能となる。
次に、オフィスロボット101付近で会話中の人が、検索キーワードを指定して、コミュニケーションデータベースから関連性の高い人を検索する処理について説明する。以下、この検索を、ヒューマンナレッジ検索と呼ぶ。
図12は、ヒューマンナレッジ検索処理を示す動作フローチャートである。この動作フローチャートは、図2のロボット制御コンピュータ31が、特には図示しないメモリに記憶された制御プログラムを実行する動作として実現され図3のオフィスロボット全体制御部303の機能として実現される。
まず、図2のタッチパネル付きディスプレイ313からのタッチ入力や音声入力に基づいてヒューマンナレッジ検索が指示されると、オフィスロボット全体制御部303は、図12の動作フローチャートで示される制御動作を開始する。
まず、オフィスロボット全体制御部303は、データ通信部312を介して、図1の人と人との繋がりデータベース102の一部であるコミュニケーションデータベース内の図5に例示されるテーブルにアクセスする。そして、オフィスロボット全体制御部303は、上記テーブルの「キーワード」欄を調べ、会話者によって指定された検索キーワードと一致又は類似するキーワードを含むレコードの「相手」欄の人をリストアップする(図12のステップS1201)。
次に、オフィスロボット全体制御部303は、キーワードの出願回数など、検索キーワードとの関連性が高い人順に並べたキーワード該当者テーブルを作成する(図12のステップS1202)。図13は、キーワード該当者テーブルのデータ構成例を示す図である。このテーブルは例えば、「該当者」欄と、該当者毎の「出現回数(相関度)」欄とを有する。
次に、オフィスロボット全体制御部303は、図13に例示されるテーブルリストから、相関度(出現回数など)が所定の閾値以上の該当者を抽出する(図12のステップS1203)。
次に、オフィスロボット全体制御部303は、コミュニケーションデータベース内の図5に例示されるテーブルの「相手」欄において、ステップS1203にて抽出した該当者を含むレコードを検索し、各レコードの「相手」欄に含まれる人を抽出する。そして、オフィスロボット全体制御部303は、これらの人に基づいて、繋がりのある人物同士のネットワーク図を作成する(以上、図12のステップS1204)。図14は、このネットワーク図の表示例を示す図である。この図は、人を「ノード」、繋がりを「枝」とするグラフで表現される。
最後に、オフィスロボット全体制御部303は、ステップS1204で作成した図14に例示される「人と人の繋がり」を示すネットワーク図(グラフ)において、繋がりの強い「枝」を強調して表示する(図12のステップS1205)。繋がりの強さは例えば、最近のchat回数が多い等である。この情報は、図5に例示されるコミュニケーションデータベースのテーブルから得ることができる。
このようなネットワーク図が、オフィスロボット101のタッチパネル付きディスプレイ7(図2又は図4(b)参照)に表示される。
以上説明した図12の動作フローチャートの制御動作を実行する部分は、言い換えれば、コミュニケーションデータベースの記録情報に基づいてコミュニケーションデータベースに記録されている人物間の関係を表示する人物間関係表示部である。
以上説明した図12の動作フローチャートの制御動作で実現される実施形態により、コミュニケーションにおける人と人との繋がりの度合い(会って会話をする程親しいか否か等)や、どんな会話のやり取りがあるか(交換する情報の内容)等の繋がりの質などを、容易に把握することが可能となる。
以上説明した図12の動作フローチャートで示される制御動作は、オフィスロボット101だけではなく、図1の個人端末106において実行され、個人端末106のディスプレイに表示されるように構成されてもよい。もしくは、図12のS1201,S1202,S1203の処理は、図1のロボットサーバ109で実行し、その処理結果を無線通信装置32を介して情報処理端末31で受け取り、ロボットのディスプレイ7に結果を表示してもよい。
次に、上述のヒューマンナレッジ検索の結果、図14に例示されるように表示されるネットワーク図において一人の人をポイントするとその人の場所まで誘導するオフィスロボット101の実施形態について、以下に説明する。
図15は、ヒューマンナレッジ検索に基づく誘導処理を示す動作フローチャートである。この動作フローチャートは、図2のロボット制御コンピュータ31が、特には図示しないメモリに記憶された制御プログラムを実行する動作として実現され図3のオフィスロボット全体制御部303の機能として実現される。
まず、図2のタッチパネル付きディスプレイ313に図14に例示されるネットワーク図が表示される(図15のステップS1501)。
次に、会話者が図14に表示されている、誘導してもらいたい相手を押す(タッチパネルでタッチする)と、オフィスロボット全体制御部303がそれを把握する(図15のステップS1502)。
次に、オフィスロボット全体制御部303は、図1の業務データベース105のスケジュール表にアクセスし、ステップS1502で指定された誘導する相手がオフィスにいるか確認する(図15のステップS1503)。
更に、オフィスロボット全体制御部303は、誘導する相手に関して、図1の個人端末106のログイン状況を調べる(図15のステップS1504)。
以上のステップS1503とS1504より、誘導する相手が在席しているか否かを判定する(図15のステップS1505)。
該当者が在席しておりステップS1505の判定がyesならば、オフィスロボット全体制御部303は、誘導する相手に、「これから○○さんを案内します。」と連絡し、都合を確認する(図15のステップS1506)。連絡手段としては、内線電話、電子メール、メッセンジャーなどが利用可能である。
次に、オフィスロボット全体制御部303は、相手の都合は良いか否かを確認する(図15のステップS1507)。
相手の都合は良くステップS1507の判定がyesならば、オフィスロボット全体制御部303は、図3の音声出力部311を制御して図2のスピーカ10から、「Aさんの席に案内します」と発話する。更に、オフィスロボット全体制御部303は、図3のオフィス内移動制御部302の自律走行部314を制御して、誘導する相手へ向けた移動を開始する(図15のステップS1508)。
その後、オフィスロボット全体制御部303は、図3のオフィス内移動制御部302の自律走行部314を制御して、誘導する相手への誘導制御を行う(図15のステップS1509)。
そして、オフィスロボット全体制御部303は、図2の画像認識モジュール30等からの情報に基づいて、誘導する相手の席への到着を確認する(図15のステップS1510)。
その後、オフィスロボット全体制御部303は、誘導する相手(Aさん)に向けて、図3の音声出力部311を制御して図2のスピーカ10から、「○○さんを案内しました」と告げる。また、○○さんに「こちらはAさんです」と紹介し、案内を終了する(図15のステップS1511)。
一方、相手の都合が悪くステップS1507の判定がnoならば、オフィスロボット全体制御部303は、図3の音声出力部311を制御して図2のスピーカ10から、相手の都合が良くないので、誘導できないことを告げる(図15のステップS1512)。
また、前述したステップS1503とS1504に基づく判定において、誘導する相手が在席しておらずステップS1505の判定がnoならば、オフィスロボット全体制御部303は、図3の音声出力部311を制御して図2のスピーカ10から、在席してないので誘導できないことを告げる(図15のステップS1513)。
次に、図12の動作フローチャートで示されるヒューマンナレッジ検索の結果、図14に例示されるように表示されるネットワーク図において情報を共有したい人をポイントすると、その人達に必要な会話ログをメールで送付するオフィスロボット101の実施形態について、以下に説明する。
図16は、ヒューマンナレッジ検索に基づく情報共有メール送付処理を示す動作フローチャートである。この動作フローチャートは、図2のロボット制御コンピュータ31が、特には図示しないメモリに記憶された制御プログラムを実行する動作として実現され図3のオフィスロボット全体制御部303の機能として実現される。
まず、図2のタッチパネル付きディスプレイ313に図14に例示されるネットワーク図が表示される(図16のステップS1601)。
次に、会話者が図14に表示されている、情報を共有したい相手を押す(タッチパネルでタッチする)と、オフィスロボット全体制御部303がそれを把握する(図16のステップS1602)。
次に、オフィスロボット全体制御部303は、コミュニケーションデータベース内の図5に例示されるテーブルにアクセスし、現在の会話に対応して記録されている会話ログ(キーワードや参照ファイル名等)を取得する(図16のステップS1603)。
そして、オフィスロボット全体制御部303は、ステップS1603で取得した会話ログファイルを添付したメールを作成し、図1のメールサーバ103にアクセスして、そのメールをステップS1602で指定された相手のメールアドレス宛てに送付する。なお、指定された相手のメールアドレスは、例えば図1の業務データベース105等から取得することができる(図15のステップS1604)。
以上説明した図15の動作フローチャートで示される制御動作は、オフィスロボット101だけではなく、図1の個人端末106において実行できるように構成されてもよい。
最後に、図12の動作フローチャートで示されるヒューマンナレッジ検索の結果、図14に例示されるように表示されるネットワーク図においてテレビ会話をしたい人をポイントすると、その人達と遠隔テレビ会話を行うオフィスロボット101の実施形態について、以下に説明する。
図17は、ヒューマンナレッジ検索に基づく遠隔テレビ会話処理を示す動作フローチャートである。この動作フローチャートは、図2のロボット制御コンピュータ31が、特には図示しないメモリに記憶された制御プログラムを実行する動作として実現され図3のオフィスロボット全体制御部303の機能として実現される。
まず、図2のタッチパネル付きディスプレイ313に図14に例示されるネットワーク図が表示される(図17のステップS1701)。
次に、会話者が図14に表示されている、テレビ会話をしたい相手を押す(タッチパネルでタッチする)と、オフィスロボット全体制御部303がそれを把握する(図17のステップS1702)。
次に、オフィスロボット全体制御部303は、コミュニケーションデータベースにアクセスし、ステップS1702で指定された相手の個人端末106のネットワーク情報を取得する(図17のステップS1703)。
次に、オフィスロボット全体制御部303は、テレビ会話プログラムを起動し、テレビ会話画面をタッチパネル付きディスプレイ313(テーブルトップモニタ)に表示する(図17のステップS1704)。
次に、オフィスロボット全体制御部303は、データ通信部312にアクセスして、相手の個人端末106をコールする(図17のステップS1705)。
オフィスロボット全体制御部303は、応答があったか否かを判定する(図17のステップS1705)。
相手の応答がありステップS1705の判定がyesの場合、相手に接続し、会話を開始する(図17のステップS1706)。
通話が終了した場合、又は相手の応答がなくステップS1705の判定がnoの場合には、テレビ会話プログラムを終了する(図17のステップS1707)。
以上説明した図15の動作フローチャートで示される制御動作は、オフィスロボット101だけではなく、図1の個人端末106において実行できるように構成されてもよい。
以上の実施形態では、コミュニケーションデータベースは、図1の人と人との繋がりデータベース102の一部として構成されているが、オフィスロボット101側に保持されてもよい。
1、101 ロボット
2 頭部
3 胴体部
4 走行機構部
5 着脱可能なマガジンラック
6 交換可能な搬送ユニット
7 タッチパネル付きディスプレイ
8 表情用LEDパネル
9 フロアライト
10 スピーカ
11 カメラ
12 ステレオカメラ用透明カバーもしくは開口部
13 マイクロフォンもしくはマイクロフォンアレイ
14 回転走査型測距センサ開口部
15 超音波センサ
16 PSD測距センサ
17 外装兼接触検知センサ
18 RFIDタグリーダアンテナ
19 RFIDタグリーダライタ
20 温度センサ
21 湿度センサ
22 エレベータ制御リモコン
23 セキュリティゲート走査用リモコン
24 空調制御用リモコン
25 非常停止スイッチ
26 UWB無線端末装置
27 UWBアンテナユニット
28 ステレオカメラユニット
29 ステレオカメラ用チルト台
30 画像認識モジュール
31 ロボット制御コンピュータ
32 無線通信装置
33 加速度センサ
34 ジャイロセンサ
35 温度センサ(センサ温度補償用)
36 回転走査型測距センサ
37 回転走査型測距センサ用チルト台
38 力センサ
39 接触検知用スイッチ
40 バッテリ
41 電圧変換装置
42 駆動輪
44 ステアリング用モータ
45 モータ駆動装置
46 キャスタ
47 ジャッキアップ機構
102 人と人との繋がりデータベース
103 メールサーバ
104 ファイルサーバ
105 業務データベース
106 個人端末
107 ネットワーク
108 無線装置
301 コミュニケーション情報収集制御部
302 オフィス内移動制御部
303 オフィスロボット全体制御部
304 画像入力部
305 音声入力部
306 個人認証部
307 顔検知部
308 音声認識部
309 人物認識部
310 会話キーワード検出部
311 音声出力部
312 データ通信部
313 情報提示部
314 自律走行部
315 位置推定部
316 環境計測部
317 走行制御部
318 異常検出部
319 表情制御部
320 電飾制御部
321 RFIDタグread/write部

Claims (8)

  1. 人物を個人認証する個人認証部と、人物が発声する音声を認識する音声認識部と、人物を認識する人物認識部と、人物によるコミュニケーション情報を検出するコミュニケーション情報検出部を備え、自律走行するロボット装置において、
    前記人物認識部により会話している人物を認識しながら近づき、該会話している人物を前記個人認証部により個人認証した後、該会話している人物によるコミュニケーション情報を前記コミュニケーション情報検出部で検出して収集する会話人物コミュニケーション情報収集部と、
    前記会話している人物によるコミュニケーション情報を、該コミュニケーション情報を発信した人物と、該人物が会話している人物と、該コミュニケーション情報とを関連付けてコミュニケーションデータベースに記録するコミュニケーション情報ログ記録部と、
    を含むことを特徴とするコミュニケーション情報を収集するロボット装置。
  2. 前記会話人物コミュニケーション情報収集部が収集するコミュニケーション情報は、前記会話している人物による会話音声から抽出されるキーワード情報である、
    ことを特徴とする請求項1に記載のコミュニケーション情報を収集するロボット装置。
  3. 前記会話人物コミュニケーション情報収集部が収集するコミュニケーション情報は、前記会話している人物が情報検索のために指定する検索キーワード情報である、
    ことを特徴とする請求項1に記載のコミュニケーション情報を収集するロボット装置。
  4. 前記会話人物コミュニケーション情報収集部が収集するコミュニケーション情報は、前記会話している人物がファイルサーバにアクセスする参照ファイル情報である、
    ことを特徴とする請求項1に記載のコミュニケーション情報を収集するロボット装置。
  5. 前記コミュニケーションデータベースの記録情報に基づいて該コミュニケーションデータベースに記録されている人物間の関係を表示する人物間関係表示部を更に含む、
    ことを特徴とする請求項1に記載のコミュニケーション情報を収集するロボット装置。
  6. 前記人物間関係表示部が表示する人物のうち依頼者により指定された対象人物の所在場所を検索する所在検索部と、
    前記所在場所が検索された前記対象人物の都合を問い合わせる都合問合せ部と、
    該問合せの結果都合が良ければ、前記所在場所まで前記依頼者を誘導する人物誘導部と、
    を更に含むことを特徴とする請求項5に記載のコミュニケーション情報を収集するロボット装置。
  7. 前記人物間関係表示部が表示する人物のうち依頼者により指定された対象人物に対応するメールアドレスに、前記依頼者に関連するコミュニケーション情報を送付するコミュニケーション情報送付部を更に含む、
    ことを特徴とする請求項5に記載のコミュニケーション情報を収集するロボット装置。
  8. 前記人物間関係表示部が表示する人物のうち依頼者により指定された対象人物に対応する個人端末との間で、遠隔会話を実施する遠隔会話実施部を更に含む、
    ことを特徴とする請求項5に記載のコミュニケーション情報を収集するロボット装置。
JP2009119061A 2009-05-15 2009-05-15 コミュニケーション情報を収集するロボット装置 Active JP5240060B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009119061A JP5240060B2 (ja) 2009-05-15 2009-05-15 コミュニケーション情報を収集するロボット装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009119061A JP5240060B2 (ja) 2009-05-15 2009-05-15 コミュニケーション情報を収集するロボット装置

Publications (2)

Publication Number Publication Date
JP2010267143A true JP2010267143A (ja) 2010-11-25
JP5240060B2 JP5240060B2 (ja) 2013-07-17

Family

ID=43364048

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009119061A Active JP5240060B2 (ja) 2009-05-15 2009-05-15 コミュニケーション情報を収集するロボット装置

Country Status (1)

Country Link
JP (1) JP5240060B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014056141A1 (zh) * 2012-10-09 2014-04-17 华为技术有限公司 机器人日志保存的方法、装置和系统
JP2018510366A (ja) * 2015-03-07 2018-04-12 ベリティ ストゥディオス アーゲー 分散された位置特定システムおよび方法ならびに自己位置特定装置
US11259154B2 (en) 2015-05-29 2022-02-22 Verity Ag Methods and systems for scheduling the transmission of localization signals and operating self-localizing apparatus
JP7316856B2 (ja) 2019-07-05 2023-07-28 清水建設株式会社 コミュニケーション計測システム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259389A (ja) * 1999-03-09 2000-09-22 Fuji Xerox Co Ltd 対話記録システム及び対話記録合成装置
JP2004216513A (ja) * 2003-01-15 2004-08-05 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2005059170A (ja) * 2003-08-18 2005-03-10 Honda Motor Co Ltd 情報収集ロボット
JP2007004504A (ja) * 2005-06-24 2007-01-11 Hitachi Ltd 組織活動支援システム及び方法
JP2007027918A (ja) * 2005-07-13 2007-02-01 Sharp Corp 実世界コミュニケーション管理装置
JP2007260864A (ja) * 2006-03-29 2007-10-11 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2007276051A (ja) * 2006-04-06 2007-10-25 Toyota Motor Corp 自律移動型ロボット

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259389A (ja) * 1999-03-09 2000-09-22 Fuji Xerox Co Ltd 対話記録システム及び対話記録合成装置
JP2004216513A (ja) * 2003-01-15 2004-08-05 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2005059170A (ja) * 2003-08-18 2005-03-10 Honda Motor Co Ltd 情報収集ロボット
JP2007004504A (ja) * 2005-06-24 2007-01-11 Hitachi Ltd 組織活動支援システム及び方法
JP2007027918A (ja) * 2005-07-13 2007-02-01 Sharp Corp 実世界コミュニケーション管理装置
JP2007260864A (ja) * 2006-03-29 2007-10-11 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2007276051A (ja) * 2006-04-06 2007-10-25 Toyota Motor Corp 自律移動型ロボット

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200201388008; 久保田千太郎 他: 'グループ会話ロボットにおける顔画像処理システム' 電子情報通信学会技術研究報告 Vol. 99, No. 708, 20000317, pp. 49-56, 社団法人電子情報通信学会 *
JPN6013010407; 久保田千太郎 他: 'グループ会話ロボットにおける顔画像処理システム' 電子情報通信学会技術研究報告 Vol. 99, No. 708, 20000317, pp. 49-56, 社団法人電子情報通信学会 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014056141A1 (zh) * 2012-10-09 2014-04-17 华为技术有限公司 机器人日志保存的方法、装置和系统
JP2018510366A (ja) * 2015-03-07 2018-04-12 ベリティ ストゥディオス アーゲー 分散された位置特定システムおよび方法ならびに自己位置特定装置
US10908619B2 (en) 2015-03-07 2021-02-02 Verity Ag Distributed localization systems and methods and self-localizing apparatus
US11378985B2 (en) 2015-03-07 2022-07-05 Verity Ag Distributed localization systems and methods and self-localizing apparatus
US11259154B2 (en) 2015-05-29 2022-02-22 Verity Ag Methods and systems for scheduling the transmission of localization signals and operating self-localizing apparatus
US11595795B2 (en) 2015-05-29 2023-02-28 Verity Ag Methods and systems for scheduling the transmission of localization signals and operating self-localizing apparatus
US11924719B2 (en) 2015-05-29 2024-03-05 Verity Ag Methods and systems for scheduling the transmission of localization signals and operating self-localizing apparatus
JP7316856B2 (ja) 2019-07-05 2023-07-28 清水建設株式会社 コミュニケーション計測システム

Also Published As

Publication number Publication date
JP5240060B2 (ja) 2013-07-17

Similar Documents

Publication Publication Date Title
JP4718987B2 (ja) インターフェース装置およびそれを備えた移動ロボット
EP3258336B1 (en) Robot control system and a program
US7725547B2 (en) Informing a user of gestures made by others out of the user's line of sight
KR102384641B1 (ko) 다국어 처리를 수행하는 인공 지능 시스템의 제어 방법
WO2013055025A1 (ko) 지능 로봇, 지능 로봇과 사용자의 상호작용을 위한 시스템 및 지능 로봇과 사용자의 상호작용을 위한 방법
EP3229535B1 (en) Device management based on tracking path taken by user
CN107076999B (zh) 使用目光接触经由平视显示器进行对接
JP4024683B2 (ja) コミュニケーションロボット
US20060041542A1 (en) Networked peripheral for visitor greeting, identification, biographical lookup and tracking
JP5240060B2 (ja) コミュニケーション情報を収集するロボット装置
JP4599522B2 (ja) コミュニケーションロボット
US20200411154A1 (en) Artificial intelligence robot and method of controlling the same
CN108748218A (zh) 基于机器视觉与ar技术的新零售智能导购机器人及导购方法
WO2008084034A1 (en) Controlling a document based on user behavioral signals detected from a 3d captured image stream
JP4896550B2 (ja) 情報管理システム
KR20210099217A (ko) 로봇 시스템의 제어 방법
CN103270484A (zh) 不要求视觉接触的电子设备菜单导航
KR20210099670A (ko) 로봇 시스템의 제어 방
CN109819400B (zh) 用户位置的查找方法、装置、设备及介质
JP6820664B2 (ja) 受付システムおよび受付方法
KR20190009201A (ko) 이동 단말기 및 그 제어 방법
JP4677593B2 (ja) コミュニケーションロボット
KR102647132B1 (ko) 로봇 시스템의 제어 방법
US11017313B2 (en) Situational context analysis program
WO2018227910A1 (zh) 导盲杖及导盲方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130318

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160412

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5240060

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150