JP2019200607A - Information processing system and information processing method - Google Patents
Information processing system and information processing method Download PDFInfo
- Publication number
- JP2019200607A JP2019200607A JP2018094827A JP2018094827A JP2019200607A JP 2019200607 A JP2019200607 A JP 2019200607A JP 2018094827 A JP2018094827 A JP 2018094827A JP 2018094827 A JP2018094827 A JP 2018094827A JP 2019200607 A JP2019200607 A JP 2019200607A
- Authority
- JP
- Japan
- Prior art keywords
- information processing
- robot
- user
- data
- processing system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、情報処理システムおよび情報処理方法に関する。 The present invention relates to an information processing system and an information processing method.
音声および文字を用いて利用者と対話を行ない、対話と、環境センサから得た情報とに基づいて、人間と同じ空間で動作するサービスロボットを用いた移動ロボット対話システムが提案されている(特許文献1)。サービスロボットは、人間に近い寸法を有し、環境状況をリアルタイムで把握しながら、あらかじめ与えられたシナリオに基づいて自律的に動作する。 A mobile robot dialogue system using a service robot that operates in the same space as humans based on dialogue and information obtained from environmental sensors is proposed (Patent) Reference 1). The service robot has a size close to that of a human being and operates autonomously based on a scenario given in advance while grasping an environmental situation in real time.
しかしながら、ユーザによっては、人間に近い寸法のサービスロボットが自立的に動作することに対して、抵抗感または恐怖感を感じる場合がある。一つの側面では、多くの人に親しみを感じさせるロボットを用いた、情報処理システム等の提供を目的とする。 However, depending on the user, there may be a sense of resistance or fear that a service robot having a size close to that of a human will operate independently. In one aspect, an object is to provide an information processing system using a robot that makes many people feel familiar.
ロボットと、情報処理装置とを備える情報処理システムにおいて、前記情報処理装置は、カメラと、前記カメラが撮影した画像に関するデータをネットワークに送信する第1送信部と、前記第1送信部から送信された前記画像に関するデータに基づいて作成された応答データを受信する第1受信部と、前記第1受信部が受信した応答データに基づいて音声データを前記ロボットに送信する第2送信部とを備え、前記ロボットは、前記第2送信部が送信した音声データを受信する第3受信部と、前記第3受信部が受信した音声データに基づく音声を出力するスピーカとを備える。 In an information processing system including a robot and an information processing device, the information processing device is transmitted from a camera, a first transmission unit that transmits data related to an image captured by the camera to a network, and the first transmission unit. A first reception unit that receives response data created based on the data related to the image, and a second transmission unit that transmits voice data to the robot based on the response data received by the first reception unit. The robot includes a third receiving unit that receives the audio data transmitted by the second transmitting unit, and a speaker that outputs audio based on the audio data received by the third receiving unit.
一つの側面では、多くの人に親しみを感じさせるロボットを用いた、情報処理システム等を提供できる。 In one aspect, an information processing system using a robot that makes many people feel friendly can be provided.
[実施の形態1]
図1は、情報処理システム10の動作の概要を説明する説明図である。以下の説明では、商業施設の案内所に設置されており、買い物客等のユーザに対して店舗の案内等を行なう情報処理システム10を例にして説明を行なう。なお、情報処理システム10の設置場所は商業施設に限定しない。情報処理システム10は、たとえば駅等の交通機関、または、観光施設等の、任意の場所に設置できる。
[Embodiment 1]
FIG. 1 is an explanatory diagram for explaining an outline of the operation of the
情報処理システム10は、ロボット20、および情報処理装置40を備える。情報処理装置40は、タブレットまたはパソコン等の汎用の情報処理装置であり、ネットワークを介してサーバ50と接続されている。情報処理装置40は、液晶表示パネルまたは有機EL(electro-luminescence)表示パネル等の表示パネルを備えた表示装置47およびカメラ49を有する。
The
ロボット20の外装は、鳥を模した親しみを感じさせる形状である。ロボット20は、マイク31(図2参照)およびスピーカ32(図2参照)を備える。ロボット20は、表示装置47よりも小さい。さらに具体的には、ロボット20の身長、すなわち上下方向の長さは、表示装置47の短辺の長さよりも短い。ロボット20は、Bluetooth(登録商標)等の短距離無線通信を介して情報処理装置40と接続されている。
The exterior of the
ロボット20は、切り株を模した略円板状の充電台36に載置されている。ロボット20は、充電台36を介して供給される電源、または、ロボット20に内蔵する電池により動作する。
The
ユーザがロボット20に近付いて、たとえば「ケーキ屋さんはありますか?」のように話しかける。マイク31が音声を検出し、電気信号である音声データに変換して、短距離無線通信を介して情報処理装置40に送信する。ユーザを、カメラ49が撮影する。なお、カメラ49は、ロボット20に向かい合うユーザの顔を撮影できる位置に配置されている。情報処理装置40からサーバ50に、音声データと、カメラ49が撮影した画像とが送信される。
The user approaches the
サーバ50は、画像と音声データとに基づいて適切な回答を作成して、情報処理装置40に送信する。具体的には、画像に基づいてユーザの性別および年齢等の属性が判定される。事前に定義された複数の擬似人格の音声チャットボットの中から、ユーザの属性に応じた擬似人格の音声チャットボットが選択される。
The
音声チャットボットが、商業施設内の複数の「ケーキ屋さん」の中から、ユーザに推奨する「ケーキ屋さん」を抽出し、音声データおよび当該「ケーキ屋さん」に関連づけられた画像を含む回答を送信する。なお、自然言語によりユーザとの対話を行なう音声チャットボットの機能は、サーバ50に搭載されていても良く、クラウドサービスにより提供されていても良い。音声チャットボットは公知であるため、詳細については説明を省略する。
Voice chatbot extracts “cake shop” recommended for users from multiple “cake shop” in the commercial facility, and includes voice data and images associated with the “cake shop” Send. Note that the function of the voice chat bot for interacting with the user in a natural language may be installed in the
情報処理装置40は、表示装置47に映像を表示する。映像は、静止画または動画である。情報処理装置40は、短距離無線通信を介してロボット20に音声データを送信する。ロボット20は、スピーカ32から音声データに基づく音声を発する。
The
カメラ49で撮影した画像に基づいてユーザの属性を判定して、擬似人格を選択することにより、ユーザに合った情報を、ユーザに合った表現で提供する情報処理システム10を提供できる。鳥を模した形状の小型のロボット20を使用することにより、コンピュータに苦手意識を持つユーザであっても、抵抗感なく話しかけて、必要な情報を得ることができる。
By determining a user attribute based on an image photographed by the
図2および図3は、ロボット20の斜視図である。ロボット20は、略円柱状の胴体部201と、胴体部201の一方の端面を覆う略半球状の頭部202とを有する。頭部202に、2個の第1発光部251と、スピーカ32とが配置されている。第1発光部251は、ロボット20の目のような外観を有する。
2 and 3 are perspective views of the
胴体部201の正面に、円形の人感センサ331が設けられている。人感センサ331に下側に、円形の第2発光部252が配置されている。第2発光部252の下側に、マイク31が配置されている。胴体部201の左右に、羽根型のタッチセンサ332が配置されている。人感センサ331およびタッチセンサ332は、ロボット20が備えるセンサ33の例示である。胴体部201の下部に、鳥の脚を模した二つの脚部27が設けられている。
A circular
胴体部201の後側の下部に、コネクタ29が配置されている。コネクタ29は、たとえばUSB(Universal Serial Bus)コネクタである。コネクタ29の下に、二つのチェーン孔35が設けられている。チェーン孔35は、図示を省略する盗難防止チェーンを取付可能である。
A
胴体部201の下面に3個のスイッチ26、および、2個の第2充電端子28が配置されている。スイッチ26を単独で、または、複数組み合わせて操作することにより、ロボット20の電源のオン・オフ、マイク31の感度調整、スピーカ32の音量調整、第1発光部251および第2発光部252の光量調整等を行なえる。
Three switches 26 and two
図4は、充電台36の斜視図である。充電台36は略円板状であり、一面に略円形の凹部361を有する。凹部361の中央部に、第2充電端子28に対応する第1充電端子38が配置されている。凹部361の縁に、脚部27に対応する脚入部362が設けられている。
FIG. 4 is a perspective view of the charging
充電台36の側面にコネクタ39が配置されている。コネクタ39は、たとえばUSBコネクタであり、AC(Alternating Current)アダプタを接続可能である。
A
ロボット20の脚部27と、充電台36の脚入部362との向きを合わせた状態で、ロボット20を充電台36に載置することにより、ロボット20の一部が充電台36の凹部361に挿入される。第1充電端子38と第2充電端子28とが接触し、ロボット20に電源が供給される。脚部27と脚入部362との向きが合わない状態では、第1充電端子38と第2充電端子28とが接触しないため、誤接続を防止できる。
By placing the
図5は、ロボット20の内部構造を説明する説明図である。図5を使用して、頭部202の内部に配置されたアクチュエータ34の構造の概略を説明する。アクチュエータ34は、磁石341、コイル342および回動軸343を有する。回動軸343は、胴体部201の中心軸に沿って設けられており、胴体部201の端面から頭部202の内部に突出している。
FIG. 5 is an explanatory diagram for explaining the internal structure of the
磁石341は、ロボット20の左右方向に長い略直方体形状である。磁石341は、頭部202の内部に固定されており、回動軸343に対して回動可能である。磁石341は、長手方向の端部にN極とS極とを有する。
The
磁石341の後側に、コイル342が配置されている。コイル342は、胴体部201に対して固定されている。胴体部201の端面に、2つのストッパ344が固定されている。
A
コイル342に直流電流を流すことにより、磁石341が第1の方向に回動する。直流電流の向きを反転することにより、磁石341が第2の方向に回動する。ストッパ344により、磁石341の回動範囲が所定の範囲に制限される。
By applying a direct current to the
図6は、ロボット20の動作を説明する説明図である。磁石341の回動に伴って、ロボット20の頭部202が胴体部201に対して回動する。これにより、ロボット20の首振り運動が行なわれる。
FIG. 6 is an explanatory diagram for explaining the operation of the
図7および図8は、情報処理システム10の構成を説明する説明図である。図7を使用して、情報処理装置40およびロボット20の構成を説明する。
7 and 8 are explanatory diagrams for explaining the configuration of the
情報処理装置40は、CPU(Central Processing Unit)41、主記憶装置42、補助記憶装置43、第1通信部46、第2通信部44、タッチパネル45、カメラ49およびバスを備える。CPU41は、本実施の形態のプログラムを実行する演算制御装置である。CPU41には、一または複数のCPUまたはマルチコアCPU等が使用される。CPU41は、バスを介して情報処理装置40を構成するハードウェア各部と接続されている。
The
主記憶装置42は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の記憶装置である。主記憶装置42に
は、CPU41が行なう処理の途中で必要な情報およびCPU41で実行中のプログラムが一時的に保存される。
The
補助記憶装置43は、SRAM、フラッシュメモリまたはハードディスク等の記憶装置である。補助記憶装置43には、CPU41に実行させるプログラム、およびプログラムの実行に必要な各種データが保存される。
The
第1通信部46は、第1送信部461および第1受信部462を有する。第1通信部46は、情報処理装置40とネットワークとの間のデータ通信を行なうインターフェイスである。第2通信部44は、第2送信部441および第2受信部442を有する。第2通信部44は、情報処理装置40とロボット20との間の近距離無線通信を行なうインターフェイスである。
The
タッチパネル45は、液晶表示パネル等の表示部451と、表示部451に積層された入力部452とを備える。タッチパネル45を有する表示装置47が、情報処理装置40と別体に設けられており、有線または無線により情報処理装置40に接続されていても良い。
The
カメラ49は、CPU41による制御に基づいて、静止画および動画を撮影可能である。カメラ49は、情報処理装置40とは別体に設けられており、有線または無線により情報処理装置40に接続されていても良い。
The
ロボット20は、CPU21、主記憶装置22、補助記憶装置23、第3通信部24、発光部25、マイク31、スピーカ32、センサI/F330、センサ33、アクチュエータI/F340およびバスを備える。CPU21は、本実施の形態のプログラムを実行する演算制御装置である。CPU21には、一または複数のCPUまたはマルチコアCPU等が使用される。CPU21は、バスを介してロボット20を構成するハードウェア各部と接続されている。
The
主記憶装置22は、SRAM、DRAM、フラッシュメモリ等の記憶装置である。主記憶装置22には、CPU21が行なう処理の途中で必要な情報およびCPU21で実行中のプログラムが一時的に保存される。
The
補助記憶装置23は、SRAM、フラッシュメモリまたはハードディスク等の記憶装置である。補助記憶装置23には、CPU21に実行させるプログラム、およびプログラムの実行に必要な各種データが保存される。
The
第3通信部24は、第3送信部241および第3受信部242を有する。第3通信部24は、情報処理装置40との間の近距離無線通信を行なうインターフェイスである。発光部25は、前述の第1発光部251および第2発光部252を含む。発光部25はたとえばLED(Light Emitting Diode)であり、CPU21の制御に基づく輝度および色で発光する。
The
センサI/F330は、センサ33とバスとを接続するインターフェイスである。センサ33は、前述の人感センサ331およびタッチセンサ332に加えて、胴体部201に内蔵されたジャイロセンサ333を含む。CPU21は、センサ33およびセンサI/F330を介して、ユーザの接近または接触を検出する。
The sensor I /
アクチュエータI/F340は、アクチュエータ34とバスとを接続するインターフェイスである。前述の通り、アクチュエータ34は磁石341およびコイル342を含む。CPU21による制御に基づいて、コイル342に直流電流が供給されて、ロボット20の首振り運動が行なわれる。
The actuator I /
CPU21は、たとえばセンサ33によりユーザの接近または接触を検出している間、ランダムに発光部25の発光または首振り運動を行なう。ランダムに動作することにより、ユーザに対して生き物のような印象を与えて、親しみを感じさせることができる。CPU21は、マイク31で検出した音声、または、スピーカ32で出力する音声に連動して、発光部25の発光または首振り運動を行なっても良い。CPU21は、あらかじめ定められたパターンに基づいて発光部25の発光または首振り運動を行っても良い。
The
発光および首振り運動により、ユーザはロボット20が自分に反応していることを感得する。これにより、ユーザはロボット20に親近感を感じ、質問等を行ないやすくなる。なお、ロボット20の形状は、たとえば猫型、犬型、ヒト型等の任意の形状であっても良い。アクチュエータ34が動作させる場所は、首以外の任意の場所であっても良い。ロボット20の複数の場所が、アクチュエータ34により動作しても良い。
The user feels that the
図8を使用して、サーバ50の構成を説明する。サーバ50は、CPU51、主記憶装置52、補助記憶装置53、第4通信部54およびバスを備える。CPU51は、本実施の形態のプログラムを実行する演算制御装置である。CPU51には、一または複数のCPUまたはマルチコアCPU等が使用される。CPU51は、バスを介してサーバ50を構成するハードウェア各部と接続されている。
The configuration of the
主記憶装置52は、SRAM、DRAM、フラッシュメモリ等の記憶装置である。主記憶装置52には、CPU51が行なう処理の途中で必要な情報およびCPU51で実行中のプログラムが一時的に保存される。
The
補助記憶装置53は、SRAM、フラッシュメモリまたはハードディスク等の記憶装置である。補助記憶装置53には、履歴DB(Database)61、会話ログDB62、ボットDB63、CPU51に実行させるプログラム、およびプログラムの実行に必要な各種データが保存される。
The
なお、履歴DB61、会話ログDB62およびボットDB63は、情報処理装置40の補助記憶装置43に記憶されていても良い。履歴DB61、会話ログDB62およびボットDB63は、サーバ50または情報処理装置40に接続された外部の大容量記憶装置等に保存されていても良い。
The
第4通信部54は、情報送信部541および情報受信部542を有する。第4通信部54は、サーバ50とネットワークとの間のデータ通信を行なうインターフェイスである。サーバ50は、大型計算機上で動作する仮想マシンでも良い。サーバ50は、複数のコンピュータまたはサーバマシンを組み合わせて構成されても良い。
The
図9は、履歴DB61のレコードレイアウトを説明する説明図である。履歴DB61は、情報処理システム10とユーザとの会話の開始時刻、ユーザの属性、会話ログファイル名、会話継続時間およびユーザに対して案内した案内先を関連づけて記録するDBである。履歴DB61は、ロボットIDフィールド、開始日時フィールド、属性フィールド、会話ログIDフィールド、会話継続時間フィールドおよび案内先フィールドを有する。属性フィールドは、性別フィールドおよび年齢フィールドを有する。
FIG. 9 is an explanatory diagram for explaining the record layout of the
ロボットIDフィールドには、ユーザに対応したロボット20に固有に付与されたロボットID(Identifier)が記録されている。開始日時フィールドには、ユーザが情報処理システム10との会話を開始した日時が記録されている。性別フィールドには、カメラ49が撮影した画像に基づいて推定されたユーザの性別が記録されている。年齢フィールドには、カメラ49が撮影した画像に基づいて推定されたユーザの年齢が記録されている。
In the robot ID field, a robot ID (Identifier) uniquely assigned to the
会話ログIDフィールドには、ユーザと情報処理システム10との間で交わされた会話のログに固有に付与された会話ログIDが記録されている。会話継続時間フィールドには、ユーザと情報処理システム10との会話の継続時間が記録されている。案内先フィールドには、ユーザからの質問に対応して情報処理システム10がユーザに案内した場所が記録されている。履歴DB61は、ユーザとロボット20との一回の会話について、一つのレコードを有する。
In the conversation log ID field, a conversation log ID uniquely assigned to a conversation log exchanged between the user and the
図10は、会話ログDB62のレコードレイアウトを説明する説明図である。会話ログDB62は、会話ログIDと、それぞれの発話が行なわれた日時と、話者と、発話内容と、表示装置47に表示された画面と、ユーザの反応とを関連づけて記録するDBである。会話ログDB62は、会話ログIDフィールド、日時フィールド、話者フィールド、発話内容フィールド、表示画面フィールドおよびユーザ反応フィールドを有する。ユーザ反応フィールドは、笑顔フィールドおよび頷きフィールドを有する。
FIG. 10 is an explanatory diagram for explaining the record layout of the
会話ログIDフィールドには、会話ログIDが記録されている。日時フィールドには、発話が行なわれた日時が記録されている。話者フィールドには、発話を行なったのがユーザであるのか、ロボット20であるのかが記録されている。発話内容フィールドには、ユーザまたはロボット20の発話内容が記録されている。
A conversation log ID is recorded in the conversation log ID field. In the date / time field, the date / time when the utterance was performed is recorded. In the speaker field, it is recorded whether the user or the
表示画面フィールドには、表示装置47に表示された画面が、たとえばHTML(HyperText Markup Language)ファイルにより記録されている。なお、本実施の形態においては、ロボット20が発話する際に表示画面が更新されるので、話者がロボットの場合にのみ表示画面フィールドに情報が記録されている。
In the display screen field, the screen displayed on the
笑顔フィールドには、カメラ49により撮影した画像を解析して、ユーザが笑顔であるか否かを判定した結果が記録されている。頷きフィールドには、カメラ49により撮影した画像を解析して、ユーザが頷いているか否かを判定した結果が記録されている。本実施の形態においては、カメラ49により撮影した画像とユーザが発した音声とを同時に取得して解析するため、話者がユーザの場合のみ、ユーザ反応フィールドにデータが記録されている。会話ログDB62は、一回の発話について、一つのレコードを有する。
In the smile field, a result obtained by analyzing an image taken by the
なお、笑顔フィールドおよび頷きフィールドは、ユーザ反応フィールドのサブフィールドの例示である。カメラ49により撮影した画像、および、マイク31により取得した声を解析して得たユーザの反応を記録する、任意のサブフィールドを設けることができる。履歴DB61および会話ログDB62は、ユーザとロボット20との会話およびユーザの反応を記録するログ記録部を構成する。
The smile field and the whispering field are examples of subfields of the user reaction field. An arbitrary subfield can be provided in which an image captured by the
図11は、ボットDB63のレコードレイアウトを説明する説明図である。ボットDB63は、カメラ49により撮影した画像を解析して推定したユーザの属性と、チャットボットの擬似人格に固有に付与されたボットIDとを関連づけて記録するDBである。
FIG. 11 is an explanatory diagram for explaining the record layout of the
ボットDB63は、ユーザ属性フィールドおよびボットIDフィールドを有する。ユーザ属性フィールドは、性別フィールドおよび年齢フィールドを有する。性別フィールドには、推定したユーザの性別が記録されている。年齢フィールドには推定したユーザの年齢が記録されている。ボットIDフィールドにはボットIDが記録されている。
The
たとえば、ユーザが高齢者である場合に対応するボットID「A04」および「B04」には、ゆっくりとした口調で話す擬似人格のチャットボットが設定されている。ユーザが子供である場合に対応するボットID「A01」および「B01」には、子供にも理解しやすい語彙で話す擬似人格のチャットボットが設定されている。 For example, a chat bot with a pseudo personality speaking in a slow tone is set in the bot IDs “A04” and “B04” corresponding to the case where the user is an elderly person. For the bot IDs “A01” and “B01” corresponding to the case where the user is a child, a chat bot with a pseudo personality that speaks in a vocabulary that is easy for children to understand is set.
たとえば、ユーザがマスクやサングラスを着用している等の理由で、ユーザの属性が判定できない場合対応するボットID「D01」には、汎用性の高い応答を行なう擬似人格のチャットボットが設定されている。 For example, if the user's attribute cannot be determined because the user is wearing a mask or sunglasses, the corresponding bot ID “D01” is set to a pseudo-personal chatbot that makes a highly versatile response. Yes.
なお、性別フィールドおよび年齢フィールドは、ユーザ属性フィールドのサブフィールドの例示である。カメラ49により撮影した画像、および、マイク31により取得した声を解析して得ることができるユーザの属性に対応する、任意のサブフィールドを設けることができる。なお、画像および音声に基づくユーザ属性の推定は従来から行なわれているため、詳細については説明を省略する。
The sex field and the age field are examples of subfields of the user attribute field. An arbitrary subfield corresponding to the attribute of the user that can be obtained by analyzing the image captured by the
図12は、レポートの例を説明する説明図である。図12に示すレポートは、履歴DB61および会話ログDB62に記録されたデータに基づいて作成されるレポートの一例である。図12に示すレポートは、場所欄71、始期欄721、終期欄722、年齢分布グラフ欄731、人数グラフ欄732および時間グラフ欄733を含む。
FIG. 12 is an explanatory diagram illustrating an example of a report. The report shown in FIG. 12 is an example of a report created based on data recorded in the
場所欄71には、ロボット20が設置された場所が表示されている。始期欄721および終期欄722には、解析対象期間が表示されている。年齢分布グラフ欄731には、ロボット20との会話を行なったユーザの年齢分布を示す棒グラフが表示されている。横軸は、ユーザの推定年齢であり、縦軸はユーザの人数である。
In the
横軸のメモリにおいて、たとえば「10前」は、10代前半であると推定したユーザであることを意味する。棒グラフは、下から男性、女性および性別不明の順に積み重ねた積み重ね棒グラフである。なお、図12中のすべてのグラフにおいて、黒色は、男性を、左下がりのハッチングは女性を、右下がりのハッチングは性別不明を示す。 In the horizontal axis memory, for example, “before 10” means that the user is estimated to be in the early teens. The bar graph is a stacked bar graph that is stacked in the order of male, female and gender unknown from the bottom. In all graphs in FIG. 12, black indicates a man, left-left hatching indicates a woman, and right-down hatching indicates gender unknown.
人数グラフ欄732には、ロボット20との会話を行なったユーザの人数を示す円グラフが表示されている。時間グラフ欄733には、ロボット20との会話を行なったユーザの合計会話時間を示す円グラフが表示されている。
In the
年齢分布グラフ欄731、人数グラフ欄732および時間グラフ欄733のそれぞれのグラフは、履歴DB61および会話ログDB62に記録されたデータを解析することにより作成可能である。図12に示すレポートにより、情報処理システム10の管理者はロボット20の稼動率等を把握して、情報処理システム10の改善に役立てることができる。また、ユーザの質問内容および反応等のデータは、情報処理システム10を設置した施設等のマーケティング資料に活用できる。
Each of the age
なお、レポートは、履歴DB61および会話ログDB62に記録されたデータをCSV(Comma-Separated Values)形式等により取得した他の任意のパソコン等により作成できる。情報処理システム10の管理者は、汎用の表計算アプリケーションソフト等を利用してレポートを作成しても良い。図12に示すレポートのレイアウトおよびグラフは例示である。
The report can be created by any other personal computer obtained by acquiring the data recorded in the
図13は、プログラムの処理の流れを説明するフローチャートである。CPU41は、カメラ49により撮影した画像に基づいて、ロボット20へのユーザの接近または接触を検出したか否かを判定する(ステップS501)。たとえばCPU41は、公知の顔認識技術を用いて画像中の所定の範囲に人の顔を検出した場合に、ユーザの接近または近接を検知したと判定する。ステップS501において、CPU41は、画像にユーザの顔が含まれている場合に検出する顔検出部の機能を果たす。
FIG. 13 is a flowchart for explaining the flow of processing of a program. The
ユーザの接近または接触を検出したと判定した場合(ステップS501でYES)、CPU41は、画像中からユーザが写っている部分を切り出して、特徴量を抽出する(ステップS502)。画像の特徴量については種々の手法が提案されているため、詳細な説明は省略する。画像中のユーザの属性およびユーザの反応を推定するのに適した任意の特徴量を使用できる。特徴量は、画像に基づくデータの一例である。
If it is determined that the approach or contact of the user has been detected (YES in step S501), the
CPU21は、センサ33がユーザの接近または接触を検出したか否かを判定する(ステップS601)。検出したと判定した場合(ステップS601でYES)、CPU21は発光部25およびアクチュエータ34の動作をON、すなわちアクティブな状態に設定する(ステップS602)。以後、発光部25およびアクチュエータ34は、ランダムに動作する。発光部25およびアクチュエータ34は、音声に応じて、または所定のパターンに基づいて動作しても良い。
CPU21 determines whether the
CPU21は、マイク31が検出した音声を電気信号に変換した音声データを、近距離無線通信を介して情報処理装置40に送信する(ステップS603)。CPU41は、割り込み処理により音声データを受信して、主記憶装置22または補助記憶装置23に一時保存する。
CPU21 transmits the audio | voice data which converted the audio | voice detected by the
ユーザの接近または接触を検出していないと判定した場合(ステップS501でNO)、または、ステップS502の終了後、CPU41は、サーバ50に送信するデータの有無を判定する(ステップS503)。ここでサーバ50に送信するデータは、ステップS502で抽出した画像の特徴量、および、割り込み処理によりロボット20から受信した音声データである。なお、ステップS503においては、特徴量と音声データのいずれか一方または両方が存在する場合に、送信するデータがあると判定する。
When it is determined that the user's approach or contact is not detected (NO in step S501), or after the end of step S502, the
サーバ50に送信するデータはないと判定した場合(ステップS503でNO)、CPU41はステップS501に戻る。サーバ50に送信するデータがあると判定した場合(ステップS503でYES)、CPU41は、ネットワークを介してサーバ50に、特徴量および音声データを送信する(ステップS504)。なおCPU41は、音声データの特徴量を抽出して、ステップS504において音声データの代わりに送信しても良い。音声データの特徴量は、音声データに基づくデータの一例である。
If it is determined that there is no data to be transmitted to the server 50 (NO in step S503), the
CPU51は、特徴量および音声データを受信する(ステップS701)。CPU51は、会話ログDB62に新しいレコードを追加して、日時フィールド、話者フィールド、発話内容フィールドおよびユーザ反応フィールドにデータを記録する。
The
CPU51は、ユーザが別のユーザに変化したか否かを判定する(ステップS702)。CPU512は、たとえば画像の特徴量に基づいてユーザが変化したか否かを判定できる。CPU51は、前回のステップS702の実行後の経過時間に基づいて、ユーザが変化したか否かを判定しても良い。
The
ユーザが変化したと判定した場合(ステップS702でYES)、CPU51は履歴DB61に新しいレコードを作成し、前回の会話にかかる情報を記録する。CPU51は、ステップS701の直後に会話ログDB62に記録したレコードに、新たな会話ログIDを記録する。
If it is determined that the user has changed (YES in step S702), the
CPU51は、受信した特徴量に基づいて、ユーザの属性、具体的にはユーザの性別および年齢を推定する(ステップS703)。CPU51は、ステップS703により属性推定部の機能を果たす。
The
CPU51は推定したユーザの属性をキーとしてボットDB63を検索し、抽出したレコートのボットIDフィールドからボットIDを取得する(ステップS704)。CPU51は、ステップS704によりユーザの属性に基づいて音声チャットボットの擬似人格を選択するボット選択部の機能を果たす。
The
ユーザが変化していないと判定した場合(ステップS702でNO)、または、ステップS704の終了後、CPU51は、ボットIDに基づいてユーザに対する応答データを取得する(ステップS705)。具体的には、CPU51はクラウド上の音声チャットボットサービスにステップS704で取得したボットIDおよびステップS701で取得した音声データを送信し、音声チャットボットにより生成された応答の音声データを取得する。
When it is determined that the user has not changed (NO in step S702), or after the end of step S704, the
CPU51は、音声チャットボットから表示装置47に表示する映像ファイルを取得するか、または、所定のサーバから応答に関連する映像ファイルを取得する。なお音声チャットボットのソフトウェアは、サーバ50上で実行されても良い。映像ファイルは、たとえばHTMLファイルにより記録されている。CPU51は、映像ファイルの代わりに応答に関連するWEB(World Wide Web)サイトに関するURL(Uniform Resource Locator)を取得しても良い。
CPU51 acquires the video file displayed on the
CPU51は、ネットワークを介して情報処理装置40に、映像ファイルおよび音声データを含む応答データを送信する(ステップS706)。CPU41は、応答データを受信し、応答データ中の音声データを分離して、ロボット20に近距離無線通信を介して送信する(ステップS511)。CPU21は、割り込み処理により音声データを受信して、主記憶装置22または補助記憶装置23に一時保存する。
The
CPU41は、表示部451に映像ファイルを表示する(ステップS512)。CPU41は、処理を終了するか否かを判定する(ステップS513)。たとえば、情報処理システム10の管理者から終了の指示を受け付けた場合、CPU41は処理を終了すると判定する。処理を終了しないと判定した場合(ステップS513でNO)、CPU41はステップS501に戻る。処理を終了すると判定した場合(ステップS513でYES)、CPU41は処理を終了する。
The
ユーザの接近または接触を検出していないと判定した場合(ステップS601でNO)、または、ステップS603の終了後、CPU21は、スピーカ32から出力する音声データがあるか否かを判定する(ステップS611)。音声データがあると判定した場合(ステップS611でYES)、CPU21はスピーカ32を介して音声データを音声に変換して出力する(ステップS612)。
When it is determined that the approach or contact of the user has not been detected (NO in step S601), or after the end of step S603, the
音声データがないと判定した場合(ステップS611でNO)、またはステップS612の終了後、CPU21はセンサ33がユーザを検出したか否かを判定する(ステップS613)。検出したと判定した場合(ステップS613でYES)、CPU21はステップS603に戻る。
When it is determined that there is no audio data (NO in step S611), or after the end of step S612, the
検出しないと判定した場合(ステップS613でNO)、CPU21は発光部25およびアクチュエータ34の動作をOFF、すなわち非アクティブな状態に設定する(ステップS614)。CPU21は、ステップS601に戻る。以上により、ロボット20は動作を停止し、新たにユーザが近付いた場合に、そのユーザに反応して動作を開始する。
When it determines with not detecting (it is NO at step S613), CPU21 sets the operation | movement of the
なお、CPU21は、ステップS603において音声データとともにセンサ33による検出結果を送信しても良い。この場合、CPU41はステップS504において特徴量および音声データとともに、センサ33による検出結果を送信する。CPU51は、センサ33による検出結果も属性推定に使用できる。
In addition, CPU21 may transmit the detection result by the
本実施の形態によると、多くの人に親しみを感じさせるロボット20を用いた、情報処理システム10を提供できる。ロボット20は、表示装置47よりも小型であるため、ユーザに威圧感や恐怖感を感じさせない。ロボット20を使用することにより、表示装置47にアバター等の映像を表示する場合に比べて、ユーザの興味を引きやすい情報処理システム10を提供できる。
According to the present embodiment, it is possible to provide the
ロボット20は、ユーザが近付いた場合に、発光部25の発光および首振り等の動作により反応する。これにより、機械やコンピュータ等に不慣れなユーザであっても、話しかけるきっかけを掴み易い情報処理システム10を提供できる。
When the user approaches, the
音声チャットボットにより自然言語を用いてユーザと会話を行なうため、専門知識を持たないユーザが容易に利用できる情報処理システム10を提供できる。画像から推定したユーザの属性に応じて、音声チャットボットの擬似人格を選択して使用するため、ユーザの属性に合わせた口調、語彙および内容の情報提供を行なう情報処理システム10を提供できる。
Since the voice chat bot is used to communicate with the user using a natural language, the
小型で、機能が限定的なロボット20を使用することにより、安価に導入可能な情報処理システム10を提供できる。情報処理システム10を多数の場所に設置して、多くのユーザに使用して貰うことにより、たとえば商業施設に来訪した顧客の興味動向等のマーケティングデータを収集する情報処理システム10を提供できる。
By using the
盗難防止チェーン用のチェーン孔35を有することにより、小型であるにもかかわらず盗難を防止できるロボット20を提供できる。図5を使用して説明したアクチュエータ34による首振り機構は、雑音を生じにくい。そのため、音声によるコミュニュケーションの妨げにならない首振り機構を有するロボット20を提供できる。
By having the
ユーザが近接または接触している場合に、発光および首振り運動を行なうことにより、ユーザに親近感を感じさせるロボット20を提供できる。カメラ49を情報処理装置40側に搭載することにより、ロボット20が首振り中であっても、ユーザを撮影して、画像解析を行なえる情報処理システム10を提供できる。
When the user is in proximity or in contact, the
ロボット20の脚部27と、充電台36の脚入部362との向きを合わせた状態で、ロボット20を充電台36に載置することにより、容易にロボット20に電源供給できる情報処理システム10を提供できる。切り株を模した充電台36の上に、鳥を模したロボット20を載置することにより、ロボット20への電源供給機構が目立たない情報処理システム10を提供できる。なお、ロボット20への電源供給は、コネクタ29を介して行なっても良い。
An
ロボット20と表示装置47とを併用することにより、音声に加えて写真や地図等の情報もユーザに提供できる情報処理システム10を提供できる。複数の種類の情報を組み合わせることにより、ユーザが必要とする情報を効果的に提供する情報処理システム10を提供できる。
By using the
[実施の形態2]
本実施の形態は、情報処理装置40からサーバ50に対して、カメラ49で撮影した画像を送信する情報処理システム10に関する。実施の形態1と共通する部分については、説明を省略する。
[Embodiment 2]
The present embodiment relates to an
図14は、実施の形態2のプログラムの処理の流れを説明するフローチャートである。ロボット20が行なう処理の流れは、図13を使用して説明した実施の形態1のプログラムの処理の流れと同一である。
FIG. 14 is a flowchart for explaining the flow of processing of the program according to the second embodiment. The processing flow performed by the
CPU41は、ロボット20から送信された音声データを受信し、カメラ49で撮影した画像とともにサーバ50に送信する(ステップS521)。CPU51は、画像および音声データを受信する(ステップS711)。
The
CPU51は画像解析を行なう(ステップS712)。CPU51は音声解析を行なう(ステップS713)。CPU51は、会話ログDB62に新しいレコードを追加して、日時フィールド、話者フィールド、発話内容フィールドおよびユーザ反応フィールドにデータを記録する。
The
CPU51は、画像解析結果と音声解析結果とに基づいて、ユーザが別のユーザに変化したか否かを判定する(ステップS714)。ユーザが変化したと判定した場合(ステップS714でYES)、CPU51は履歴DB61に新しいレコードを作成し、前回の会話にかかる情報を記録する。CPU51は、ステップS713の直後に会話ログDB62に記録したレコードに、新たな会話ログIDを記録する。
The
CPU51は、画像解析結果と音声解析結果とに基づいて、ユーザの属性を推定する(ステップS715)。画像と音声とを併用することにより、画像のみに基づいて属性を推定する場合よりも高い精度でユーザの属性を推定できる。
The
CPU51は推定したユーザの属性をキーとしてボットDB63を検索し、抽出したレコートのボットIDフィールドからボットIDを取得する(ステップS716)。ユーザが変化していないと判定した場合(ステップS714でNO)、または、ステップS716の終了後、CPU51は、取得したボットIDに基づいて、ユーザに対する応答データを取得する(ステップS717)。
The
CPU51は、ネットワークを介して情報処理装置40に、映像ファイルおよび音声データを含む応答データを送信する(ステップS718)。CPU41は、応答データを受信し、応答データ中の音声データを分離して、ロボット20に近距離無線通信を介して送信する(ステップS531)。
The
CPU41は、表示部451に映像ファイルを表示する(ステップS532)。CPU41は、処理を終了するか否かを判定する(ステップS533)。処理を終了しないと判定した場合(ステップS533でNO)、CPU41はステップS521に戻る。処理を終了すると判定した場合(ステップS533でYES)、CPU41は処理を終了する。
The
本実施の形態によると、画像解析と音声解析とを組み合わせることにより、ユーザの属性を精度良く推定可能な情報処理システム10を提供できる。なお、カメラ49を使用せずに、音声データのみに基づいてユーザの属性を推定しても良い。
According to the present embodiment, it is possible to provide the
本実施の形態によると、たとえば音声解析に基づいて方言または言語を判定し、その方言または言語を話す擬似人格のチャットボットを選択して応答する情報処理システムを提供できる。ユーザが馴染んだ言語で応答することにより、ユーザに親しみを感じさせる情報処理システム10を提供できる。
According to the present embodiment, it is possible to provide an information processing system that determines a dialect or language based on, for example, voice analysis, and selects and responds to a chat bot with a pseudo personality that speaks the dialect or language. By responding in a language that the user is familiar with, the
[実施の形態3]
本実施の形態は、ユーザとの会話に基づいてクーポンを発行する情報処理システム10に関する。実施の形態1と共通する部分については、説明を省略する。
[Embodiment 3]
The present embodiment relates to an
図15は、実施の形態3の案内システムの動作の概要を説明する説明図である。表示装置47に表示された映像に、URLを示す2次元バーコード48が含まれている。ユーザは、自分のスマートフォン60を用いて2次元バーコード48を撮影して、URLにアクセスすることにより、割引券などのクーポンの画面が表示される。
FIG. 15 is an explanatory diagram for explaining the outline of the operation of the guidance system according to the third embodiment. The video displayed on the
ユーザがクーポンを使用する際に、クーポンの画面中のクーポン使用ボタン69をタップする。これにより、ユーザがクーポンを使用したことを記録することができる。なお、2次元バーコード48に示すURLに、クーポンに固有に付与されたクーポンIDを入れることにより、どのクーポンが使用されたかを判定できる。
When the user uses the coupon, the
図16は、クーポンDBのレコードレイアウトを説明する説明図である。クーポンDBは、クーポンIDと、会話ログIDと、発行日時と、使用日時とを関連づけて記録するDBである。クーポンDBは、クーポンIDフィールド、会話ログIDフィールド、発光日時フィールドおよび使用日時フィールドを有する。 FIG. 16 is an explanatory diagram illustrating the record layout of the coupon DB. The coupon DB is a DB that records a coupon ID, a conversation log ID, an issue date / time, and a use date / time in association with each other. The coupon DB has a coupon ID field, a conversation log ID field, a light emission date / time field, and a use date / time field.
クーポンIDフィールドには、クーポンIDが記録されている。会話ログIDフィールドには、クーポンを発行した際の会話ログIDが記録されている。発行日時フィールドには、クーポンを表示装置47に表示した日時が記録されている。使用日時フィールドには、クーポン使用ボタン69がタップされた日時が記録されている。
A coupon ID is recorded in the coupon ID field. The conversation log ID when the coupon is issued is recorded in the conversation log ID field. In the issue date field, the date and time when the coupon is displayed on the
クーポンを発行することにより、ユーザの満足度が高い情報処理システム10を提供できる。クーポンを発行した際の会話IDとクーポンの使用履歴とを照合することにより、クーポン発行店舗に有益なマーケティングデータを得ることができる。
By issuing a coupon, the
[実施の形態4]
図17は、実施の形態4の情報処理システム10の機能ブロック図である。情報処理システム10は、ロボット20と情報処理装置40とを備える。情報処理装置40は、カメラ49と、カメラ49が撮影した画像に関するデータをネットワークに送信する第1送信部461と、第1送信部461から送信された画像に関するデータに基づいて作成された応答データを受信する第1受信部462と、第1受信部462が受信した応答データに基づいて音声データを前記ロボットに送信する第2送信部441とを備える。
[Embodiment 4]
FIG. 17 is a functional block diagram of the
ロボット20は、第2送信部441が送信した音声データを受信する第3受信部242と、242第3受信部が受信した音声データに基づく音声を出力するスピーカ32とを備える。
The
[実施の形態5]
本実施の形態は、汎用のコンピュータとプログラム97とを組み合わせて動作させることにより、本実施の形態の情報処理システム10を実現する形態に関する。図18は、実施の形態5の情報処理システム10の構成を説明する説明図である。なお、実施の形態1と共通する部分の説明は省略する。
[Embodiment 5]
The present embodiment relates to a mode for realizing the
本実施の形態の情報処理システム10は、近距離無線通信を介して接続されたロボット20とコンピュータ90とを備える。コンピュータ90は、ネットワークを介してサーバ50に接続されている。
The
コンピュータ90は、CPU41、主記憶装置42、補助記憶装置43、第1通信部46、第2通信部44、タッチパネル45、カメラ49、読取部95およびバスを備える。第1通信部46は、第1送信部461および第1受信部462を有する。第2通信部44は、第2送信部441および第2受信部442を有する。タッチパネル45は、液晶表示パネル等の表示部451と、表示部451に積層された入力部452とを備える。
The
プログラム97は、可搬型記録媒体96に記録されている。CPU41は、読取部95を介してプログラム97を読み込み、補助記憶装置43に保存する。またCPU21は、コンピュータ90に実装されたフラッシュメモリ等の半導体メモリ98に記憶されたプログラム97を読出しても良い。さらに、CPU41は第1通信部46およびネットワークを介して接続される図示しない他のサーバコンピュータからプログラム97をダウンロードして補助記憶装置43に保存しても良い。
The
プログラム97は、コンピュータ90の制御プログラムとしてインストールされ、主記憶装置42にロードして実行される。これにより、コンピュータ90は上述した情報処理装置40として機能する。
The
各実施例で記載されている技術的特徴(構成要件)はお互いに組合せ可能であり、組み合わせすることにより、新しい技術的特徴を形成することができる。
今回開示された実施の形態はすべての点で例示であって、制限的なものでは無いと考えられるべきである。本発明の範囲は、上記した意味では無く、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
The technical features (components) described in each embodiment can be combined with each other, and new technical features can be formed by combining them.
The embodiments disclosed herein are illustrative in all respects and should not be considered as restrictive. The scope of the present invention is defined by the terms of the claims, rather than the meaning described above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
10 情報処理システム
20 ロボット
201 胴体部
202 頭部
21 CPU
22 主記憶装置
23 補助記憶装置
24 第3通信部
241 第3送信部
242 第3受信部
25 発光部
251 第1発光部
252 第2発光部
26 スイッチ
27 脚部
28 第2充電端子
29 コネクタ
31 マイク
32 スピーカ
33 センサ
330 センサI/F
331 人感センサ
332 タッチセンサ
333 ジャイロセンサ
34 アクチュエータ
340 アクチュエータI/F
341 磁石
342 コイル
343 回動軸
344 ストッパ
35 チェーン孔
36 充電台
361 凹部
362 脚入部
38 第1充電端子
39 コネクタ
40 情報処理装置
41 CPU
42 主記憶装置
43 補助記憶装置
44 第2通信部
441 第2送信部
442 第2受信部
45 タッチパネル
451 表示部
452 入力部
46 第1通信部
461 第1送信部
462 第1受信部
47 表示装置
48 2次元バーコード
49 カメラ
50 サーバ
51 CPU
52 主記憶装置
53 補助記憶装置
54 第4通信部
541 情報送信部
542 情報受信部
60 スマートフォン
61 履歴DB
62 会話ログDB
63 ボットDB
69 クーポン使用ボタン
71 場所欄
721 始期欄
722 終期欄
731 年齢分布グラフ欄
732 人数グラフ欄
733 時間グラフ欄
90 コンピュータ
95 読取部
96 可搬型記録媒体
97 プログラム
98 半導体メモリ
DESCRIPTION OF
22
331
341
42
45
52
62 Conversation log DB
63 Bot DB
69
DESCRIPTION OF
Claims (10)
前記情報処理装置は、
カメラと、
前記カメラが撮影した画像に関するデータをネットワークに送信する第1送信部と、
前記第1送信部から送信された前記画像に関するデータに基づいて作成された応答データを受信する第1受信部と、
前記第1受信部が受信した応答データに基づいて音声データを前記ロボットに送信する第2送信部と
を備え、
前記ロボットは、
前記第2送信部が送信した音声データを受信する第3受信部と、
前記第3受信部が受信した音声データに基づく音声を出力するスピーカと
を備える情報処理システム。 In an information processing system comprising a robot and an information processing device,
The information processing apparatus includes:
A camera,
A first transmitter for transmitting data relating to an image captured by the camera to a network;
A first receiver for receiving response data created based on the data related to the image transmitted from the first transmitter;
A second transmitter for transmitting voice data to the robot based on the response data received by the first receiver;
The robot is
A third receiver for receiving the audio data transmitted by the second transmitter;
An information processing system comprising: a speaker that outputs sound based on the sound data received by the third receiving unit.
マイクと、
前記マイクが取得した音声データを前記情報処理装置に送信する第3送信部と
を備え、
前記情報処理装置は、
前記第3送信部から送信された音声データを受信する第2受信部を備え、
前記第1送信部は、
前記第2受信部が受信した前記音声データに関するデータ、および、前記画像に関するデータをネットワークに送信する
請求項1に記載の情報処理システム。 The robot is
With a microphone,
A third transmitter that transmits the audio data acquired by the microphone to the information processing device;
The information processing apparatus includes:
A second receiver for receiving the audio data transmitted from the third transmitter;
The first transmitter is
The information processing system according to claim 1, wherein the data related to the audio data and the data related to the image received by the second receiving unit are transmitted to a network.
ユーザの接近または接触を検出するセンサを備え、
前記第3送信部は、前記センサがユーザの接近または接触を検出した場合、前記情報処理装置に検出結果を送信し、
前記第1送信部は、前記検出結果をネットワークに送信する
請求項2に記載の情報処理システム。 The robot is
It has a sensor that detects the approach or contact of the user,
The third transmission unit transmits a detection result to the information processing device when the sensor detects an approach or contact of a user,
The information processing system according to claim 2, wherein the first transmission unit transmits the detection result to a network.
前記情報処理装置または前記サーバは、
前記画像に関するデータに基づいてユーザの属性を推定する属性推定部を備え、
前記サーバは、
前記属性推定部が推定した属性に基づいてチャットボットを選択するボット選択部と、
前記ボット選択部が選択したチャットボットにより作成された前記応答データを送信する情報送信部と
を備える
請求項2または請求項3に記載の情報処理システム。 A server connected to the information processing apparatus via a network;
The information processing apparatus or the server is
An attribute estimation unit that estimates user attributes based on the data related to the image;
The server
A bot selection unit that selects a chat bot based on the attribute estimated by the attribute estimation unit;
The information processing system according to claim 2, further comprising: an information transmission unit configured to transmit the response data created by the chat bot selected by the bot selection unit.
請求項4に記載の情報処理システム。 The information processing system according to claim 4, further comprising: a log recording unit that records the attribute, the response data, and a user response to the voice output by the robot in association with each other.
前記ロボットは、前記表示装置よりも小さい
請求項1から請求項5のいずれか一つに記載の情報処理システム。 The information processing apparatus includes a display device that displays an image based on the response data,
The information processing system according to any one of claims 1 to 5, wherein the robot is smaller than the display device.
前記頭部は、前記胴体部に対して該胴体部の中心軸まわりに回動する
請求項1から請求項6のいずれか一つに記載の情報処理システム。 The robot includes a columnar body part and a head disposed on one end surface of the body part,
The information processing system according to any one of claims 1 to 6, wherein the head is rotated about a central axis of the body part with respect to the body part.
該凹部に設けられた第1充電端子と、
を備える板状の充電台を備え、
前記ロボットは、前記第1充電端子に対応する第2充電端子を備える
請求項1から請求項7のいずれか一つに記載の情報処理システム。 A recess corresponding to a part of the exterior of the robot;
A first charging terminal provided in the recess;
Equipped with a plate-shaped charging stand,
The information processing system according to any one of claims 1 to 7, wherein the robot includes a second charging terminal corresponding to the first charging terminal.
請求項1から請求項8のいずれか一つに記載の情報処理システム。 The information processing system according to any one of claims 1 to 8, wherein the robot has a chain hole for an anti-theft chain.
前記カメラでユーザを撮影し、
撮影した画像に関するデータを前記タブレットからネットワークに送信し、
送信した前記データに基づいて作成された応答データを前記タブレットで受信し、
受信した応答データに基づく映像を前記表示部に表示し、
受信した応答データに基づく音声データを前記タブレットから前記ロボットに送信し、
送信した音声データを前記ロボットで受信し、
受信した音声データに基づく音声を前記ロボットに内蔵するスピーカから出力する
情報処理方法。 A tablet having a camera and a display unit and a robot having a height shorter than the length of the short side of the display unit of the tablet are arranged close to each other,
Photograph the user with the camera,
Send data about the captured image from the tablet to the network,
The response data created based on the transmitted data is received by the tablet,
Display the video based on the received response data on the display unit,
Transmitting voice data based on the received response data from the tablet to the robot;
The transmitted voice data is received by the robot,
An information processing method for outputting sound based on received sound data from a speaker built in the robot.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018094827A JP2019200607A (en) | 2018-05-16 | 2018-05-16 | Information processing system and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018094827A JP2019200607A (en) | 2018-05-16 | 2018-05-16 | Information processing system and information processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019200607A true JP2019200607A (en) | 2019-11-21 |
Family
ID=68612522
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018094827A Pending JP2019200607A (en) | 2018-05-16 | 2018-05-16 | Information processing system and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019200607A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116596549A (en) * | 2023-07-14 | 2023-08-15 | 山东交控科技有限公司 | Question-answer response management method and system for rail transit customer service robot |
WO2023207258A1 (en) * | 2023-02-08 | 2023-11-02 | 中南大学湘雅医院 | Interactive emotional robot suitable for elderly people |
-
2018
- 2018-05-16 JP JP2018094827A patent/JP2019200607A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023207258A1 (en) * | 2023-02-08 | 2023-11-02 | 中南大学湘雅医院 | Interactive emotional robot suitable for elderly people |
CN116596549A (en) * | 2023-07-14 | 2023-08-15 | 山东交控科技有限公司 | Question-answer response management method and system for rail transit customer service robot |
CN116596549B (en) * | 2023-07-14 | 2023-10-20 | 山东交控科技有限公司 | Question-answer response management method and system for rail transit customer service robot |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11241789B2 (en) | Data processing method for care-giving robot and apparatus | |
US10360907B2 (en) | Smart necklace with stereo vision and onboard processing | |
US10702991B2 (en) | Apparatus, robot, method and recording medium having program recorded thereon | |
JP2021170341A (en) | Method and system for generating detailed dataset of environment through gameplay | |
CN109091869A (en) | Method of controlling operation, device, computer equipment and the storage medium of virtual objects | |
WO2003095050A2 (en) | Method and system for interacting with simulated phenomena | |
CN103369303A (en) | Motion behavior analysis recording and reproducing system and method | |
CN210155626U (en) | Information processing apparatus | |
KR20190014108A (en) | System and method for augmented and virtual reality | |
US11755111B2 (en) | Spatially aware computing hub and environment | |
KR20200076169A (en) | Electronic device for recommending a play content and operating method thereof | |
US20230185364A1 (en) | Spatially Aware Computing Hub and Environment | |
CN109891357A (en) | Emotion intelligently accompanies device | |
KR20190075416A (en) | Digital agent embedded mobile manipulator and method of operating thereof | |
JP2019200607A (en) | Information processing system and information processing method | |
JP2023120130A (en) | Conversation-type ai platform using extraction question response | |
KR20200076626A (en) | Method and system for providing teaching contents based on augmented reality | |
US20210397245A1 (en) | Information processing system, display method, and computer program | |
KR20180082777A (en) | Communion robot system for senior citizen | |
CN207571782U (en) | A kind of chat robots | |
US20150273321A1 (en) | Interactive Module | |
JP6884854B2 (en) | Audio providing device, audio providing method and program | |
CN106730876A (en) | The control system of Intelligent doll | |
KR100563193B1 (en) | Signal transformation method and guidance system providing auditory and tactile indoor/outdoor traveling information for the blind | |
KR102072175B1 (en) | Smart character toy embedded artificiall intelligence function |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20180611 |