JP2019200607A - Information processing system and information processing method - Google Patents

Information processing system and information processing method Download PDF

Info

Publication number
JP2019200607A
JP2019200607A JP2018094827A JP2018094827A JP2019200607A JP 2019200607 A JP2019200607 A JP 2019200607A JP 2018094827 A JP2018094827 A JP 2018094827A JP 2018094827 A JP2018094827 A JP 2018094827A JP 2019200607 A JP2019200607 A JP 2019200607A
Authority
JP
Japan
Prior art keywords
information processing
robot
user
data
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018094827A
Other languages
Japanese (ja)
Inventor
諒太 伊澤
Ryota Izawa
諒太 伊澤
優 宮路
Yu Miyaji
優 宮路
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hatapro Inc
Original Assignee
Hatapro Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hatapro Inc filed Critical Hatapro Inc
Priority to JP2018094827A priority Critical patent/JP2019200607A/en
Publication of JP2019200607A publication Critical patent/JP2019200607A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide an information processing system which uses a robot that makes many people feel familiar.SOLUTION: In an information processing system 10 including a robot 20 and an information processing device 40, the information processing device 40 includes: a camera 49; a first transmission unit configured to transmit data related to an image captured by the camera 49 to a network; a first receiving unit configured to receive response data created based on the data related to the image transmitted from the first transmission unit; and a second transmission unit configured to transmit voice data to the robot 20 based on the response data received by the first receiving unit. The robot 20 includes a third receiving unit configured to receive the voice data transmitted from the second transmission unit, and a speaker that outputs voices based on the voice data received by the third receiving unit.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理システムおよび情報処理方法に関する。   The present invention relates to an information processing system and an information processing method.

音声および文字を用いて利用者と対話を行ない、対話と、環境センサから得た情報とに基づいて、人間と同じ空間で動作するサービスロボットを用いた移動ロボット対話システムが提案されている(特許文献1)。サービスロボットは、人間に近い寸法を有し、環境状況をリアルタイムで把握しながら、あらかじめ与えられたシナリオに基づいて自律的に動作する。   A mobile robot dialogue system using a service robot that operates in the same space as humans based on dialogue and information obtained from environmental sensors is proposed (Patent) Reference 1). The service robot has a size close to that of a human being and operates autonomously based on a scenario given in advance while grasping an environmental situation in real time.

特開2018−67100号公報JP-A-2018-67100

しかしながら、ユーザによっては、人間に近い寸法のサービスロボットが自立的に動作することに対して、抵抗感または恐怖感を感じる場合がある。一つの側面では、多くの人に親しみを感じさせるロボットを用いた、情報処理システム等の提供を目的とする。   However, depending on the user, there may be a sense of resistance or fear that a service robot having a size close to that of a human will operate independently. In one aspect, an object is to provide an information processing system using a robot that makes many people feel familiar.

ロボットと、情報処理装置とを備える情報処理システムにおいて、前記情報処理装置は、カメラと、前記カメラが撮影した画像に関するデータをネットワークに送信する第1送信部と、前記第1送信部から送信された前記画像に関するデータに基づいて作成された応答データを受信する第1受信部と、前記第1受信部が受信した応答データに基づいて音声データを前記ロボットに送信する第2送信部とを備え、前記ロボットは、前記第2送信部が送信した音声データを受信する第3受信部と、前記第3受信部が受信した音声データに基づく音声を出力するスピーカとを備える。   In an information processing system including a robot and an information processing device, the information processing device is transmitted from a camera, a first transmission unit that transmits data related to an image captured by the camera to a network, and the first transmission unit. A first reception unit that receives response data created based on the data related to the image, and a second transmission unit that transmits voice data to the robot based on the response data received by the first reception unit. The robot includes a third receiving unit that receives the audio data transmitted by the second transmitting unit, and a speaker that outputs audio based on the audio data received by the third receiving unit.

一つの側面では、多くの人に親しみを感じさせるロボットを用いた、情報処理システム等を提供できる。   In one aspect, an information processing system using a robot that makes many people feel friendly can be provided.

情報処理システムの動作の概要を説明する説明図である。It is explanatory drawing explaining the outline | summary of operation | movement of an information processing system. ロボットの斜視図である。It is a perspective view of a robot. ロボットの斜視図である。It is a perspective view of a robot. 充電台の斜視図である。It is a perspective view of a charging stand. ロボットの内部構造を説明する説明図である。It is explanatory drawing explaining the internal structure of a robot. ロボットの動作を説明する説明図である。It is explanatory drawing explaining operation | movement of a robot. 情報処理システムの構成を説明する説明図である。It is explanatory drawing explaining the structure of an information processing system. 情報処理システムの構成を説明する説明図である。It is explanatory drawing explaining the structure of an information processing system. 履歴DBのレコードレイアウトを説明する説明図である。It is explanatory drawing explaining the record layout of log | history DB. 会話ログDBのレコードレイアウトを説明する説明図である。It is explanatory drawing explaining the record layout of conversation log DB. ボットDBのレコードレイアウトを説明する説明図である。It is explanatory drawing explaining the record layout of bot DB. レポートの例を説明する説明図である。It is explanatory drawing explaining the example of a report. プログラムの処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of a process of a program. 実施の形態2のプログラムの処理の流れを説明するフローチャートである。10 is a flowchart for explaining a processing flow of a program according to the second embodiment. 実施の形態3の案内システムの動作の概要を説明する説明図である。FIG. 10 is an explanatory diagram for explaining an outline of the operation of the guidance system according to the third embodiment. クーポンDBのレコードレイアウトを説明する説明図である。It is explanatory drawing explaining the record layout of coupon DB. 実施の形態4の情報処理システムの機能ブロック図である。FIG. 10 is a functional block diagram of an information processing system according to a fourth embodiment. 実施の形態5の情報処理システムの構成を説明する説明図である。FIG. 10 is an explanatory diagram illustrating a configuration of an information processing system according to a fifth embodiment.

[実施の形態1]
図1は、情報処理システム10の動作の概要を説明する説明図である。以下の説明では、商業施設の案内所に設置されており、買い物客等のユーザに対して店舗の案内等を行なう情報処理システム10を例にして説明を行なう。なお、情報処理システム10の設置場所は商業施設に限定しない。情報処理システム10は、たとえば駅等の交通機関、または、観光施設等の、任意の場所に設置できる。
[Embodiment 1]
FIG. 1 is an explanatory diagram for explaining an outline of the operation of the information processing system 10. In the following description, the information processing system 10 that is installed at a commercial facility information center and guides a store to a user such as a shopper will be described as an example. The installation location of the information processing system 10 is not limited to a commercial facility. The information processing system 10 can be installed in an arbitrary place such as a transportation facility such as a station or a tourist facility.

情報処理システム10は、ロボット20、および情報処理装置40を備える。情報処理装置40は、タブレットまたはパソコン等の汎用の情報処理装置であり、ネットワークを介してサーバ50と接続されている。情報処理装置40は、液晶表示パネルまたは有機EL(electro-luminescence)表示パネル等の表示パネルを備えた表示装置47およびカメラ49を有する。   The information processing system 10 includes a robot 20 and an information processing device 40. The information processing device 40 is a general-purpose information processing device such as a tablet or a personal computer, and is connected to the server 50 via a network. The information processing device 40 includes a display device 47 and a camera 49 that include a display panel such as a liquid crystal display panel or an organic EL (electro-luminescence) display panel.

ロボット20の外装は、鳥を模した親しみを感じさせる形状である。ロボット20は、マイク31(図2参照)およびスピーカ32(図2参照)を備える。ロボット20は、表示装置47よりも小さい。さらに具体的には、ロボット20の身長、すなわち上下方向の長さは、表示装置47の短辺の長さよりも短い。ロボット20は、Bluetooth(登録商標)等の短距離無線通信を介して情報処理装置40と接続されている。   The exterior of the robot 20 has a shape that makes you feel the familiarity of a bird. The robot 20 includes a microphone 31 (see FIG. 2) and a speaker 32 (see FIG. 2). The robot 20 is smaller than the display device 47. More specifically, the height of the robot 20, that is, the length in the vertical direction is shorter than the length of the short side of the display device 47. The robot 20 is connected to the information processing apparatus 40 via short-range wireless communication such as Bluetooth (registered trademark).

ロボット20は、切り株を模した略円板状の充電台36に載置されている。ロボット20は、充電台36を介して供給される電源、または、ロボット20に内蔵する電池により動作する。   The robot 20 is placed on a substantially disc-shaped charging stand 36 that imitates a stump. The robot 20 is operated by power supplied through the charging stand 36 or a battery built in the robot 20.

ユーザがロボット20に近付いて、たとえば「ケーキ屋さんはありますか?」のように話しかける。マイク31が音声を検出し、電気信号である音声データに変換して、短距離無線通信を介して情報処理装置40に送信する。ユーザを、カメラ49が撮影する。なお、カメラ49は、ロボット20に向かい合うユーザの顔を撮影できる位置に配置されている。情報処理装置40からサーバ50に、音声データと、カメラ49が撮影した画像とが送信される。   The user approaches the robot 20 and speaks, for example, “Is there a cake shop?” The microphone 31 detects voice, converts it into voice data that is an electrical signal, and transmits the voice data to the information processing apparatus 40 via short-range wireless communication. The camera 49 photographs the user. The camera 49 is arranged at a position where the user's face facing the robot 20 can be photographed. Audio data and an image captured by the camera 49 are transmitted from the information processing apparatus 40 to the server 50.

サーバ50は、画像と音声データとに基づいて適切な回答を作成して、情報処理装置40に送信する。具体的には、画像に基づいてユーザの性別および年齢等の属性が判定される。事前に定義された複数の擬似人格の音声チャットボットの中から、ユーザの属性に応じた擬似人格の音声チャットボットが選択される。   The server 50 creates an appropriate answer based on the image and audio data, and transmits it to the information processing apparatus 40. Specifically, attributes such as the sex and age of the user are determined based on the image. A voice chat bot with a pseudo personality corresponding to a user attribute is selected from a plurality of voice chat bots with a pseudo personality defined in advance.

音声チャットボットが、商業施設内の複数の「ケーキ屋さん」の中から、ユーザに推奨する「ケーキ屋さん」を抽出し、音声データおよび当該「ケーキ屋さん」に関連づけられた画像を含む回答を送信する。なお、自然言語によりユーザとの対話を行なう音声チャットボットの機能は、サーバ50に搭載されていても良く、クラウドサービスにより提供されていても良い。音声チャットボットは公知であるため、詳細については説明を省略する。   Voice chatbot extracts “cake shop” recommended for users from multiple “cake shop” in the commercial facility, and includes voice data and images associated with the “cake shop” Send. Note that the function of the voice chat bot for interacting with the user in a natural language may be installed in the server 50 or provided by a cloud service. Since the voice chat bot is publicly known, a detailed description thereof is omitted.

情報処理装置40は、表示装置47に映像を表示する。映像は、静止画または動画である。情報処理装置40は、短距離無線通信を介してロボット20に音声データを送信する。ロボット20は、スピーカ32から音声データに基づく音声を発する。   The information processing device 40 displays a video on the display device 47. The video is a still image or a moving image. The information processing apparatus 40 transmits voice data to the robot 20 via short-range wireless communication. The robot 20 emits sound based on the sound data from the speaker 32.

カメラ49で撮影した画像に基づいてユーザの属性を判定して、擬似人格を選択することにより、ユーザに合った情報を、ユーザに合った表現で提供する情報処理システム10を提供できる。鳥を模した形状の小型のロボット20を使用することにより、コンピュータに苦手意識を持つユーザであっても、抵抗感なく話しかけて、必要な情報を得ることができる。   By determining a user attribute based on an image photographed by the camera 49 and selecting a pseudo personality, it is possible to provide the information processing system 10 that provides information suitable for the user in an expression suitable for the user. By using the small robot 20 shaped like a bird, even a user who is not good at computers can speak without resistance and obtain necessary information.

図2および図3は、ロボット20の斜視図である。ロボット20は、略円柱状の胴体部201と、胴体部201の一方の端面を覆う略半球状の頭部202とを有する。頭部202に、2個の第1発光部251と、スピーカ32とが配置されている。第1発光部251は、ロボット20の目のような外観を有する。   2 and 3 are perspective views of the robot 20. The robot 20 includes a substantially cylindrical body 201 and a substantially hemispherical head 202 that covers one end surface of the body 201. Two first light emitting units 251 and a speaker 32 are arranged on the head 202. The first light emitting unit 251 has an appearance like the eyes of the robot 20.

胴体部201の正面に、円形の人感センサ331が設けられている。人感センサ331に下側に、円形の第2発光部252が配置されている。第2発光部252の下側に、マイク31が配置されている。胴体部201の左右に、羽根型のタッチセンサ332が配置されている。人感センサ331およびタッチセンサ332は、ロボット20が備えるセンサ33の例示である。胴体部201の下部に、鳥の脚を模した二つの脚部27が設けられている。   A circular human sensor 331 is provided in front of the body portion 201. A circular second light emitting unit 252 is disposed below the human sensor 331. The microphone 31 is disposed below the second light emitting unit 252. Blade-type touch sensors 332 are arranged on the left and right sides of the body portion 201. The human sensor 331 and the touch sensor 332 are examples of the sensor 33 provided in the robot 20. Two legs 27 simulating bird legs are provided at the bottom of the body part 201.

胴体部201の後側の下部に、コネクタ29が配置されている。コネクタ29は、たとえばUSB(Universal Serial Bus)コネクタである。コネクタ29の下に、二つのチェーン孔35が設けられている。チェーン孔35は、図示を省略する盗難防止チェーンを取付可能である。   A connector 29 is disposed at a lower part on the rear side of the body portion 201. The connector 29 is, for example, a USB (Universal Serial Bus) connector. Under the connector 29, two chain holes 35 are provided. An antitheft chain (not shown) can be attached to the chain hole 35.

胴体部201の下面に3個のスイッチ26、および、2個の第2充電端子28が配置されている。スイッチ26を単独で、または、複数組み合わせて操作することにより、ロボット20の電源のオン・オフ、マイク31の感度調整、スピーカ32の音量調整、第1発光部251および第2発光部252の光量調整等を行なえる。   Three switches 26 and two second charging terminals 28 are arranged on the lower surface of the body portion 201. By operating the switch 26 alone or in combination, the power of the robot 20 is turned on / off, the sensitivity of the microphone 31 is adjusted, the volume of the speaker 32 is adjusted, and the light intensity of the first light emitting unit 251 and the second light emitting unit 252 Adjustments can be made.

図4は、充電台36の斜視図である。充電台36は略円板状であり、一面に略円形の凹部361を有する。凹部361の中央部に、第2充電端子28に対応する第1充電端子38が配置されている。凹部361の縁に、脚部27に対応する脚入部362が設けられている。   FIG. 4 is a perspective view of the charging stand 36. The charging stand 36 has a substantially disc shape and has a substantially circular recess 361 on one surface. A first charging terminal 38 corresponding to the second charging terminal 28 is disposed at the center of the recess 361. A leg insertion portion 362 corresponding to the leg portion 27 is provided at the edge of the recess 361.

充電台36の側面にコネクタ39が配置されている。コネクタ39は、たとえばUSBコネクタであり、AC(Alternating Current)アダプタを接続可能である。   A connector 39 is disposed on the side surface of the charging stand 36. The connector 39 is a USB connector, for example, and can be connected to an AC (Alternating Current) adapter.

ロボット20の脚部27と、充電台36の脚入部362との向きを合わせた状態で、ロボット20を充電台36に載置することにより、ロボット20の一部が充電台36の凹部361に挿入される。第1充電端子38と第2充電端子28とが接触し、ロボット20に電源が供給される。脚部27と脚入部362との向きが合わない状態では、第1充電端子38と第2充電端子28とが接触しないため、誤接続を防止できる。   By placing the robot 20 on the charging base 36 with the legs 27 of the robot 20 and the leg insertion portions 362 of the charging base 36 aligned, a part of the robot 20 is placed in the recess 361 of the charging base 36. Inserted. The first charging terminal 38 and the second charging terminal 28 come into contact with each other, and power is supplied to the robot 20. In the state where the directions of the leg portion 27 and the leg insertion portion 362 do not match, the first charging terminal 38 and the second charging terminal 28 do not come into contact with each other, so that erroneous connection can be prevented.

図5は、ロボット20の内部構造を説明する説明図である。図5を使用して、頭部202の内部に配置されたアクチュエータ34の構造の概略を説明する。アクチュエータ34は、磁石341、コイル342および回動軸343を有する。回動軸343は、胴体部201の中心軸に沿って設けられており、胴体部201の端面から頭部202の内部に突出している。   FIG. 5 is an explanatory diagram for explaining the internal structure of the robot 20. An outline of the structure of the actuator 34 disposed inside the head 202 will be described with reference to FIG. The actuator 34 includes a magnet 341, a coil 342, and a rotation shaft 343. The rotation shaft 343 is provided along the central axis of the body portion 201 and protrudes from the end surface of the body portion 201 into the head 202.

磁石341は、ロボット20の左右方向に長い略直方体形状である。磁石341は、頭部202の内部に固定されており、回動軸343に対して回動可能である。磁石341は、長手方向の端部にN極とS極とを有する。   The magnet 341 has a substantially rectangular parallelepiped shape that is long in the left-right direction of the robot 20. The magnet 341 is fixed inside the head 202 and can rotate with respect to the rotation shaft 343. The magnet 341 has an N pole and an S pole at the end in the longitudinal direction.

磁石341の後側に、コイル342が配置されている。コイル342は、胴体部201に対して固定されている。胴体部201の端面に、2つのストッパ344が固定されている。   A coil 342 is disposed on the rear side of the magnet 341. The coil 342 is fixed to the body portion 201. Two stoppers 344 are fixed to the end surface of the body portion 201.

コイル342に直流電流を流すことにより、磁石341が第1の方向に回動する。直流電流の向きを反転することにより、磁石341が第2の方向に回動する。ストッパ344により、磁石341の回動範囲が所定の範囲に制限される。   By applying a direct current to the coil 342, the magnet 341 rotates in the first direction. By reversing the direction of the direct current, the magnet 341 rotates in the second direction. The rotation range of the magnet 341 is limited to a predetermined range by the stopper 344.

図6は、ロボット20の動作を説明する説明図である。磁石341の回動に伴って、ロボット20の頭部202が胴体部201に対して回動する。これにより、ロボット20の首振り運動が行なわれる。   FIG. 6 is an explanatory diagram for explaining the operation of the robot 20. As the magnet 341 rotates, the head 202 of the robot 20 rotates relative to the body portion 201. Thereby, the swing motion of the robot 20 is performed.

図7および図8は、情報処理システム10の構成を説明する説明図である。図7を使用して、情報処理装置40およびロボット20の構成を説明する。   7 and 8 are explanatory diagrams for explaining the configuration of the information processing system 10. The configuration of the information processing apparatus 40 and the robot 20 will be described with reference to FIG.

情報処理装置40は、CPU(Central Processing Unit)41、主記憶装置42、補助記憶装置43、第1通信部46、第2通信部44、タッチパネル45、カメラ49およびバスを備える。CPU41は、本実施の形態のプログラムを実行する演算制御装置である。CPU41には、一または複数のCPUまたはマルチコアCPU等が使用される。CPU41は、バスを介して情報処理装置40を構成するハードウェア各部と接続されている。   The information processing apparatus 40 includes a CPU (Central Processing Unit) 41, a main storage device 42, an auxiliary storage device 43, a first communication unit 46, a second communication unit 44, a touch panel 45, a camera 49, and a bus. The CPU 41 is an arithmetic control device that executes the program of the present embodiment. As the CPU 41, one or a plurality of CPUs or a multi-core CPU is used. The CPU 41 is connected to each hardware part constituting the information processing apparatus 40 via a bus.

主記憶装置42は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の記憶装置である。主記憶装置42に
は、CPU41が行なう処理の途中で必要な情報およびCPU41で実行中のプログラムが一時的に保存される。
The main storage device 42 is a storage device such as an SRAM (Static Random Access Memory), a DRAM (Dynamic Random Access Memory), or a flash memory. The main storage device 42 temporarily stores information necessary during the processing performed by the CPU 41 and a program being executed by the CPU 41.

補助記憶装置43は、SRAM、フラッシュメモリまたはハードディスク等の記憶装置である。補助記憶装置43には、CPU41に実行させるプログラム、およびプログラムの実行に必要な各種データが保存される。   The auxiliary storage device 43 is a storage device such as SRAM, flash memory, or hard disk. The auxiliary storage device 43 stores a program to be executed by the CPU 41 and various data necessary for executing the program.

第1通信部46は、第1送信部461および第1受信部462を有する。第1通信部46は、情報処理装置40とネットワークとの間のデータ通信を行なうインターフェイスである。第2通信部44は、第2送信部441および第2受信部442を有する。第2通信部44は、情報処理装置40とロボット20との間の近距離無線通信を行なうインターフェイスである。   The first communication unit 46 includes a first transmission unit 461 and a first reception unit 462. The first communication unit 46 is an interface that performs data communication between the information processing apparatus 40 and the network. The second communication unit 44 includes a second transmission unit 441 and a second reception unit 442. The second communication unit 44 is an interface that performs short-range wireless communication between the information processing apparatus 40 and the robot 20.

タッチパネル45は、液晶表示パネル等の表示部451と、表示部451に積層された入力部452とを備える。タッチパネル45を有する表示装置47が、情報処理装置40と別体に設けられており、有線または無線により情報処理装置40に接続されていても良い。   The touch panel 45 includes a display unit 451 such as a liquid crystal display panel and an input unit 452 stacked on the display unit 451. A display device 47 having a touch panel 45 may be provided separately from the information processing device 40 and may be connected to the information processing device 40 by wire or wirelessly.

カメラ49は、CPU41による制御に基づいて、静止画および動画を撮影可能である。カメラ49は、情報処理装置40とは別体に設けられており、有線または無線により情報処理装置40に接続されていても良い。   The camera 49 can shoot still images and moving images based on control by the CPU 41. The camera 49 is provided separately from the information processing apparatus 40 and may be connected to the information processing apparatus 40 by wire or wirelessly.

ロボット20は、CPU21、主記憶装置22、補助記憶装置23、第3通信部24、発光部25、マイク31、スピーカ32、センサI/F330、センサ33、アクチュエータI/F340およびバスを備える。CPU21は、本実施の形態のプログラムを実行する演算制御装置である。CPU21には、一または複数のCPUまたはマルチコアCPU等が使用される。CPU21は、バスを介してロボット20を構成するハードウェア各部と接続されている。   The robot 20 includes a CPU 21, a main storage device 22, an auxiliary storage device 23, a third communication unit 24, a light emitting unit 25, a microphone 31, a speaker 32, a sensor I / F 330, a sensor 33, an actuator I / F 340, and a bus. The CPU 21 is an arithmetic control device that executes the program of the present embodiment. As the CPU 21, one or a plurality of CPUs or a multi-core CPU is used. The CPU 21 is connected to each hardware part constituting the robot 20 via a bus.

主記憶装置22は、SRAM、DRAM、フラッシュメモリ等の記憶装置である。主記憶装置22には、CPU21が行なう処理の途中で必要な情報およびCPU21で実行中のプログラムが一時的に保存される。   The main storage device 22 is a storage device such as SRAM, DRAM, or flash memory. The main storage device 22 temporarily stores information necessary during the processing performed by the CPU 21 and a program being executed by the CPU 21.

補助記憶装置23は、SRAM、フラッシュメモリまたはハードディスク等の記憶装置である。補助記憶装置23には、CPU21に実行させるプログラム、およびプログラムの実行に必要な各種データが保存される。   The auxiliary storage device 23 is a storage device such as SRAM, flash memory, or hard disk. The auxiliary storage device 23 stores a program to be executed by the CPU 21 and various data necessary for executing the program.

第3通信部24は、第3送信部241および第3受信部242を有する。第3通信部24は、情報処理装置40との間の近距離無線通信を行なうインターフェイスである。発光部25は、前述の第1発光部251および第2発光部252を含む。発光部25はたとえばLED(Light Emitting Diode)であり、CPU21の制御に基づく輝度および色で発光する。   The third communication unit 24 includes a third transmission unit 241 and a third reception unit 242. The third communication unit 24 is an interface that performs short-range wireless communication with the information processing apparatus 40. The light emitting unit 25 includes the first light emitting unit 251 and the second light emitting unit 252 described above. The light emitting unit 25 is, for example, an LED (Light Emitting Diode), and emits light with luminance and color based on the control of the CPU 21.

センサI/F330は、センサ33とバスとを接続するインターフェイスである。センサ33は、前述の人感センサ331およびタッチセンサ332に加えて、胴体部201に内蔵されたジャイロセンサ333を含む。CPU21は、センサ33およびセンサI/F330を介して、ユーザの接近または接触を検出する。   The sensor I / F 330 is an interface that connects the sensor 33 and the bus. The sensor 33 includes a gyro sensor 333 built in the body portion 201 in addition to the human sensor 331 and the touch sensor 332 described above. The CPU 21 detects the approach or contact of the user via the sensor 33 and the sensor I / F 330.

アクチュエータI/F340は、アクチュエータ34とバスとを接続するインターフェイスである。前述の通り、アクチュエータ34は磁石341およびコイル342を含む。CPU21による制御に基づいて、コイル342に直流電流が供給されて、ロボット20の首振り運動が行なわれる。   The actuator I / F 340 is an interface that connects the actuator 34 and the bus. As described above, the actuator 34 includes the magnet 341 and the coil 342. Based on the control by the CPU 21, a direct current is supplied to the coil 342 and the robot 20 swings.

CPU21は、たとえばセンサ33によりユーザの接近または接触を検出している間、ランダムに発光部25の発光または首振り運動を行なう。ランダムに動作することにより、ユーザに対して生き物のような印象を与えて、親しみを感じさせることができる。CPU21は、マイク31で検出した音声、または、スピーカ32で出力する音声に連動して、発光部25の発光または首振り運動を行なっても良い。CPU21は、あらかじめ定められたパターンに基づいて発光部25の発光または首振り運動を行っても良い。   The CPU 21 performs light emission or swinging motion of the light emitting unit 25 at random while detecting the approach or contact of the user by the sensor 33, for example. By operating at random, it is possible to give the user an impression of a living creature and feel familiarity. The CPU 21 may perform the light emission or swing motion of the light emitting unit 25 in conjunction with the sound detected by the microphone 31 or the sound output from the speaker 32. The CPU 21 may perform light emission or swing motion of the light emitting unit 25 based on a predetermined pattern.

発光および首振り運動により、ユーザはロボット20が自分に反応していることを感得する。これにより、ユーザはロボット20に親近感を感じ、質問等を行ないやすくなる。なお、ロボット20の形状は、たとえば猫型、犬型、ヒト型等の任意の形状であっても良い。アクチュエータ34が動作させる場所は、首以外の任意の場所であっても良い。ロボット20の複数の場所が、アクチュエータ34により動作しても良い。   The user feels that the robot 20 is reacting to the user by the light emission and the swing motion. As a result, the user feels familiar with the robot 20 and can easily ask questions. The shape of the robot 20 may be an arbitrary shape such as a cat shape, a dog shape, or a human shape. The place where the actuator 34 operates may be any place other than the neck. A plurality of locations of the robot 20 may be operated by the actuator 34.

図8を使用して、サーバ50の構成を説明する。サーバ50は、CPU51、主記憶装置52、補助記憶装置53、第4通信部54およびバスを備える。CPU51は、本実施の形態のプログラムを実行する演算制御装置である。CPU51には、一または複数のCPUまたはマルチコアCPU等が使用される。CPU51は、バスを介してサーバ50を構成するハードウェア各部と接続されている。   The configuration of the server 50 will be described with reference to FIG. The server 50 includes a CPU 51, a main storage device 52, an auxiliary storage device 53, a fourth communication unit 54, and a bus. The CPU 51 is an arithmetic control device that executes the program of the present embodiment. As the CPU 51, one or a plurality of CPUs or a multi-core CPU is used. The CPU 51 is connected to each hardware unit constituting the server 50 via a bus.

主記憶装置52は、SRAM、DRAM、フラッシュメモリ等の記憶装置である。主記憶装置52には、CPU51が行なう処理の途中で必要な情報およびCPU51で実行中のプログラムが一時的に保存される。   The main storage device 52 is a storage device such as SRAM, DRAM, or flash memory. The main storage device 52 temporarily stores information necessary during processing performed by the CPU 51 and a program being executed by the CPU 51.

補助記憶装置53は、SRAM、フラッシュメモリまたはハードディスク等の記憶装置である。補助記憶装置53には、履歴DB(Database)61、会話ログDB62、ボットDB63、CPU51に実行させるプログラム、およびプログラムの実行に必要な各種データが保存される。   The auxiliary storage device 53 is a storage device such as SRAM, flash memory, or hard disk. The auxiliary storage device 53 stores a history DB (Database) 61, a conversation log DB 62, a bot DB 63, a program to be executed by the CPU 51, and various data necessary for executing the program.

なお、履歴DB61、会話ログDB62およびボットDB63は、情報処理装置40の補助記憶装置43に記憶されていても良い。履歴DB61、会話ログDB62およびボットDB63は、サーバ50または情報処理装置40に接続された外部の大容量記憶装置等に保存されていても良い。   The history DB 61, the conversation log DB 62, and the bot DB 63 may be stored in the auxiliary storage device 43 of the information processing device 40. The history DB 61, the conversation log DB 62, and the bot DB 63 may be stored in an external mass storage device or the like connected to the server 50 or the information processing device 40.

第4通信部54は、情報送信部541および情報受信部542を有する。第4通信部54は、サーバ50とネットワークとの間のデータ通信を行なうインターフェイスである。サーバ50は、大型計算機上で動作する仮想マシンでも良い。サーバ50は、複数のコンピュータまたはサーバマシンを組み合わせて構成されても良い。   The fourth communication unit 54 includes an information transmission unit 541 and an information reception unit 542. The fourth communication unit 54 is an interface that performs data communication between the server 50 and the network. The server 50 may be a virtual machine that operates on a large computer. The server 50 may be configured by combining a plurality of computers or server machines.

図9は、履歴DB61のレコードレイアウトを説明する説明図である。履歴DB61は、情報処理システム10とユーザとの会話の開始時刻、ユーザの属性、会話ログファイル名、会話継続時間およびユーザに対して案内した案内先を関連づけて記録するDBである。履歴DB61は、ロボットIDフィールド、開始日時フィールド、属性フィールド、会話ログIDフィールド、会話継続時間フィールドおよび案内先フィールドを有する。属性フィールドは、性別フィールドおよび年齢フィールドを有する。   FIG. 9 is an explanatory diagram for explaining the record layout of the history DB 61. The history DB 61 is a DB that records the start time of the conversation between the information processing system 10 and the user, the user attributes, the conversation log file name, the conversation duration, and the guidance destination that is guided to the user in association with each other. The history DB 61 has a robot ID field, a start date / time field, an attribute field, a conversation log ID field, a conversation duration field, and a guidance destination field. The attribute field has a gender field and an age field.

ロボットIDフィールドには、ユーザに対応したロボット20に固有に付与されたロボットID(Identifier)が記録されている。開始日時フィールドには、ユーザが情報処理システム10との会話を開始した日時が記録されている。性別フィールドには、カメラ49が撮影した画像に基づいて推定されたユーザの性別が記録されている。年齢フィールドには、カメラ49が撮影した画像に基づいて推定されたユーザの年齢が記録されている。   In the robot ID field, a robot ID (Identifier) uniquely assigned to the robot 20 corresponding to the user is recorded. In the start date / time field, the date / time when the user started the conversation with the information processing system 10 is recorded. In the sex field, the gender of the user estimated based on the image taken by the camera 49 is recorded. In the age field, the age of the user estimated based on the image taken by the camera 49 is recorded.

会話ログIDフィールドには、ユーザと情報処理システム10との間で交わされた会話のログに固有に付与された会話ログIDが記録されている。会話継続時間フィールドには、ユーザと情報処理システム10との会話の継続時間が記録されている。案内先フィールドには、ユーザからの質問に対応して情報処理システム10がユーザに案内した場所が記録されている。履歴DB61は、ユーザとロボット20との一回の会話について、一つのレコードを有する。   In the conversation log ID field, a conversation log ID uniquely assigned to a conversation log exchanged between the user and the information processing system 10 is recorded. The duration of conversation between the user and the information processing system 10 is recorded in the conversation duration field. In the guidance destination field, a place where the information processing system 10 has guided the user in response to a question from the user is recorded. The history DB 61 has one record for one conversation between the user and the robot 20.

図10は、会話ログDB62のレコードレイアウトを説明する説明図である。会話ログDB62は、会話ログIDと、それぞれの発話が行なわれた日時と、話者と、発話内容と、表示装置47に表示された画面と、ユーザの反応とを関連づけて記録するDBである。会話ログDB62は、会話ログIDフィールド、日時フィールド、話者フィールド、発話内容フィールド、表示画面フィールドおよびユーザ反応フィールドを有する。ユーザ反応フィールドは、笑顔フィールドおよび頷きフィールドを有する。   FIG. 10 is an explanatory diagram for explaining the record layout of the conversation log DB 62. The conversation log DB 62 is a DB that records the conversation log ID, the date and time when each utterance was performed, the speaker, the utterance content, the screen displayed on the display device 47, and the user's reaction in association with each other. . The conversation log DB 62 has a conversation log ID field, a date / time field, a speaker field, an utterance content field, a display screen field, and a user response field. The user response field has a smile field and a whisper field.

会話ログIDフィールドには、会話ログIDが記録されている。日時フィールドには、発話が行なわれた日時が記録されている。話者フィールドには、発話を行なったのがユーザであるのか、ロボット20であるのかが記録されている。発話内容フィールドには、ユーザまたはロボット20の発話内容が記録されている。   A conversation log ID is recorded in the conversation log ID field. In the date / time field, the date / time when the utterance was performed is recorded. In the speaker field, it is recorded whether the user or the robot 20 has spoken. The utterance content of the user or the robot 20 is recorded in the utterance content field.

表示画面フィールドには、表示装置47に表示された画面が、たとえばHTML(HyperText Markup Language)ファイルにより記録されている。なお、本実施の形態においては、ロボット20が発話する際に表示画面が更新されるので、話者がロボットの場合にのみ表示画面フィールドに情報が記録されている。   In the display screen field, the screen displayed on the display device 47 is recorded by, for example, an HTML (HyperText Markup Language) file. In this embodiment, since the display screen is updated when the robot 20 speaks, information is recorded in the display screen field only when the speaker is a robot.

笑顔フィールドには、カメラ49により撮影した画像を解析して、ユーザが笑顔であるか否かを判定した結果が記録されている。頷きフィールドには、カメラ49により撮影した画像を解析して、ユーザが頷いているか否かを判定した結果が記録されている。本実施の形態においては、カメラ49により撮影した画像とユーザが発した音声とを同時に取得して解析するため、話者がユーザの場合のみ、ユーザ反応フィールドにデータが記録されている。会話ログDB62は、一回の発話について、一つのレコードを有する。   In the smile field, a result obtained by analyzing an image taken by the camera 49 and determining whether or not the user is smiling is recorded. In the sowing field, the result of determining whether the user is whispering by analyzing the image taken by the camera 49 is recorded. In the present embodiment, since an image captured by the camera 49 and a voice uttered by the user are simultaneously acquired and analyzed, data is recorded in the user response field only when the speaker is a user. The conversation log DB 62 has one record for one utterance.

なお、笑顔フィールドおよび頷きフィールドは、ユーザ反応フィールドのサブフィールドの例示である。カメラ49により撮影した画像、および、マイク31により取得した声を解析して得たユーザの反応を記録する、任意のサブフィールドを設けることができる。履歴DB61および会話ログDB62は、ユーザとロボット20との会話およびユーザの反応を記録するログ記録部を構成する。   The smile field and the whispering field are examples of subfields of the user reaction field. An arbitrary subfield can be provided in which an image captured by the camera 49 and a user reaction obtained by analyzing a voice acquired by the microphone 31 are recorded. The history DB 61 and the conversation log DB 62 constitute a log recording unit that records the conversation between the user and the robot 20 and the reaction of the user.

図11は、ボットDB63のレコードレイアウトを説明する説明図である。ボットDB63は、カメラ49により撮影した画像を解析して推定したユーザの属性と、チャットボットの擬似人格に固有に付与されたボットIDとを関連づけて記録するDBである。   FIG. 11 is an explanatory diagram for explaining the record layout of the bot DB 63. The bot DB 63 is a DB that records a user attribute estimated by analyzing an image captured by the camera 49 and a bot ID uniquely assigned to the pseudo personality of the chat bot.

ボットDB63は、ユーザ属性フィールドおよびボットIDフィールドを有する。ユーザ属性フィールドは、性別フィールドおよび年齢フィールドを有する。性別フィールドには、推定したユーザの性別が記録されている。年齢フィールドには推定したユーザの年齢が記録されている。ボットIDフィールドにはボットIDが記録されている。   The bot DB 63 has a user attribute field and a bot ID field. The user attribute field has a gender field and an age field. The estimated gender of the user is recorded in the gender field. The estimated age of the user is recorded in the age field. A bot ID is recorded in the bot ID field.

たとえば、ユーザが高齢者である場合に対応するボットID「A04」および「B04」には、ゆっくりとした口調で話す擬似人格のチャットボットが設定されている。ユーザが子供である場合に対応するボットID「A01」および「B01」には、子供にも理解しやすい語彙で話す擬似人格のチャットボットが設定されている。   For example, a chat bot with a pseudo personality speaking in a slow tone is set in the bot IDs “A04” and “B04” corresponding to the case where the user is an elderly person. For the bot IDs “A01” and “B01” corresponding to the case where the user is a child, a chat bot with a pseudo personality that speaks in a vocabulary that is easy for children to understand is set.

たとえば、ユーザがマスクやサングラスを着用している等の理由で、ユーザの属性が判定できない場合対応するボットID「D01」には、汎用性の高い応答を行なう擬似人格のチャットボットが設定されている。   For example, if the user's attribute cannot be determined because the user is wearing a mask or sunglasses, the corresponding bot ID “D01” is set to a pseudo-personal chatbot that makes a highly versatile response. Yes.

なお、性別フィールドおよび年齢フィールドは、ユーザ属性フィールドのサブフィールドの例示である。カメラ49により撮影した画像、および、マイク31により取得した声を解析して得ることができるユーザの属性に対応する、任意のサブフィールドを設けることができる。なお、画像および音声に基づくユーザ属性の推定は従来から行なわれているため、詳細については説明を省略する。   The sex field and the age field are examples of subfields of the user attribute field. An arbitrary subfield corresponding to the attribute of the user that can be obtained by analyzing the image captured by the camera 49 and the voice acquired by the microphone 31 can be provided. In addition, since estimation of user attributes based on images and sounds has been conventionally performed, a detailed description thereof will be omitted.

図12は、レポートの例を説明する説明図である。図12に示すレポートは、履歴DB61および会話ログDB62に記録されたデータに基づいて作成されるレポートの一例である。図12に示すレポートは、場所欄71、始期欄721、終期欄722、年齢分布グラフ欄731、人数グラフ欄732および時間グラフ欄733を含む。   FIG. 12 is an explanatory diagram illustrating an example of a report. The report shown in FIG. 12 is an example of a report created based on data recorded in the history DB 61 and the conversation log DB 62. The report shown in FIG. 12 includes a location column 71, a start column 721, an end column 722, an age distribution graph column 731, a number of people graph column 732, and a time graph column 733.

場所欄71には、ロボット20が設置された場所が表示されている。始期欄721および終期欄722には、解析対象期間が表示されている。年齢分布グラフ欄731には、ロボット20との会話を行なったユーザの年齢分布を示す棒グラフが表示されている。横軸は、ユーザの推定年齢であり、縦軸はユーザの人数である。   In the place column 71, the place where the robot 20 is installed is displayed. An analysis target period is displayed in the start column 721 and the end column 722. In the age distribution graph column 731, a bar graph indicating the age distribution of the user who has a conversation with the robot 20 is displayed. The horizontal axis is the estimated age of the user, and the vertical axis is the number of users.

横軸のメモリにおいて、たとえば「10前」は、10代前半であると推定したユーザであることを意味する。棒グラフは、下から男性、女性および性別不明の順に積み重ねた積み重ね棒グラフである。なお、図12中のすべてのグラフにおいて、黒色は、男性を、左下がりのハッチングは女性を、右下がりのハッチングは性別不明を示す。   In the horizontal axis memory, for example, “before 10” means that the user is estimated to be in the early teens. The bar graph is a stacked bar graph that is stacked in the order of male, female and gender unknown from the bottom. In all graphs in FIG. 12, black indicates a man, left-left hatching indicates a woman, and right-down hatching indicates gender unknown.

人数グラフ欄732には、ロボット20との会話を行なったユーザの人数を示す円グラフが表示されている。時間グラフ欄733には、ロボット20との会話を行なったユーザの合計会話時間を示す円グラフが表示されている。   In the number graph column 732, a pie chart indicating the number of users who have a conversation with the robot 20 is displayed. In the time graph column 733, a pie chart showing the total conversation time of the user who had a conversation with the robot 20 is displayed.

年齢分布グラフ欄731、人数グラフ欄732および時間グラフ欄733のそれぞれのグラフは、履歴DB61および会話ログDB62に記録されたデータを解析することにより作成可能である。図12に示すレポートにより、情報処理システム10の管理者はロボット20の稼動率等を把握して、情報処理システム10の改善に役立てることができる。また、ユーザの質問内容および反応等のデータは、情報処理システム10を設置した施設等のマーケティング資料に活用できる。   Each of the age distribution graph column 731, the number of people graph column 732, and the time graph column 733 can be created by analyzing the data recorded in the history DB 61 and the conversation log DB 62. With the report shown in FIG. 12, the administrator of the information processing system 10 can grasp the operating rate of the robot 20 and use it to improve the information processing system 10. Further, the user's question contents and data such as responses can be used for marketing materials such as facilities where the information processing system 10 is installed.

なお、レポートは、履歴DB61および会話ログDB62に記録されたデータをCSV(Comma-Separated Values)形式等により取得した他の任意のパソコン等により作成できる。情報処理システム10の管理者は、汎用の表計算アプリケーションソフト等を利用してレポートを作成しても良い。図12に示すレポートのレイアウトおよびグラフは例示である。   The report can be created by any other personal computer obtained by acquiring the data recorded in the history DB 61 and the conversation log DB 62 in a CSV (Comma-Separated Values) format or the like. The administrator of the information processing system 10 may create a report using general-purpose spreadsheet application software or the like. The report layout and graph shown in FIG. 12 are exemplary.

図13は、プログラムの処理の流れを説明するフローチャートである。CPU41は、カメラ49により撮影した画像に基づいて、ロボット20へのユーザの接近または接触を検出したか否かを判定する(ステップS501)。たとえばCPU41は、公知の顔認識技術を用いて画像中の所定の範囲に人の顔を検出した場合に、ユーザの接近または近接を検知したと判定する。ステップS501において、CPU41は、画像にユーザの顔が含まれている場合に検出する顔検出部の機能を果たす。   FIG. 13 is a flowchart for explaining the flow of processing of a program. The CPU 41 determines whether or not the approach or contact of the user to the robot 20 has been detected based on the image captured by the camera 49 (step S501). For example, the CPU 41 determines that the approach or proximity of the user has been detected when a human face is detected within a predetermined range in the image using a known face recognition technique. In step S501, the CPU 41 functions as a face detection unit that detects when the user's face is included in the image.

ユーザの接近または接触を検出したと判定した場合(ステップS501でYES)、CPU41は、画像中からユーザが写っている部分を切り出して、特徴量を抽出する(ステップS502)。画像の特徴量については種々の手法が提案されているため、詳細な説明は省略する。画像中のユーザの属性およびユーザの反応を推定するのに適した任意の特徴量を使用できる。特徴量は、画像に基づくデータの一例である。   If it is determined that the approach or contact of the user has been detected (YES in step S501), the CPU 41 extracts a feature amount by cutting out a portion in which the user is reflected from the image (step S502). Since various methods have been proposed for image feature amounts, detailed description thereof is omitted. Any feature suitable for estimating user attributes and user response in the image can be used. The feature amount is an example of data based on an image.

CPU21は、センサ33がユーザの接近または接触を検出したか否かを判定する(ステップS601)。検出したと判定した場合(ステップS601でYES)、CPU21は発光部25およびアクチュエータ34の動作をON、すなわちアクティブな状態に設定する(ステップS602)。以後、発光部25およびアクチュエータ34は、ランダムに動作する。発光部25およびアクチュエータ34は、音声に応じて、または所定のパターンに基づいて動作しても良い。   CPU21 determines whether the sensor 33 detected the approach or contact of the user (step S601). When it determines with having detected (it is YES at step S601), CPU21 sets operation | movement of the light emission part 25 and the actuator 34 to ON, ie, an active state (step S602). Thereafter, the light emitting unit 25 and the actuator 34 operate randomly. The light emitting unit 25 and the actuator 34 may operate according to sound or based on a predetermined pattern.

CPU21は、マイク31が検出した音声を電気信号に変換した音声データを、近距離無線通信を介して情報処理装置40に送信する(ステップS603)。CPU41は、割り込み処理により音声データを受信して、主記憶装置22または補助記憶装置23に一時保存する。   CPU21 transmits the audio | voice data which converted the audio | voice detected by the microphone 31 into the electrical signal to the information processing apparatus 40 via near field communication (step S603). The CPU 41 receives the audio data by the interruption process and temporarily stores it in the main storage device 22 or the auxiliary storage device 23.

ユーザの接近または接触を検出していないと判定した場合(ステップS501でNO)、または、ステップS502の終了後、CPU41は、サーバ50に送信するデータの有無を判定する(ステップS503)。ここでサーバ50に送信するデータは、ステップS502で抽出した画像の特徴量、および、割り込み処理によりロボット20から受信した音声データである。なお、ステップS503においては、特徴量と音声データのいずれか一方または両方が存在する場合に、送信するデータがあると判定する。   When it is determined that the user's approach or contact is not detected (NO in step S501), or after the end of step S502, the CPU 41 determines whether there is data to be transmitted to the server 50 (step S503). Here, the data to be transmitted to the server 50 is the feature amount of the image extracted in step S502 and the voice data received from the robot 20 by the interrupt process. In step S503, it is determined that there is data to be transmitted when either one or both of the feature amount and the audio data exist.

サーバ50に送信するデータはないと判定した場合(ステップS503でNO)、CPU41はステップS501に戻る。サーバ50に送信するデータがあると判定した場合(ステップS503でYES)、CPU41は、ネットワークを介してサーバ50に、特徴量および音声データを送信する(ステップS504)。なおCPU41は、音声データの特徴量を抽出して、ステップS504において音声データの代わりに送信しても良い。音声データの特徴量は、音声データに基づくデータの一例である。   If it is determined that there is no data to be transmitted to the server 50 (NO in step S503), the CPU 41 returns to step S501. If it is determined that there is data to be transmitted to the server 50 (YES in step S503), the CPU 41 transmits the feature amount and the voice data to the server 50 via the network (step S504). Note that the CPU 41 may extract the feature amount of the audio data and transmit it in step S504 instead of the audio data. The feature amount of the audio data is an example of data based on the audio data.

CPU51は、特徴量および音声データを受信する(ステップS701)。CPU51は、会話ログDB62に新しいレコードを追加して、日時フィールド、話者フィールド、発話内容フィールドおよびユーザ反応フィールドにデータを記録する。   The CPU 51 receives the feature amount and the audio data (step S701). The CPU 51 adds a new record to the conversation log DB 62 and records data in the date / time field, speaker field, utterance content field, and user response field.

CPU51は、ユーザが別のユーザに変化したか否かを判定する(ステップS702)。CPU512は、たとえば画像の特徴量に基づいてユーザが変化したか否かを判定できる。CPU51は、前回のステップS702の実行後の経過時間に基づいて、ユーザが変化したか否かを判定しても良い。   The CPU 51 determines whether or not the user has changed to another user (step S702). The CPU 512 can determine whether or not the user has changed based on the feature amount of the image, for example. The CPU 51 may determine whether or not the user has changed based on the elapsed time after the previous execution of step S702.

ユーザが変化したと判定した場合(ステップS702でYES)、CPU51は履歴DB61に新しいレコードを作成し、前回の会話にかかる情報を記録する。CPU51は、ステップS701の直後に会話ログDB62に記録したレコードに、新たな会話ログIDを記録する。   If it is determined that the user has changed (YES in step S702), the CPU 51 creates a new record in the history DB 61 and records information related to the previous conversation. The CPU 51 records a new conversation log ID in the record recorded in the conversation log DB 62 immediately after step S701.

CPU51は、受信した特徴量に基づいて、ユーザの属性、具体的にはユーザの性別および年齢を推定する(ステップS703)。CPU51は、ステップS703により属性推定部の機能を果たす。   The CPU 51 estimates the user attributes, specifically the gender and age of the user, based on the received feature amount (step S703). CPU51 fulfill | performs the function of an attribute estimation part by step S703.

CPU51は推定したユーザの属性をキーとしてボットDB63を検索し、抽出したレコートのボットIDフィールドからボットIDを取得する(ステップS704)。CPU51は、ステップS704によりユーザの属性に基づいて音声チャットボットの擬似人格を選択するボット選択部の機能を果たす。   The CPU 51 searches the bot DB 63 using the estimated user attribute as a key, and acquires the bot ID from the extracted bot ID field of the record (step S704). The CPU 51 fulfills the function of a bot selection unit that selects a pseudo personality of the voice chat bot based on the user attribute in step S704.

ユーザが変化していないと判定した場合(ステップS702でNO)、または、ステップS704の終了後、CPU51は、ボットIDに基づいてユーザに対する応答データを取得する(ステップS705)。具体的には、CPU51はクラウド上の音声チャットボットサービスにステップS704で取得したボットIDおよびステップS701で取得した音声データを送信し、音声チャットボットにより生成された応答の音声データを取得する。   When it is determined that the user has not changed (NO in step S702), or after the end of step S704, the CPU 51 acquires response data for the user based on the bot ID (step S705). Specifically, the CPU 51 transmits the bot ID acquired in step S704 and the voice data acquired in step S701 to the voice chat bot service on the cloud, and acquires the voice data of the response generated by the voice chat bot.

CPU51は、音声チャットボットから表示装置47に表示する映像ファイルを取得するか、または、所定のサーバから応答に関連する映像ファイルを取得する。なお音声チャットボットのソフトウェアは、サーバ50上で実行されても良い。映像ファイルは、たとえばHTMLファイルにより記録されている。CPU51は、映像ファイルの代わりに応答に関連するWEB(World Wide Web)サイトに関するURL(Uniform Resource Locator)を取得しても良い。   CPU51 acquires the video file displayed on the display apparatus 47 from a voice chat bot, or acquires the video file relevant to a response from a predetermined | prescribed server. The voice chat bot software may be executed on the server 50. The video file is recorded, for example, as an HTML file. The CPU 51 may acquire a URL (Uniform Resource Locator) relating to a WEB (World Wide Web) site related to the response instead of the video file.

CPU51は、ネットワークを介して情報処理装置40に、映像ファイルおよび音声データを含む応答データを送信する(ステップS706)。CPU41は、応答データを受信し、応答データ中の音声データを分離して、ロボット20に近距離無線通信を介して送信する(ステップS511)。CPU21は、割り込み処理により音声データを受信して、主記憶装置22または補助記憶装置23に一時保存する。   The CPU 51 transmits response data including a video file and audio data to the information processing apparatus 40 via the network (step S706). CPU41 receives response data, isolate | separates the audio | voice data in response data, and transmits to the robot 20 via near field communication (step S511). The CPU 21 receives the audio data by the interruption process and temporarily stores it in the main storage device 22 or the auxiliary storage device 23.

CPU41は、表示部451に映像ファイルを表示する(ステップS512)。CPU41は、処理を終了するか否かを判定する(ステップS513)。たとえば、情報処理システム10の管理者から終了の指示を受け付けた場合、CPU41は処理を終了すると判定する。処理を終了しないと判定した場合(ステップS513でNO)、CPU41はステップS501に戻る。処理を終了すると判定した場合(ステップS513でYES)、CPU41は処理を終了する。   The CPU 41 displays the video file on the display unit 451 (step S512). CPU41 determines whether a process is complete | finished (step S513). For example, when an end instruction is received from the administrator of the information processing system 10, the CPU 41 determines to end the process. If it is determined not to end the process (NO in step S513), the CPU 41 returns to step S501. If it is determined that the process is to be ended (YES in step S513), the CPU 41 ends the process.

ユーザの接近または接触を検出していないと判定した場合(ステップS601でNO)、または、ステップS603の終了後、CPU21は、スピーカ32から出力する音声データがあるか否かを判定する(ステップS611)。音声データがあると判定した場合(ステップS611でYES)、CPU21はスピーカ32を介して音声データを音声に変換して出力する(ステップS612)。   When it is determined that the approach or contact of the user has not been detected (NO in step S601), or after the end of step S603, the CPU 21 determines whether there is audio data output from the speaker 32 (step S611). ). If it is determined that there is audio data (YES in step S611), the CPU 21 converts the audio data into audio via the speaker 32 and outputs the audio (step S612).

音声データがないと判定した場合(ステップS611でNO)、またはステップS612の終了後、CPU21はセンサ33がユーザを検出したか否かを判定する(ステップS613)。検出したと判定した場合(ステップS613でYES)、CPU21はステップS603に戻る。   When it is determined that there is no audio data (NO in step S611), or after the end of step S612, the CPU 21 determines whether the sensor 33 has detected a user (step S613). When it determines with having detected (it is YES at step S613), CPU21 returns to step S603.

検出しないと判定した場合(ステップS613でNO)、CPU21は発光部25およびアクチュエータ34の動作をOFF、すなわち非アクティブな状態に設定する(ステップS614)。CPU21は、ステップS601に戻る。以上により、ロボット20は動作を停止し、新たにユーザが近付いた場合に、そのユーザに反応して動作を開始する。   When it determines with not detecting (it is NO at step S613), CPU21 sets the operation | movement of the light emission part 25 and the actuator 34 to OFF, ie, an inactive state (step S614). The CPU 21 returns to step S601. As described above, the robot 20 stops its operation, and when a new user approaches, the robot 20 starts operating in response to the user.

なお、CPU21は、ステップS603において音声データとともにセンサ33による検出結果を送信しても良い。この場合、CPU41はステップS504において特徴量および音声データとともに、センサ33による検出結果を送信する。CPU51は、センサ33による検出結果も属性推定に使用できる。   In addition, CPU21 may transmit the detection result by the sensor 33 with audio | voice data in step S603. In this case, the CPU 41 transmits the detection result by the sensor 33 together with the feature amount and the audio data in step S504. The CPU 51 can also use the detection result of the sensor 33 for attribute estimation.

本実施の形態によると、多くの人に親しみを感じさせるロボット20を用いた、情報処理システム10を提供できる。ロボット20は、表示装置47よりも小型であるため、ユーザに威圧感や恐怖感を感じさせない。ロボット20を使用することにより、表示装置47にアバター等の映像を表示する場合に比べて、ユーザの興味を引きやすい情報処理システム10を提供できる。   According to the present embodiment, it is possible to provide the information processing system 10 using the robot 20 that makes many people feel familiar. Since the robot 20 is smaller than the display device 47, the user does not feel intimidation or fear. By using the robot 20, it is possible to provide the information processing system 10 that can easily attract the user's interest as compared to the case where an image such as an avatar is displayed on the display device 47.

ロボット20は、ユーザが近付いた場合に、発光部25の発光および首振り等の動作により反応する。これにより、機械やコンピュータ等に不慣れなユーザであっても、話しかけるきっかけを掴み易い情報処理システム10を提供できる。   When the user approaches, the robot 20 reacts by operations such as light emission and swinging of the light emitting unit 25. As a result, it is possible to provide the information processing system 10 that allows even a user unfamiliar with a machine, a computer, etc. to easily grasp the opportunity to speak.

音声チャットボットにより自然言語を用いてユーザと会話を行なうため、専門知識を持たないユーザが容易に利用できる情報処理システム10を提供できる。画像から推定したユーザの属性に応じて、音声チャットボットの擬似人格を選択して使用するため、ユーザの属性に合わせた口調、語彙および内容の情報提供を行なう情報処理システム10を提供できる。   Since the voice chat bot is used to communicate with the user using a natural language, the information processing system 10 that can be easily used by a user who does not have specialized knowledge can be provided. Since the pseudo personality of the voice chat bot is selected and used according to the user attribute estimated from the image, the information processing system 10 that provides the tone, vocabulary, and content information according to the user attribute can be provided.

小型で、機能が限定的なロボット20を使用することにより、安価に導入可能な情報処理システム10を提供できる。情報処理システム10を多数の場所に設置して、多くのユーザに使用して貰うことにより、たとえば商業施設に来訪した顧客の興味動向等のマーケティングデータを収集する情報処理システム10を提供できる。   By using the robot 20 that is small and has limited functions, the information processing system 10 that can be introduced at low cost can be provided. By installing the information processing system 10 in many places and using it by many users, for example, it is possible to provide the information processing system 10 that collects marketing data such as interest trends of customers who have visited commercial facilities.

盗難防止チェーン用のチェーン孔35を有することにより、小型であるにもかかわらず盗難を防止できるロボット20を提供できる。図5を使用して説明したアクチュエータ34による首振り機構は、雑音を生じにくい。そのため、音声によるコミュニュケーションの妨げにならない首振り機構を有するロボット20を提供できる。   By having the chain hole 35 for the anti-theft chain, it is possible to provide the robot 20 that can prevent theft even though it is small. The swing mechanism using the actuator 34 described with reference to FIG. 5 hardly generates noise. Therefore, it is possible to provide the robot 20 having a head swing mechanism that does not hinder voice communication.

ユーザが近接または接触している場合に、発光および首振り運動を行なうことにより、ユーザに親近感を感じさせるロボット20を提供できる。カメラ49を情報処理装置40側に搭載することにより、ロボット20が首振り中であっても、ユーザを撮影して、画像解析を行なえる情報処理システム10を提供できる。   When the user is in proximity or in contact, the robot 20 can be provided that makes the user feel close by performing light emission and swinging motion. By mounting the camera 49 on the information processing apparatus 40 side, it is possible to provide the information processing system 10 that can photograph the user and perform image analysis even when the robot 20 is swinging.

ロボット20の脚部27と、充電台36の脚入部362との向きを合わせた状態で、ロボット20を充電台36に載置することにより、容易にロボット20に電源供給できる情報処理システム10を提供できる。切り株を模した充電台36の上に、鳥を模したロボット20を載置することにより、ロボット20への電源供給機構が目立たない情報処理システム10を提供できる。なお、ロボット20への電源供給は、コネクタ29を介して行なっても良い。   An information processing system 10 that can easily supply power to the robot 20 by placing the robot 20 on the charging stand 36 in a state in which the legs 27 of the robot 20 and the leg insertion portions 362 of the charging stand 36 are aligned. Can be provided. By placing the robot 20 imitating a bird on the charging stand 36 imitating a stump, the information processing system 10 in which the power supply mechanism to the robot 20 is not conspicuous can be provided. The power supply to the robot 20 may be performed via the connector 29.

ロボット20と表示装置47とを併用することにより、音声に加えて写真や地図等の情報もユーザに提供できる情報処理システム10を提供できる。複数の種類の情報を組み合わせることにより、ユーザが必要とする情報を効果的に提供する情報処理システム10を提供できる。   By using the robot 20 and the display device 47 together, it is possible to provide the information processing system 10 that can provide the user with information such as photographs and maps in addition to voice. By combining a plurality of types of information, the information processing system 10 that effectively provides information required by the user can be provided.

[実施の形態2]
本実施の形態は、情報処理装置40からサーバ50に対して、カメラ49で撮影した画像を送信する情報処理システム10に関する。実施の形態1と共通する部分については、説明を省略する。
[Embodiment 2]
The present embodiment relates to an information processing system 10 that transmits an image captured by a camera 49 from an information processing apparatus 40 to a server 50. Description of portions common to the first embodiment is omitted.

図14は、実施の形態2のプログラムの処理の流れを説明するフローチャートである。ロボット20が行なう処理の流れは、図13を使用して説明した実施の形態1のプログラムの処理の流れと同一である。   FIG. 14 is a flowchart for explaining the flow of processing of the program according to the second embodiment. The processing flow performed by the robot 20 is the same as the processing flow of the program of the first embodiment described with reference to FIG.

CPU41は、ロボット20から送信された音声データを受信し、カメラ49で撮影した画像とともにサーバ50に送信する(ステップS521)。CPU51は、画像および音声データを受信する(ステップS711)。   The CPU 41 receives the audio data transmitted from the robot 20, and transmits it to the server 50 together with the image captured by the camera 49 (step S521). The CPU 51 receives image and audio data (step S711).

CPU51は画像解析を行なう(ステップS712)。CPU51は音声解析を行なう(ステップS713)。CPU51は、会話ログDB62に新しいレコードを追加して、日時フィールド、話者フィールド、発話内容フィールドおよびユーザ反応フィールドにデータを記録する。   The CPU 51 performs image analysis (step S712). The CPU 51 performs voice analysis (step S713). The CPU 51 adds a new record to the conversation log DB 62 and records data in the date / time field, speaker field, utterance content field, and user response field.

CPU51は、画像解析結果と音声解析結果とに基づいて、ユーザが別のユーザに変化したか否かを判定する(ステップS714)。ユーザが変化したと判定した場合(ステップS714でYES)、CPU51は履歴DB61に新しいレコードを作成し、前回の会話にかかる情報を記録する。CPU51は、ステップS713の直後に会話ログDB62に記録したレコードに、新たな会話ログIDを記録する。   The CPU 51 determines whether or not the user has changed to another user based on the image analysis result and the sound analysis result (step S714). If it is determined that the user has changed (YES in step S714), the CPU 51 creates a new record in the history DB 61 and records information related to the previous conversation. The CPU 51 records a new conversation log ID in the record recorded in the conversation log DB 62 immediately after step S713.

CPU51は、画像解析結果と音声解析結果とに基づいて、ユーザの属性を推定する(ステップS715)。画像と音声とを併用することにより、画像のみに基づいて属性を推定する場合よりも高い精度でユーザの属性を推定できる。   The CPU 51 estimates the user's attribute based on the image analysis result and the sound analysis result (step S715). By using the image and the sound together, it is possible to estimate the user's attribute with higher accuracy than when estimating the attribute based only on the image.

CPU51は推定したユーザの属性をキーとしてボットDB63を検索し、抽出したレコートのボットIDフィールドからボットIDを取得する(ステップS716)。ユーザが変化していないと判定した場合(ステップS714でNO)、または、ステップS716の終了後、CPU51は、取得したボットIDに基づいて、ユーザに対する応答データを取得する(ステップS717)。   The CPU 51 searches the bot DB 63 using the estimated user attribute as a key, and acquires the bot ID from the extracted bot ID field of the record (step S716). When it is determined that the user has not changed (NO in step S714), or after the end of step S716, the CPU 51 acquires response data for the user based on the acquired bot ID (step S717).

CPU51は、ネットワークを介して情報処理装置40に、映像ファイルおよび音声データを含む応答データを送信する(ステップS718)。CPU41は、応答データを受信し、応答データ中の音声データを分離して、ロボット20に近距離無線通信を介して送信する(ステップS531)。   The CPU 51 transmits response data including a video file and audio data to the information processing apparatus 40 via the network (step S718). CPU41 receives response data, isolate | separates the audio | voice data in response data, and transmits to the robot 20 via near field communication (step S531).

CPU41は、表示部451に映像ファイルを表示する(ステップS532)。CPU41は、処理を終了するか否かを判定する(ステップS533)。処理を終了しないと判定した場合(ステップS533でNO)、CPU41はステップS521に戻る。処理を終了すると判定した場合(ステップS533でYES)、CPU41は処理を終了する。   The CPU 41 displays the video file on the display unit 451 (step S532). CPU41 determines whether a process is complete | finished (step S533). If it is determined not to end the process (NO in step S533), the CPU 41 returns to step S521. If it is determined that the process is to be ended (YES in step S533), the CPU 41 ends the process.

本実施の形態によると、画像解析と音声解析とを組み合わせることにより、ユーザの属性を精度良く推定可能な情報処理システム10を提供できる。なお、カメラ49を使用せずに、音声データのみに基づいてユーザの属性を推定しても良い。   According to the present embodiment, it is possible to provide the information processing system 10 that can accurately estimate the user's attributes by combining image analysis and sound analysis. In addition, you may estimate a user's attribute based on only audio | voice data, without using the camera 49. FIG.

本実施の形態によると、たとえば音声解析に基づいて方言または言語を判定し、その方言または言語を話す擬似人格のチャットボットを選択して応答する情報処理システムを提供できる。ユーザが馴染んだ言語で応答することにより、ユーザに親しみを感じさせる情報処理システム10を提供できる。   According to the present embodiment, it is possible to provide an information processing system that determines a dialect or language based on, for example, voice analysis, and selects and responds to a chat bot with a pseudo personality that speaks the dialect or language. By responding in a language that the user is familiar with, the information processing system 10 that makes the user feel familiar can be provided.

[実施の形態3]
本実施の形態は、ユーザとの会話に基づいてクーポンを発行する情報処理システム10に関する。実施の形態1と共通する部分については、説明を省略する。
[Embodiment 3]
The present embodiment relates to an information processing system 10 that issues a coupon based on a conversation with a user. Description of portions common to the first embodiment is omitted.

図15は、実施の形態3の案内システムの動作の概要を説明する説明図である。表示装置47に表示された映像に、URLを示す2次元バーコード48が含まれている。ユーザは、自分のスマートフォン60を用いて2次元バーコード48を撮影して、URLにアクセスすることにより、割引券などのクーポンの画面が表示される。   FIG. 15 is an explanatory diagram for explaining the outline of the operation of the guidance system according to the third embodiment. The video displayed on the display device 47 includes a two-dimensional barcode 48 indicating the URL. The user photographs the two-dimensional barcode 48 using his / her smartphone 60 and accesses the URL, thereby displaying a coupon screen such as a discount coupon.

ユーザがクーポンを使用する際に、クーポンの画面中のクーポン使用ボタン69をタップする。これにより、ユーザがクーポンを使用したことを記録することができる。なお、2次元バーコード48に示すURLに、クーポンに固有に付与されたクーポンIDを入れることにより、どのクーポンが使用されたかを判定できる。   When the user uses the coupon, the coupon use button 69 in the coupon screen is tapped. Thereby, it can record that a user used a coupon. In addition, it can be determined which coupon was used by putting coupon ID uniquely given to the coupon in URL shown in the two-dimensional barcode 48. FIG.

図16は、クーポンDBのレコードレイアウトを説明する説明図である。クーポンDBは、クーポンIDと、会話ログIDと、発行日時と、使用日時とを関連づけて記録するDBである。クーポンDBは、クーポンIDフィールド、会話ログIDフィールド、発光日時フィールドおよび使用日時フィールドを有する。   FIG. 16 is an explanatory diagram illustrating the record layout of the coupon DB. The coupon DB is a DB that records a coupon ID, a conversation log ID, an issue date / time, and a use date / time in association with each other. The coupon DB has a coupon ID field, a conversation log ID field, a light emission date / time field, and a use date / time field.

クーポンIDフィールドには、クーポンIDが記録されている。会話ログIDフィールドには、クーポンを発行した際の会話ログIDが記録されている。発行日時フィールドには、クーポンを表示装置47に表示した日時が記録されている。使用日時フィールドには、クーポン使用ボタン69がタップされた日時が記録されている。   A coupon ID is recorded in the coupon ID field. The conversation log ID when the coupon is issued is recorded in the conversation log ID field. In the issue date field, the date and time when the coupon is displayed on the display device 47 is recorded. The date and time when the coupon use button 69 is tapped is recorded in the use date and time field.

クーポンを発行することにより、ユーザの満足度が高い情報処理システム10を提供できる。クーポンを発行した際の会話IDとクーポンの使用履歴とを照合することにより、クーポン発行店舗に有益なマーケティングデータを得ることができる。   By issuing a coupon, the information processing system 10 with high user satisfaction can be provided. By collating the conversation ID when the coupon is issued with the usage history of the coupon, marketing data useful for the coupon issuing store can be obtained.

[実施の形態4]
図17は、実施の形態4の情報処理システム10の機能ブロック図である。情報処理システム10は、ロボット20と情報処理装置40とを備える。情報処理装置40は、カメラ49と、カメラ49が撮影した画像に関するデータをネットワークに送信する第1送信部461と、第1送信部461から送信された画像に関するデータに基づいて作成された応答データを受信する第1受信部462と、第1受信部462が受信した応答データに基づいて音声データを前記ロボットに送信する第2送信部441とを備える。
[Embodiment 4]
FIG. 17 is a functional block diagram of the information processing system 10 according to the fourth embodiment. The information processing system 10 includes a robot 20 and an information processing device 40. The information processing apparatus 40 includes a camera 49, a first transmission unit 461 that transmits data related to an image captured by the camera 49 to the network, and response data created based on the data related to the image transmitted from the first transmission unit 461. And a second transmitter 441 that transmits voice data to the robot based on the response data received by the first receiver 462.

ロボット20は、第2送信部441が送信した音声データを受信する第3受信部242と、242第3受信部が受信した音声データに基づく音声を出力するスピーカ32とを備える。   The robot 20 includes a third receiving unit 242 that receives the audio data transmitted by the second transmitting unit 441 and a speaker 32 that outputs audio based on the audio data received by the 242 third receiving unit.

[実施の形態5]
本実施の形態は、汎用のコンピュータとプログラム97とを組み合わせて動作させることにより、本実施の形態の情報処理システム10を実現する形態に関する。図18は、実施の形態5の情報処理システム10の構成を説明する説明図である。なお、実施の形態1と共通する部分の説明は省略する。
[Embodiment 5]
The present embodiment relates to a mode for realizing the information processing system 10 of the present embodiment by operating a general-purpose computer and a program 97 in combination. FIG. 18 is an explanatory diagram illustrating the configuration of the information processing system 10 according to the fifth embodiment. Note that description of portions common to the first embodiment is omitted.

本実施の形態の情報処理システム10は、近距離無線通信を介して接続されたロボット20とコンピュータ90とを備える。コンピュータ90は、ネットワークを介してサーバ50に接続されている。   The information processing system 10 according to the present embodiment includes a robot 20 and a computer 90 that are connected via short-range wireless communication. The computer 90 is connected to the server 50 via a network.

コンピュータ90は、CPU41、主記憶装置42、補助記憶装置43、第1通信部46、第2通信部44、タッチパネル45、カメラ49、読取部95およびバスを備える。第1通信部46は、第1送信部461および第1受信部462を有する。第2通信部44は、第2送信部441および第2受信部442を有する。タッチパネル45は、液晶表示パネル等の表示部451と、表示部451に積層された入力部452とを備える。   The computer 90 includes a CPU 41, a main storage device 42, an auxiliary storage device 43, a first communication unit 46, a second communication unit 44, a touch panel 45, a camera 49, a reading unit 95, and a bus. The first communication unit 46 includes a first transmission unit 461 and a first reception unit 462. The second communication unit 44 includes a second transmission unit 441 and a second reception unit 442. The touch panel 45 includes a display unit 451 such as a liquid crystal display panel and an input unit 452 stacked on the display unit 451.

プログラム97は、可搬型記録媒体96に記録されている。CPU41は、読取部95を介してプログラム97を読み込み、補助記憶装置43に保存する。またCPU21は、コンピュータ90に実装されたフラッシュメモリ等の半導体メモリ98に記憶されたプログラム97を読出しても良い。さらに、CPU41は第1通信部46およびネットワークを介して接続される図示しない他のサーバコンピュータからプログラム97をダウンロードして補助記憶装置43に保存しても良い。   The program 97 is recorded on a portable recording medium 96. The CPU 41 reads the program 97 via the reading unit 95 and stores it in the auxiliary storage device 43. The CPU 21 may read the program 97 stored in the semiconductor memory 98 such as a flash memory mounted on the computer 90. Further, the CPU 41 may download the program 97 from the first communication unit 46 and another server computer (not shown) connected via the network and store it in the auxiliary storage device 43.

プログラム97は、コンピュータ90の制御プログラムとしてインストールされ、主記憶装置42にロードして実行される。これにより、コンピュータ90は上述した情報処理装置40として機能する。   The program 97 is installed as a control program for the computer 90, loaded into the main storage device 42, and executed. Thereby, the computer 90 functions as the information processing apparatus 40 described above.

各実施例で記載されている技術的特徴(構成要件)はお互いに組合せ可能であり、組み合わせすることにより、新しい技術的特徴を形成することができる。
今回開示された実施の形態はすべての点で例示であって、制限的なものでは無いと考えられるべきである。本発明の範囲は、上記した意味では無く、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
The technical features (components) described in each embodiment can be combined with each other, and new technical features can be formed by combining them.
The embodiments disclosed herein are illustrative in all respects and should not be considered as restrictive. The scope of the present invention is defined by the terms of the claims, rather than the meaning described above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

10 情報処理システム
20 ロボット
201 胴体部
202 頭部
21 CPU
22 主記憶装置
23 補助記憶装置
24 第3通信部
241 第3送信部
242 第3受信部
25 発光部
251 第1発光部
252 第2発光部
26 スイッチ
27 脚部
28 第2充電端子
29 コネクタ
31 マイク
32 スピーカ
33 センサ
330 センサI/F
331 人感センサ
332 タッチセンサ
333 ジャイロセンサ
34 アクチュエータ
340 アクチュエータI/F
341 磁石
342 コイル
343 回動軸
344 ストッパ
35 チェーン孔
36 充電台
361 凹部
362 脚入部
38 第1充電端子
39 コネクタ
40 情報処理装置
41 CPU
42 主記憶装置
43 補助記憶装置
44 第2通信部
441 第2送信部
442 第2受信部
45 タッチパネル
451 表示部
452 入力部
46 第1通信部
461 第1送信部
462 第1受信部
47 表示装置
48 2次元バーコード
49 カメラ
50 サーバ
51 CPU
52 主記憶装置
53 補助記憶装置
54 第4通信部
541 情報送信部
542 情報受信部
60 スマートフォン
61 履歴DB
62 会話ログDB
63 ボットDB
69 クーポン使用ボタン
71 場所欄
721 始期欄
722 終期欄
731 年齢分布グラフ欄
732 人数グラフ欄
733 時間グラフ欄
90 コンピュータ
95 読取部
96 可搬型記録媒体
97 プログラム
98 半導体メモリ
DESCRIPTION OF SYMBOLS 10 Information processing system 20 Robot 201 Torso part 202 Head 21 CPU
22 Main storage device 23 Auxiliary storage device 24 3rd communication part 241 3rd transmission part 242 3rd reception part 25 Light emission part 251 1st light emission part 252 2nd light emission part 26 Switch 27 Leg part 28 2nd charging terminal 29 Connector 31 Microphone 32 Speaker 33 Sensor 330 Sensor I / F
331 Human sensor 332 Touch sensor 333 Gyro sensor 34 Actuator 340 Actuator I / F
341 Magnet 342 Coil 343 Rotating shaft 344 Stopper 35 Chain hole 36 Charging stand 361 Recess 362 Leg insertion part 38 First charging terminal 39 Connector 40 Information processing device 41 CPU
42 Main storage device 43 Auxiliary storage device 44 Second communication unit 441 Second transmission unit 442 Second reception unit
45 touch panel 451 display unit 452 input unit 46 first communication unit 461 first transmission unit 462 first reception unit 47 display device 48 two-dimensional barcode 49 camera 50 server 51 CPU
52 Main storage device 53 Auxiliary storage device 54 4th communication part 541 Information transmission part 542 Information reception part 60 Smartphone 61 History DB
62 Conversation log DB
63 Bot DB
69 Coupon use button 71 Location column 721 Start column 722 End column 731 Age distribution graph column 732 Number of people graph column 733 Time graph column
DESCRIPTION OF SYMBOLS 90 Computer 95 Reading part 96 Portable recording medium 97 Program 98 Semiconductor memory

Claims (10)

ロボットと、情報処理装置とを備える情報処理システムにおいて、
前記情報処理装置は、
カメラと、
前記カメラが撮影した画像に関するデータをネットワークに送信する第1送信部と、
前記第1送信部から送信された前記画像に関するデータに基づいて作成された応答データを受信する第1受信部と、
前記第1受信部が受信した応答データに基づいて音声データを前記ロボットに送信する第2送信部と
を備え、
前記ロボットは、
前記第2送信部が送信した音声データを受信する第3受信部と、
前記第3受信部が受信した音声データに基づく音声を出力するスピーカと
を備える情報処理システム。
In an information processing system comprising a robot and an information processing device,
The information processing apparatus includes:
A camera,
A first transmitter for transmitting data relating to an image captured by the camera to a network;
A first receiver for receiving response data created based on the data related to the image transmitted from the first transmitter;
A second transmitter for transmitting voice data to the robot based on the response data received by the first receiver;
The robot is
A third receiver for receiving the audio data transmitted by the second transmitter;
An information processing system comprising: a speaker that outputs sound based on the sound data received by the third receiving unit.
前記ロボットは、
マイクと、
前記マイクが取得した音声データを前記情報処理装置に送信する第3送信部と
を備え、
前記情報処理装置は、
前記第3送信部から送信された音声データを受信する第2受信部を備え、
前記第1送信部は、
前記第2受信部が受信した前記音声データに関するデータ、および、前記画像に関するデータをネットワークに送信する
請求項1に記載の情報処理システム。
The robot is
With a microphone,
A third transmitter that transmits the audio data acquired by the microphone to the information processing device;
The information processing apparatus includes:
A second receiver for receiving the audio data transmitted from the third transmitter;
The first transmitter is
The information processing system according to claim 1, wherein the data related to the audio data and the data related to the image received by the second receiving unit are transmitted to a network.
前記ロボットは、
ユーザの接近または接触を検出するセンサを備え、
前記第3送信部は、前記センサがユーザの接近または接触を検出した場合、前記情報処理装置に検出結果を送信し、
前記第1送信部は、前記検出結果をネットワークに送信する
請求項2に記載の情報処理システム。
The robot is
It has a sensor that detects the approach or contact of the user,
The third transmission unit transmits a detection result to the information processing device when the sensor detects an approach or contact of a user,
The information processing system according to claim 2, wherein the first transmission unit transmits the detection result to a network.
ネットワークを介して前記情報処理装置に接続されたサーバを備え、
前記情報処理装置または前記サーバは、
前記画像に関するデータに基づいてユーザの属性を推定する属性推定部を備え、
前記サーバは、
前記属性推定部が推定した属性に基づいてチャットボットを選択するボット選択部と、
前記ボット選択部が選択したチャットボットにより作成された前記応答データを送信する情報送信部と
を備える
請求項2または請求項3に記載の情報処理システム。
A server connected to the information processing apparatus via a network;
The information processing apparatus or the server is
An attribute estimation unit that estimates user attributes based on the data related to the image;
The server
A bot selection unit that selects a chat bot based on the attribute estimated by the attribute estimation unit;
The information processing system according to claim 2, further comprising: an information transmission unit configured to transmit the response data created by the chat bot selected by the bot selection unit.
前記属性と、前記応答データと、前記ロボットによる前記音声の出力に対するユーザの反応とを関連づけて記録するログ記録部を備える
請求項4に記載の情報処理システム。
The information processing system according to claim 4, further comprising: a log recording unit that records the attribute, the response data, and a user response to the voice output by the robot in association with each other.
前記情報処理装置は、前記応答データに基づいて映像を表示する表示装置を備え、
前記ロボットは、前記表示装置よりも小さい
請求項1から請求項5のいずれか一つに記載の情報処理システム。
The information processing apparatus includes a display device that displays an image based on the response data,
The information processing system according to any one of claims 1 to 5, wherein the robot is smaller than the display device.
前記ロボットは、柱状の胴体部と、前記胴体部の一方の端面に配置された頭部とを備え、
前記頭部は、前記胴体部に対して該胴体部の中心軸まわりに回動する
請求項1から請求項6のいずれか一つに記載の情報処理システム。
The robot includes a columnar body part and a head disposed on one end surface of the body part,
The information processing system according to any one of claims 1 to 6, wherein the head is rotated about a central axis of the body part with respect to the body part.
前記ロボットの外装の一部に対応する凹部と、
該凹部に設けられた第1充電端子と、
を備える板状の充電台を備え、
前記ロボットは、前記第1充電端子に対応する第2充電端子を備える
請求項1から請求項7のいずれか一つに記載の情報処理システム。
A recess corresponding to a part of the exterior of the robot;
A first charging terminal provided in the recess;
Equipped with a plate-shaped charging stand,
The information processing system according to any one of claims 1 to 7, wherein the robot includes a second charging terminal corresponding to the first charging terminal.
前記ロボットは、盗難防止チェーン用のチェーン孔を有する
請求項1から請求項8のいずれか一つに記載の情報処理システム。
The information processing system according to any one of claims 1 to 8, wherein the robot has a chain hole for an anti-theft chain.
カメラおよび表示部を有するタブレットと、前記タブレットの表示部の短辺の長さよりも短い身長を有するロボットとを近接させて配置し、
前記カメラでユーザを撮影し、
撮影した画像に関するデータを前記タブレットからネットワークに送信し、
送信した前記データに基づいて作成された応答データを前記タブレットで受信し、
受信した応答データに基づく映像を前記表示部に表示し、
受信した応答データに基づく音声データを前記タブレットから前記ロボットに送信し、
送信した音声データを前記ロボットで受信し、
受信した音声データに基づく音声を前記ロボットに内蔵するスピーカから出力する
情報処理方法。
A tablet having a camera and a display unit and a robot having a height shorter than the length of the short side of the display unit of the tablet are arranged close to each other,
Photograph the user with the camera,
Send data about the captured image from the tablet to the network,
The response data created based on the transmitted data is received by the tablet,
Display the video based on the received response data on the display unit,
Transmitting voice data based on the received response data from the tablet to the robot;
The transmitted voice data is received by the robot,
An information processing method for outputting sound based on received sound data from a speaker built in the robot.
JP2018094827A 2018-05-16 2018-05-16 Information processing system and information processing method Pending JP2019200607A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018094827A JP2019200607A (en) 2018-05-16 2018-05-16 Information processing system and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018094827A JP2019200607A (en) 2018-05-16 2018-05-16 Information processing system and information processing method

Publications (1)

Publication Number Publication Date
JP2019200607A true JP2019200607A (en) 2019-11-21

Family

ID=68612522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018094827A Pending JP2019200607A (en) 2018-05-16 2018-05-16 Information processing system and information processing method

Country Status (1)

Country Link
JP (1) JP2019200607A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116596549A (en) * 2023-07-14 2023-08-15 山东交控科技有限公司 Question-answer response management method and system for rail transit customer service robot
WO2023207258A1 (en) * 2023-02-08 2023-11-02 中南大学湘雅医院 Interactive emotional robot suitable for elderly people

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023207258A1 (en) * 2023-02-08 2023-11-02 中南大学湘雅医院 Interactive emotional robot suitable for elderly people
CN116596549A (en) * 2023-07-14 2023-08-15 山东交控科技有限公司 Question-answer response management method and system for rail transit customer service robot
CN116596549B (en) * 2023-07-14 2023-10-20 山东交控科技有限公司 Question-answer response management method and system for rail transit customer service robot

Similar Documents

Publication Publication Date Title
US11241789B2 (en) Data processing method for care-giving robot and apparatus
US10360907B2 (en) Smart necklace with stereo vision and onboard processing
US10702991B2 (en) Apparatus, robot, method and recording medium having program recorded thereon
JP2021170341A (en) Method and system for generating detailed dataset of environment through gameplay
CN109091869A (en) Method of controlling operation, device, computer equipment and the storage medium of virtual objects
WO2003095050A2 (en) Method and system for interacting with simulated phenomena
CN103369303A (en) Motion behavior analysis recording and reproducing system and method
CN210155626U (en) Information processing apparatus
KR20190014108A (en) System and method for augmented and virtual reality
US11755111B2 (en) Spatially aware computing hub and environment
KR20200076169A (en) Electronic device for recommending a play content and operating method thereof
US20230185364A1 (en) Spatially Aware Computing Hub and Environment
CN109891357A (en) Emotion intelligently accompanies device
KR20190075416A (en) Digital agent embedded mobile manipulator and method of operating thereof
JP2019200607A (en) Information processing system and information processing method
JP2023120130A (en) Conversation-type ai platform using extraction question response
KR20200076626A (en) Method and system for providing teaching contents based on augmented reality
US20210397245A1 (en) Information processing system, display method, and computer program
KR20180082777A (en) Communion robot system for senior citizen
CN207571782U (en) A kind of chat robots
US20150273321A1 (en) Interactive Module
JP6884854B2 (en) Audio providing device, audio providing method and program
CN106730876A (en) The control system of Intelligent doll
KR100563193B1 (en) Signal transformation method and guidance system providing auditory and tactile indoor/outdoor traveling information for the blind
KR102072175B1 (en) Smart character toy embedded artificiall intelligence function

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20180611