JP2018001387A - Robot, program, robot system, and server - Google Patents

Robot, program, robot system, and server Download PDF

Info

Publication number
JP2018001387A
JP2018001387A JP2016135919A JP2016135919A JP2018001387A JP 2018001387 A JP2018001387 A JP 2018001387A JP 2016135919 A JP2016135919 A JP 2016135919A JP 2016135919 A JP2016135919 A JP 2016135919A JP 2018001387 A JP2018001387 A JP 2018001387A
Authority
JP
Japan
Prior art keywords
robot
user
log
response
analyzed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016135919A
Other languages
Japanese (ja)
Inventor
義博 中橋
Yoshihiro Nakahashi
義博 中橋
貴史 鹿田
Takashi Shikata
貴史 鹿田
尋満 山内
Hiromitsu Yamauchi
尋満 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robot Start Inc
Original Assignee
Robot Start Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robot Start Inc filed Critical Robot Start Inc
Priority to JP2016135919A priority Critical patent/JP2018001387A/en
Publication of JP2018001387A publication Critical patent/JP2018001387A/en
Pending legal-status Critical Current

Links

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology that can collect logs of user's action to a robot and robot's reaction to the user's action.SOLUTION: The invention relates to a robot having log obtaining means which obtains a user log of a user which is detected by a sensor provided at a robot and analyzed and a response log of robot's responses performed by the robot to the user.SELECTED DRAWING: Figure 1

Description

本発明は、ロボット、プログラム、ロボットシステム及びサーバに関する。   The present invention relates to a robot, a program, a robot system, and a server.

近年、人とコミュニケーションを図るロボット(例えば、人型ロボット)があり、特に、ロボットが自然なコミュニケーションを行える研究が盛んである。   In recent years, there are robots (for example, humanoid robots) that communicate with people, and research that allows robots to perform natural communication is particularly active.

しかしながら、実際にロボットが出荷され、ユーザがどのようにロボットに接しているかの情報を収集できていないのが実情である。例えば、ロボットに対して、ユーザが話しかける言葉はどのような言葉が多いのか、また、そのユーザの言葉に対してロボットは自然なリアクションを行っているのか等の情報を収集する手段がなかった。   However, the actual situation is that the robot is actually shipped, and information on how the user is in contact with the robot cannot be collected. For example, there is no means for collecting information such as what kind of words the user speaks to the robot, and whether the robot is performing natural reactions to the user's words.

その結果、ユーザのロボットに対するアクションに対するロボットのリアクションを適切に行うように改善することが行われていなかった。   As a result, no improvement has been made to appropriately perform the robot reaction to the user's action on the robot.

例えば、ある人的な調査結果では、ユーザがロボットに話しかける言葉の中で最も多い言葉は「握手して」であった。しかし、ロボットを開発する側は、その「握手して」が一番多い言葉であることを入手する方法がなく、仮に、「握手して」が一番多い言葉であることの情報が得られれば、ロボットを開発する側は、ロボットが握手することができるアプリや、その代価としてのロボットの返答等の対応を行うことができるはずである。   For example, according to a human survey, the most common word spoken by the user to the robot was “shake hands”. However, there is no way for the robot development side to obtain that “shake hands” is the most common word, and it is possible to obtain information that “shake hands” is the most common word. For example, the robot developer should be able to deal with apps that can be shaken by the robot and robot responses as a price.

そこで、本発明は、ユーザのロボットに対するアクションと、これに対するロボットのリアクションのログを収集することができる技術を提供することにある。   SUMMARY OF THE INVENTION The present invention provides a technique that can collect a user's action on a robot and a reaction log of the robot.

本発明の一態様は、ロボットに設けられたセンサにより検出されて解析されたユーザのユーザログと、前記ユーザに対して前記ロボットがユーザに対して行ったロボットのレスポンスのレスポンスログとを取得するログ取得手段を有するロボットである。   One embodiment of the present invention acquires a user log of a user detected and analyzed by a sensor provided in the robot, and a response log of a response of the robot performed by the robot to the user. A robot having log acquisition means.

本発明の一態様は、ロボットに設けられたセンサにより検出されて解析されたユーザのユーザログと、前記ユーザに対して前記ロボットがユーザに対して行ったロボットのレスポンスのレスポンスログとを取得するログ取得処理をロボットに内蔵されたコンピュータに実行させるプログラムである。   One embodiment of the present invention acquires a user log of a user detected and analyzed by a sensor provided in the robot, and a response log of a response of the robot performed by the robot to the user. This program causes a computer built in the robot to execute log acquisition processing.

本発明の一態様は、ロボットに設けられたセンサにより検出されて解析されたユーザのユーザログと、前記ユーザに対して前記ロボットがユーザに対して行ったロボットのレスポンスのレスポンスログとを取得するログ取得手段を有するロボットと、前記ユーザログ及び前記レスポンスログを受信し、ロボットに関する統計情報を生成する統計情報生成部を有するサーバとを有するロボットシステムである。   One embodiment of the present invention acquires a user log of a user detected and analyzed by a sensor provided in the robot, and a response log of a response of the robot performed by the robot to the user. A robot system including a robot having a log acquisition unit and a server having a statistical information generation unit that receives the user log and the response log and generates statistical information about the robot.

本発明の一態様は、ロボットに設けられたセンサにより検出されて解析されたユーザのユーザログと、前記ユーザに対して前記ロボットがユーザに対して行ったロボットのレスポンスのレスポンスログとを受信し、ロボットに関する統計情報を生成する統計情報生成部を有するサーバである。   One embodiment of the present invention receives a user log of a user detected and analyzed by a sensor provided in the robot, and a response log of a response of the robot performed by the robot to the user. The server includes a statistical information generation unit that generates statistical information about the robot.

本発明によれば、ロボットユーザーの動向とこれに対してロボットがどのようなレスポンスをしたかのログが取れ、ロボットの改善を行うことができる。   According to the present invention, it is possible to log the trend of robot users and the response of the robot to the robot user, and improve the robot.

図1は第1の実施の形態の概略を説明するための図である。FIG. 1 is a diagram for explaining the outline of the first embodiment. 図2は第1の実施の形態におけるロボット1の具体的な構成を示す図である。FIG. 2 is a diagram showing a specific configuration of the robot 1 according to the first embodiment. 図3はログ記録部14に記憶されたユーザログ及びレスポンスログの一例を示す図である。FIG. 3 is a diagram illustrating an example of a user log and a response log stored in the log recording unit 14. 図4は第2の実施の形態のブロック図である。FIG. 4 is a block diagram of the second embodiment. 図5は蓄積されたログに基づいて、ログ統計部20が生成した統計的資料の一例を示す図である。FIG. 5 is a diagram illustrating an example of statistical material generated by the log statistics unit 20 based on the accumulated logs. 図6は蓄積されたログに基づいて、ログ統計部20が生成した統計的資料の一例を示す図である。FIG. 6 is a diagram illustrating an example of statistical material generated by the log statistics unit 20 based on the accumulated logs. 図7は蓄積されたログに基づいて、ログ統計部20が生成した統計的資料の一例を示す図である。FIG. 7 is a diagram illustrating an example of statistical material generated by the log statistics unit 20 based on the accumulated logs.

本発明の第1の実施の形態を説明する。   A first embodiment of the present invention will be described.

図1は、第1の実施の形態の概略を説明するための図である。   FIG. 1 is a diagram for explaining the outline of the first embodiment.

本実施の形態では、ロボット1に設けられた各種のセンサにより検出されて解析されたユーザA,Bのユーザログと、ロボット1がユーザA,Bに対して行ったロボットのレスポンスのレスポンスログとを取得するログ取得部を有するロボット1について説明する。   In the present embodiment, a user log of users A and B detected and analyzed by various sensors provided in the robot 1, and a response log of the response of the robot performed by the robot 1 to the users A and B A robot 1 having a log acquisition unit for acquiring the above will be described.

本実施の形態の概略を説明すると、ロボット1は、ロボット1に設けられた各種のセンサにより、ロボット1の周りにいる人間(図1中では、ユーザA,B)のログ(どのようなユーザが存在しているのか、ロボットにタッチしたとか等)を取得する。尚、以下の説明では、このようなロボットの各種センサから得られるユーザの動向に関する情報をユーザログと記載する。   The outline of the present embodiment will be described. The robot 1 uses a variety of sensors provided on the robot 1 to log (what user A and B in FIG. 1) the humans (users A and B) around the robot 1 have. Or the like, the robot touches the robot, etc.). In the following description, information relating to user trends obtained from various sensors of such a robot is referred to as a user log.

ロボット1に設けられるセンサの例としては、カメラ、マイク、バッテリセンサ、温度センサ、加速度センサ、タッチセンサ、動作エラー検出センサ等である。   Examples of sensors provided in the robot 1 include a camera, a microphone, a battery sensor, a temperature sensor, an acceleration sensor, a touch sensor, and an operation error detection sensor.

各種のセンサにより検出されて解析されたユーザのユーザログの例としては、センサがカメラである場合、カメラで撮影された画像から得られるユーザの情報であり、ロボットの視界に存在するユーザの有無や、ユーザにロボット1が見られていた時間の長さ(注視時間)、ロボットの周囲に存在するユーザの男女の比率や年代、ユーザの顔などの表情が得られるユーザの感情等である。また、センサがマイクである場合、マイクで集音された音声から解析されたユーザログの例としては、ユーザに話しかけられた言葉などである。また、センサがロボット1の各部(ロボットの頭の頂部や手、腕など)に設けられたタッチセンサである場合、センサが設けられている部位に対するタッチの記録である。   As an example of the user log of a user detected and analyzed by various sensors, if the sensor is a camera, it is user information obtained from an image captured by the camera, and whether there is a user present in the robot's field of view And the length of time (gazing time) during which the robot 1 was viewed by the user, the ratio and age of the users existing around the robot, the user's emotions that can be obtained such as facial expressions such as the user's face. When the sensor is a microphone, examples of the user log analyzed from the sound collected by the microphone include words spoken to the user. In addition, when the sensor is a touch sensor provided at each part of the robot 1 (the top of the robot, the hand, the arm, or the like), it is a record of a touch on a part where the sensor is provided.

ロボット1は、上記のような各種のセンサにより検出されて解析されたユーザログを取得する。   The robot 1 acquires user logs detected and analyzed by the various sensors as described above.

次に、ロボット1は、ユーザA,Bに対してロボット1が行ったリアクション又はレスポンスのレスポンスログを取得する。   Next, the robot 1 acquires a response log of a reaction or response performed by the robot 1 for the users A and B.

ここで、レスポンスログとは、ロボット1の周囲に存在するユーザに対する動作(頭を下げたり、腕を上げる、握手する等である)や、ユーザがロボット1に話しかけた言葉に対する返答、ユーザのロボット1へのタッチに対するリアクション(頭を下げたり、腕を上げる、握手する等である)等のユーザに対するロボットの動作のログである。また、そのレスポンスログには、ユーザに対してロボットが何もリアクションを取らなかったというレスポンスログも含まれる。尚、以下の説明では、このように、ユーザに対してロボット1が行ったロボット1のリアクション又はレスポンスの動作のログを、レスポンスログと記載する。   Here, the response log is an action for a user existing around the robot 1 (such as lowering his head, raising his arm, shaking hands, etc.), a response to a word spoken to the robot 1 by the user, a user's robot It is a log of the movement of the robot to the user such as a reaction to touching 1 (such as lowering his head, raising his arm, shaking hands, etc.). The response log also includes a response log indicating that the robot has not taken any reaction to the user. In the following description, a reaction log or a response operation of the robot 1 performed by the robot 1 with respect to the user is described as a response log.

このように取得されたユーザログ及びレスポンスログは、ロボット1内に記憶される。このとき、ログとして記憶される際に、ユーザがロボット1に対して行ったアクションのユーザログと、そのアクションに対するリアクション又はレスポンスのレスポンスログとを関連付けて記憶することが好ましい。   The user log and the response log acquired in this way are stored in the robot 1. At this time, when stored as a log, it is preferable to store a user log of an action performed by the user on the robot 1 and a response log of a reaction or response to the action in association with each other.

また、ロボット1に記憶されたユーザログ及びレスポンスログは、外部のサーバに定期的に報告するように構成しても良い。   In addition, the user log and response log stored in the robot 1 may be periodically reported to an external server.

続いて、第1の実施の形態におけるロボット1の具体的な構成を図2に示す。   Next, a specific configuration of the robot 1 in the first embodiment is shown in FIG.

図2中、ロボット1は、センサ10と、解析部11と、ロボット制御部12と、ログ取得部13と、ログ記録部14とを備える。   In FIG. 2, the robot 1 includes a sensor 10, an analysis unit 11, a robot control unit 12, a log acquisition unit 13, and a log recording unit 14.

センサ10は、各種センサであり、例えば、音声を集音するマイク101、ロボット1の周辺の画像を撮影するカメラ102、ロボット1の各部(ロボットの頭の頂部や手、腕など)に設けられたタッチセンサ103等である。これらの集音された音や、撮影された画像、タッチの検出(状態)は、センシング情報として解析部11に出力される。   The sensor 10 is a variety of sensors, and is provided in, for example, a microphone 101 that collects sound, a camera 102 that captures an image around the robot 1, and each part of the robot 1 (the top of the robot head, hands, arms, etc.). Touch sensor 103 or the like. These collected sounds, captured images, and touch detection (state) are output to the analysis unit 11 as sensing information.

解析部11は、センサ10からセンシング情報を受信する。そして、センシング情報を解析する。解析方法は、例えば、マイク101が集音した音声ならば、音声解析を行ってテキスト化する。カメラ102が撮影した画像ならば、その画像を解析して画像中のユーザの存在、存在するならば、そのユーザの性別、年齢、顔の表情等を解析する。ロボット1の各部(ロボットの頭の頂部や手、腕など)に設けられたタッチセンサ103が検出信号ならば、どこに設けられたタッチセンサが検出したか、また、そのタッチの強度等である。   The analysis unit 11 receives sensing information from the sensor 10. Then, the sensing information is analyzed. As an analysis method, for example, if the voice is collected by the microphone 101, the voice is analyzed and converted into text. If the image is taken by the camera 102, the image is analyzed to analyze the presence of the user in the image, and if present, the gender, age, facial expression, etc. of the user. If the touch sensor 103 provided in each part of the robot 1 (the top of the robot, the hand, the arm, etc.) is a detection signal, it indicates where the touch sensor provided is detected and the strength of the touch.

ロボット制御部12は、解析部11の解析結果を受けて、ロボットにレスポンス(動作制御)を行わせるものである。例えば、解析されたユーザの音声に対する返答を行ったり、画像解析によりユーザの存在が検出された場合に、そのユーザに対して声をかけたり、頭部を下げて挨拶する動作を行ったり、ロボットの頭の頂部や手、腕などに対するユーザのタッチに対して頭部を下げる、握手を行う等のレスポンスを行わせるものである。例えば、ロボット制御部12は、音声解析により、ユーザがロボットに対して「名前は?」と話しかけていると判定した場合、ユーザの「名前は?」に対するレスポンスとして「私はAAAです。」とロボットに返答させる。また、ロボット制御部12は、撮影画像の解析により、ロボット1の周囲にユーザが存在することが判明した場合、そのユーザに向けて「こんにちは」とロボットに発話させる。また、タッチセンサの検出信号が頭部をタッチされたことを示している場合、それに反応して、ロボット1の手を挙げる動作を行わせる等である。   The robot control unit 12 receives the analysis result of the analysis unit 11 and causes the robot to perform a response (operation control). For example, a response to the analyzed user's voice is performed, or when the presence of a user is detected by image analysis, a voice is given to the user, a head is lowered and a greeting is performed, a robot In response to a user's touch on the top of the head, hand, arm, etc., a response such as lowering the head or shaking hands is performed. For example, if the robot controller 12 determines by voice analysis that the user is speaking to the robot “What is your name?”, The response to the user ’s “What is your name?” Is “I am AAA.” Let the robot respond. The robot control unit 12, by analyzing the captured image, if it is found that the user is present around the robot 1, is spoken to the robot as a "Hello" towards its user. Further, when the detection signal of the touch sensor indicates that the head has been touched, an operation of raising the hand of the robot 1 is performed in response thereto.

ログ取得部13は、解析部11で解析された解析結果であるユーザログ及びロボット制御部12で行われたレスポンスのレスポンスログを取得し、ログ記録部14に記録する。その際、ユーザがロボット1に対して行ったアクションのユーザログと、そのアクションに対するリアクション又はレスポンスのレスポンスログとを関連付けてログ記録部14に記録する。例えば、ユーザログ“音声「名前は?」”とレスポンスログ”音声「私はAAAです。」”とを関連付けてログ記録部14に記録する。また、ユーザログ“タッチセンサ「頭部」”とレスポンスログ”動作「右手を挙げる」”とを関連付けてログ記録部14に記録する。このようにして、ログ取得部13は、ロボットのログを取得して記録する。   The log acquisition unit 13 acquires a user log that is an analysis result analyzed by the analysis unit 11 and a response log of a response performed by the robot control unit 12 and records the response log in the log recording unit 14. At that time, a user log of an action performed by the user on the robot 1 and a response log of a reaction or response to the action are associated and recorded in the log recording unit 14. For example, the user log “sound“ name? ”” And the response log “sound“ I am AAA ”are associated and recorded in the log recording unit 14. Also, the user log“ touch sensor “head” ”is recorded. The response log “operation“ lift right hand ”” is associated and recorded in the log recording unit 14. In this way, the log acquisition unit 13 acquires and records the robot log.

図3は、ログ記録部14に記憶されたユーザログ及びレスポンスログの一例を示す図である。図3のログでは、ユーザがロボット1に対して行ったアクションのユーザログと、そのアクションに対するリアクション又はレスポンスのレスポンスログとが対応付けられて記憶されている。そして、ユーザログはユーザの動作等を検出したセンサの種類及びそのセンシング情報の解析結果が記録される。また、レスポンスログはロボット1のリアクション又はレスポンスの種類及びその内容が記録される。一例としては、ユーザログ「マイク:名前は?」と、レスポンスログ「音声:名前は?」とが対応付けられて記憶されている。また、ユーザログ「カメラ:ユーザ有」と、レスポンスログ「音声:こんにちは」とが対応付けられて記憶されている。また、ユーザログ「タッチセンサ:頭部」と、レスポンスログ「動作:右手を挙げる」とが対応付けられて記憶されている。また、ユーザログ「カメラ:ユーザ有」と、レスポンスログ「無:無」とが対応付けられて記憶されている。尚、このようなロボット1が何らかの検出を行ったにもかかわらず、ロボットが反応しなかった場合もレスポンスログ「無:無」として記録される。   FIG. 3 is a diagram illustrating an example of a user log and a response log stored in the log recording unit 14. In the log of FIG. 3, a user log of actions performed by the user on the robot 1 and a response log of reactions or responses to the actions are stored in association with each other. The user log records the type of sensor that detects the user's action and the analysis result of the sensing information. The response log records the type of reaction and response of the robot 1 and its contents. As an example, a user log “Mic: name?” And a response log “voice: name?” Are stored in association with each other. In addition, the user log: "The camera user presence", the response log "voice: Hello" and are stored in association with each other. Further, a user log “touch sensor: head” and a response log “operation: raise right hand” are stored in association with each other. Further, the user log “camera: user present” and the response log “none: none” are stored in association with each other. It should be noted that even when the robot 1 has made some detection and the robot does not react, the response log is recorded as “none”.

ログ記録部14に蓄積されたユーザログ及びレスポンスログは、外部から要求により読み出すことができ、そのログにより、ロボットの改善を行うことができる。   The user log and the response log accumulated in the log recording unit 14 can be read out by a request from the outside, and the robot can be improved by using the log.

本発明の第2の実施の形態を説明する。   A second embodiment of the present invention will be described.

本発明の第2の実施の形態は、ロボット1に記憶されたログを、予め定められた間隔で、外部のサーバ2に報告する例を説明する。図4は第2の実施の形態のブロック図である。   In the second embodiment of the present invention, an example will be described in which a log stored in the robot 1 is reported to an external server 2 at predetermined intervals. FIG. 4 is a block diagram of the second embodiment.

ロボット1は、ログ記録部14に記録されたログを、サーバ2に送信するログ送信部15を有する。ログ送信部15は、予め定められ間隔で、ログ記録部14からユーザログ及びレスポンスログを読み出し、サーバ2に送信する。   The robot 1 includes a log transmission unit 15 that transmits the log recorded in the log recording unit 14 to the server 2. The log transmission unit 15 reads the user log and the response log from the log recording unit 14 at predetermined intervals and transmits them to the server 2.

サーバ2は、ログ送信部15からユーザログ及びレスポンスログを受信し、ユーザの求めに応じてそのユーザログ及びレスポンスログの統計情報を生成し、外部の出力部3に出力するログ統計部20を有する。尚、出力部3は、例えば、ディスプレイ、プリンターに限られず、スマートフォンのような端末でも良い。   The server 2 receives the user log and the response log from the log transmission unit 15, generates the statistical information of the user log and the response log according to the user's request, and outputs the log statistical unit 20 that outputs to the external output unit 3 Have. The output unit 3 is not limited to a display and a printer, for example, and may be a terminal such as a smartphone.

ログ統計部20は、受信したユーザログ及びレスポンスログを蓄積し、日時毎や週毎、又は、性別、年代、感情等のカテゴリー毎に統計的な資料を作成する。   The log statistics unit 20 accumulates the received user logs and response logs, and creates statistical materials for each date and time, week, or category such as gender, age, and emotion.

図5、6、7は、蓄積されたログに基づいて、ログ統計部20が生成した統計的資料の一例である。図5は画像解析によるユーザの感情、性別、年代、注視時間のヒストグラムであり、図6はユーザの感情、性別、年代、注視時間の時間的な変化を示した図であり、図7はユーザの感情、性別、年代、注視時間の日ごとの割合を示した図である。   5, 6, and 7 are examples of statistical data generated by the log statistics unit 20 based on the accumulated logs. FIG. 5 is a histogram of user emotion, gender, age, and gaze time based on image analysis, FIG. 6 is a diagram showing temporal changes in user emotion, gender, age, gaze time, and FIG. It is the figure which showed the ratio for every day of feeling, sex, age, and gaze time.

このように、ユーザログ及びレスポンスログを蓄積し、それから得られる統計資料により、ロボットの改善を行うことが出来る。   In this way, the user log and the response log are accumulated, and the robot can be improved by the statistical data obtained therefrom.

尚、上述した実施の形態では、各部をハードウェアで構成したが、上述した動作の処理を情報処理装置(CPU)に行わせるプログラムによっても構成できる。   In the above-described embodiment, each unit is configured by hardware, but may be configured by a program that causes the information processing apparatus (CPU) to perform the above-described operation processing.

以上好ましい実施の形態をあげて本発明を説明したが、本発明は必ずしも上記実施の形態に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。   Although the present invention has been described with reference to the preferred embodiments, the present invention is not necessarily limited to the above-described embodiments, and various modifications can be made within the scope of the technical idea.

1 ロボット
2 サーバ
3 出力部
10 センサ
11 解析部
12 ロボット制御部
13 ログ取得部
14 ログ記録部
15 ログ送信部
20 ログ統計部
DESCRIPTION OF SYMBOLS 1 Robot 2 Server 3 Output part 10 Sensor 11 Analysis part 12 Robot control part 13 Log acquisition part 14 Log recording part 15 Log transmission part 20 Log statistics part

Claims (10)

ロボットに設けられたセンサにより検出されて解析されたユーザのユーザログと、前記ユーザに対して前記ロボットがユーザに対して行ったロボットのレスポンスのレスポンスログとを取得するログ取得手段を有するロボット。   A robot having log acquisition means for acquiring a user log of a user detected and analyzed by a sensor provided in the robot and a response log of a response of the robot performed by the robot to the user. 前記ログ取得手段が取得したユーザログ及びレスポンスログを、サーバに送信するログ送信手段を有する請求項1に記載のロボット。   The robot according to claim 1, further comprising: a log transmission unit that transmits a user log and a response log acquired by the log acquisition unit to a server. 前記ユーザログは、センサにより取得して解析された、前記ロボットの周囲に存在するユーザの有無、ユーザの前記ロボットへの注視の有無、ユーザの性別、年代、感情、ユーザのロボットに対する発話、ユーザのロボットに対する接触の少なくともいずれかである
請求項1又は請求項2に記載のロボット。
The user log is obtained by a sensor and analyzed, whether there is a user around the robot, whether the user is gazing at the robot, the user's gender, age, emotion, user's utterance to the robot, user The robot according to claim 1, wherein the robot is at least one of contacts with the robot.
前記レスポンスログは、ロボットのユーザに対する発話、動作の少なくともいずれかである
請求項1から請求項3のいずれかに記載のロボット。
The robot according to any one of claims 1 to 3, wherein the response log is at least one of an utterance and an action for a user of the robot.
ロボットに設けられたセンサにより検出されて解析されたユーザのユーザログと、前記ユーザに対して前記ロボットがユーザに対して行ったロボットのレスポンスのレスポンスログとを取得するログ取得処理をロボットに内蔵されたコンピュータに実行させるプログラム。   Built-in log acquisition processing for acquiring a user log of a user detected and analyzed by a sensor provided in the robot and a response log of a response of the robot performed by the robot to the user. Program to be executed on a designated computer. 前記取得したユーザログ及びレスポンスログを、サーバに送信するログ送信処理を、ロボットに内蔵されたコンピュータに実行させる請求項5に記載のプログラム。   The program according to claim 5, which causes a computer built in the robot to execute log transmission processing for transmitting the acquired user log and response log to a server. 前記ユーザログは、センサにより取得して解析された、前記ロボットの周囲に存在するユーザの有無、ユーザの前記ロボットへの注視の有無、ユーザの性別、年代、感情、ユーザのロボットに対する発話、ユーザのロボットに対する接触の少なくともいずれかである
請求項5又は請求項6に記載のプログラム。
The user log is obtained by a sensor and analyzed, whether there is a user around the robot, whether the user is gazing at the robot, the user's gender, age, emotion, user's utterance to the robot, user The program according to claim 5, wherein the program is at least one of contact with the robot.
前記レスポンスログは、ロボットのユーザに対する発話、動作の少なくともいずれかである
請求項5から請求項7のいずれかに記載のプログラム。
The program according to any one of claims 5 to 7, wherein the response log is at least one of an utterance and an action for a robot user.
ロボットに設けられたセンサにより検出されて解析されたユーザのユーザログと、前記ユーザに対して前記ロボットがユーザに対して行ったロボットのレスポンスのレスポンスログとを取得するログ取得手段を有するロボットと、
前記ユーザログ及び前記レスポンスログを受信し、ロボットに関する統計情報を生成する統計情報生成部を有するサーバと
を有するロボットシステム。
A robot having log acquisition means for acquiring a user log of a user detected and analyzed by a sensor provided in the robot, and a response log of a response of the robot performed by the robot to the user with respect to the user; ,
A robot system comprising: a server having a statistical information generation unit that receives the user log and the response log and generates statistical information about the robot.
ロボットに設けられたセンサにより検出されて解析されたユーザのユーザログと、前記ユーザに対して前記ロボットがユーザに対して行ったロボットのレスポンスのレスポンスログとを受信し、ロボットに関する統計情報を生成する統計情報生成部を有するサーバ。   A user log of a user detected and analyzed by a sensor provided in the robot and a response log of the response of the robot performed by the robot to the user are received by the user, and statistical information about the robot is generated. A server having a statistical information generation unit.
JP2016135919A 2016-07-08 2016-07-08 Robot, program, robot system, and server Pending JP2018001387A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016135919A JP2018001387A (en) 2016-07-08 2016-07-08 Robot, program, robot system, and server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016135919A JP2018001387A (en) 2016-07-08 2016-07-08 Robot, program, robot system, and server

Publications (1)

Publication Number Publication Date
JP2018001387A true JP2018001387A (en) 2018-01-11

Family

ID=60945613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016135919A Pending JP2018001387A (en) 2016-07-08 2016-07-08 Robot, program, robot system, and server

Country Status (1)

Country Link
JP (1) JP2018001387A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020032014A (en) * 2018-08-31 2020-03-05 Groove X株式会社 Autonomously acting robot recording daily life
JP7548621B2 (en) 2023-06-08 2024-09-10 Groove X株式会社 An autonomous robot that records daily life

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001277163A (en) * 2000-04-03 2001-10-09 Sony Corp Device and method for controlling robot
JP2009061547A (en) * 2007-09-06 2009-03-26 Olympus Corp Robot control system, robot, program, and information storage medium
JP2009131914A (en) * 2007-11-29 2009-06-18 Advanced Telecommunication Research Institute International Robot control system
JP2011115936A (en) * 2009-11-04 2011-06-16 Advanced Telecommunication Research Institute International Robot with tactile sense presentation
EP2933066A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Activity monitoring of a robot
JP2016071050A (en) * 2014-09-29 2016-05-09 シャープ株式会社 Voice interactive device, voice interactive system, terminal, voice interactive method, program for letting computer function as voice interactive device
JP2017514173A (en) * 2014-04-17 2017-06-01 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe Method and system for managing robot interaction

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001277163A (en) * 2000-04-03 2001-10-09 Sony Corp Device and method for controlling robot
JP2009061547A (en) * 2007-09-06 2009-03-26 Olympus Corp Robot control system, robot, program, and information storage medium
JP2009131914A (en) * 2007-11-29 2009-06-18 Advanced Telecommunication Research Institute International Robot control system
JP2011115936A (en) * 2009-11-04 2011-06-16 Advanced Telecommunication Research Institute International Robot with tactile sense presentation
EP2933066A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Activity monitoring of a robot
JP2017514173A (en) * 2014-04-17 2017-06-01 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe Method and system for managing robot interaction
JP2016071050A (en) * 2014-09-29 2016-05-09 シャープ株式会社 Voice interactive device, voice interactive system, terminal, voice interactive method, program for letting computer function as voice interactive device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020032014A (en) * 2018-08-31 2020-03-05 Groove X株式会社 Autonomously acting robot recording daily life
JP7298861B2 (en) 2018-08-31 2023-06-27 Groove X株式会社 Autonomous robot that records daily life
JP7548621B2 (en) 2023-06-08 2024-09-10 Groove X株式会社 An autonomous robot that records daily life

Similar Documents

Publication Publication Date Title
KR101753509B1 (en) Identifying people that are proximate to a mobile device user via social graphs, speech models, and user context
US20110201899A1 (en) Systems for inducing change in a human physiological characteristic
JP2012040655A (en) Method for controlling robot, program, and robot
US11751813B2 (en) System, method and computer program product for detecting a mobile phone user's risky medical condition
JP2012230535A (en) Electronic apparatus and control program for electronic apparatus
US20190212818A1 (en) Apparatus, methods, and systems for using imagined direction to define actions, functions, or execution
KR20210006419A (en) Generating and storing health-related information
US20220391697A1 (en) Machine-learning based gesture recognition with framework for adding user-customized gestures
US20210151154A1 (en) Method for personalized social robot interaction
KR102552220B1 (en) Contents providing method, system and computer program for performing adaptable diagnosis and treatment for mental health
US20210216589A1 (en) Information processing apparatus, information processing method, program, and dialog system
JP2019051129A (en) Deglutition function analysis system and program
WO2016206646A1 (en) Method and system for urging machine device to generate action
JP6798258B2 (en) Generation program, generation device, control program, control method, robot device and call system
JP2019197509A (en) Nursing-care robot, nursing-care robot control method and nursing-care robot control program
JP2018001387A (en) Robot, program, robot system, and server
JP2012230534A (en) Electronic apparatus and control program for electronic apparatus
KR102423257B1 (en) Supporting system for service about processing record data of dementia patient
KR20230154380A (en) System and method for providing heath-care services fitting to emotion states of users by behavioral and speaking patterns-based emotion recognition results
JP2020067562A (en) Device, program and method for determining action taking timing based on video of user's face
WO2024019702A1 (en) Obtaining biometric information of a user based on a ballistocardiogram signal obtained when a mobile computing device is held against the head of the user
WO2018061346A1 (en) Information processing device
KR102270637B1 (en) Method for analyzing pet behavior based on interaction with adoptees
JP7405357B2 (en) Elderly person monitoring system
JP2020201536A (en) Information processing apparatus, information processing system, and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200701

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210120