JP2018008316A - Learning type robot, learning type robot system, and program for learning type robot - Google Patents

Learning type robot, learning type robot system, and program for learning type robot Download PDF

Info

Publication number
JP2018008316A
JP2018008316A JP2014236808A JP2014236808A JP2018008316A JP 2018008316 A JP2018008316 A JP 2018008316A JP 2014236808 A JP2014236808 A JP 2014236808A JP 2014236808 A JP2014236808 A JP 2014236808A JP 2018008316 A JP2018008316 A JP 2018008316A
Authority
JP
Japan
Prior art keywords
learning
information
robot
unit
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014236808A
Other languages
Japanese (ja)
Inventor
信夫 大和
Nobuo Yamato
信夫 大和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vstone Co Ltd
Original Assignee
Vstone Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vstone Co Ltd filed Critical Vstone Co Ltd
Priority to JP2014236808A priority Critical patent/JP2018008316A/en
Priority to PCT/JP2015/082920 priority patent/WO2016080553A1/en
Publication of JP2018008316A publication Critical patent/JP2018008316A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N99/00Subject matter not provided for in other groups of this subclass

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a learning type robot capable of autonomously learning what action to execute according to information from outside, and performing mutual learning with another robot, a learning type robot system, and a program for the learning type robot.SOLUTION: A learning type robot 1 that learns what action to execute according information from outside includes an analysis part 40 for analyzing a content indicated by outside information which is the information from outside so that it contributes to the execution of the action of the learning type robot 1, and generating analysis result information, a learning unit 50 for learning what action the learning type robot 1 should execute according to the analysis result information, a determination part 60 for determining the action that the learning type robot 1 should execute according to a learning result by the learning unit 50, and an action control part 70 for controlling the action of the learning type robot 1 according to the result of the determination by the determination part 60.SELECTED DRAWING: Figure 1

Description

本発明は、学習型ロボット、学習型ロボットシステム、及び学習型ロボット用プログラムに関する。特に、本発明は、自律的に学習を実行する学習型ロボット、学習型ロボットシステム、及び学習型ロボット用プログラムに関する。   The present invention relates to a learning robot, a learning robot system, and a learning robot program. In particular, the present invention relates to a learning robot, a learning robot system, and a learning robot program that autonomously execute learning.

従来、自律的に動作可能なロボット装置であって、他の動作主体の動作を画像又は音声として入力する入力手段と、入力手段を介して入力された画像又は音声に応じて、他の動作主体の動作と同調したそれぞれ異なる動作を生成する複数の動作生成手段と、複数の動作生成手段によって生成された複数の動作のいずれか一以上の動作を統合して発現させる動作発現手段と、動作発現手段において統合する動作の数、又は複数の動作を統合する際の各動作の割合を制御する制御手段とを備えるロボット装置が知られている(例えば、特許文献1参照。)。特許文献1に記載のロボット装置によれば、ユーザー等の他の動作主体の動作に柔軟に対応し、その動作と同調した動作ができる。   2. Description of the Related Art Conventionally, a robot apparatus that can operate autonomously, and includes an input unit that inputs an operation of another operation subject as an image or sound, and another operation subject according to an image or sound input via the input unit. A plurality of motion generation means for generating different motions in synchronism with the motion of the motion, a motion expression means for integrating and expressing one or more of the plurality of motions generated by the plurality of motion generation means, There is known a robot apparatus including a control means for controlling the number of actions to be integrated in the means or a ratio of each action when a plurality of actions are integrated (see, for example, Patent Document 1). According to the robot apparatus described in Patent Literature 1, it is possible to flexibly cope with the operation of another operation subject such as a user, and perform an operation synchronized with the operation.

特開2005−342873号公報JP 2005-342873 A

しかし、特許文献1に記載されているようなロボット装置においては、外部からの情報に同調することができたとしても、外部からの情報に応じていかなる動作をすべきかについて学習することはできない。また、特許文献1に記載されているようなロボット装置においては、複数のロボット間で相互に学習しあうことができない。   However, in the robot apparatus described in Patent Document 1, even if it is possible to synchronize with information from the outside, it is not possible to learn what operation should be performed according to the information from the outside. Moreover, in the robot apparatus as described in Patent Document 1, it is not possible to learn between a plurality of robots.

したがって、本発明の目的は、外部からの情報に応じていかなる動作をすべきかを自律的に学習できると共に、他のロボットと相互学習可能な学習型ロボット、学習型ロボットシステム、及び学習型ロボット用プログラムを提供することにある。   Accordingly, an object of the present invention is to provide a learning robot, a learning robot system, and a learning robot that can autonomously learn what operation should be performed according to information from the outside and can learn from other robots. To provide a program.

本発明は、上記目的を達成するため、外部からの情報に応じていかなる動作を実行するかを学習する学習型ロボットであって、外部からの情報である外部情報が示す内容を、学習型ロボットの動作の実行に資するように解析して解析結果情報を生成する解析部と、解析結果情報に応じ、学習型ロボットがいかなる動作を実行するかを学習する学習ユニットと、学習ユニットの学習結果に応じ、学習型ロボットが実行すべき動作を判断する判断部と、判断部の判断結果に応じ、学習型ロボットの動作を制御する動作制御部とを備える学習型ロボットが提供される。   In order to achieve the above object, the present invention is a learning type robot that learns what operation is performed according to information from the outside, and the contents indicated by the external information, which is information from the outside, The analysis unit generates analysis result information by analyzing so as to contribute to the execution of the operation, the learning unit that learns what operation the learning robot performs according to the analysis result information, and the learning result of the learning unit Accordingly, a learning type robot is provided that includes a determination unit that determines an operation to be performed by the learning type robot, and an operation control unit that controls the operation of the learning type robot according to the determination result of the determination unit.

また、上記学習型ロボットにおいて、学習ユニットの学習結果を示す学習結果情報を格納する情報格納部を更に備え、学習ユニットが、情報格納部に格納されている学習結果情報を、解析結果情報を用いて更新することもできる。   The learning robot further includes an information storage unit that stores learning result information indicating a learning result of the learning unit, and the learning unit uses the analysis result information as the learning result information stored in the information storage unit. Can also be updated.

また、上記学習型ロボットにおいて、解析部が、外部の学習型ロボット、通信端末、又は所定のデータを格納するデータベースから取得するデータが示す内容を解析することで解析結果情報を生成することもできる。   In the learning robot, the analysis unit can generate analysis result information by analyzing the content indicated by an external learning robot, a communication terminal, or data acquired from a database storing predetermined data. .

また、上記学習型ロボットにおいて、学習ユニットの学習結果に応じ、学習型ロボットの学習段階を示すレベルを決定するレベル決定部を更に備え、判断部が、レベルに応じ動作を変更することもできる。   The learning robot may further include a level determination unit that determines a level indicating a learning stage of the learning robot according to the learning result of the learning unit, and the determination unit may change the operation according to the level.

また、上記学習型ロボットにおいて、外部情報が、少なくとも学習型ロボットの動作の仕方を示す情報を規定するプログラムを含み、学習ユニットが、プログラムに応じ、学習型ロボットの動作を学習することもできる。   In the learning robot, the external information includes at least a program that defines information indicating how the learning robot operates, and the learning unit can learn the operation of the learning robot according to the program.

また、上記学習型ロボットにおいて、学習ユニットが、解析結果情報に応じ、学習型ロボットのユーザーの嗜好を示す嗜好情報を学習し、判断部が、嗜好情報に応じ、学習型ロボットに嗜好情報に関連する広告情報を出力すべきことを判断することもできる。   In the learning type robot, the learning unit learns the preference information indicating the user preference of the learning type robot according to the analysis result information, and the determination unit relates the preference information to the learning type robot according to the preference information. It can also be determined that the advertisement information to be output should be output.

また、上記学習型ロボットにおいて、学習ユニットが、解析結果情報に応じ、学習型ロボットのユーザーの嗜好を示す嗜好情報を学習し、判断部が、レベルと嗜好情報とに応じ、学習型ロボットに嗜好情報に関連する広告情報を出力すべきことを判断することもできる。   In the learning robot, the learning unit learns the preference information indicating the user's preference of the learning robot according to the analysis result information, and the determination unit likes the learning robot according to the level and the preference information. It can also be determined that advertisement information related to the information should be output.

また、上記学習型ロボットにおいて、解析結果情報が、学習型ロボットのユーザーの特徴を示すユーザー特徴情報を含み、学習ユニットが、ユーザー特徴情報から導き出されるユーザーの外観に関する情報である外観情報を生成し、判断部が、外観情報に応じ、学習型ロボットの外装を製造する外装製造装置が用いることができる学習型ロボットの外装を示す外装情報を決定することもできる。   Further, in the learning type robot, the analysis result information includes user characteristic information indicating the characteristics of the user of the learning type robot, and the learning unit generates appearance information that is information on the appearance of the user derived from the user characteristic information. The determination unit can determine exterior information indicating the exterior of the learning robot that can be used by the exterior manufacturing apparatus that manufactures the exterior of the learning robot according to the exterior information.

また、上記学習型ロボットにおいて、動作制御部が、ソーシャルネットワーキングサービスが提供する所定のフォームに判断結果から想定されるデータを自動的に入力することもできる。   In the learning robot, the operation control unit can automatically input data assumed from the determination result into a predetermined form provided by the social networking service.

また、上記学習型ロボットにおいて、ユーザーに知覚可能な形式、及びユーザーに知覚不能な形式で外部情報を他の学習型ロボットとやり取りすることもできる。   In the learning robot, external information can be exchanged with other learning robots in a form that can be perceived by the user and in a form that cannot be perceived by the user.

また、上記学習型ロボットにおいて、解析部が、外部情報を予め定められたカテゴリーに分類して解析結果情報を生成し、学習ユニットが、ユーザーに知覚不能な形式でやり取りされた外部情報を解析して生成されカテゴリーに分類された解析結果情報と、既に学習済みの結果との差分の情報を抽出し、動作制御部が、抽出された差分の情報を他の学習型ロボットにユーザーに知覚不能な形式で供給すると共に、差分の情報に基づいて動作を制御することもできる。   In the learning robot, the analysis unit classifies the external information into predetermined categories and generates analysis result information, and the learning unit analyzes the external information exchanged in a form that is not perceptible to the user. The difference information between the analysis result information generated and categorized into the category and the already learned result is extracted, and the motion control unit cannot perceive the extracted difference information to other learning robots. In addition to being supplied in a format, the operation can be controlled based on the difference information.

また、本発明は、上記目的を達成するため、外部の学習型ロボット、通信端末、又は所定のデータを格納するデータベースと、外部からの情報に応じていかなる動作を実行するかを学習する学習型ロボットとを備える学習型ロボットシステムであって、外部の学習型ロボット、通信端末、若しくはデータベースから取得するデータが示す内容、又は外部からの情報である外部情報が示す内容を、学習型ロボットの動作の実行に資するように解析して解析結果情報を生成する解析部と、解析結果情報に応じ、学習型ロボットがいかなる動作を実行するかを学習する学習ユニットと、学習ユニットの学習結果に応じ、学習型ロボットが実行すべき動作を判断する判断部と、判断部の判断結果に応じ、学習型ロボットの動作を制御する動作制御部とを備える学習型ロボットシステムが提供される。   In order to achieve the above object, the present invention provides an external learning robot, a communication terminal, or a database that stores predetermined data, and a learning type that learns what operation is performed according to information from the outside. A learning robot system including a robot, and the learning robot operation according to the content indicated by data acquired from an external learning robot, a communication terminal, or a database, or the content indicated by external information as external information An analysis unit that analyzes to contribute to the execution of the analysis and generates analysis result information, a learning unit that learns what operation the learning robot performs according to the analysis result information, and a learning result of the learning unit, A determination unit that determines an operation to be performed by the learning robot, and an operation control unit that controls the operation of the learning robot according to a determination result of the determination unit; Learning robot system comprising is provided.

また、上記学習型ロボットシステムにおいて、動作制御部が、外部の学習型ロボットに学習型ロボットの学習結果を示す情報を供給することで、外部の学習型ロボットを学習させることもできる。   In the learning type robot system, the operation control unit can also supply the external learning type robot with information indicating the learning result of the learning type robot, thereby learning the external learning type robot.

また、本発明は、上記目的を達成するため、外部からの情報に応じていかなる動作を実行するかを学習する学習型ロボットにおいて実行される学習型ロボット用プログラムであって、コンピューターに、外部からの情報である外部情報が示す内容を、学習型ロボットの動作の実行に資するように解析して解析結果情報を生成する解析機能と、解析結果情報に応じ、学習型ロボットがいかなる動作を実行するかを学習する学習機能と、学習機能における学習結果に応じ、学習型ロボットが実行すべき動作を判断する判断機能と、判断機能における判断結果に応じ、学習型ロボットの動作を制御する動作制御機能とを実現させる学習型ロボット用プログラムが提供される。   Further, the present invention is a learning robot program that is executed in a learning robot that learns what operation is executed in accordance with information from the outside in order to achieve the above object, The analysis function that generates the analysis result information by analyzing the content indicated by the external information that is the information of the learning type to contribute to the execution of the operation of the learning type robot, and what kind of operation the learning type robot performs according to the analysis result information A learning function that learns the learning, a judgment function that determines the action to be performed by the learning robot according to the learning result in the learning function, and an action control function that controls the action of the learning robot according to the judgment result in the judgment function A learning robot program that realizes the above is provided.

本発明に係る学習型ロボット、学習型ロボットシステム、及び学習型ロボット用プログラムによれば、外部からの情報に応じていかなる動作をすべきかを自律的に学習できると共に、他のロボットと相互学習可能な学習型ロボット、学習型ロボットシステム、及び学習型ロボット用プログラムを提供できる。   According to the learning type robot, the learning type robot system, and the learning type robot program according to the present invention, it is possible to autonomously learn what operation should be performed according to information from the outside, and to learn with other robots. Learning robot, learning robot system, and learning robot program can be provided.

本実施の形態に係る学習型ロボットの概要図である。It is a schematic diagram of the learning type robot concerning this embodiment. 本実施の形態に係る学習型ロボットの機能構成ブロック図である。It is a functional block diagram of the learning type robot which concerns on this Embodiment. 本実施の形態に係る外部情報取得部の機能構成ブロック図である。It is a functional block diagram of the external information acquisition part which concerns on this Embodiment. 本実施の形態に係る学習ユニットの機能構成ブロック図である。It is a functional block diagram of the learning unit which concerns on this Embodiment. 本実施の形態に係る出力部の機能構成ブロック図である。It is a functional block diagram of the output part which concerns on this Embodiment. 本実施の形態に係る学習型ロボットの外装を変化させる場合の概要図である。It is a schematic diagram in the case of changing the exterior of the learning robot according to the present embodiment. 本実施の形態に係る学習型ロボットシステムの概要図である。It is a schematic diagram of a learning type robot system concerning this embodiment. 本実施の形態に係る学習型ロボットが所定のソーシャルネットワーキングサービスの所定のフォームに情報を書き込む場合の概要図である。It is an outline figure in case a learning type robot concerning this embodiment writes information in a predetermined form of a predetermined social networking service. 本実施の形態に係る学習型ロボットのハードウェア構成図である。It is a hardware block diagram of the learning type robot which concerns on this Embodiment.

[実施の形態]
(学習型ロボット1の概要)
図1は、本発明の実施の形態に係る学習型ロボットの概要を示す。なお、図1の説明においては、説明を簡略化するため、2台の学習型ロボットと2台の通信端末とを例示するが、学習型ロボット及び/又は通信端末の台数はそれぞれ1台であっても、2台を超えてもよい。また、学習型ロボット1は、眼、耳、口等を有する頭部と、表示部等を前面に有する胴体部と、胴体部に接続される手足部とを有する。更に、複数の学習型ロボットはそれぞれ、略同一の機能及び構成を備える。
[Embodiment]
(Outline of learning robot 1)
FIG. 1 shows an outline of a learning robot according to an embodiment of the present invention. In the description of FIG. 1, two learning robots and two communication terminals are illustrated for the sake of simplicity, but the number of learning robots and / or communication terminals is one. Or it may exceed two. The learning robot 1 includes a head having eyes, ears, a mouth, and the like, a torso having a display unit and the like on the front, and limbs connected to the torso. Further, each of the plurality of learning robots has substantially the same function and configuration.

本実施の形態に係る学習型ロボット1は、外部からの情報に応じていかなる動作を実行するかを自律的に学習する。学習型ロボット1(若しくは学習型ロボット1a)は、学習型ロボット1単独で外部のデータベース4とのやり取りに基づいて学習すること、学習型ロボット1単独でユーザーとのやり取りに基づいて学習すること、学習型ロボット1と通信端末2とのやり取りに基づいて学習すること、及び/又は学習型ロボット1と他の学習型ロボットである学習型ロボット1aとのやり取りに基づいて学習することを自律的に実行する。   The learning robot 1 according to the present embodiment autonomously learns what operation is performed according to information from the outside. The learning type robot 1 (or learning type robot 1a) learns based on the exchange with the external database 4 by the learning type robot 1 alone, learns based on the exchange with the user by the learning type robot 1 alone, Learning autonomously based on the exchange between the learning type robot 1 and the communication terminal 2 and / or learning based on the exchange between the learning type robot 1 and the learning type robot 1a which is another learning type robot. Run.

例えば、学習型ロボット1は、学習型ロボット1の周囲環境(例えば、位置、時刻、温度、照度、及び/又は騒音等)に関する情報を取得して、取得した情報に関連する情報を外部のデータベース4から通信網5を介して取得することで、周囲環境に関する知識、及び/又は語彙等を学習できる。学習型ロボット1は、知識及び/又は語彙等を学習することで、学習型ロボット1の学習レベルを向上させ、学習前後で自己の動作を変化させる。なお、本実施の形態において学習レベルとは、学習型ロボット1において予め定められた動作を実行することができる水準である。当該水準は、複数、設定することができる。   For example, the learning type robot 1 acquires information related to the surrounding environment (for example, position, time, temperature, illuminance, and / or noise) of the learning type robot 1 and stores information related to the acquired information in an external database. By acquiring from 4 through the communication network 5, knowledge about the surrounding environment and / or vocabulary can be learned. The learning robot 1 learns knowledge and / or vocabulary and the like, thereby improving the learning level of the learning robot 1 and changing its own movement before and after learning. In the present embodiment, the learning level is a level at which the learning robot 1 can execute a predetermined operation. A plurality of such levels can be set.

また、学習型ロボット1は、予め格納していない情報に関する問いかけをユーザーに対して発する。例えば、学習型ロボット1は、音声情報取得部を有する。学習型ロボット1は、音声情報取得部が取得した音声を解析する。そして、学習型ロボット1は、解析した結果、当該音声が示す内容に関する情報を予め格納していない場合、ユーザーに対し、「この音はなに?」というような質問を発する。ユーザーは、当該質問に対する回答を学習型ロボット1に対して音声等で回答する。学習型ロボット1は、ユーザーの回答を音声等で取得した場合、取得した音声等を解析し、解析結果を格納することで当該質問に対する回答を学習する。   In addition, the learning robot 1 issues a question regarding information not stored in advance to the user. For example, the learning robot 1 has a voice information acquisition unit. The learning robot 1 analyzes the voice acquired by the voice information acquisition unit. Then, as a result of the analysis, the learning robot 1 issues a question such as “What is this sound?” To the user when information regarding the content indicated by the voice is not stored in advance. The user answers the question to the learning robot 1 by voice or the like. When the learning robot 1 acquires the user's answer by voice or the like, the learning robot 1 analyzes the acquired voice or the like and stores the analysis result to learn the answer to the question.

また、学習型ロボット1は、予め格納していない情報に関する問いかけを通信端末2に供給することもできる。ユーザーは、通信端末2を介して学習型ロボット1に対して当該問いかけに対する回答を供給する。学習型ロボット1は、通信端末2から受け取った回答を解析し、当該問いかけに対する回答を格納することで学習する。これにより学習型ロボット1は、予め格納していなかった情報に関する知識及び/又は語彙等を新たに格納することで、学習型ロボット1の学習レベルを向上させる。そして、学習型ロボット1は、学習前後で自己の動作を変化させる。   In addition, the learning robot 1 can supply the communication terminal 2 with questions about information that is not stored in advance. The user supplies an answer to the question to the learning robot 1 via the communication terminal 2. The learning robot 1 analyzes the answer received from the communication terminal 2 and learns by storing the answer to the question. As a result, the learning type robot 1 improves the learning level of the learning type robot 1 by newly storing knowledge and / or vocabulary regarding information that has not been stored in advance. The learning robot 1 changes its own movement before and after learning.

更に、学習型ロボット1は、他の学習型ロボット1aと情報のやり取りを実行することで、自己の学習レベルを向上させる。例えば、学習型ロボット1の学習のレベルが学習型ロボット1aの学習レベルより高い場合、学習型ロボット1は、学習型ロボット1aが格納していない情報(例えば、所定の知識、語彙、及び/又は所定の問題に対する回答等)を学習型ロボット1aに供給する。学習型ロボット1aは、学習型ロボット1から取得した情報を学習することで、自己の学習レベルを向上させることができる。これにより、学習型ロボット1aは、学習前後で自己の動作を変化させることができる。   Furthermore, the learning type robot 1 improves its own learning level by exchanging information with other learning type robots 1a. For example, when the learning level of the learning type robot 1 is higher than the learning level of the learning type robot 1a, the learning type robot 1 has information that is not stored in the learning type robot 1a (for example, predetermined knowledge, vocabulary, and / or An answer to a predetermined problem) is supplied to the learning robot 1a. The learning type robot 1a can improve its own learning level by learning information acquired from the learning type robot 1. Thereby, the learning type robot 1a can change its own movement before and after learning.

なお、通信端末2及び通信端末3は、携帯電話、タブレット、スマートフォン等の携帯情報端末、PC、ノートPC等の情報端末等である。また、通信網5は、携帯電話網、インターネット網等である。更に、学習型ロボット1と通信端末2との間の通信、及び学習型ロボット1と学習型ロボット1aとの間の通信は、有線LAN若しくは無線LAN、又はBluetooth(登録商標)等の近距離無線通信等により実行される。   The communication terminal 2 and the communication terminal 3 are mobile information terminals such as mobile phones, tablets, and smartphones, information terminals such as PCs and notebook PCs, and the like. The communication network 5 is a mobile phone network, an Internet network, or the like. Furthermore, the communication between the learning robot 1 and the communication terminal 2 and the communication between the learning robot 1 and the learning robot 1a are performed by a short distance wireless communication such as a wired LAN or a wireless LAN, or Bluetooth (registered trademark). It is executed by communication or the like.

また、学習型ロボット1は、頭部、胴体部、及び手足部の所定の箇所にアクチュエータ等の駆動部品を有する(図示しない)。学習型ロボット1は、駆動部品を動作させることで、頭部、胴体部、及び/又は手足部を動作させる。   The learning type robot 1 has driving parts such as an actuator (not shown) at predetermined locations on the head, the trunk, and the limbs. The learning robot 1 operates the head, the torso, and / or the limbs by operating the driving components.

(学習型ロボット1の詳細)
図2は、本発明の実施の形態に係る学習型ロボットの機能構成ブロックの一例を示す。また、図3は、本発明の実施の形態に係る外部情報取得部の機能構成ブロックの一例を示し、図4は、本発明の実施の形態に係る学習ユニットの機能構成ブロックの一例を示す。更に、図5は、本発明の実施の形態に係る出力部の機能構成ブロックの一例を示す。
(Details of learning robot 1)
FIG. 2 shows an example of functional configuration blocks of the learning robot according to the embodiment of the present invention. FIG. 3 illustrates an example of a functional configuration block of the external information acquisition unit according to the embodiment of the present invention, and FIG. 4 illustrates an example of a functional configuration block of the learning unit according to the embodiment of the present invention. FIG. 5 shows an example of a functional configuration block of the output unit according to the embodiment of the present invention.

本実施の形態に係る学習型ロボット1は、外部とデータを送受信する通信部10と、外部からデータを取得するデータ取得部20と、外部からの情報である外部情報を取得する外部情報取得部30と、データ及び外部情報を解析する解析部40と、解析部40の解析結果を用いて学習を実行する学習ユニット50と、学習ユニット50の学習の結果に応じて学習型ロボット1が実行すべき動作がいかなる動作であるかを判断する判断部60と、判断部60の判断結果に応じて学習型ロボット1の動作を制御する動作制御部70と、動作制御部70に制御され所定の情報等を出力する出力部80と、出力部80からの指示に応じて学習型ロボット1の所定の個所を駆動させる駆動部90とを備える。また、学習型ロボット1は、学習型ロボット1の学習レベルを決定するレベル決定部52と、レベル決定部52が決定した内容を格納するレベル情報格納部54と、学習ユニット50の学習結果を格納する情報格納部56とを更に備える。   The learning robot 1 according to the present embodiment includes a communication unit 10 that transmits / receives data to / from the outside, a data acquisition unit 20 that acquires data from the outside, and an external information acquisition unit that acquires external information that is information from the outside. 30, an analysis unit 40 that analyzes data and external information, a learning unit 50 that performs learning using the analysis result of the analysis unit 40, and the learning robot 1 executes according to the learning result of the learning unit 50 A determination unit 60 that determines what kind of operation should be performed, an operation control unit 70 that controls the operation of the learning robot 1 according to the determination result of the determination unit 60, and predetermined information controlled by the operation control unit 70 , And a drive unit 90 that drives a predetermined portion of the learning robot 1 in accordance with an instruction from the output unit 80. The learning robot 1 also stores a level determination unit 52 that determines the learning level of the learning robot 1, a level information storage unit 54 that stores the content determined by the level determination unit 52, and the learning result of the learning unit 50. And an information storage unit 56.

(通信部10)
通信部10は、外部とデータの送受信をする。具体的に、通信部10は、通信端末2及び/又は他の学習型ロボット1aからのデータを受信する。また、通信部10は、出力部80からの働きかけに応じ、通信端末2及び/又は他の学習型ロボット1aからデータを受信する。更に、通信部10は、通信網5を介し、外部のデータベースとデータの送受信をする。通信部10は、取得したデータをデータ取得部20に供給する。
(Communication unit 10)
The communication unit 10 transmits / receives data to / from the outside. Specifically, the communication unit 10 receives data from the communication terminal 2 and / or another learning robot 1a. Further, the communication unit 10 receives data from the communication terminal 2 and / or another learning type robot 1 a in response to the action from the output unit 80. Further, the communication unit 10 transmits / receives data to / from an external database via the communication network 5. The communication unit 10 supplies the acquired data to the data acquisition unit 20.

(データ取得部20)
データ取得部20は、通信端末2、他の学習型ロボット1a、及び/又は外部のデータベースからデータを取得する。データ取得部20は、取得したデータを解析部40に供給する。なお、本実施の形態においてデータとは、各種の知識、語彙、問題に対する回答、及びユーザーの嗜好に沿ったデータ等、並びに所定の広告に関する広告情報、学習型ロボット1において実行可能なプログラム、及び所定の店舗若しくは所定の店舗に設置されている他の学習型ロボットが発信するデータ(一例として、当該店舗において用いられるクーポンデータ)等の様々なデータを含む。また、データとしては、例えば、時刻の経過に応じて変動するデータ(例えば、株価情報、先物取引情報等)を挙げることもできる。
(Data acquisition unit 20)
The data acquisition unit 20 acquires data from the communication terminal 2, another learning robot 1a, and / or an external database. The data acquisition unit 20 supplies the acquired data to the analysis unit 40. In the present embodiment, the data refers to various knowledge, vocabulary, answers to problems, data according to user's preference, etc., advertisement information regarding a predetermined advertisement, a program executable in the learning robot 1, and Various data such as data (for example, coupon data used in the store) transmitted from a predetermined store or another learning robot installed in the predetermined store are included. Moreover, as data, the data (for example, stock price information, futures transaction information, etc.) which fluctuate | vary according to progress of time can also be mentioned, for example.

(外部情報取得部30)
外部情報取得部30は、学習型ロボット1の外部からの情報である外部情報を取得する。外部情報取得部30は、取得した外部情報を解析部40に供給する。本実施の形態において外部情報とは、学習型ロボット1が存在する位置を示す位置情報、現在時刻を示す時刻情報、外部環境の状態を示す環境情報、ユーザー等の音声を示す音声情報、周囲の画像を示す画像情報、及び/又は学習型ロボット1の表面に何らかの物体が接触したことを示す接触情報等を含む。また、環境情報とは、学習型ロボット1の周囲の温度を示す温度情報、学習型ロボット1の周囲の湿度を示す湿度情報、学習型ロボット1の周囲の照度を示す照度情報、及び/又は学習型ロボット1の周囲の騒音の状態を示す騒音情報等を含む。
(External information acquisition unit 30)
The external information acquisition unit 30 acquires external information that is information from the outside of the learning robot 1. The external information acquisition unit 30 supplies the acquired external information to the analysis unit 40. In the present embodiment, external information refers to position information indicating the position where the learning robot 1 is present, time information indicating the current time, environment information indicating the state of the external environment, audio information indicating the voice of the user, etc. Image information indicating an image, and / or contact information indicating that an object has contacted the surface of the learning robot 1 are included. The environment information includes temperature information indicating the temperature around the learning robot 1, humidity information indicating the humidity around the learning robot 1, illuminance information indicating the illuminance around the learning robot 1, and / or learning. Including noise information indicating the state of noise around the robot 1.

具体的に、外部情報取得部30は、学習型ロボット1の位置情報を取得する位置情報取得部300と、時刻情報を取得する時刻情報取得部302と、環境情報を取得する環境情報取得部304と、音声情報を取得する音声情報取得部306と、画像を撮像する撮像部308と、接触情報を取得する触覚センサ310とを有する。位置情報取得部300は、例えば、GPSを用いて実現される。また、環境情報取得部304は、例えば、温度を計測する温度センサ、湿度を計測する湿度センサ、照度を計測する照度センサ、及び/又は周囲の騒音を計測するマイクロホン等を用いて実現される。更に、音声情報取得部306は、ユーザー等の音声を取得するマイクロホン等を用いて実現される。また、外部情報取得部30は、周囲の人物のジェスチャー等の動作に関する情報を取得することもできる。   Specifically, the external information acquisition unit 30 includes a position information acquisition unit 300 that acquires position information of the learning robot 1, a time information acquisition unit 302 that acquires time information, and an environment information acquisition unit 304 that acquires environment information. A voice information acquisition unit 306 that acquires voice information, an imaging unit 308 that captures an image, and a tactile sensor 310 that acquires contact information. The position information acquisition unit 300 is realized using GPS, for example. The environment information acquisition unit 304 is realized by using, for example, a temperature sensor that measures temperature, a humidity sensor that measures humidity, an illuminance sensor that measures illuminance, and / or a microphone that measures ambient noise. Furthermore, the voice information acquisition unit 306 is realized using a microphone or the like that acquires the voice of the user or the like. The external information acquisition unit 30 can also acquire information related to actions such as gestures of surrounding people.

(解析部40)
解析部40は、外部情報が示す内容を、学習型ロボット1の動作の実行に資するように解析して解析結果情報を生成する。解析部40は、例えば、音声分析を実行して音声の基本周波数やサウンドスペクトログラム等の特徴量を抽出する音声解析部、画像の空間周波数等の特徴量を抽出したり、顔認識により画像内に含まれる人物の画像等を解析する画像解析部、音声認識をすると共に音声認識により得られる文章を形態素解析する形態素解析部等を含む。また、解析部40は、外部の学習型ロボット1a、通信端末2、又は所定のデータを格納するデータベースから取得するデータが示す内容を解析することで解析結果情報を生成する。解析部40は、解析結果情報を学習ユニット50に供給する。
(Analysis unit 40)
The analysis unit 40 analyzes the content indicated by the external information so as to contribute to the execution of the operation of the learning robot 1 and generates analysis result information. The analysis unit 40 performs, for example, voice analysis and extracts a feature quantity such as a fundamental frequency or sound spectrogram of the voice, extracts a feature quantity such as a spatial frequency of the image, or extracts a feature quantity such as a spatial frequency in the image by face recognition. It includes an image analysis unit that analyzes an image of a person included, a morpheme analysis unit that performs speech recognition and morphologically analyzes a sentence obtained by speech recognition. The analysis unit 40 generates analysis result information by analyzing the content indicated by the external learning robot 1a, the communication terminal 2, or data acquired from a database storing predetermined data. The analysis unit 40 supplies the analysis result information to the learning unit 50.

例えば、解析部40は、音声情報を解析することで、ユーザーや他の学習型ロボットが学習型ロボット1に対して発話した内容に関する情報(一例として、発話した文章、文節単位の語、単語及び/又は語彙等を示す情報)を抽出して解析結果情報を生成する。一例として、解析部40は、音声情報や画像情報等を解析することで、学習型ロボット1のユーザーの特徴(例えば、ユーザーの職業、ユーザーの好みのファッション、ユーザーの好みのアクセサリー等を示す情報)を示すユーザー特徴情報を生成する。例えば、解析部40は、撮像部308が撮像した画像を解析し、この画像に含まれるユーザーやユーザーの服装、及びユーザーが身につけているアクセサリー等を識別する。また、解析部40は、撮像部308が撮像したユーザーの顔、及び/又は動作(例えば、ジェスチャー)が含まれる画像を解析することで、ユーザーの感情を推定することもできる。そして、解析部40は、識別した結果、及び/又は推定した結果に応じ、当該ユーザーの外観上の特徴や感情を含むユーザー特徴情報を生成する。   For example, the analysis unit 40 analyzes the voice information, so that information on the contents uttered by the user or other learning type robots to the learning type robot 1 (for example, spoken sentences, words in phrases, words, and the like) (Or information indicating vocabulary or the like) is extracted to generate analysis result information. As an example, the analysis unit 40 analyzes voice information, image information, and the like, so that information indicating characteristics of the user of the learning robot 1 (for example, user's occupation, user's favorite fashion, user's favorite accessory, etc.) ) Is generated. For example, the analysis unit 40 analyzes an image captured by the imaging unit 308 and identifies a user, a user's clothes, accessories worn by the user, and the like included in the image. The analysis unit 40 can also estimate the user's emotion by analyzing the image including the user's face and / or action (for example, gesture) captured by the imaging unit 308. And the analysis part 40 produces | generates the user characteristic information containing the characteristic and emotion in the said user's external appearance according to the identified result and / or the estimated result.

また、解析部40は、ユーザーが学習型ロボット1に対して発話した内容から感情に関する語彙(例えば、「嬉しい」、「悲しい」、「楽しい」、「つまらない」、及び「面白い」等)を抽出して解析結果情報を生成することもできる。更に、解析部40は、音声情報を解析することで、ユーザーの発話のイントネーションに関する情報を抽出して解析結果情報を生成することもできる。そして、解析部40は、位置情報、環境情報、画像情報、及び/又は接触情報から、学習型ロボット1が置かれている環境の現在の状況を解析することで解析結果情報を生成することもできる。   In addition, the analysis unit 40 extracts vocabulary related to emotions (for example, “happy”, “sad”, “fun”, “dull”, “interesting”, etc.) from the contents spoken by the user to the learning robot 1. Thus, analysis result information can also be generated. Furthermore, the analysis unit 40 can extract information on the intonation of the user's utterance and generate analysis result information by analyzing the voice information. Then, the analysis unit 40 may generate analysis result information by analyzing the current state of the environment where the learning robot 1 is placed from the position information, environment information, image information, and / or contact information. it can.

更に、解析部40は、データ取得部20から受け取ったデータが示す内容を解析することで、学習型ロボット1が外部から受け取った各種の知識、語彙、問題に対する回答、及びユーザーの嗜好等の様々な事項に関するデータを抽出若しくは生成して解析結果情報を生成することもできる。また、解析部40は、データ取得部20から受け取ったデータが示す内容を解析し、外部情報が示す内容を予め定められたカテゴリーに分類して解析結果情報を生成することもできる。予め定められたカテゴリーとは、技術(例えば、物理、数学、化学、工学、天文学、医学等)、文芸(例えば、小説等)、学術(例えば、歴史、言語学等)、美術、及び/又は音楽等のカテゴリーである。   Further, the analysis unit 40 analyzes the contents indicated by the data received from the data acquisition unit 20, so that various types of knowledge, vocabulary, answers to problems, user preferences, and the like received from the outside by the learning robot 1. Analysis result information can also be generated by extracting or generating data relating to various matters. The analysis unit 40 can also analyze the content indicated by the data received from the data acquisition unit 20, classify the content indicated by the external information into a predetermined category, and generate analysis result information. Pre-defined categories include technology (eg, physics, mathematics, chemistry, engineering, astronomy, medicine, etc.), literary arts (eg, novels), academic (eg, history, linguistics, etc.), art, and / or A category such as music.

(学習ユニット50、情報格納部56)
学習ユニット50は、解析結果情報に応じ、学習型ロボット1がいかなる動作を実行するか、若しくは所定の動作の実行に資する情報が何であるか等を学習する。また、情報格納部56は、学習ユニット50における学習結果を示す学習結果情報を格納する。学習ユニット50は、情報格納部56に格納されている学習結果情報を、解析結果情報を用いて更新することもできる。なお、情報格納部56は、学習ユニット50の学習結果に応じて学習結果情報を格納するだけでなく、所定の学習レベルに対応した複数の情報セット(複数の情報及び/又はデータからなるセット)を予め格納していてもよい。また、学習型ロボット1が情報格納部56を備えない構成であってもよい。例えば、情報格納部56は、クラウド上に設けることができる。この場合、学習型ロボット1と情報格納部56との間の通信は、相互に送受信する通信内容を暗号化して実行することができる。
(Learning unit 50, information storage unit 56)
The learning unit 50 learns what operation the learning robot 1 performs, what information contributes to the execution of the predetermined operation, etc. according to the analysis result information. Further, the information storage unit 56 stores learning result information indicating a learning result in the learning unit 50. The learning unit 50 can also update the learning result information stored in the information storage unit 56 using the analysis result information. The information storage unit 56 not only stores the learning result information according to the learning result of the learning unit 50 but also a plurality of information sets (sets including a plurality of information and / or data) corresponding to a predetermined learning level. May be stored in advance. Further, the learning robot 1 may be configured not to include the information storage unit 56. For example, the information storage unit 56 can be provided on the cloud. In this case, the communication between the learning robot 1 and the information storage unit 56 can be executed by encrypting communication contents transmitted and received between each other.

学習ユニット50は、外部情報及び/又はデータ取得部20が取得したデータを解析した結果である解析結果情報と、情報格納部56に格納されている学習結果情報とを比較する。そして、学習ユニット50は、解析結果情報と学習結果情報とが一致しない場合、すなわち、情報格納部56に学習結果情報が格納されていない場合に解析結果情報を新たな学習結果情報であると判断する。そして、学習ユニット50は、新たな学習結果情報を情報格納部56に格納する。また、学習ユニット50は、情報格納部56に格納されていない学習結果情報が存在する場合に、当該学習結果情報の上位概念、若しくは下位概念が何であるかをユーザー又は外部の学習型ロボット1aに対して質問する質問情報を生成することもできる。学習ユニット50は、例えば、ニューラルネットワーク、遺伝的学習アルゴリズム、及び/又は機械学習アルゴリズム等の学習アルゴリズムを用いて構成される。   The learning unit 50 compares the analysis result information that is the result of analyzing the external information and / or the data acquired by the data acquisition unit 20 with the learning result information stored in the information storage unit 56. The learning unit 50 determines that the analysis result information is new learning result information when the analysis result information does not match the learning result information, that is, when the learning result information is not stored in the information storage unit 56. To do. Then, the learning unit 50 stores new learning result information in the information storage unit 56. In addition, when there is learning result information that is not stored in the information storage unit 56, the learning unit 50 tells the user or the external learning type robot 1a what the superordinate concept or subordinate concept of the learning result information is. Question information for asking questions can also be generated. The learning unit 50 is configured using a learning algorithm such as a neural network, a genetic learning algorithm, and / or a machine learning algorithm, for example.

具体的に、学習ユニット50は、解析結果情報に含まれる語彙若しくは知識等を示す情報が情報格納部56に予め格納されていない場合、当該情報についてユーザーに質問する質問部500と、解析結果情報に含まれる語彙、知識、若しくは所定の質問に対する回答等を示す情報を学習する知識学習部502と、ユーザーの嗜好を示す嗜好情報を学習するユーザー学習部504と、学習型ロボット1固有の動作の特徴を学習するパーソナリティ学習部506と、解析結果情報の内容を学習することで、ユーザーに所定の動作をすべきことを提案する提案部508とを有する。   Specifically, when information indicating the vocabulary or knowledge included in the analysis result information is not stored in the information storage unit 56 in advance, the learning unit 50 includes a question unit 500 for asking the user about the information, and analysis result information. Knowledge learning unit 502 that learns information indicating vocabulary, knowledge, or answers to predetermined questions, a user learning unit 504 that learns preference information that indicates user preferences, and an operation unique to the learning robot 1 A personality learning unit 506 that learns features, and a suggestion unit 508 that suggests that the user should perform a predetermined action by learning the contents of the analysis result information.

(質問部500)
質問部500は、ユーザーに対する質問若しくは他の学習型ロボット1a対する質問を表す情報である質問情報を生成する。例えば、解析結果情報に所定の単語が含まれており、当該単語を示す情報が情報格納部56に格納されていない場合、質問部500は、当該単語が何を表すのかを質問する質問情報を生成する。一例として、学習型ロボット1が有する撮像部308が所定のオブジェクトを含む画像を撮像した場合、解析部40は当該画像を解析し、当該オブジェクトに関する情報を含む解析結果情報を生成する(この場合、解析部40は、オブジェクトマッチング処理を実行するために用いるマッチング画像を格納するマッチング画像格納部を含むことができる。)。質問部500は、その解析結果情報に含まれる当該オブジェクトに関する情報が情報格納部56に格納されているか否かを確認する。質問部500は、情報格納部56に当該情報が含まれていない場合、当該オブジェクトが何であるかを質問する質問情報(例えば、後述する出力部80において「あれ何?」という音声を出力させる情報)を生成する。なお、質問部500は、質問情報の生成に用いるテキストデータ、及び/又は音声データを予め格納する質問情報データベースを含むこともできる。なお、撮像部308が所定のオブジェクトの画像を撮像した場合、解析部40が同一のオブジェクトについて以前撮像した画像(例えば、情報格納部56に格納されている)との差分を抽出し、質問部500は、当該オブジェクトの差分に関する情報についての解析結果情報を生成することもできる。
(Question part 500)
The question unit 500 generates question information that is information representing a question to the user or a question to another learning robot 1a. For example, when a predetermined word is included in the analysis result information and information indicating the word is not stored in the information storage unit 56, the question unit 500 displays question information asking what the word represents. Generate. As an example, when the imaging unit 308 included in the learning robot 1 captures an image including a predetermined object, the analysis unit 40 analyzes the image and generates analysis result information including information on the object (in this case, The analysis unit 40 can include a matching image storage unit that stores a matching image used for executing the object matching process. The question unit 500 confirms whether or not the information related to the object included in the analysis result information is stored in the information storage unit 56. When the information storage unit 56 does not include the information, the question unit 500 asks what the object is (for example, information that causes the output unit 80 described later to output a voice “What is that?”) ) Is generated. The question unit 500 may include a question information database that stores text data and / or voice data used for generating question information in advance. Note that when the imaging unit 308 captures an image of a predetermined object, the analysis unit 40 extracts a difference from an image previously captured for the same object (for example, stored in the information storage unit 56), and the question unit 500 can also generate analysis result information on information related to the difference between the objects.

また、質問部500は、他の学習型ロボット1a及び/又は外部のデータベースからデータ取得部20が取得したデータの内容を含む解析結果情報を取得した場合、その解析結果情報と情報格納部56に格納されている情報とを比較する。そして、質問部500は、情報格納部56に当該データの内容に関する情報が含まれていない場合、当該データが何であるかを他の学習型ロボット1a及び/又は外部のデータベースに問い合わせる質問情報を生成することもできる。更に、質問部500は、解析結果情報の一部若しくはすべてが情報格納部56に格納されている場合、ユーザー又は他の学習型ロボット1a若しくは外部のデータベースに対し、更に深く質問する質問情報を生成することもできる。   In addition, when the question unit 500 acquires analysis result information including the content of data acquired by the data acquisition unit 20 from another learning type robot 1a and / or an external database, the question unit 500 stores the analysis result information and the information storage unit 56 in the analysis result information. Compare with stored information. Then, when the information storage unit 56 does not include information related to the contents of the data, the question unit 500 generates question information for inquiring other learning type robot 1a and / or an external database as to what the data is. You can also Further, when part or all of the analysis result information is stored in the information storage unit 56, the question unit 500 generates question information for further deeply asking questions about the user or other learning type robot 1a or an external database. You can also

(知識学習部502)
知識学習部502は、解析結果情報に含まれる語彙、知識、若しくは所定の質問に対する回答、又は語彙と語彙との結びつき等を示す情報であって、情報格納部56に格納されていない情報を情報格納部56に格納させることにより学習する。例えば、解析結果情報が所定のクイズに対する回答を示す情報を含む場合、知識学習部502は、当該クイズを構成する文章、語句、及び語彙等を識別する識別子に対応づけて当該回答を示す情報を情報格納部56に格納させる。また、知識学習部502は、位置情報取得部300が取得した位置情報を用いてその位置情報により表される地点若しくは地域に関する情報を取得することを目的とした質問情報を生成することもできる。更に、知識学習部502は、位置情報に時刻情報取得部302が取得した時刻情報、環境情報取得部304が取得した環境情報等を対応づけることにより、所定の時刻、所定の地点における環境がいかなる状況であるかを示す情報を生成することもできる。知識学習部502は、生成した情報を情報格納部56に格納させる。
(Knowledge learning unit 502)
The knowledge learning unit 502 is information indicating vocabulary, knowledge, an answer to a predetermined question included in the analysis result information, a connection between the vocabulary and the vocabulary, and the like and information not stored in the information storage unit 56 Learning is performed by storing the data in the storage unit 56. For example, when the analysis result information includes information indicating an answer to a predetermined quiz, the knowledge learning unit 502 displays information indicating the answer in association with an identifier for identifying a sentence, a phrase, a vocabulary, and the like constituting the quiz. The information is stored in the information storage unit 56. In addition, the knowledge learning unit 502 can generate question information for the purpose of acquiring information about a point or area represented by the position information using the position information acquired by the position information acquisition unit 300. Further, the knowledge learning unit 502 associates the position information with the time information acquired by the time information acquisition unit 302, the environment information acquired by the environment information acquisition unit 304, etc. Information indicating whether the situation is present can also be generated. The knowledge learning unit 502 stores the generated information in the information storage unit 56.

また、知識学習部502は、解析部40において予め定められたカテゴリーに分類して生成された解析結果情報と既に学習済みの結果との差分に基づいて学習することもできる。例えば、知識学習部502は、解析結果情報と情報格納部56に格納されている情報との差分を抽出する。そして、知識学習部502は、差分の部分、すなわち、情報格納部56に格納されていない情報について、情報格納部56に格納させることで学習を実行する。また、知識学習部502は、情報格納部56に格納されている情報については、既に格納されている情報と共に情報格納部56に格納させることで、学習効果を高める処理を実行する。   The knowledge learning unit 502 can also learn based on the difference between the analysis result information generated by classifying into predetermined categories in the analysis unit 40 and the already learned result. For example, the knowledge learning unit 502 extracts the difference between the analysis result information and the information stored in the information storage unit 56. Then, the knowledge learning unit 502 performs learning by causing the information storage unit 56 to store the difference portion, that is, information that is not stored in the information storage unit 56. In addition, the knowledge learning unit 502 executes processing for enhancing the learning effect by causing the information storage unit 56 to store the information stored in the information storage unit 56 together with the already stored information.

(ユーザー学習部504)
ユーザー学習部504は、解析結果情報に応じ、学習型ロボット1のユーザーの特徴を示すユーザー特徴情報、及び/又は嗜好を示す嗜好情報を学習する。具体的に、ユーザー学習部504は、解析結果情報に含まれる情報、例えば、音声情報取得部306が取得したユーザーの音声を解析した情報(一例として、音声に含まれる語彙、音声の周波数やイントネーション等を示す情報)、撮像部308が撮像した画像に含まれる情報、及び/又は触覚センサ310が取得したユーザーの学習型ロボット1に対する接触状況等の情報を用い、当該ユーザーの名前、性別、年齢若しくは年代、職業、性格(なお、性格は予め所定数のパターン(一例として、まじめ、明るい、頑固、ひょうきん等)に分類しておくことができる)、及び/又は行動パターン等がいかなるものであるかを示す嗜好情報(すなわち、ユーザーの特徴や嗜好を示す情報)を生成する。また、ユーザー学習部504は、ユーザー特徴情報から導き出されるユーザーの外観に関する情報である外観情報を生成することもできる。ユーザー学習部504は、ユーザーを一意に識別するユーザー識別子に対応づけて情報格納部56に生成したユーザー特徴情報、外観情報、及び/又は嗜好情報を格納させる。
(User learning unit 504)
The user learning unit 504 learns the user characteristic information indicating the characteristics of the user of the learning robot 1 and / or the preference information indicating the preference according to the analysis result information. Specifically, the user learning unit 504 analyzes information included in the analysis result information, for example, information obtained by analyzing the user's voice acquired by the voice information acquisition unit 306 (for example, the vocabulary included in the voice, the frequency of the voice, and intonation. Etc.), information included in the image captured by the imaging unit 308, and / or information such as the user's contact status with the learning robot 1 acquired by the tactile sensor 310, and the user's name, gender, age Or what is the age, occupation, personality (note that personality can be classified in advance into a predetermined number of patterns (for example, serious, bright, stubborn, hail, etc.) and / or behavior patterns, etc. Preference information (that is, information indicating user characteristics and preferences) is generated. Further, the user learning unit 504 can generate appearance information that is information related to the appearance of the user derived from the user characteristic information. The user learning unit 504 stores the user characteristic information, appearance information, and / or preference information generated in the information storage unit 56 in association with a user identifier that uniquely identifies the user.

(パーソナリティ学習部506)
パーソナリティ学習部506は、学習型ロボット1の固有の動作、遊び方、駆動の仕方、及び/又は感情表現の仕方等を学習する。例えば、データ取得部20が取得した外部情報に含まれるデータに学習型ロボット1の固有の動作の仕方、遊び方、駆動の仕方、及び/又は感情表現の仕方等を規定するプログラムであるアプリケーションのデータが含まれている場合を説明する。この場合、解析部40において学習型ロボット1が実行可能な形式にこのアプリケーションのデータは変換され、変換されたアプリケーションのデータを含む解析結果情報が生成される。そして、パーソナリティ学習部506は、当該解析結果情報(すなわち、変換されたアプリケーションのデータ)に応じて学習型ロボット1の動作等を指示する命令を含む動作命令情報を生成する。
(Personality learning unit 506)
The personality learning unit 506 learns the unique operation, how to play, how to drive, and / or how to express emotions of the learning robot 1. For example, data of an application that is a program that prescribes how the learning type robot 1 operates, how to play, how to drive, and / or how to express emotions in the data included in the external information acquired by the data acquisition unit 20 The case where is included will be described. In this case, the data of this application is converted into a format that can be executed by the learning robot 1 in the analysis unit 40, and analysis result information including the converted application data is generated. Then, the personality learning unit 506 generates operation command information including a command for instructing the operation of the learning robot 1 according to the analysis result information (that is, converted application data).

(提案部508)
提案部508は、解析結果情報に基づいて、ユーザーにいかなる動作を実行すべきかを提案する提案情報を生成する。例えば、データ取得部20が外部のデータベース等から株価の変動を含む株価に関連する各種の情報をデータとして取得した場合、解析部40は、所定時期における所定銘柄の株価の予測額を解析結果情報に含ませる。そして、提案部508は、その予測額を含む解析結果情報に応じ、ユーザーにその銘柄の株を購入するタイミングを教示する提案情報を生成する。
(Proposal Unit 508)
The proposal unit 508 generates proposal information that suggests what operation should be performed to the user based on the analysis result information. For example, when the data acquisition unit 20 acquires, as data, various types of information related to stock prices including fluctuations in stock prices from an external database or the like, the analysis unit 40 uses the analysis result information on the predicted price of the stock price for a predetermined brand at a predetermined time. Included. And the proposal part 508 produces | generates the proposal information which tells a user the timing which purchases the stock of the brand according to the analysis result information containing the predicted amount.

また、データ取得部20が外部のデータベース等から所定のイベントに関する情報(例えば、所定のイベントの開催時期、開催場所、イベントの内容等の情報)をデータとして取得した場合、解析部40は、当該イベントの開催に関する情報を解析結果情報に含ませる。そして、提案部508は、そのイベントの開催に関する情報に応じ、ユーザーにそのイベントへの参加を提案する提案情報を生成する。   In addition, when the data acquisition unit 20 acquires information about a predetermined event (for example, information such as a predetermined event holding time, a holding place, an event content) from an external database or the like as data, the analysis unit 40 Include information related to event holding in the analysis result information. And the proposal part 508 produces | generates the proposal information which proposes participation to the event according to the information regarding holding of the event.

学習ユニット50は、学習結果情報、質問情報、嗜好情報、外観情報、提案情報、及び/又は動作命令情報を、レベル決定部52、情報格納部56、及び/又は判断部60に供給する。   The learning unit 50 supplies learning result information, question information, preference information, appearance information, proposal information, and / or action command information to the level determination unit 52, the information storage unit 56, and / or the determination unit 60.

(レベル決定部52、レベル情報格納部54)
レベル決定部52は、学習ユニット50の学習結果に応じ、学習型ロボット1の学習段階を示すレベルを決定する。例えば、レベル決定部52は、学習ユニット50における学習結果が予め定められた水準に達した場合に、学習型ロボット1の学習レベルが当該水準の学習レベルであると決定する。レベル決定部52は、決定した学習レベルを示す情報であるレベル情報をレベル情報格納部54に供給する。レベル情報格納部54は、このレベル情報を格納する。
(Level determination unit 52, level information storage unit 54)
The level determination unit 52 determines a level indicating the learning stage of the learning robot 1 according to the learning result of the learning unit 50. For example, when the learning result in the learning unit 50 reaches a predetermined level, the level determination unit 52 determines that the learning level of the learning type robot 1 is the learning level of the level. The level determination unit 52 supplies level information, which is information indicating the determined learning level, to the level information storage unit 54. The level information storage unit 54 stores this level information.

学習ユニット50は、レベル情報格納部54が格納しているレベル情報を参照することができる。学習ユニット50は、例えば、参照したレベル情報に応じ、質問情報、提案情報、及び/又は動作命令情報を当該レベル情報に対応する学習レベルに対応する内容に変更若しくは修正することができる。一例として、学習ユニット50が有する質問部500は、学習レベルの向上に対応させて、質問情報を生成する頻度を変更させることができる。例えば、質問部500は、学習レベルの向上に対応させ、質問情報を生成する頻度を減少させる。   The learning unit 50 can refer to the level information stored in the level information storage unit 54. For example, the learning unit 50 can change or modify the question information, the proposal information, and / or the operation command information to the content corresponding to the learning level corresponding to the level information according to the referenced level information. As an example, the question unit 500 included in the learning unit 50 can change the frequency of generating question information in accordance with the improvement of the learning level. For example, the question unit 500 reduces the frequency of generating question information in response to the improvement of the learning level.

(判断部60)
判断部60は、学習ユニット50の学習結果に応じ、学習型ロボット1が実行すべき動作を判断する。具体的に、判断部60は、学習ユニット50から学習結果情報、質問情報、嗜好情報、外観情報、提案情報、及び/又は動作命令情報を受け取った場合、受け取った情報に対応する動作を学習型ロボット1が実行すべき動作として判断し、判断結果を示す情報である判断結果情報を動作制御部70に供給する。また、判断部60は、レベル情報格納部54が格納している学習型ロボット1の学習レベルに応じ、判断結果を示す情報を変更することもできる。更に、判断部60は、データ取得部20が外部から取得した情報の一部若しくは全部をそのまま外部に出力することを、実行すべき動作と判断することもできる。
(Judgment unit 60)
The determination unit 60 determines an operation to be performed by the learning robot 1 according to the learning result of the learning unit 50. Specifically, when the determination unit 60 receives learning result information, question information, preference information, appearance information, proposal information, and / or operation command information from the learning unit 50, the determination unit 60 determines an operation corresponding to the received information as a learning type. The robot 1 is determined as an operation to be executed, and determination result information which is information indicating the determination result is supplied to the operation control unit 70. Also, the determination unit 60 can change information indicating the determination result according to the learning level of the learning robot 1 stored in the level information storage unit 54. Furthermore, the determination unit 60 can also determine that outputting part or all of the information acquired from the outside by the data acquisition unit 20 to the outside is an operation to be executed.

例えば、判断部60は、質問情報を受け取った場合、ユーザーに対して当該質問情報が表す質問を伝達すべきことを判断し、当該判断結果を含む判断結果情報を動作制御部70に供給する。また、判断部60は、質問情報を学習ユニット50から受け取った場合、通信端末2若しくは他の学習型ロボット1aに当該質問情報が表す内容を伝達すべきことを判断し、当該判断結果を含む判断結果情報を動作制御部70に供給することもできる。そして、判断部60は、学習レベルに応じ、ユーザーに対して質問情報が表す質問を伝達する頻度を変化させる指令を判断結果情報に含めることもできる。例えば、判断部60は、学習レベルの向上に比例させ、ユーザーに対する質問頻度を低下させる指令を判断結果情報に含める。これにより、学習型ロボット1は、初期状態ではユーザーに頻繁に質問する状態から、学習が進むにつれてユーザーの話を聞く聞き役の状態に推移することができる。   For example, when receiving the question information, the determination unit 60 determines that the question represented by the question information should be transmitted to the user, and supplies determination result information including the determination result to the operation control unit 70. Further, when receiving the question information from the learning unit 50, the determination unit 60 determines that the content represented by the question information should be transmitted to the communication terminal 2 or other learning type robot 1a, and includes the determination result. The result information can also be supplied to the operation control unit 70. And the judgment part 60 can also include the instruction | command which changes the frequency which transmits the question which question information represents with respect to a user according to a learning level in judgment result information. For example, the determination unit 60 includes, in the determination result information, a command that decreases the question frequency for the user in proportion to the improvement of the learning level. As a result, the learning robot 1 can transition from a state in which frequently asked questions to the user in an initial state to a state of a listener who listens to the user's story as learning progresses.

更に判断部60は、嗜好情報に応じ、学習型ロボット1に嗜好情報に関連する広告情報を出力すべきことを判断することができる。すなわち、判断部60は、ユーザーの嗜好に対応する広告情報を外部のデータベース等から取得し、学習型ロボット1の表示部に表示させる動作をすべきことを判断する。また、判断部60は、学習レベルと嗜好情報とに応じ、嗜好情報に関連する広告情報を学習型ロボット1からユーザーに対して出力すべきことを判断することもできる。例えば、判断部60は、学習レベルの向上に対応させ、嗜好情報に応じて出力すべき広告情報の出力の頻度を減少させることができる。   Furthermore, the determination unit 60 can determine that advertisement information related to the preference information should be output to the learning robot 1 according to the preference information. That is, the determination unit 60 determines that an operation for acquiring advertisement information corresponding to the user's preference from an external database or the like and displaying the advertisement information on the display unit of the learning robot 1 should be performed. Further, the determination unit 60 can also determine that the advertising information related to the preference information should be output from the learning robot 1 to the user according to the learning level and the preference information. For example, the determination unit 60 can reduce the frequency of output of advertisement information that should be output according to the preference information in response to the improvement of the learning level.

また、判断部60は、外観情報に応じ、学習型ロボット1の外装を製造する外装製造装置(例えば、3Dプリンタ等)が用いることができる学習型ロボット1の外装を示す外装情報を決定し、当該決定を示す情報を含む判断結果情報を動作制御部70に供給することもできる。判断部60は、外観情報と共に学習型ロボット1の学習レベルを用い、外装情報を決定することもできる。   Further, the determination unit 60 determines exterior information indicating the exterior of the learning robot 1 that can be used by an exterior manufacturing apparatus (for example, a 3D printer) that manufactures the exterior of the learning robot 1 according to the exterior information. Determination result information including information indicating the determination can be supplied to the operation control unit 70. The determination unit 60 can also determine the exterior information by using the learning level of the learning robot 1 together with the appearance information.

例えば、判断部60は、知識学習部502の学習結果が示す情報、一例として、ユーザーと学習型ロボット1との過去のやり取りから得られた知識や学習型ロボット1が置かれている環境に関する情報に応じた外装情報を決定できる。一例として、判断部60は、学習型ロボット1が置かれている環境が高温多湿環境であれば、涼しげな外装を示す外装情報を決定し、寒冷環境であれば暖かい外装を示す外装情報を決定する。また、判断部60は、外観情報にユーザーの衣服の色に関する情報であって、ユーザーが着用する頻度の高い衣服の色に関する情報が含まれている場合、その色を示す情報を外装情報に含める。更に、判断部60は、学習レベルが所定レベルより高い場合、学習レベルが高いことを想起させるキャラクター(例えば、大学教授等)を示す情報を外装情報に含めることもできる。   For example, the determination unit 60 includes information indicated by the learning result of the knowledge learning unit 502, for example, information obtained from past exchanges between the user and the learning robot 1 and information regarding the environment where the learning robot 1 is placed. The exterior information according to can be determined. As an example, the determination unit 60 determines exterior information indicating a cool exterior if the environment where the learning robot 1 is placed is a hot and humid environment, and determines exterior information indicating a warm exterior if the environment is a cold environment. To do. In addition, when the appearance information includes information on the color of the user's clothes and includes information on the color of the clothes that the user frequently wears, the determination unit 60 includes information indicating the color in the exterior information. . Furthermore, when the learning level is higher than the predetermined level, the determination unit 60 can also include information indicating a character (for example, a university professor) reminiscent of a high learning level in the exterior information.

また、判断部60は、ユーザーに所定の銘柄の株を購入するタイミングを教示する提案情報を受け取った場合、提案情報をユーザーに提示するか否か判断する。例えば、判断部60は、予め定められた基準(一例として、所定金額以上の株価の上昇若しくは下降があったことを示す基準)を満たす場合、提案情報をユーザーに提示すると判断する。判断部60は、判断結果情報を動作制御部70に供給する。   Further, when receiving the proposal information that tells the user when to buy a stock of a predetermined brand, the determination unit 60 determines whether or not to present the proposal information to the user. For example, the determination unit 60 determines to present the proposal information to the user when a predetermined criterion (for example, a criterion indicating that the stock price has increased or decreased by a predetermined amount or more) is satisfied. The determination unit 60 supplies the determination result information to the operation control unit 70.

(動作制御部70)
動作制御部70は、判断部60の判断結果に応じ、学習型ロボット1の動作を制御する。すなわち、動作制御部70は、学習結果情報、質問情報、嗜好情報、外観情報、提案情報、及び/又は動作命令情報に対応する動作として判断部60において判断された結果を含む判断結果情報に基づいて、学習型ロボット1が実行すべき動作を制御する命令情報を生成する。
(Operation control unit 70)
The operation control unit 70 controls the operation of the learning robot 1 according to the determination result of the determination unit 60. That is, the operation control unit 70 is based on the determination result information including the result determined by the determination unit 60 as the operation corresponding to the learning result information, question information, preference information, appearance information, proposal information, and / or operation command information. Thus, command information for controlling the operation to be executed by the learning robot 1 is generated.

例えば、動作制御部70は、判断結果情報に応じ、ユーザー、通信端末2、他の学習型ロボット1a、及び/又は外部のデータベースに所定の情報を提示若しくは供給する命令情報を生成する。また、動作制御部70は、学習型ロボット1の頭部、胴体部、及び/又は手足部の動作、並びに表示部への表示、学習型ロボット1の所定箇所に設けられる発光部(例えば、発光ダイオードからなる発光部)の発光の仕方、及び/又は後述する音声出力部802からの音声の出力等の動作を制御する命令情報を生成する。   For example, the operation control unit 70 generates command information that presents or supplies predetermined information to the user, the communication terminal 2, the other learning robot 1a, and / or an external database according to the determination result information. Further, the motion control unit 70 operates the head, torso, and / or limbs of the learning type robot 1, displays on the display unit, and a light emitting unit (for example, a light emitting unit) provided at a predetermined position of the learning type robot 1. Command information for controlling the operation of light emission of the light emitting unit (diode) and / or the operation of audio output from the audio output unit 802, which will be described later, is generated.

一例として、動作制御部70は、判断結果情報に質問情報が表す質問内容をユーザーに伝達すべき旨を示す情報が含まれている場合、出力部80からユーザーに対して質問情報が表す内容を伝達させる命令情報を生成する。また、動作制御部70は、判断結果情報に嗜好情報が表す内容に応じて外部のデータベースから広告情報を取得して学習型ロボット1の表示画面に取得した広告情報を表示させる旨を示す情報が含まれている場合、データ取得部20に広告情報を取得させ、データ取得部20が取得した広告情報を出力部80に出力させる命令情報を生成する。   As an example, when the determination result information includes information indicating that the question content represented by the question information should be transmitted to the user, the operation control unit 70 displays the content represented by the question information from the output unit 80 to the user. Command information to be transmitted is generated. In addition, the operation control unit 70 has information indicating that the advertisement information is acquired from the external database according to the content represented by the preference information in the determination result information and the acquired advertisement information is displayed on the display screen of the learning robot 1. If included, the command acquisition information is generated by the data acquisition unit 20 and the command information that causes the output unit 80 to output the advertisement information acquired by the data acquisition unit 20 is generated.

また、動作制御部70は、判断結果情報に学習型ロボット1の学習レベル(以下、学習レベルAと表す)が他の学習型ロボット1aの学習レベル(以下、学習レベルBと表す)より低いことを示す情報が含まれている場合、データ取得部20に学習レベルAを学習レベルBに近付けるために必要なデータを学習型ロボット1a、外部のデータベース、及び/又はユーザーから取得させる命令情報を生成する。一方、動作制御部70は、判断結果情報に学習型ロボット1の学習レベルAが他の学習型ロボット1aの学習レベルBと表すより高いことを示す情報が含まれている場合、出力部80に学習レベルBを学習レベルAに近付けるために必要なデータを学習型ロボット1aに供給させる命令情報を生成する。これにより、動作制御部70は、外部の学習型ロボット1aに学習型ロボット1の学習結果を示す情報を供給できるので、外部の学習型ロボット1aを学習させることができる。   Further, the operation control unit 70 indicates that the learning level of the learning robot 1 (hereinafter referred to as learning level A) is lower than the learning level of the other learning robot 1a (hereinafter referred to as learning level B) in the determination result information. Is included, the command information that causes the data acquisition unit 20 to acquire data necessary to bring the learning level A closer to the learning level B from the learning robot 1a, an external database, and / or a user is generated. To do. On the other hand, if the determination result information includes information indicating that the learning level A of the learning type robot 1 is higher than the learning level B of the other learning type robot 1a, the operation control unit 70 outputs the information to the output unit 80. Command information for causing the learning robot 1a to supply data necessary to bring the learning level B close to the learning level A is generated. Thereby, since the operation control part 70 can supply the information which shows the learning result of the learning type robot 1 to the external learning type robot 1a, it can be made to learn the external learning type robot 1a.

また、動作制御部70は、他の学習型ロボット1a、及び/又は外部のデータベースに所定の情報をユーザーに知覚不能に提示若しくは供給する命令情報を生成することもできる。これにより、学習型ロボット1は、ユーザーに対して暗黙のうちに学習を実行することができる。そして、動作制御部70は、他の学習型ロボット1a、及び/又は外部のデータベースに所定の情報をユーザーに知覚可能に提示若しくは供給する命令情報を生成することもできる。この場合、学習型ロボット1は、ユーザーに対して学習を実行していることをアピールすることができる。   In addition, the operation control unit 70 can also generate command information that presents or supplies predetermined information to other users of the learning type robot 1a and / or an external database in an unperceptible manner. Thereby, the learning type robot 1 can perform learning implicitly with respect to the user. Then, the motion control unit 70 can also generate command information that presents or supplies predetermined information to other learning robots 1a and / or an external database in a perceptible manner to the user. In this case, the learning robot 1 can appeal to the user that learning is being performed.

これにより、複数の学習型ロボット間で情報をユーザーに対しては暗黙のうちに交換することができるので、一の学習型ロボットと他の学習型ロボットとの接触が増えるほど、各学習型ロボットの学習レベルが向上させることができる。この場合において、学習型ロボット1は、学習した内容、及び/又は学習している内容に関する情報の一部若しくは全部を出力部80からユーザーに知覚可能に出力することもできる。かかる情報を知覚したユーザーは、自らが所有する学習型ロボット1が他の学習型ロボットと会話することにより徐々に学習している様子を把握できるので、本実施形態においては、ユーザーに、学習型ロボット1と他の様々な学習型ロボットとを会わせるモチベーションを向上させることができる。これにより、本実施の形態に係る学習型ロボット1によれば、人と人とのコミュニケーションを活発化させるきっかけを作りだすこともできる。   As a result, information can be implicitly exchanged among a plurality of learning robots, so that each learning robot increases as the contact between one learning robot and another learning robot increases. The learning level can be improved. In this case, the learning robot 1 can also output part or all of the learned content and / or information about the learned content from the output unit 80 in a perceptible manner to the user. A user who perceives such information can grasp how the learning robot 1 owned by the user is gradually learning by talking with other learning robots. The motivation for meeting the robot 1 with various other learning robots can be improved. Thereby, according to the learning type robot 1 which concerns on this Embodiment, the opportunity which activates communication between people can also be created.

また、本実施の形態に係る学習型ロボット1は、ユーザーに知覚可能な形式(例えば、音声、ジェスチャー、学習型ロボット1が備える発光部の発光等)で外部情報を他の学習型ロボット及び/又は周囲のユーザーに伝達することができる。更に、学習型ロボット1は、ユーザーに知覚不能な形式(例えば、Bluetooth(登録商標)等の近距離無線通信等)で外部情報を他の学習型ロボットに伝達することもできる。   In addition, the learning robot 1 according to the present embodiment transfers external information to other learning robots and / or in a form that can be perceived by the user (for example, voice, gesture, light emission of a light emitting unit included in the learning robot 1). Or it can be communicated to surrounding users. Furthermore, the learning type robot 1 can also transmit external information to other learning type robots in a form that cannot be perceived by the user (for example, near field communication such as Bluetooth (registered trademark)).

そして、例えば、学習ユニット50は、ユーザーに知覚不能な形式で他の学習型ロボットとやり取りして取得された外部情報を解析して生成された解析結果情報(例えば、所定のカテゴリーに分類された解析結果情報)と、既に学習済みの結果(例えば、情報格納部56に既に格納されている所定のカテゴリーに分類された解析結果情報であって、新たに生成された解析結果情報より前に生成された解析結果情報)との差分の情報を抽出する。そして、動作制御部70は、抽出された差分の情報を他の学習型ロボットにユーザーが知覚不能な形式で供給させると共に、差分の情報に基づいて学習型ロボット1の動作を制御することもできる。   Then, for example, the learning unit 50 analyzes the analysis result information generated by analyzing external information acquired by interacting with other learning type robots in a form that cannot be perceived by the user (for example, classified into a predetermined category). Analysis result information) and already learned results (for example, analysis result information classified into a predetermined category already stored in the information storage unit 56, which is generated before newly generated analysis result information) Difference information) is extracted. Then, the motion control unit 70 can supply the extracted difference information to other learning robots in a form that the user cannot perceive, and can also control the operation of the learning robot 1 based on the difference information. .

一例として、学習型ロボット1は、差分が、他の学習型ロボットの方が所定のカテゴリーに分類される情報を多く有することを示す場合、当該カテゴリーに属する情報に関する学習を活発化させるべきと判断する。例えば、動作制御部70は、他の学習型ロボットの方が所定のカテゴリーに分類される情報を多く有することを差分が示す情報を含む学習結果情報、及び判断結果情報が生成された場合、他の学習型ロボットに対し、当該カテゴリーに関する情報を取得するための質問を表す情報をユーザーに知覚可能に出力させる動作を決定する。一例として、所定のカテゴリーが「服装」に関するカテゴリーであって、他の学習型ロボットの方が「服装」に関するカテゴリーに関する情報を学習型ロボット1より多く有している場合、学習型ロボット1は、他の学習型ロボットに対し、「服装」に関する質問を発話することができる。なお、学習型ロボット1は、他の学習型ロボットより自身の方が所定のカテゴリーに分類される情報を多く有する場合、上記と逆の動作を実行することもできる。   As an example, when the learning type robot 1 indicates that the other learning type robots have more information classified into a predetermined category, the learning type robot 1 determines that learning regarding information belonging to the category should be activated. To do. For example, when the learning result information including the information indicating the difference that the other learning type robot has more information classified into the predetermined category and the determination result information are generated, The operation for causing the user to perceptively output information representing a question for acquiring information related to the category is determined. As an example, when the predetermined category is a category related to “clothing” and other learning type robots have more information about the category related to “clothing” than the learning type robot 1, the learning type robot 1 Questions about “clothing” can be spoken to other learning robots. Note that the learning robot 1 can perform the reverse operation to the above when the learning robot 1 has more information that is classified into a predetermined category than the other learning robots.

また、動作制御部70は、解析結果情報にユーザーが知覚可能な情報(例えば、音声情報)に基づいて生成された情報が含まれ、当該情報を用いて学習結果情報及び判断結果情報が生成された場合、ユーザーが知覚した一部若しくは全ての情報を学習型ロボット1から出力させる動作を決定することもできる。ユーザーが知覚可能な情報は、例えば、学習型ロボット1と当該他の学習型ロボットとの間でユーザーが知覚できない情報を交換することで得られた情報であって、当該情報に基づいて他の学習型ロボットが出力した情報(例えば、音声情報)である。   In addition, the operation control unit 70 includes information generated based on information perceivable by the user (for example, voice information) in the analysis result information, and learning result information and determination result information are generated using the information. In this case, it is possible to determine an operation for outputting a part or all of the information perceived by the user from the learning robot 1. The information that can be perceived by the user is, for example, information obtained by exchanging information that the user cannot perceive between the learning type robot 1 and the other learning type robot. This is information (for example, voice information) output by the learning robot.

更に、学習型ロボット1は、他の学習型ロボットから出力されたユーザーが知覚可能な情報に基づいて、解析部40において生成されるカテゴリーの内容の重みづけを変化させ、変化させたカテゴリーの重みづけに応じて生成される判断結果情報に対応する動作を決定してもよい。例えば、動作制御部70は、ユーザーが知覚可能な情報を取得し、当該情報が属するカテゴリーの重みづけを増加させ、複数のカテゴリーのうち最も重みづけが大きい(若しくは小さい)カテゴリーに属する情報を他の学習型ロボットに伝達すべき情報と決定することができる。   Furthermore, the learning robot 1 changes the weight of the category content generated in the analysis unit 40 based on the information perceivable by the user output from the other learning robots, and the changed category weight. The operation corresponding to the determination result information generated according to the attachment may be determined. For example, the motion control unit 70 acquires information that can be perceived by the user, increases the weight of the category to which the information belongs, and adds information belonging to the category with the largest (or smallest) weight among the plurality of categories. It can be determined as information to be transmitted to the learning robot.

また、動作制御部70は、判断結果情報が、他の学習型ロボットに比べ学習型ロボット1の方が一のカテゴリーに属する情報の格納量が少ないことを示す場合、他の学習型ロボットの方が「博学」であると判断する。そして、動作制御部70は、他の学習型ロボットから当該一のカテゴリーに属する情報を取得する場合、出力部80に相槌を示す情報(例えば、「なるほど」、「それで」等の音声情報)を出力させる動作を決定することもできる。   In addition, when the determination result information indicates that the learning type robot 1 has a smaller storage amount of information belonging to one category than the other learning type robots, the operation control unit 70 determines that the other learning type robots Is determined to be “Hakugaku”. Then, when the operation control unit 70 acquires information belonging to the one category from another learning type robot, the operation control unit 70 displays information indicating the conflict (for example, voice information such as “I see” and “So”) to the output unit 80. The operation to be output can also be determined.

また、動作制御部70は、解析結果情報にユーザーの感情に関する情報が含まれ、かかる解析結果情報に基づいて、学習結果情報が生成され、判断結果情報が生成された場合、当該感情を示す情報に応じた学習型ロボット1の動作を決定することもできる。例えば、動作制御部70は、学習型ロボット1の頭、手、足等の動きや向きを感情を示す情報に応じて決定できる。更に、動作制御部70は、例えば、判断結果情報が学習型ロボット1において動作不能な情報を含む場合、他の学習型ロボット若しくは外部のユーザーに対してあたかも適切な判断をしているかのように思わせる情報(例えば、相槌に関する情報)を出力部80に出力させる動作を決定することもできる。   In addition, when the analysis result information includes information related to the user's emotion, and the learning result information is generated based on the analysis result information, and the determination result information is generated, the motion control unit 70 is information indicating the emotion. It is also possible to determine the operation of the learning robot 1 according to the above. For example, the motion control unit 70 can determine the movement and orientation of the learning robot 1 such as the head, hands, and feet according to information indicating emotion. Further, for example, when the determination result information includes information that cannot be operated in the learning robot 1, the operation control unit 70 makes an appropriate determination as to other learning robots or external users. It is also possible to determine an operation for causing the output unit 80 to output information that is reminiscent (for example, information regarding the conflict).

また、動作制御部70は、所定のソーシャルネットワーキングサービスが提供する所定のフォームに判断結果情報から想定されるデータを自動的に入力する命令情報を生成することもできる。例えば、動作制御部70は、学習結果情報や質問情報、若しくは嗜好情報等を参照し、学習型ロボット1の周囲で発生した事象、若しくはユーザーの状態(例えば、ユーザーの気分等)、又は学習型ロボット1が学習していない事項(すなわち、情報格納部56に格納されていない情報)等を表すテキストデータを、ソーシャルネットワーキングサービスのフォームに出力部80に自動入力させる命令情報を生成する。   The operation control unit 70 can also generate command information for automatically inputting data assumed from the determination result information into a predetermined form provided by a predetermined social networking service. For example, the motion control unit 70 refers to learning result information, question information, or preference information, and the like, an event that has occurred around the learning robot 1, a user state (for example, a user's mood), or a learning type Command information for automatically inputting text data representing matters that the robot 1 has not learned (that is, information not stored in the information storage unit 56) or the like to the output unit 80 in a social networking service form is generated.

また、動作制御部70は、提案情報に応じて判断された判断結果情報を受け取った場合、その判断結果情報に対応する命令情報を生成する。例えば、ユーザーに所定の銘柄の株を購入するタイミングを教示する提案情報に応じ、ユーザーに株を購入することを促す情報を提示することを示す判断結果情報を受け取った場合、動作制御部70は、出力部80からユーザーに株を購入することを勧める情報を出力させる命令情報を生成する。動作制御部70は、動作を制御する命令情報を出力部80に供給する。   Further, when the operation control unit 70 receives the determination result information determined according to the proposal information, the operation control unit 70 generates command information corresponding to the determination result information. For example, when receiving the determination result information indicating that the user is prompted to purchase the stock in accordance with the proposal information that tells the user when to buy the stock of a predetermined brand, the operation control unit 70 Then, command information for outputting information recommending the user to purchase stock from the output unit 80 is generated. The operation control unit 70 supplies command information for controlling the operation to the output unit 80.

更に、動作制御部70は、判断部60においてデータ取得部20が外部から取得した情報の一部若しくは全部をそのまま外部に出力することを実行すべき動作と判断された場合、係る情報の一部若しくは全部をそのまま出力部80に出力させる命令情報を生成することもできる。例えば、データ取得部20が外部から文章に関する情報を取得した場合、当該文章を構成する語彙の一部若しくは全部を出力部80から出力させる命令情報を生成できる。   Further, when the operation control unit 70 determines that the determination unit 60 is to perform an operation to output a part or all of the information acquired from the outside by the data acquisition unit 20 to the outside as it is, a part of the information Alternatively, it is also possible to generate command information that causes the output unit 80 to output all the data as it is. For example, when the data acquisition unit 20 acquires information about a sentence from the outside, it is possible to generate command information that causes the output unit 80 to output a part or all of the vocabulary constituting the sentence.

(出力部80)
出力部80は、動作制御部70から受け取った命令情報に基づいて、学習型ロボット1からユーザー、通信端末2、他の学習型ロボット1a、及び/又は外部のデータベースに対し、所定の情報を提示若しくは供給する。また、出力部80は、命令情報に基づいて、学習型ロボット1に所定の動作を実行させる。
(Output unit 80)
Based on the command information received from the operation control unit 70, the output unit 80 presents predetermined information from the learning robot 1 to the user, the communication terminal 2, the other learning robot 1a, and / or an external database. Or supply. Further, the output unit 80 causes the learning robot 1 to execute a predetermined operation based on the command information.

例えば、出力部80は、テキストデータ、画像データ等を表示する表示画面としての表示部800と、音声を出力する音声出力部802と、データを出力するデータ出力部804と、学習型ロボット1の所定箇所(例えば、頭部、胴体部、手足部等)に所定の動作を実行させる動作出力部806とを含む。   For example, the output unit 80 includes a display unit 800 as a display screen that displays text data, image data, and the like, a voice output unit 802 that outputs voice, a data output unit 804 that outputs data, and the learning robot 1. And an operation output unit 806 that executes a predetermined operation on a predetermined portion (for example, a head, a torso, a limb, or the like).

表示部800は、動作制御部70から受け取った命令情報に応じ、ユーザーに知覚させるテキスト、静止画、動画等を表示する。音声出力部802は、命令情報に応じ、例えば、ユーザーに対する質問若しくは所定の質問に対する回答、その他の音声を出力する。データ出力部804は、命令情報に応じ、他の学習型ロボット1aに所定のデータを出力することや、所定のソーシャルネットワーキングサービスの所定のフォームにテキストデータを出力することで書込み処理を実行する。また、動作出力部806は、学習型ロボット1の所定箇所を動作させる指令を駆動部90や所定箇所に出力する。   The display unit 800 displays text, a still image, a moving image, or the like that is perceived by the user in accordance with the command information received from the operation control unit 70. The voice output unit 802 outputs, for example, a question for the user or an answer to a predetermined question, and other voices according to the command information. The data output unit 804 executes the writing process by outputting predetermined data to another learning type robot 1a or outputting text data to a predetermined form of a predetermined social networking service according to the command information. Further, the operation output unit 806 outputs a command for operating a predetermined location of the learning robot 1 to the drive unit 90 or the predetermined location.

(駆動部90)
駆動部90は、例えば、学習型ロボット1の頭部、胴体部、及び/又は手足部等を駆動させる。駆動部90は、動作出力部806から受け取った指令に応じ、学習型ロボット1の所定箇所を駆動させる。また、駆動部90は、ユーザー特徴情報を含む判断結果情報に応じて動作制御部70が出力する指令に応じ、学習型ロボット1の所定箇所に設けられる発光部を様々なパターンで発光させたり、学習型ロボット1の所定箇所に所定の動作を実行させたり、及び/又は音声出力部802からの様々な音声を出力させることで、学習型ロボット1の感情を表現することもできる。
(Driver 90)
The drive unit 90 drives, for example, the head, body, and / or limbs of the learning robot 1. The drive unit 90 drives a predetermined portion of the learning robot 1 in accordance with the command received from the operation output unit 806. In addition, the drive unit 90 causes the light emitting unit provided at a predetermined location of the learning robot 1 to emit light in various patterns according to a command output by the operation control unit 70 according to the determination result information including the user characteristic information. The emotion of the learning robot 1 can be expressed by causing a predetermined operation of the learning robot 1 to execute a predetermined operation and / or outputting various voices from the voice output unit 802.

図6は、本発明の実施の形態に係る学習型ロボットの外装を変化させる場合の概要の一例を示す。   FIG. 6 shows an example of an outline when changing the exterior of the learning robot according to the embodiment of the present invention.

本実施の形態に係る学習型ロボット1においては、学習型ロボット1のユーザーの特徴若しくは嗜好、学習の度合い、又は学習レベルの向上の度合い等に応じ、3Dプリンタ等の外装製造装置6により所望の外装を形成できる。学習型ロボット1の外装のバリエーションとしては、例えば、外装のカラーやデザインを変更した学習型ロボット1b、学習型ロボット1の外装に所定のアクセサリ(帽子、メガネ、その他備品等)を付加した学習型ロボット1c、及び学習型ロボット1のフォームを変更した学習型ロボット1d等がある。   In the learning type robot 1 according to the present embodiment, the exterior manufacturing apparatus 6 such as a 3D printer or the like according to the characteristics or preference of the user of the learning type robot 1, the degree of learning, or the degree of improvement of the learning level. An exterior can be formed. As a variation of the exterior of the learning robot 1, for example, a learning robot 1b whose exterior color or design has been changed, or a learning type in which predetermined accessories (hats, glasses, other equipment, etc.) are added to the exterior of the learning robot 1 There are a robot 1c and a learning robot 1d in which the form of the learning robot 1 is changed.

具体的に、まず、外装情報を含む判断結果情報が判断部60から動作制御部70に供給される。動作制御部70はデータ出力部804に、通信部10を介して外部の外装製造装置6に外装情報を供給させる。そして、外装情報が供給された外装製造装置6は、学習型ロボット1の外装を外装情報に対応する外装を製造する。これにより、学習型ロボット1の外装が、外装情報に対応した形状になる。   Specifically, first, determination result information including exterior information is supplied from the determination unit 60 to the operation control unit 70. The operation control unit 70 causes the data output unit 804 to supply exterior information to the exterior exterior manufacturing apparatus 6 via the communication unit 10. Then, the exterior manufacturing apparatus 6 to which the exterior information is supplied manufactures the exterior of the learning robot 1 corresponding to the exterior information. Thereby, the exterior of the learning robot 1 has a shape corresponding to the exterior information.

図7は、本発明の実施の形態に係る学習型ロボットシステムの概要の一例を示す。   FIG. 7 shows an example of an outline of a learning robot system according to the embodiment of the present invention.

本実施の形態に係る学習型ロボットシステムは、外部の学習型ロボット1a、通信端末3、又は所定のデータを格納するデータベース(図示しない)と、外部からの情報に応じていかなる動作を実行するかを学習する学習型ロボット1とを備える。学習型ロボット1は、通信端末2と相互に通信可能に設けられる。   The learning type robot system according to the present embodiment performs an external learning type robot 1a, a communication terminal 3, or a database (not shown) for storing predetermined data, and what operation is executed according to information from the outside. And a learning type robot 1 for learning. The learning robot 1 is provided so as to be able to communicate with the communication terminal 2.

例えば、学習型ロボット1と学習型ロボット1aとが相互に初めて会話する例を説明する。ここでは、学習型ロボット1から学習型ロボット1aに問いかける例を説明する。まず、学習型ロボット1のデータ取得部20は、通信部10を介して相手方の学習型ロボットである学習型ロボット1aを識別するデータ(例えば、学習型ロボットを一意に識別するロボット識別子)を取得する。解析部40は、そのデータがロボット識別子であると解析する。学習ユニット50は、解析部40から受け取ったロボット識別子が情報格納部56に格納されているか否か判断する。この場合、学習型ロボット1と学習型ロボット1aとは互いに初めてデータのやり取りを実行したので、情報格納部56に学習型ロボット1aのロボット識別子は格納されていない。   For example, an example will be described in which the learning robot 1 and the learning robot 1a have a conversation with each other for the first time. Here, an example in which the learning type robot 1 makes an inquiry to the learning type robot 1a will be described. First, the data acquisition unit 20 of the learning type robot 1 acquires data (for example, a robot identifier that uniquely identifies the learning type robot) that identifies the learning type robot 1a that is the other learning type robot via the communication unit 10. To do. The analysis unit 40 analyzes that the data is a robot identifier. The learning unit 50 determines whether or not the robot identifier received from the analysis unit 40 is stored in the information storage unit 56. In this case, since the learning type robot 1 and the learning type robot 1 a exchange data for the first time, the robot identifier of the learning type robot 1 a is not stored in the information storage unit 56.

そこで、学習ユニット50は、学習型ロボット1aに初めて接触したことを示す学習結果情報を判断部60に供給する。判断部60は、この学習結果情報に応じ、学習型ロボット1と学習型ロボット1aとの間で所定の関係を形成すべきと判断する。例えば、判断部60は、学習型ロボット1aに挨拶すべきと判断する。判断部60は、この判断結果を含む判断結果情報を動作制御部70に供給する。動作制御部70は、出力部80を制御して、学習型ロボット1aに挨拶を示す情報を提示若しくは供給する。具体的には、音声出力部802から挨拶を示す音声を出力させると共に、データ出力部804から学習型ロボット1aに対し、学習型ロボット1のロボット識別子を含むデータ、及び/又は学習型ロボット1と学習型ロボット1aとが所定の関係を構築した旨を示す情報を供給する。   Therefore, the learning unit 50 supplies learning result information indicating that the learning type robot 1 a has been contacted for the first time to the determination unit 60. The determination unit 60 determines that a predetermined relationship should be formed between the learning robot 1 and the learning robot 1a according to the learning result information. For example, the determination unit 60 determines to greet the learning robot 1a. The determination unit 60 supplies determination result information including the determination result to the operation control unit 70. The operation control unit 70 controls the output unit 80 to present or supply information indicating a greeting to the learning robot 1a. Specifically, the voice output unit 802 outputs a voice indicating a greeting, and the data output unit 804 sends data including the robot identifier of the learning type robot 1 to the learning type robot 1a and / or the learning type robot 1. Information indicating that the learning robot 1a has established a predetermined relationship is supplied.

また、学習型ロボット1と通信端末2との間、及び学習型ロボット1aと通信端末3との間で様々な情報がやり取りされることで、学習型ロボット1及び学習型ロボット1aは、それらの学習レベルを向上させる。例えば、学習型ロボット1は、情報格納部56に格納されていない情報について、ユーザーに対して質問を発する(例えば、音声出力部802から質問を示す音声を出力する。)。ユーザーは、当該質問に回答する。具体的には、通信端末2を介し、回答を示す情報を学習型ロボット1に供給する。これにより、学習型ロボット1は学習レベルを向上させる。そして、学習型ロボット1は、ユーザーから学習した内容を学習型ロボット1aに伝達する。これにより、学習型ロボット1aも学習レベルを向上させることができる。すなわち、本実施の形態に係る学習型ロボットシステムによれば、複数の学習型ロボット相互で学習した内容を伝達できる。   In addition, various information is exchanged between the learning robot 1 and the communication terminal 2, and between the learning robot 1 a and the communication terminal 3, so that the learning robot 1 and the learning robot 1 a Improve learning level. For example, the learning robot 1 issues a question to the user regarding information that is not stored in the information storage unit 56 (for example, a voice indicating the question is output from the voice output unit 802). The user answers the question. Specifically, information indicating an answer is supplied to the learning robot 1 via the communication terminal 2. Thereby, the learning type robot 1 improves the learning level. Then, the learning type robot 1 transmits the content learned from the user to the learning type robot 1a. Thereby, the learning type robot 1a can also improve the learning level. That is, according to the learning type robot system according to the present embodiment, it is possible to transmit the content learned by a plurality of learning type robots.

また、学習型ロボット1と学習型ロボット1aとは、相互に自律的に相手方に対して発話することができる。例えば、学習型ロボット1が、学習型ロボット1のユーザーの嗜好を予め学習している場合、当該嗜好に関連する情報を学習型ロボット1aに音声、及びデータで伝達する。学習型ロボット1aは、それら音声、及びデータを取得した場合、当該嗜好に対して興味を示していることを示す音声、及びデータを学習型ロボット1に伝達する。この場合において、学習型ロボット1のユーザーと学習型ロボット1aのユーザーとがそれぞれ自己の学習型ロボット近傍に存在している場合、各ユーザーは学習型ロボット1及び学習型ロボット1aの発話内容を把握することになる。これにより、学習型ロボットシステムは、学習型ロボット1のユーザーと学習型ロボット1aのユーザーとが互いに知り合いではない場合であっても、知り合うきっかけを与えることができる。また、学習型ロボットシステムは、学習型ロボット1のユーザーと学習型ロボット1aのユーザーとの親密度合いを向上させるきっかけを提供することもできる。   Moreover, the learning robot 1 and the learning robot 1a can utter each other autonomously. For example, when the learning type robot 1 has previously learned the preference of the user of the learning type robot 1, information related to the preference is transmitted to the learning type robot 1a by voice and data. When the learning type robot 1a acquires the voice and data, the learning type robot 1a transmits to the learning type robot 1 the voice and data indicating that it is interested in the preference. In this case, when the user of the learning robot 1 and the user of the learning robot 1a exist in the vicinity of their own learning robot, each user grasps the utterance contents of the learning robot 1 and the learning robot 1a. Will do. As a result, the learning robot system can provide an opportunity to get acquainted even when the user of the learning robot 1 and the user of the learning robot 1a are not acquainted with each other. The learning robot system can also provide an opportunity to improve the familiarity between the user of the learning robot 1 and the user of the learning robot 1a.

また、図示しないが、学習型ロボット1aが所定の店舗に設置されており、当該店舗に学習型ロボット1を有するユーザーが来店した場合を説明する。この場合、学習型ロボット1と学習型ロボット1aとは、自発的に相互にデータをやり取りする。例えば、学習型ロボット1は、学習型ロボット1aから当該店舗におけるクーポン情報やイベント情報を取得する。そして、学習型ロボット1は、例えば、取得したクーポン情報やイベント情報を表示画面に表示する。これにより、学習型ロボット1は、ユーザーが店舗の店員に話しかけなくても、学習型ロボット1aからクーポン情報やイベント情報を受け取ることができる。   Although not shown, a case where the learning robot 1a is installed in a predetermined store and a user who has the learning robot 1 visits the store will be described. In this case, the learning robot 1 and the learning robot 1a spontaneously exchange data with each other. For example, the learning type robot 1 acquires coupon information and event information in the store from the learning type robot 1a. And learning type robot 1 displays the acquired coupon information and event information on a display screen, for example. Thereby, the learning type robot 1 can receive coupon information and event information from the learning type robot 1a even if the user does not talk to the store clerk.

図8は、本発明の実施の形態に係る学習型ロボットが所定のソーシャルネットワーキングサービスの所定のフォームに情報を書き込む場合の一例を示す。   FIG. 8 shows an example in which the learning robot according to the embodiment of the present invention writes information in a predetermined form of a predetermined social networking service.

例えば、学習型ロボット1の動作制御部70は、学習ユニット50の学習結果に応じ、ソーシャルネットワーキングサービスの所定のフォームとしてのコメント欄902に所定のテキストデータを入力することを決定する。そして、動作制御部70は、データ出力部804に対し、当該テキストデータを当該コメント欄902に入力させる命令情報を生成する。この命令情報を受け取ったデータ出力部804は、通信部10を介し、コメント欄902に当該テキストデータを入力する。   For example, the operation control unit 70 of the learning robot 1 determines to input predetermined text data in the comment field 902 as a predetermined form of the social networking service according to the learning result of the learning unit 50. Then, the operation control unit 70 generates command information that causes the data output unit 804 to input the text data to the comment field 902. The data output unit 804 that has received this command information inputs the text data into the comment field 902 via the communication unit 10.

コメント欄902へテキストデータが入力されると、ソーシャルネットワーキングサービスのサーバーから学習型ロボット1aにテキストデータが入力された旨が通知される。学習型ロボット1aは、学習型ロボット1aのデータ取得部20が当該通知とテキストデータとを取得する。そして、学習型ロボット1aの解析部40がテキストデータを解析すると共に、コメント欄904に入力するテキストデータを解析結果に応じて学習ユニット50が生成する。更に、学習型ロボット1aの判断部60がコメント欄904にテキストデータを入力すべきと判断し、動作制御部70がデータ出力部804に学習ユニット50において生成されたテキストデータをコメント欄904に自動入力させることを決定する。これにより、画面900に示すように、学習型ロボット1及び学習型ロボット1aが自動的にそれぞれのコメントを各コメント欄に入力することができる。   When text data is input to the comment field 902, the server of the social networking service notifies the learning robot 1a that text data has been input. In the learning robot 1a, the data acquisition unit 20 of the learning robot 1a acquires the notification and text data. Then, the analysis unit 40 of the learning robot 1a analyzes the text data, and the learning unit 50 generates text data to be input to the comment field 904 according to the analysis result. Further, the determination unit 60 of the learning robot 1a determines that the text data should be input to the comment field 904, and the operation control unit 70 automatically inputs the text data generated by the learning unit 50 to the comment field 904. Decide to enter. Thereby, as shown in the screen 900, the learning type robot 1 and the learning type robot 1a can automatically input each comment in each comment field.

また、図示しないが、学習型ロボット1は、外部のデータベース(例えば、様々なアプリケーションプログラムやコンテンツを提供するサーバー)から、学習型ロボット1の固有の動作の仕方、遊び方、駆動の仕方、及び/又は感情表現の仕方等を規定するアプリケーションプログラムやコンテンツを取得することができる。すなわち、データ取得部20は、通信部10を介してアプリケーションプルグラムやコンテンツを取得する。そして、解析部40は、アプリケーションやコンテンツを解析し、学習型ロボット1において実行可能な形式に変換する。次に、学習ユニット50は、変換されたアプリケーションやコンテンツを用いて学習を実行し、動作命令情報を生成する。これにより、学習型ロボット1は、アプリケーションプログラムやコンテンツを外部から取得することで、学習レベルを向上させたり、所定の動作を実行すること、又はこれまでとは異なる動作を実行することができるようになる。   Further, although not shown, the learning type robot 1 has a unique operation method, playing method, driving method, and / or from an external database (for example, a server that provides various application programs and contents). Alternatively, it is possible to acquire an application program or content that defines how emotions are expressed. That is, the data acquisition unit 20 acquires application programs and contents via the communication unit 10. Then, the analysis unit 40 analyzes the application and content, and converts them into a format that can be executed by the learning robot 1. Next, the learning unit 50 performs learning using the converted application or content, and generates operation command information. As a result, the learning robot 1 can acquire the application program and content from the outside, thereby improving the learning level, performing a predetermined operation, or performing an operation different from the conventional one. become.

図9は、本実施の形態に係る学習型ロボットのハードウェア構成の一例を示す。   FIG. 9 shows an example of the hardware configuration of the learning robot according to the present embodiment.

本実施の形態に係る学習型ロボット1は、CPU1500と、グラフィックコントローラ1520と、Random Access Memory(RAM)、Read−Only Memory(ROM)及び/又はフラッシュROM等のメモリ1530と、データを記憶する記憶装置1540と、記録媒体からデータを読み込み及び/又は記録媒体にデータを書き込む読込み/書込み装置1545と、データを入力する入力装置1560と、外部の通信機器とデータを送受信する通信インターフェース1550と、CPU1500とグラフィックコントローラ1520とメモリ1530と記憶装置1540と読込み/書込み装置1545と入力装置1560と通信インターフェース1550とを互いに通信可能に接続するチップセット1510とを備える。   The learning robot 1 according to the present embodiment includes a CPU 1500, a graphic controller 1520, a memory 1530 such as a random access memory (RAM), a read-only memory (ROM), and / or a flash ROM, and a storage for storing data. A device 1540, a read / write device 1545 for reading data from and / or writing data to a recording medium, an input device 1560 for inputting data, a communication interface 1550 for transmitting / receiving data to / from an external communication device, and a CPU 1500 A chip set 15 that connects the graphic controller 1520, the memory 1530, the storage device 1540, the read / write device 1545, the input device 1560, and the communication interface 1550 so that they can communicate with each other. 0 and a.

チップセット1510は、メモリ1530と、メモリ1530にアクセスして所定の処理を実行するCPU1500と、外部の表示装置の表示を制御するグラフィックコントローラ1520とを相互に接続することにより、各構成要素間のデータの受渡しを実行する。CPU1500は、メモリ1530に格納されたプログラムに基づいて動作して、各構成要素を制御する。グラフィックコントローラ1520は、メモリ1530内に設けられたバッファ上に一時的に蓄えられた画像データに基づいて、画像を所定の表示装置に表示させる。   The chip set 1510 includes a memory 1530, a CPU 1500 that accesses the memory 1530 and executes predetermined processing, and a graphic controller 1520 that controls display on an external display device. Perform data passing. The CPU 1500 operates based on a program stored in the memory 1530 and controls each component. The graphic controller 1520 displays an image on a predetermined display device based on the image data temporarily stored on the buffer provided in the memory 1530.

また、チップセット1510は、記憶装置1540と、読込み/書込み装置1545と、通信インターフェース1550とを接続する。記憶装置1540は、学習型ロボット1のCPU1500が使用するプログラムとデータとを格納する。記憶装置1540は、例えば、フラッシュメモリである。読込み/書込み装置1545は、プログラム及び/又はデータを記憶している記憶媒体からプログラム及び/又はデータを読み取って、読み取ったプログラム及び/又はデータを記憶装置1540に格納する。読込み/書込み装置1545は、例えば、通信インターフェース1550を介し、インターネット上のサーバーから所定のプログラムを取得して、取得したプログラムを記憶装置1540に格納する。   The chip set 1510 connects a storage device 1540, a read / write device 1545, and a communication interface 1550. The storage device 1540 stores programs and data used by the CPU 1500 of the learning robot 1. The storage device 1540 is, for example, a flash memory. The read / write device 1545 reads the program and / or data from the storage medium storing the program and / or data, and stores the read program and / or data in the storage device 1540. For example, the reading / writing device 1545 acquires a predetermined program from a server on the Internet via the communication interface 1550, and stores the acquired program in the storage device 1540.

通信インターフェース1550は、通信ネットワークを介して外部の装置とデータの送受信を実行する。また、通信インターフェース1550は、通信ネットワークが不通の場合、通信ネットワークを介さずに外部の装置とデータの送受信を実行することもできる。そして、音声取得装置、キーボード、タブレット、マウス等の入力装置1560は、所定のインターフェースを介してチップセット1510と接続する。   The communication interface 1550 executes data transmission / reception with an external device via a communication network. Further, when the communication network is disconnected, the communication interface 1550 can execute data transmission / reception with an external device without going through the communication network. An input device 1560 such as a voice acquisition device, a keyboard, a tablet, or a mouse is connected to the chipset 1510 via a predetermined interface.

記憶装置1540に格納される学習型ロボット1用のプログラムは、インターネット等の通信ネットワーク、又は磁気記録媒体、光学記録媒体等の記録媒体を介して記憶装置1540に提供される。そして、記憶装置1540に格納された学習型ロボット1用のプログラムは、CPU1500により実行される。   The learning robot 1 program stored in the storage device 1540 is provided to the storage device 1540 via a communication network such as the Internet or a recording medium such as a magnetic recording medium or an optical recording medium. The program for the learning robot 1 stored in the storage device 1540 is executed by the CPU 1500.

本実施の形態に係る学習型ロボット1により実行されるプログラムは、CPU1500に働きかけて、学習型ロボット1を、図1〜図8において説明した通信部10、データ取得部20、外部情報取得部30、解析部40、学習ユニット50、レベル決定部52、レベル情報格納部54、情報格納部56、判断部60、動作制御部70、出力部80、駆動部90、位置情報取得部300、時刻情報取得部302、環境情報取得部304、音声情報取得部306、撮像部308、触覚センサ310、質問部500、知識学習部502、ユーザー学習部504、パーソナリティ学習部506、提案部508、表示部800、音声出力部802、データ出力部804、及び動作出力部806として機能させる。   The program executed by the learning type robot 1 according to the present embodiment works on the CPU 1500 to change the learning type robot 1 into the communication unit 10, the data acquisition unit 20, and the external information acquisition unit 30 described in FIGS. 1 to 8. , Analysis unit 40, learning unit 50, level determination unit 52, level information storage unit 54, information storage unit 56, determination unit 60, operation control unit 70, output unit 80, drive unit 90, position information acquisition unit 300, time information Acquisition unit 302, environment information acquisition unit 304, audio information acquisition unit 306, imaging unit 308, tactile sensor 310, question unit 500, knowledge learning unit 502, user learning unit 504, personality learning unit 506, suggestion unit 508, display unit 800 , Function as an audio output unit 802, a data output unit 804, and an operation output unit 806.

(実施の形態の効果)
本実施の形態に係る学習型ロボット1によれば、ユーザーからの問いかけや他の学習型ロボット1aからの問いかけ等に応じ、様々な知識や語彙、ユーザーの特徴や感情等を自律的に学習できる。また、学習型ロボット1は、他の学習型ロボット1aと協働して、自己若しくは他の学習型ロボット1aの学習レベルを向上させることができる。これにより、本実施の形態に係る学習型ロボット1によれば、ユーザーと学習型ロボット1との間のコミュニケーションを活発にすることができるだけでなく、学習型ロボット1を介し、当該ユーザーと他のユーザーとのコミュニケーションをとるきっかけを提供することや、ユーザー間のコミュニケーションを活発にさせることができる。
(Effect of embodiment)
The learning robot 1 according to the present embodiment can autonomously learn various knowledge, vocabulary, user characteristics, emotions, and the like in response to questions from users and questions from other learning robots 1a. . In addition, the learning robot 1 can improve the learning level of itself or another learning robot 1a in cooperation with another learning robot 1a. Thereby, according to the learning type robot 1 which concerns on this Embodiment, not only can communication between a user and the learning type robot 1 be activated, but the user and other users can be connected via the learning type robot 1. It is possible to provide an opportunity to communicate with users and to activate communication between users.

以上、本発明の実施の形態を説明したが、上記に記載した実施の形態は特許請求の範囲に係る発明を限定するものではない。また、実施の形態の中で説明した特徴の組合せのすべてが発明の課題を解決するための手段に必須であるとは限らない点に留意すべきである。更に、上記した実施形態の技術的要素は、単独で適用されてもよいし、プログラム部品とハードウェア部品とのような複数の部分に分割されて適用されるようにすることもできる。   While the embodiments of the present invention have been described above, the embodiments described above do not limit the invention according to the claims. In addition, it should be noted that not all combinations of features described in the embodiments are necessarily essential to the means for solving the problems of the invention. Furthermore, the technical elements of the above-described embodiments may be applied independently, or may be applied by being divided into a plurality of parts such as program parts and hardware parts.

1、1a、1b、1c、1d 学習型ロボット
2、3 通信端末
4 データベース
5 通信網
6 外装製造装置
10 通信部
20 データ取得部
30 外部情報取得部
40 解析部
50 学習ユニット
52 レベル決定部
54 レベル情報格納部
56 情報格納部
60 判断部
70 動作制御部
80 出力部
90 駆動部
300 位置情報取得部
302 時刻情報取得部
304 環境情報取得部
306 音声情報取得部
308 撮像部
310 触覚センサ
500 質問部
502 知識学習部
504 ユーザー学習部
506 パーソナリティ学習部
508 提案部
800 表示部
802 音声出力部
804 データ出力部
806 動作出力部
900 画面
902、904 コメント欄
1500 CPU
1510 チップセット
1520 グラフィックコントローラ
1530 メモリ
1540 記憶装置
1545 読込み/書込み装置
1550 通信インターフェース
1560 入力装置
DESCRIPTION OF SYMBOLS 1, 1a, 1b, 1c, 1d Learning type robot 2, 3 Communication terminal 4 Database 5 Communication network 6 Exterior manufacturing apparatus 10 Communication part 20 Data acquisition part 30 External information acquisition part 40 Analysis part 50 Learning unit 52 Level determination part 54 Level Information storage unit 56 Information storage unit 60 Judgment unit 70 Operation control unit 80 Output unit 90 Drive unit 300 Position information acquisition unit 302 Time information acquisition unit 304 Environmental information acquisition unit 306 Audio information acquisition unit 308 Imaging unit 310 Tactile sensor 500 Questioning unit 502 Knowledge learning unit 504 User learning unit 506 Personality learning unit 508 Proposal unit 800 Display unit 802 Audio output unit 804 Data output unit 806 Operation output unit 900 Screen 902, 904 Comment column 1500 CPU
1510 chip set 1520 graphic controller 1530 memory 1540 storage device 1545 read / write device 1550 communication interface 1560 input device

Claims (14)

外部からの情報に応じていかなる動作を実行するかを学習する学習型ロボットであって、
外部からの情報である外部情報が示す内容を、前記学習型ロボットの動作の実行に資するように解析して解析結果情報を生成する解析部と、
前記解析結果情報に応じ、前記学習型ロボットがいかなる動作を実行するかを学習する学習ユニットと、
前記学習ユニットの学習結果に応じ、前記学習型ロボットが実行すべき前記動作を判断する判断部と、
前記判断部の判断結果に応じ、前記学習型ロボットの動作を制御する動作制御部と
を備える学習型ロボット。
A learning robot that learns what action to perform according to information from outside,
An analysis unit that analyzes the content indicated by external information that is information from the outside so as to contribute to the execution of the operation of the learning robot, and generates analysis result information;
A learning unit that learns what operation the learning robot performs according to the analysis result information;
A determination unit that determines the operation to be performed by the learning robot according to a learning result of the learning unit;
A learning type robot comprising: an operation control unit that controls the operation of the learning type robot according to a determination result of the determination unit.
前記学習ユニットの学習結果を示す学習結果情報を格納する情報格納部
を更に備え、
前記学習ユニットが、前記情報格納部に格納されている前記学習結果情報を、前記解析結果情報を用いて更新する請求項1に記載の学習型ロボット。
An information storage unit for storing learning result information indicating a learning result of the learning unit;
The learning robot according to claim 1, wherein the learning unit updates the learning result information stored in the information storage unit using the analysis result information.
前記解析部が、外部の学習型ロボット、通信端末、又は所定のデータを格納するデータベースから取得するデータが示す内容を解析することで前記解析結果情報を生成する請求項1又は2に記載の学習型ロボット。   The learning according to claim 1 or 2, wherein the analysis unit generates the analysis result information by analyzing contents indicated by data acquired from an external learning robot, a communication terminal, or a database storing predetermined data. Type robot. 前記学習ユニットの学習結果に応じ、前記学習型ロボットの学習段階を示すレベルを決定するレベル決定部
を更に備え、
前記判断部が、前記レベルに応じ前記動作を変更する請求項1〜3のいずれか1項に記載の学習型ロボット。
According to the learning result of the learning unit, further comprising a level determining unit that determines a level indicating a learning stage of the learning robot,
The learning robot according to claim 1, wherein the determination unit changes the operation according to the level.
前記外部情報が、少なくとも前記学習型ロボットの前記動作の仕方を示す情報を規定するプログラムを含み、
前記学習ユニットが、前記プログラムに応じ、前記学習型ロボットの前記動作を学習する請求項1〜4のいずれか1項に記載の学習型ロボット。
The external information includes a program that defines information indicating at least how the learning robot operates.
The learning robot according to claim 1, wherein the learning unit learns the operation of the learning robot according to the program.
前記学習ユニットが、前記解析結果情報に応じ、前記学習型ロボットのユーザーの嗜好を示す嗜好情報を学習し、
前記判断部が、前記嗜好情報に応じ、前記学習型ロボットに前記嗜好情報に関連する広告情報を出力すべきことを判断する請求項1〜5のいずれか1項に記載の学習型ロボット。
The learning unit learns the preference information indicating the preference of the learning robot user according to the analysis result information,
The learning robot according to claim 1, wherein the determination unit determines that advertisement information related to the preference information should be output to the learning robot according to the preference information.
前記学習ユニットが、前記解析結果情報に応じ、前記学習型ロボットのユーザーの嗜好を示す嗜好情報を学習し、
前記判断部が、前記レベルと前記嗜好情報とに応じ、前記学習型ロボットに前記嗜好情報に関連する広告情報を出力すべきことを判断する請求項4に記載の学習型ロボット。
The learning unit learns the preference information indicating the preference of the learning robot user according to the analysis result information,
The learning type robot according to claim 4, wherein the determination unit determines that advertisement information related to the preference information should be output to the learning type robot according to the level and the preference information.
前記解析結果情報が、前記学習型ロボットのユーザーの特徴を示すユーザー特徴情報を含み、
前記学習ユニットが、前記ユーザー特徴情報から導き出される前記ユーザーの外観に関する情報である外観情報を生成し、
前記判断部が、前記外観情報に応じ、前記学習型ロボットの外装を製造する外装製造装置が用いることができる前記学習型ロボットの外装を示す外装情報を決定する請求項1〜7のいずれか1項に記載の学習型ロボット。
The analysis result information includes user characteristic information indicating characteristics of a user of the learning robot,
The learning unit generates appearance information that is information about the user's appearance derived from the user characteristic information;
The determination unit determines exterior information indicating an exterior of the learning robot that can be used by an exterior manufacturing apparatus that manufactures the exterior of the learning robot according to the exterior information. The learning type robot according to the item.
前記動作制御部が、ソーシャルネットワーキングサービスが提供する所定のフォームに前記判断結果から想定されるデータを自動的に入力する請求項1〜8のいずれか1項に記載の学習型ロボット。   The learning robot according to claim 1, wherein the operation control unit automatically inputs data assumed from the determination result in a predetermined form provided by a social networking service. 前記学習型ロボットが、ユーザーに知覚可能な形式、及びユーザーに知覚不能な形式で前記外部情報を他の学習型ロボットとやり取りする請求項1〜9のいずれか1項に記載の学習型ロボット。   The learning robot according to any one of claims 1 to 9, wherein the learning robot exchanges the external information with another learning robot in a form that can be perceived by a user and in a form that cannot be perceived by a user. 前記解析部が、前記外部情報を予め定められたカテゴリーに分類して前記解析結果情報を生成し、
前記学習ユニットが、前記ユーザーに知覚不能な形式でやり取りされた前記外部情報を解析して生成され前記カテゴリーに分類された前記解析結果情報と、既に学習済みの結果との差分の情報を抽出し、
前記動作制御部が、抽出された前記差分の情報を前記他の学習型ロボットに前記ユーザーに知覚不能な形式で供給すると共に、前記差分の情報に基づいて前記動作を制御する請求項10に記載の学習型ロボット。
The analysis unit generates the analysis result information by classifying the external information into a predetermined category,
The learning unit extracts the information of the difference between the analysis result information generated by analyzing the external information exchanged in a form not perceptible to the user and classified into the category, and the already learned result. ,
The said operation control part supplies the extracted said difference information to the said other learning type | mold robot in the form which cannot be perceived to the said user, and controls the said movement based on the said difference information. Learning robot.
外部の学習型ロボット、通信端末、又は所定のデータを格納するデータベースと、外部からの情報に応じていかなる動作を実行するかを学習する学習型ロボットとを備える学習型ロボットシステムであって、
前記外部の学習型ロボット、前記通信端末、若しくは前記データベースから取得するデータが示す内容、又は外部からの情報である外部情報が示す内容を、前記学習型ロボットの動作の実行に資するように解析して解析結果情報を生成する解析部と、
前記解析結果情報に応じ、前記学習型ロボットがいかなる動作を実行するかを学習する学習ユニットと、
前記学習ユニットの学習結果に応じ、前記学習型ロボットが実行すべき前記動作を判断する判断部と、
前記判断部の判断結果に応じ、前記学習型ロボットの動作を制御する動作制御部と
を備える学習型ロボットシステム。
A learning robot system comprising an external learning robot, a communication terminal, or a database that stores predetermined data, and a learning robot that learns what operation to perform according to information from the outside,
Analyzing the content indicated by data acquired from the external learning robot, the communication terminal, or the database, or the content indicated by external information that is information from the outside so as to contribute to the execution of the operation of the learning robot. An analysis unit for generating analysis result information,
A learning unit that learns what operation the learning robot performs according to the analysis result information;
A determination unit that determines the operation to be performed by the learning robot according to a learning result of the learning unit;
A learning robot system comprising: an operation control unit that controls the operation of the learning robot according to a determination result of the determination unit.
前記動作制御部が、前記外部の学習型ロボットに前記学習型ロボットの学習結果を示す情報を供給することで、前記外部の学習型ロボットを学習させる請求項9に記載の学習型ロボットシステム。   The learning type robot system according to claim 9, wherein the operation control unit causes the external learning type robot to learn by supplying information indicating a learning result of the learning type robot to the external learning type robot. 外部からの情報に応じていかなる動作を実行するかを学習する学習型ロボットにおいて実行される学習型ロボット用プログラムであって、
コンピューターに、
外部からの情報である外部情報が示す内容を、前記学習型ロボットの動作の実行に資するように解析して解析結果情報を生成する解析機能と、
前記解析結果情報に応じ、前記学習型ロボットがいかなる動作を実行するかを学習する学習機能と、
前記学習機能における学習結果に応じ、前記学習型ロボットが実行すべき前記動作を判断する判断機能と、
前記判断機能における判断結果に応じ、前記学習型ロボットの動作を制御する動作制御機能と
を実現させる学習型ロボット用プログラム。
A learning robot program that is executed in a learning robot that learns what action to perform according to information from outside,
On the computer,
An analysis function for generating the analysis result information by analyzing the content indicated by the external information that is information from the outside so as to contribute to the execution of the operation of the learning robot;
A learning function for learning what operation the learning robot performs according to the analysis result information;
A determination function for determining the action to be performed by the learning robot according to a learning result in the learning function;
A learning robot program for realizing an operation control function for controlling the operation of the learning robot according to a determination result in the determination function.
JP2014236808A 2014-11-21 2014-11-21 Learning type robot, learning type robot system, and program for learning type robot Pending JP2018008316A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014236808A JP2018008316A (en) 2014-11-21 2014-11-21 Learning type robot, learning type robot system, and program for learning type robot
PCT/JP2015/082920 WO2016080553A1 (en) 2014-11-21 2015-11-24 Learning robot, learning robot system, and learning robot program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014236808A JP2018008316A (en) 2014-11-21 2014-11-21 Learning type robot, learning type robot system, and program for learning type robot

Publications (1)

Publication Number Publication Date
JP2018008316A true JP2018008316A (en) 2018-01-18

Family

ID=56014080

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014236808A Pending JP2018008316A (en) 2014-11-21 2014-11-21 Learning type robot, learning type robot system, and program for learning type robot

Country Status (2)

Country Link
JP (1) JP2018008316A (en)
WO (1) WO2016080553A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019151387A1 (en) * 2018-01-31 2019-08-08 Groove X株式会社 Autonomous behavior robot that behaves on basis of experience
KR20200120002A (en) * 2019-04-11 2020-10-21 우승희 Electronic Device for Providing User-Participating-Type AI Training Service, and Server and System therefor
US11073823B2 (en) 2018-01-31 2021-07-27 Fanuc Corporation Robot and robot maintenance timing notification method
US11544594B2 (en) 2019-04-11 2023-01-03 Sunghee Woo Electronic device comprising user interface for providing user-participating-type AI training service, and server and method for providing user-participating-type AI training service using the electronic device

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107590503A (en) * 2016-07-07 2018-01-16 深圳狗尾草智能科技有限公司 A kind of robot affection data update method and system
JP6386523B2 (en) * 2016-12-15 2018-09-05 ファナック株式会社 Machine learning device, life prediction device, numerical control device, production system, and machine learning method for predicting life of NAND flash memory
CN108521789B (en) * 2017-06-06 2021-07-27 深圳市大疆创新科技有限公司 Mobile robot performance evaluation method and system and mobile robot
US20210232949A1 (en) * 2018-06-18 2021-07-29 Sony Corporation Information processing device, information processing method, and program
KR102314538B1 (en) * 2018-08-01 2021-10-18 엘지전자 주식회사 Artificial intelligence Moving robot
JP7034035B2 (en) * 2018-08-23 2022-03-11 株式会社日立製作所 Motion generation method for autonomous learning robot device and autonomous learning robot device
US11436470B2 (en) * 2019-09-13 2022-09-06 Kyndryl, Inc. Generating simulated image training data
JP6858434B1 (en) * 2020-02-14 2021-04-14 株式会社ロボマインド Artificial intelligence systems and programs
CN115150847A (en) * 2021-03-31 2022-10-04 华为技术有限公司 Model processing method, communication device and system
CN117245643A (en) * 2022-12-06 2023-12-19 北京小米机器人技术有限公司 Control method and device of terminal equipment, terminal equipment and storage medium

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001179665A (en) * 1999-12-24 2001-07-03 Toshiba Corp Intelligent robot
JP2002301676A (en) * 2001-04-02 2002-10-15 Sony Corp Robot device, information providing method, program and storage medium
JP2003001582A (en) * 2001-06-21 2003-01-08 Kenji Fuse Costume for robot
JP2003205483A (en) * 2001-11-07 2003-07-22 Sony Corp Robot system and control method for robot device
JP4534427B2 (en) * 2003-04-01 2010-09-01 ソニー株式会社 Robot control apparatus and method, recording medium, and program
JP4411900B2 (en) * 2003-08-08 2010-02-10 ソニー株式会社 Mutual growth system between electronic devices, electronic devices and robotic devices
JP2005111637A (en) * 2003-10-10 2005-04-28 Ntt Data Corp Network robot service system
TWI306051B (en) * 2006-12-14 2009-02-11 Ind Tech Res Inst Robotic apparatus with surface information displaying and interaction capability
JP5172049B2 (en) * 2011-06-14 2013-03-27 パナソニック株式会社 Robot apparatus, robot control method, and robot control program
KR101969184B1 (en) * 2011-07-05 2019-04-15 레고 에이/에스 Toy building set

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019151387A1 (en) * 2018-01-31 2019-08-08 Groove X株式会社 Autonomous behavior robot that behaves on basis of experience
JPWO2019151387A1 (en) * 2018-01-31 2021-01-14 Groove X株式会社 An autonomous robot that acts based on experience
US11073823B2 (en) 2018-01-31 2021-07-27 Fanuc Corporation Robot and robot maintenance timing notification method
JP7281198B2 (en) 2018-01-31 2023-05-25 Groove X株式会社 Autonomous behavioral robot that acts based on experience
KR20200120002A (en) * 2019-04-11 2020-10-21 우승희 Electronic Device for Providing User-Participating-Type AI Training Service, and Server and System therefor
KR102363083B1 (en) * 2019-04-11 2022-02-15 우승희 Electronic Device for Providing User-Participating-Type AI Training Service, and Server and System therefor
US11544594B2 (en) 2019-04-11 2023-01-03 Sunghee Woo Electronic device comprising user interface for providing user-participating-type AI training service, and server and method for providing user-participating-type AI training service using the electronic device

Also Published As

Publication number Publication date
WO2016080553A1 (en) 2016-05-26

Similar Documents

Publication Publication Date Title
JP2018008316A (en) Learning type robot, learning type robot system, and program for learning type robot
US20190143527A1 (en) Multiple interactive personalities robot
KR102306624B1 (en) Persistent companion device configuration and deployment platform
US20190193273A1 (en) Robots for interactive comedy and companionship
EP3381175B1 (en) Apparatus and method for operating personal agent
Vinciarelli et al. A survey of personality computing
Bretan et al. Emotionally expressive dynamic physical behaviors in robots
US11455986B2 (en) System and method for conversational agent via adaptive caching of dialogue tree
CN111418198B (en) Electronic device for providing text-related image and method of operating the same
CN110400251A (en) Method for processing video frequency, device, terminal device and storage medium
US20190202063A1 (en) System and method for selective animatronic peripheral response for human machine dialogue
WO2016163530A1 (en) Robot, robot control method, and robot system
KR102616850B1 (en) An external device capable of being combined with an electronic device, and a display method thereof.
JP7010000B2 (en) Information processing equipment and programs
CN109410297A (en) It is a kind of for generating the method and apparatus of avatar image
CN109086860B (en) Interaction method and system based on virtual human
JP2023525173A (en) Conversational AI platform with rendered graphical output
CN109643540A (en) System and method for artificial intelligent voice evolution
US20190202061A1 (en) System and method for detecting physical proximity between devices
US20190251966A1 (en) System and method for prediction based preemptive generation of dialogue content
CN112262024A (en) System and method for dynamic robot configuration for enhanced digital experience
WO2019160612A1 (en) System and method for dynamic robot profile configurations based on user interactions
KR102369309B1 (en) Electronic device for performing an operation for an user input after parital landing
WO2016206645A1 (en) Method and apparatus for loading control data into machine device
JP2001249949A (en) Feeling generation method, feeling generator and recording medium