JP2018008316A - Learning type robot, learning type robot system, and program for learning type robot - Google Patents
Learning type robot, learning type robot system, and program for learning type robot Download PDFInfo
- Publication number
- JP2018008316A JP2018008316A JP2014236808A JP2014236808A JP2018008316A JP 2018008316 A JP2018008316 A JP 2018008316A JP 2014236808 A JP2014236808 A JP 2014236808A JP 2014236808 A JP2014236808 A JP 2014236808A JP 2018008316 A JP2018008316 A JP 2018008316A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- information
- robot
- unit
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N99/00—Subject matter not provided for in other groups of this subclass
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
Description
本発明は、学習型ロボット、学習型ロボットシステム、及び学習型ロボット用プログラムに関する。特に、本発明は、自律的に学習を実行する学習型ロボット、学習型ロボットシステム、及び学習型ロボット用プログラムに関する。 The present invention relates to a learning robot, a learning robot system, and a learning robot program. In particular, the present invention relates to a learning robot, a learning robot system, and a learning robot program that autonomously execute learning.
従来、自律的に動作可能なロボット装置であって、他の動作主体の動作を画像又は音声として入力する入力手段と、入力手段を介して入力された画像又は音声に応じて、他の動作主体の動作と同調したそれぞれ異なる動作を生成する複数の動作生成手段と、複数の動作生成手段によって生成された複数の動作のいずれか一以上の動作を統合して発現させる動作発現手段と、動作発現手段において統合する動作の数、又は複数の動作を統合する際の各動作の割合を制御する制御手段とを備えるロボット装置が知られている(例えば、特許文献1参照。)。特許文献1に記載のロボット装置によれば、ユーザー等の他の動作主体の動作に柔軟に対応し、その動作と同調した動作ができる。
2. Description of the Related Art Conventionally, a robot apparatus that can operate autonomously, and includes an input unit that inputs an operation of another operation subject as an image or sound, and another operation subject according to an image or sound input via the input unit. A plurality of motion generation means for generating different motions in synchronism with the motion of the motion, a motion expression means for integrating and expressing one or more of the plurality of motions generated by the plurality of motion generation means, There is known a robot apparatus including a control means for controlling the number of actions to be integrated in the means or a ratio of each action when a plurality of actions are integrated (see, for example, Patent Document 1). According to the robot apparatus described in
しかし、特許文献1に記載されているようなロボット装置においては、外部からの情報に同調することができたとしても、外部からの情報に応じていかなる動作をすべきかについて学習することはできない。また、特許文献1に記載されているようなロボット装置においては、複数のロボット間で相互に学習しあうことができない。
However, in the robot apparatus described in
したがって、本発明の目的は、外部からの情報に応じていかなる動作をすべきかを自律的に学習できると共に、他のロボットと相互学習可能な学習型ロボット、学習型ロボットシステム、及び学習型ロボット用プログラムを提供することにある。 Accordingly, an object of the present invention is to provide a learning robot, a learning robot system, and a learning robot that can autonomously learn what operation should be performed according to information from the outside and can learn from other robots. To provide a program.
本発明は、上記目的を達成するため、外部からの情報に応じていかなる動作を実行するかを学習する学習型ロボットであって、外部からの情報である外部情報が示す内容を、学習型ロボットの動作の実行に資するように解析して解析結果情報を生成する解析部と、解析結果情報に応じ、学習型ロボットがいかなる動作を実行するかを学習する学習ユニットと、学習ユニットの学習結果に応じ、学習型ロボットが実行すべき動作を判断する判断部と、判断部の判断結果に応じ、学習型ロボットの動作を制御する動作制御部とを備える学習型ロボットが提供される。 In order to achieve the above object, the present invention is a learning type robot that learns what operation is performed according to information from the outside, and the contents indicated by the external information, which is information from the outside, The analysis unit generates analysis result information by analyzing so as to contribute to the execution of the operation, the learning unit that learns what operation the learning robot performs according to the analysis result information, and the learning result of the learning unit Accordingly, a learning type robot is provided that includes a determination unit that determines an operation to be performed by the learning type robot, and an operation control unit that controls the operation of the learning type robot according to the determination result of the determination unit.
また、上記学習型ロボットにおいて、学習ユニットの学習結果を示す学習結果情報を格納する情報格納部を更に備え、学習ユニットが、情報格納部に格納されている学習結果情報を、解析結果情報を用いて更新することもできる。 The learning robot further includes an information storage unit that stores learning result information indicating a learning result of the learning unit, and the learning unit uses the analysis result information as the learning result information stored in the information storage unit. Can also be updated.
また、上記学習型ロボットにおいて、解析部が、外部の学習型ロボット、通信端末、又は所定のデータを格納するデータベースから取得するデータが示す内容を解析することで解析結果情報を生成することもできる。 In the learning robot, the analysis unit can generate analysis result information by analyzing the content indicated by an external learning robot, a communication terminal, or data acquired from a database storing predetermined data. .
また、上記学習型ロボットにおいて、学習ユニットの学習結果に応じ、学習型ロボットの学習段階を示すレベルを決定するレベル決定部を更に備え、判断部が、レベルに応じ動作を変更することもできる。 The learning robot may further include a level determination unit that determines a level indicating a learning stage of the learning robot according to the learning result of the learning unit, and the determination unit may change the operation according to the level.
また、上記学習型ロボットにおいて、外部情報が、少なくとも学習型ロボットの動作の仕方を示す情報を規定するプログラムを含み、学習ユニットが、プログラムに応じ、学習型ロボットの動作を学習することもできる。 In the learning robot, the external information includes at least a program that defines information indicating how the learning robot operates, and the learning unit can learn the operation of the learning robot according to the program.
また、上記学習型ロボットにおいて、学習ユニットが、解析結果情報に応じ、学習型ロボットのユーザーの嗜好を示す嗜好情報を学習し、判断部が、嗜好情報に応じ、学習型ロボットに嗜好情報に関連する広告情報を出力すべきことを判断することもできる。 In the learning type robot, the learning unit learns the preference information indicating the user preference of the learning type robot according to the analysis result information, and the determination unit relates the preference information to the learning type robot according to the preference information. It can also be determined that the advertisement information to be output should be output.
また、上記学習型ロボットにおいて、学習ユニットが、解析結果情報に応じ、学習型ロボットのユーザーの嗜好を示す嗜好情報を学習し、判断部が、レベルと嗜好情報とに応じ、学習型ロボットに嗜好情報に関連する広告情報を出力すべきことを判断することもできる。 In the learning robot, the learning unit learns the preference information indicating the user's preference of the learning robot according to the analysis result information, and the determination unit likes the learning robot according to the level and the preference information. It can also be determined that advertisement information related to the information should be output.
また、上記学習型ロボットにおいて、解析結果情報が、学習型ロボットのユーザーの特徴を示すユーザー特徴情報を含み、学習ユニットが、ユーザー特徴情報から導き出されるユーザーの外観に関する情報である外観情報を生成し、判断部が、外観情報に応じ、学習型ロボットの外装を製造する外装製造装置が用いることができる学習型ロボットの外装を示す外装情報を決定することもできる。 Further, in the learning type robot, the analysis result information includes user characteristic information indicating the characteristics of the user of the learning type robot, and the learning unit generates appearance information that is information on the appearance of the user derived from the user characteristic information. The determination unit can determine exterior information indicating the exterior of the learning robot that can be used by the exterior manufacturing apparatus that manufactures the exterior of the learning robot according to the exterior information.
また、上記学習型ロボットにおいて、動作制御部が、ソーシャルネットワーキングサービスが提供する所定のフォームに判断結果から想定されるデータを自動的に入力することもできる。 In the learning robot, the operation control unit can automatically input data assumed from the determination result into a predetermined form provided by the social networking service.
また、上記学習型ロボットにおいて、ユーザーに知覚可能な形式、及びユーザーに知覚不能な形式で外部情報を他の学習型ロボットとやり取りすることもできる。 In the learning robot, external information can be exchanged with other learning robots in a form that can be perceived by the user and in a form that cannot be perceived by the user.
また、上記学習型ロボットにおいて、解析部が、外部情報を予め定められたカテゴリーに分類して解析結果情報を生成し、学習ユニットが、ユーザーに知覚不能な形式でやり取りされた外部情報を解析して生成されカテゴリーに分類された解析結果情報と、既に学習済みの結果との差分の情報を抽出し、動作制御部が、抽出された差分の情報を他の学習型ロボットにユーザーに知覚不能な形式で供給すると共に、差分の情報に基づいて動作を制御することもできる。 In the learning robot, the analysis unit classifies the external information into predetermined categories and generates analysis result information, and the learning unit analyzes the external information exchanged in a form that is not perceptible to the user. The difference information between the analysis result information generated and categorized into the category and the already learned result is extracted, and the motion control unit cannot perceive the extracted difference information to other learning robots. In addition to being supplied in a format, the operation can be controlled based on the difference information.
また、本発明は、上記目的を達成するため、外部の学習型ロボット、通信端末、又は所定のデータを格納するデータベースと、外部からの情報に応じていかなる動作を実行するかを学習する学習型ロボットとを備える学習型ロボットシステムであって、外部の学習型ロボット、通信端末、若しくはデータベースから取得するデータが示す内容、又は外部からの情報である外部情報が示す内容を、学習型ロボットの動作の実行に資するように解析して解析結果情報を生成する解析部と、解析結果情報に応じ、学習型ロボットがいかなる動作を実行するかを学習する学習ユニットと、学習ユニットの学習結果に応じ、学習型ロボットが実行すべき動作を判断する判断部と、判断部の判断結果に応じ、学習型ロボットの動作を制御する動作制御部とを備える学習型ロボットシステムが提供される。 In order to achieve the above object, the present invention provides an external learning robot, a communication terminal, or a database that stores predetermined data, and a learning type that learns what operation is performed according to information from the outside. A learning robot system including a robot, and the learning robot operation according to the content indicated by data acquired from an external learning robot, a communication terminal, or a database, or the content indicated by external information as external information An analysis unit that analyzes to contribute to the execution of the analysis and generates analysis result information, a learning unit that learns what operation the learning robot performs according to the analysis result information, and a learning result of the learning unit, A determination unit that determines an operation to be performed by the learning robot, and an operation control unit that controls the operation of the learning robot according to a determination result of the determination unit; Learning robot system comprising is provided.
また、上記学習型ロボットシステムにおいて、動作制御部が、外部の学習型ロボットに学習型ロボットの学習結果を示す情報を供給することで、外部の学習型ロボットを学習させることもできる。 In the learning type robot system, the operation control unit can also supply the external learning type robot with information indicating the learning result of the learning type robot, thereby learning the external learning type robot.
また、本発明は、上記目的を達成するため、外部からの情報に応じていかなる動作を実行するかを学習する学習型ロボットにおいて実行される学習型ロボット用プログラムであって、コンピューターに、外部からの情報である外部情報が示す内容を、学習型ロボットの動作の実行に資するように解析して解析結果情報を生成する解析機能と、解析結果情報に応じ、学習型ロボットがいかなる動作を実行するかを学習する学習機能と、学習機能における学習結果に応じ、学習型ロボットが実行すべき動作を判断する判断機能と、判断機能における判断結果に応じ、学習型ロボットの動作を制御する動作制御機能とを実現させる学習型ロボット用プログラムが提供される。 Further, the present invention is a learning robot program that is executed in a learning robot that learns what operation is executed in accordance with information from the outside in order to achieve the above object, The analysis function that generates the analysis result information by analyzing the content indicated by the external information that is the information of the learning type to contribute to the execution of the operation of the learning type robot, and what kind of operation the learning type robot performs according to the analysis result information A learning function that learns the learning, a judgment function that determines the action to be performed by the learning robot according to the learning result in the learning function, and an action control function that controls the action of the learning robot according to the judgment result in the judgment function A learning robot program that realizes the above is provided.
本発明に係る学習型ロボット、学習型ロボットシステム、及び学習型ロボット用プログラムによれば、外部からの情報に応じていかなる動作をすべきかを自律的に学習できると共に、他のロボットと相互学習可能な学習型ロボット、学習型ロボットシステム、及び学習型ロボット用プログラムを提供できる。 According to the learning type robot, the learning type robot system, and the learning type robot program according to the present invention, it is possible to autonomously learn what operation should be performed according to information from the outside, and to learn with other robots. Learning robot, learning robot system, and learning robot program can be provided.
[実施の形態]
(学習型ロボット1の概要)
図1は、本発明の実施の形態に係る学習型ロボットの概要を示す。なお、図1の説明においては、説明を簡略化するため、2台の学習型ロボットと2台の通信端末とを例示するが、学習型ロボット及び/又は通信端末の台数はそれぞれ1台であっても、2台を超えてもよい。また、学習型ロボット1は、眼、耳、口等を有する頭部と、表示部等を前面に有する胴体部と、胴体部に接続される手足部とを有する。更に、複数の学習型ロボットはそれぞれ、略同一の機能及び構成を備える。
[Embodiment]
(Outline of learning robot 1)
FIG. 1 shows an outline of a learning robot according to an embodiment of the present invention. In the description of FIG. 1, two learning robots and two communication terminals are illustrated for the sake of simplicity, but the number of learning robots and / or communication terminals is one. Or it may exceed two. The
本実施の形態に係る学習型ロボット1は、外部からの情報に応じていかなる動作を実行するかを自律的に学習する。学習型ロボット1(若しくは学習型ロボット1a)は、学習型ロボット1単独で外部のデータベース4とのやり取りに基づいて学習すること、学習型ロボット1単独でユーザーとのやり取りに基づいて学習すること、学習型ロボット1と通信端末2とのやり取りに基づいて学習すること、及び/又は学習型ロボット1と他の学習型ロボットである学習型ロボット1aとのやり取りに基づいて学習することを自律的に実行する。
The
例えば、学習型ロボット1は、学習型ロボット1の周囲環境(例えば、位置、時刻、温度、照度、及び/又は騒音等)に関する情報を取得して、取得した情報に関連する情報を外部のデータベース4から通信網5を介して取得することで、周囲環境に関する知識、及び/又は語彙等を学習できる。学習型ロボット1は、知識及び/又は語彙等を学習することで、学習型ロボット1の学習レベルを向上させ、学習前後で自己の動作を変化させる。なお、本実施の形態において学習レベルとは、学習型ロボット1において予め定められた動作を実行することができる水準である。当該水準は、複数、設定することができる。
For example, the
また、学習型ロボット1は、予め格納していない情報に関する問いかけをユーザーに対して発する。例えば、学習型ロボット1は、音声情報取得部を有する。学習型ロボット1は、音声情報取得部が取得した音声を解析する。そして、学習型ロボット1は、解析した結果、当該音声が示す内容に関する情報を予め格納していない場合、ユーザーに対し、「この音はなに?」というような質問を発する。ユーザーは、当該質問に対する回答を学習型ロボット1に対して音声等で回答する。学習型ロボット1は、ユーザーの回答を音声等で取得した場合、取得した音声等を解析し、解析結果を格納することで当該質問に対する回答を学習する。
In addition, the
また、学習型ロボット1は、予め格納していない情報に関する問いかけを通信端末2に供給することもできる。ユーザーは、通信端末2を介して学習型ロボット1に対して当該問いかけに対する回答を供給する。学習型ロボット1は、通信端末2から受け取った回答を解析し、当該問いかけに対する回答を格納することで学習する。これにより学習型ロボット1は、予め格納していなかった情報に関する知識及び/又は語彙等を新たに格納することで、学習型ロボット1の学習レベルを向上させる。そして、学習型ロボット1は、学習前後で自己の動作を変化させる。
In addition, the learning
更に、学習型ロボット1は、他の学習型ロボット1aと情報のやり取りを実行することで、自己の学習レベルを向上させる。例えば、学習型ロボット1の学習のレベルが学習型ロボット1aの学習レベルより高い場合、学習型ロボット1は、学習型ロボット1aが格納していない情報(例えば、所定の知識、語彙、及び/又は所定の問題に対する回答等)を学習型ロボット1aに供給する。学習型ロボット1aは、学習型ロボット1から取得した情報を学習することで、自己の学習レベルを向上させることができる。これにより、学習型ロボット1aは、学習前後で自己の動作を変化させることができる。
Furthermore, the
なお、通信端末2及び通信端末3は、携帯電話、タブレット、スマートフォン等の携帯情報端末、PC、ノートPC等の情報端末等である。また、通信網5は、携帯電話網、インターネット網等である。更に、学習型ロボット1と通信端末2との間の通信、及び学習型ロボット1と学習型ロボット1aとの間の通信は、有線LAN若しくは無線LAN、又はBluetooth(登録商標)等の近距離無線通信等により実行される。
The
また、学習型ロボット1は、頭部、胴体部、及び手足部の所定の箇所にアクチュエータ等の駆動部品を有する(図示しない)。学習型ロボット1は、駆動部品を動作させることで、頭部、胴体部、及び/又は手足部を動作させる。
The
(学習型ロボット1の詳細)
図2は、本発明の実施の形態に係る学習型ロボットの機能構成ブロックの一例を示す。また、図3は、本発明の実施の形態に係る外部情報取得部の機能構成ブロックの一例を示し、図4は、本発明の実施の形態に係る学習ユニットの機能構成ブロックの一例を示す。更に、図5は、本発明の実施の形態に係る出力部の機能構成ブロックの一例を示す。
(Details of learning robot 1)
FIG. 2 shows an example of functional configuration blocks of the learning robot according to the embodiment of the present invention. FIG. 3 illustrates an example of a functional configuration block of the external information acquisition unit according to the embodiment of the present invention, and FIG. 4 illustrates an example of a functional configuration block of the learning unit according to the embodiment of the present invention. FIG. 5 shows an example of a functional configuration block of the output unit according to the embodiment of the present invention.
本実施の形態に係る学習型ロボット1は、外部とデータを送受信する通信部10と、外部からデータを取得するデータ取得部20と、外部からの情報である外部情報を取得する外部情報取得部30と、データ及び外部情報を解析する解析部40と、解析部40の解析結果を用いて学習を実行する学習ユニット50と、学習ユニット50の学習の結果に応じて学習型ロボット1が実行すべき動作がいかなる動作であるかを判断する判断部60と、判断部60の判断結果に応じて学習型ロボット1の動作を制御する動作制御部70と、動作制御部70に制御され所定の情報等を出力する出力部80と、出力部80からの指示に応じて学習型ロボット1の所定の個所を駆動させる駆動部90とを備える。また、学習型ロボット1は、学習型ロボット1の学習レベルを決定するレベル決定部52と、レベル決定部52が決定した内容を格納するレベル情報格納部54と、学習ユニット50の学習結果を格納する情報格納部56とを更に備える。
The learning
(通信部10)
通信部10は、外部とデータの送受信をする。具体的に、通信部10は、通信端末2及び/又は他の学習型ロボット1aからのデータを受信する。また、通信部10は、出力部80からの働きかけに応じ、通信端末2及び/又は他の学習型ロボット1aからデータを受信する。更に、通信部10は、通信網5を介し、外部のデータベースとデータの送受信をする。通信部10は、取得したデータをデータ取得部20に供給する。
(Communication unit 10)
The
(データ取得部20)
データ取得部20は、通信端末2、他の学習型ロボット1a、及び/又は外部のデータベースからデータを取得する。データ取得部20は、取得したデータを解析部40に供給する。なお、本実施の形態においてデータとは、各種の知識、語彙、問題に対する回答、及びユーザーの嗜好に沿ったデータ等、並びに所定の広告に関する広告情報、学習型ロボット1において実行可能なプログラム、及び所定の店舗若しくは所定の店舗に設置されている他の学習型ロボットが発信するデータ(一例として、当該店舗において用いられるクーポンデータ)等の様々なデータを含む。また、データとしては、例えば、時刻の経過に応じて変動するデータ(例えば、株価情報、先物取引情報等)を挙げることもできる。
(Data acquisition unit 20)
The
(外部情報取得部30)
外部情報取得部30は、学習型ロボット1の外部からの情報である外部情報を取得する。外部情報取得部30は、取得した外部情報を解析部40に供給する。本実施の形態において外部情報とは、学習型ロボット1が存在する位置を示す位置情報、現在時刻を示す時刻情報、外部環境の状態を示す環境情報、ユーザー等の音声を示す音声情報、周囲の画像を示す画像情報、及び/又は学習型ロボット1の表面に何らかの物体が接触したことを示す接触情報等を含む。また、環境情報とは、学習型ロボット1の周囲の温度を示す温度情報、学習型ロボット1の周囲の湿度を示す湿度情報、学習型ロボット1の周囲の照度を示す照度情報、及び/又は学習型ロボット1の周囲の騒音の状態を示す騒音情報等を含む。
(External information acquisition unit 30)
The external
具体的に、外部情報取得部30は、学習型ロボット1の位置情報を取得する位置情報取得部300と、時刻情報を取得する時刻情報取得部302と、環境情報を取得する環境情報取得部304と、音声情報を取得する音声情報取得部306と、画像を撮像する撮像部308と、接触情報を取得する触覚センサ310とを有する。位置情報取得部300は、例えば、GPSを用いて実現される。また、環境情報取得部304は、例えば、温度を計測する温度センサ、湿度を計測する湿度センサ、照度を計測する照度センサ、及び/又は周囲の騒音を計測するマイクロホン等を用いて実現される。更に、音声情報取得部306は、ユーザー等の音声を取得するマイクロホン等を用いて実現される。また、外部情報取得部30は、周囲の人物のジェスチャー等の動作に関する情報を取得することもできる。
Specifically, the external
(解析部40)
解析部40は、外部情報が示す内容を、学習型ロボット1の動作の実行に資するように解析して解析結果情報を生成する。解析部40は、例えば、音声分析を実行して音声の基本周波数やサウンドスペクトログラム等の特徴量を抽出する音声解析部、画像の空間周波数等の特徴量を抽出したり、顔認識により画像内に含まれる人物の画像等を解析する画像解析部、音声認識をすると共に音声認識により得られる文章を形態素解析する形態素解析部等を含む。また、解析部40は、外部の学習型ロボット1a、通信端末2、又は所定のデータを格納するデータベースから取得するデータが示す内容を解析することで解析結果情報を生成する。解析部40は、解析結果情報を学習ユニット50に供給する。
(Analysis unit 40)
The
例えば、解析部40は、音声情報を解析することで、ユーザーや他の学習型ロボットが学習型ロボット1に対して発話した内容に関する情報(一例として、発話した文章、文節単位の語、単語及び/又は語彙等を示す情報)を抽出して解析結果情報を生成する。一例として、解析部40は、音声情報や画像情報等を解析することで、学習型ロボット1のユーザーの特徴(例えば、ユーザーの職業、ユーザーの好みのファッション、ユーザーの好みのアクセサリー等を示す情報)を示すユーザー特徴情報を生成する。例えば、解析部40は、撮像部308が撮像した画像を解析し、この画像に含まれるユーザーやユーザーの服装、及びユーザーが身につけているアクセサリー等を識別する。また、解析部40は、撮像部308が撮像したユーザーの顔、及び/又は動作(例えば、ジェスチャー)が含まれる画像を解析することで、ユーザーの感情を推定することもできる。そして、解析部40は、識別した結果、及び/又は推定した結果に応じ、当該ユーザーの外観上の特徴や感情を含むユーザー特徴情報を生成する。
For example, the
また、解析部40は、ユーザーが学習型ロボット1に対して発話した内容から感情に関する語彙(例えば、「嬉しい」、「悲しい」、「楽しい」、「つまらない」、及び「面白い」等)を抽出して解析結果情報を生成することもできる。更に、解析部40は、音声情報を解析することで、ユーザーの発話のイントネーションに関する情報を抽出して解析結果情報を生成することもできる。そして、解析部40は、位置情報、環境情報、画像情報、及び/又は接触情報から、学習型ロボット1が置かれている環境の現在の状況を解析することで解析結果情報を生成することもできる。
In addition, the
更に、解析部40は、データ取得部20から受け取ったデータが示す内容を解析することで、学習型ロボット1が外部から受け取った各種の知識、語彙、問題に対する回答、及びユーザーの嗜好等の様々な事項に関するデータを抽出若しくは生成して解析結果情報を生成することもできる。また、解析部40は、データ取得部20から受け取ったデータが示す内容を解析し、外部情報が示す内容を予め定められたカテゴリーに分類して解析結果情報を生成することもできる。予め定められたカテゴリーとは、技術(例えば、物理、数学、化学、工学、天文学、医学等)、文芸(例えば、小説等)、学術(例えば、歴史、言語学等)、美術、及び/又は音楽等のカテゴリーである。
Further, the
(学習ユニット50、情報格納部56)
学習ユニット50は、解析結果情報に応じ、学習型ロボット1がいかなる動作を実行するか、若しくは所定の動作の実行に資する情報が何であるか等を学習する。また、情報格納部56は、学習ユニット50における学習結果を示す学習結果情報を格納する。学習ユニット50は、情報格納部56に格納されている学習結果情報を、解析結果情報を用いて更新することもできる。なお、情報格納部56は、学習ユニット50の学習結果に応じて学習結果情報を格納するだけでなく、所定の学習レベルに対応した複数の情報セット(複数の情報及び/又はデータからなるセット)を予め格納していてもよい。また、学習型ロボット1が情報格納部56を備えない構成であってもよい。例えば、情報格納部56は、クラウド上に設けることができる。この場合、学習型ロボット1と情報格納部56との間の通信は、相互に送受信する通信内容を暗号化して実行することができる。
(
The
学習ユニット50は、外部情報及び/又はデータ取得部20が取得したデータを解析した結果である解析結果情報と、情報格納部56に格納されている学習結果情報とを比較する。そして、学習ユニット50は、解析結果情報と学習結果情報とが一致しない場合、すなわち、情報格納部56に学習結果情報が格納されていない場合に解析結果情報を新たな学習結果情報であると判断する。そして、学習ユニット50は、新たな学習結果情報を情報格納部56に格納する。また、学習ユニット50は、情報格納部56に格納されていない学習結果情報が存在する場合に、当該学習結果情報の上位概念、若しくは下位概念が何であるかをユーザー又は外部の学習型ロボット1aに対して質問する質問情報を生成することもできる。学習ユニット50は、例えば、ニューラルネットワーク、遺伝的学習アルゴリズム、及び/又は機械学習アルゴリズム等の学習アルゴリズムを用いて構成される。
The
具体的に、学習ユニット50は、解析結果情報に含まれる語彙若しくは知識等を示す情報が情報格納部56に予め格納されていない場合、当該情報についてユーザーに質問する質問部500と、解析結果情報に含まれる語彙、知識、若しくは所定の質問に対する回答等を示す情報を学習する知識学習部502と、ユーザーの嗜好を示す嗜好情報を学習するユーザー学習部504と、学習型ロボット1固有の動作の特徴を学習するパーソナリティ学習部506と、解析結果情報の内容を学習することで、ユーザーに所定の動作をすべきことを提案する提案部508とを有する。
Specifically, when information indicating the vocabulary or knowledge included in the analysis result information is not stored in the
(質問部500)
質問部500は、ユーザーに対する質問若しくは他の学習型ロボット1a対する質問を表す情報である質問情報を生成する。例えば、解析結果情報に所定の単語が含まれており、当該単語を示す情報が情報格納部56に格納されていない場合、質問部500は、当該単語が何を表すのかを質問する質問情報を生成する。一例として、学習型ロボット1が有する撮像部308が所定のオブジェクトを含む画像を撮像した場合、解析部40は当該画像を解析し、当該オブジェクトに関する情報を含む解析結果情報を生成する(この場合、解析部40は、オブジェクトマッチング処理を実行するために用いるマッチング画像を格納するマッチング画像格納部を含むことができる。)。質問部500は、その解析結果情報に含まれる当該オブジェクトに関する情報が情報格納部56に格納されているか否かを確認する。質問部500は、情報格納部56に当該情報が含まれていない場合、当該オブジェクトが何であるかを質問する質問情報(例えば、後述する出力部80において「あれ何?」という音声を出力させる情報)を生成する。なお、質問部500は、質問情報の生成に用いるテキストデータ、及び/又は音声データを予め格納する質問情報データベースを含むこともできる。なお、撮像部308が所定のオブジェクトの画像を撮像した場合、解析部40が同一のオブジェクトについて以前撮像した画像(例えば、情報格納部56に格納されている)との差分を抽出し、質問部500は、当該オブジェクトの差分に関する情報についての解析結果情報を生成することもできる。
(Question part 500)
The
また、質問部500は、他の学習型ロボット1a及び/又は外部のデータベースからデータ取得部20が取得したデータの内容を含む解析結果情報を取得した場合、その解析結果情報と情報格納部56に格納されている情報とを比較する。そして、質問部500は、情報格納部56に当該データの内容に関する情報が含まれていない場合、当該データが何であるかを他の学習型ロボット1a及び/又は外部のデータベースに問い合わせる質問情報を生成することもできる。更に、質問部500は、解析結果情報の一部若しくはすべてが情報格納部56に格納されている場合、ユーザー又は他の学習型ロボット1a若しくは外部のデータベースに対し、更に深く質問する質問情報を生成することもできる。
In addition, when the
(知識学習部502)
知識学習部502は、解析結果情報に含まれる語彙、知識、若しくは所定の質問に対する回答、又は語彙と語彙との結びつき等を示す情報であって、情報格納部56に格納されていない情報を情報格納部56に格納させることにより学習する。例えば、解析結果情報が所定のクイズに対する回答を示す情報を含む場合、知識学習部502は、当該クイズを構成する文章、語句、及び語彙等を識別する識別子に対応づけて当該回答を示す情報を情報格納部56に格納させる。また、知識学習部502は、位置情報取得部300が取得した位置情報を用いてその位置情報により表される地点若しくは地域に関する情報を取得することを目的とした質問情報を生成することもできる。更に、知識学習部502は、位置情報に時刻情報取得部302が取得した時刻情報、環境情報取得部304が取得した環境情報等を対応づけることにより、所定の時刻、所定の地点における環境がいかなる状況であるかを示す情報を生成することもできる。知識学習部502は、生成した情報を情報格納部56に格納させる。
(Knowledge learning unit 502)
The
また、知識学習部502は、解析部40において予め定められたカテゴリーに分類して生成された解析結果情報と既に学習済みの結果との差分に基づいて学習することもできる。例えば、知識学習部502は、解析結果情報と情報格納部56に格納されている情報との差分を抽出する。そして、知識学習部502は、差分の部分、すなわち、情報格納部56に格納されていない情報について、情報格納部56に格納させることで学習を実行する。また、知識学習部502は、情報格納部56に格納されている情報については、既に格納されている情報と共に情報格納部56に格納させることで、学習効果を高める処理を実行する。
The
(ユーザー学習部504)
ユーザー学習部504は、解析結果情報に応じ、学習型ロボット1のユーザーの特徴を示すユーザー特徴情報、及び/又は嗜好を示す嗜好情報を学習する。具体的に、ユーザー学習部504は、解析結果情報に含まれる情報、例えば、音声情報取得部306が取得したユーザーの音声を解析した情報(一例として、音声に含まれる語彙、音声の周波数やイントネーション等を示す情報)、撮像部308が撮像した画像に含まれる情報、及び/又は触覚センサ310が取得したユーザーの学習型ロボット1に対する接触状況等の情報を用い、当該ユーザーの名前、性別、年齢若しくは年代、職業、性格(なお、性格は予め所定数のパターン(一例として、まじめ、明るい、頑固、ひょうきん等)に分類しておくことができる)、及び/又は行動パターン等がいかなるものであるかを示す嗜好情報(すなわち、ユーザーの特徴や嗜好を示す情報)を生成する。また、ユーザー学習部504は、ユーザー特徴情報から導き出されるユーザーの外観に関する情報である外観情報を生成することもできる。ユーザー学習部504は、ユーザーを一意に識別するユーザー識別子に対応づけて情報格納部56に生成したユーザー特徴情報、外観情報、及び/又は嗜好情報を格納させる。
(User learning unit 504)
The
(パーソナリティ学習部506)
パーソナリティ学習部506は、学習型ロボット1の固有の動作、遊び方、駆動の仕方、及び/又は感情表現の仕方等を学習する。例えば、データ取得部20が取得した外部情報に含まれるデータに学習型ロボット1の固有の動作の仕方、遊び方、駆動の仕方、及び/又は感情表現の仕方等を規定するプログラムであるアプリケーションのデータが含まれている場合を説明する。この場合、解析部40において学習型ロボット1が実行可能な形式にこのアプリケーションのデータは変換され、変換されたアプリケーションのデータを含む解析結果情報が生成される。そして、パーソナリティ学習部506は、当該解析結果情報(すなわち、変換されたアプリケーションのデータ)に応じて学習型ロボット1の動作等を指示する命令を含む動作命令情報を生成する。
(Personality learning unit 506)
The
(提案部508)
提案部508は、解析結果情報に基づいて、ユーザーにいかなる動作を実行すべきかを提案する提案情報を生成する。例えば、データ取得部20が外部のデータベース等から株価の変動を含む株価に関連する各種の情報をデータとして取得した場合、解析部40は、所定時期における所定銘柄の株価の予測額を解析結果情報に含ませる。そして、提案部508は、その予測額を含む解析結果情報に応じ、ユーザーにその銘柄の株を購入するタイミングを教示する提案情報を生成する。
(Proposal Unit 508)
The
また、データ取得部20が外部のデータベース等から所定のイベントに関する情報(例えば、所定のイベントの開催時期、開催場所、イベントの内容等の情報)をデータとして取得した場合、解析部40は、当該イベントの開催に関する情報を解析結果情報に含ませる。そして、提案部508は、そのイベントの開催に関する情報に応じ、ユーザーにそのイベントへの参加を提案する提案情報を生成する。
In addition, when the
学習ユニット50は、学習結果情報、質問情報、嗜好情報、外観情報、提案情報、及び/又は動作命令情報を、レベル決定部52、情報格納部56、及び/又は判断部60に供給する。
The
(レベル決定部52、レベル情報格納部54)
レベル決定部52は、学習ユニット50の学習結果に応じ、学習型ロボット1の学習段階を示すレベルを決定する。例えば、レベル決定部52は、学習ユニット50における学習結果が予め定められた水準に達した場合に、学習型ロボット1の学習レベルが当該水準の学習レベルであると決定する。レベル決定部52は、決定した学習レベルを示す情報であるレベル情報をレベル情報格納部54に供給する。レベル情報格納部54は、このレベル情報を格納する。
(
The
学習ユニット50は、レベル情報格納部54が格納しているレベル情報を参照することができる。学習ユニット50は、例えば、参照したレベル情報に応じ、質問情報、提案情報、及び/又は動作命令情報を当該レベル情報に対応する学習レベルに対応する内容に変更若しくは修正することができる。一例として、学習ユニット50が有する質問部500は、学習レベルの向上に対応させて、質問情報を生成する頻度を変更させることができる。例えば、質問部500は、学習レベルの向上に対応させ、質問情報を生成する頻度を減少させる。
The
(判断部60)
判断部60は、学習ユニット50の学習結果に応じ、学習型ロボット1が実行すべき動作を判断する。具体的に、判断部60は、学習ユニット50から学習結果情報、質問情報、嗜好情報、外観情報、提案情報、及び/又は動作命令情報を受け取った場合、受け取った情報に対応する動作を学習型ロボット1が実行すべき動作として判断し、判断結果を示す情報である判断結果情報を動作制御部70に供給する。また、判断部60は、レベル情報格納部54が格納している学習型ロボット1の学習レベルに応じ、判断結果を示す情報を変更することもできる。更に、判断部60は、データ取得部20が外部から取得した情報の一部若しくは全部をそのまま外部に出力することを、実行すべき動作と判断することもできる。
(Judgment unit 60)
The
例えば、判断部60は、質問情報を受け取った場合、ユーザーに対して当該質問情報が表す質問を伝達すべきことを判断し、当該判断結果を含む判断結果情報を動作制御部70に供給する。また、判断部60は、質問情報を学習ユニット50から受け取った場合、通信端末2若しくは他の学習型ロボット1aに当該質問情報が表す内容を伝達すべきことを判断し、当該判断結果を含む判断結果情報を動作制御部70に供給することもできる。そして、判断部60は、学習レベルに応じ、ユーザーに対して質問情報が表す質問を伝達する頻度を変化させる指令を判断結果情報に含めることもできる。例えば、判断部60は、学習レベルの向上に比例させ、ユーザーに対する質問頻度を低下させる指令を判断結果情報に含める。これにより、学習型ロボット1は、初期状態ではユーザーに頻繁に質問する状態から、学習が進むにつれてユーザーの話を聞く聞き役の状態に推移することができる。
For example, when receiving the question information, the
更に判断部60は、嗜好情報に応じ、学習型ロボット1に嗜好情報に関連する広告情報を出力すべきことを判断することができる。すなわち、判断部60は、ユーザーの嗜好に対応する広告情報を外部のデータベース等から取得し、学習型ロボット1の表示部に表示させる動作をすべきことを判断する。また、判断部60は、学習レベルと嗜好情報とに応じ、嗜好情報に関連する広告情報を学習型ロボット1からユーザーに対して出力すべきことを判断することもできる。例えば、判断部60は、学習レベルの向上に対応させ、嗜好情報に応じて出力すべき広告情報の出力の頻度を減少させることができる。
Furthermore, the
また、判断部60は、外観情報に応じ、学習型ロボット1の外装を製造する外装製造装置(例えば、3Dプリンタ等)が用いることができる学習型ロボット1の外装を示す外装情報を決定し、当該決定を示す情報を含む判断結果情報を動作制御部70に供給することもできる。判断部60は、外観情報と共に学習型ロボット1の学習レベルを用い、外装情報を決定することもできる。
Further, the
例えば、判断部60は、知識学習部502の学習結果が示す情報、一例として、ユーザーと学習型ロボット1との過去のやり取りから得られた知識や学習型ロボット1が置かれている環境に関する情報に応じた外装情報を決定できる。一例として、判断部60は、学習型ロボット1が置かれている環境が高温多湿環境であれば、涼しげな外装を示す外装情報を決定し、寒冷環境であれば暖かい外装を示す外装情報を決定する。また、判断部60は、外観情報にユーザーの衣服の色に関する情報であって、ユーザーが着用する頻度の高い衣服の色に関する情報が含まれている場合、その色を示す情報を外装情報に含める。更に、判断部60は、学習レベルが所定レベルより高い場合、学習レベルが高いことを想起させるキャラクター(例えば、大学教授等)を示す情報を外装情報に含めることもできる。
For example, the
また、判断部60は、ユーザーに所定の銘柄の株を購入するタイミングを教示する提案情報を受け取った場合、提案情報をユーザーに提示するか否か判断する。例えば、判断部60は、予め定められた基準(一例として、所定金額以上の株価の上昇若しくは下降があったことを示す基準)を満たす場合、提案情報をユーザーに提示すると判断する。判断部60は、判断結果情報を動作制御部70に供給する。
Further, when receiving the proposal information that tells the user when to buy a stock of a predetermined brand, the
(動作制御部70)
動作制御部70は、判断部60の判断結果に応じ、学習型ロボット1の動作を制御する。すなわち、動作制御部70は、学習結果情報、質問情報、嗜好情報、外観情報、提案情報、及び/又は動作命令情報に対応する動作として判断部60において判断された結果を含む判断結果情報に基づいて、学習型ロボット1が実行すべき動作を制御する命令情報を生成する。
(Operation control unit 70)
The
例えば、動作制御部70は、判断結果情報に応じ、ユーザー、通信端末2、他の学習型ロボット1a、及び/又は外部のデータベースに所定の情報を提示若しくは供給する命令情報を生成する。また、動作制御部70は、学習型ロボット1の頭部、胴体部、及び/又は手足部の動作、並びに表示部への表示、学習型ロボット1の所定箇所に設けられる発光部(例えば、発光ダイオードからなる発光部)の発光の仕方、及び/又は後述する音声出力部802からの音声の出力等の動作を制御する命令情報を生成する。
For example, the
一例として、動作制御部70は、判断結果情報に質問情報が表す質問内容をユーザーに伝達すべき旨を示す情報が含まれている場合、出力部80からユーザーに対して質問情報が表す内容を伝達させる命令情報を生成する。また、動作制御部70は、判断結果情報に嗜好情報が表す内容に応じて外部のデータベースから広告情報を取得して学習型ロボット1の表示画面に取得した広告情報を表示させる旨を示す情報が含まれている場合、データ取得部20に広告情報を取得させ、データ取得部20が取得した広告情報を出力部80に出力させる命令情報を生成する。
As an example, when the determination result information includes information indicating that the question content represented by the question information should be transmitted to the user, the
また、動作制御部70は、判断結果情報に学習型ロボット1の学習レベル(以下、学習レベルAと表す)が他の学習型ロボット1aの学習レベル(以下、学習レベルBと表す)より低いことを示す情報が含まれている場合、データ取得部20に学習レベルAを学習レベルBに近付けるために必要なデータを学習型ロボット1a、外部のデータベース、及び/又はユーザーから取得させる命令情報を生成する。一方、動作制御部70は、判断結果情報に学習型ロボット1の学習レベルAが他の学習型ロボット1aの学習レベルBと表すより高いことを示す情報が含まれている場合、出力部80に学習レベルBを学習レベルAに近付けるために必要なデータを学習型ロボット1aに供給させる命令情報を生成する。これにより、動作制御部70は、外部の学習型ロボット1aに学習型ロボット1の学習結果を示す情報を供給できるので、外部の学習型ロボット1aを学習させることができる。
Further, the
また、動作制御部70は、他の学習型ロボット1a、及び/又は外部のデータベースに所定の情報をユーザーに知覚不能に提示若しくは供給する命令情報を生成することもできる。これにより、学習型ロボット1は、ユーザーに対して暗黙のうちに学習を実行することができる。そして、動作制御部70は、他の学習型ロボット1a、及び/又は外部のデータベースに所定の情報をユーザーに知覚可能に提示若しくは供給する命令情報を生成することもできる。この場合、学習型ロボット1は、ユーザーに対して学習を実行していることをアピールすることができる。
In addition, the
これにより、複数の学習型ロボット間で情報をユーザーに対しては暗黙のうちに交換することができるので、一の学習型ロボットと他の学習型ロボットとの接触が増えるほど、各学習型ロボットの学習レベルが向上させることができる。この場合において、学習型ロボット1は、学習した内容、及び/又は学習している内容に関する情報の一部若しくは全部を出力部80からユーザーに知覚可能に出力することもできる。かかる情報を知覚したユーザーは、自らが所有する学習型ロボット1が他の学習型ロボットと会話することにより徐々に学習している様子を把握できるので、本実施形態においては、ユーザーに、学習型ロボット1と他の様々な学習型ロボットとを会わせるモチベーションを向上させることができる。これにより、本実施の形態に係る学習型ロボット1によれば、人と人とのコミュニケーションを活発化させるきっかけを作りだすこともできる。
As a result, information can be implicitly exchanged among a plurality of learning robots, so that each learning robot increases as the contact between one learning robot and another learning robot increases. The learning level can be improved. In this case, the learning
また、本実施の形態に係る学習型ロボット1は、ユーザーに知覚可能な形式(例えば、音声、ジェスチャー、学習型ロボット1が備える発光部の発光等)で外部情報を他の学習型ロボット及び/又は周囲のユーザーに伝達することができる。更に、学習型ロボット1は、ユーザーに知覚不能な形式(例えば、Bluetooth(登録商標)等の近距離無線通信等)で外部情報を他の学習型ロボットに伝達することもできる。
In addition, the learning
そして、例えば、学習ユニット50は、ユーザーに知覚不能な形式で他の学習型ロボットとやり取りして取得された外部情報を解析して生成された解析結果情報(例えば、所定のカテゴリーに分類された解析結果情報)と、既に学習済みの結果(例えば、情報格納部56に既に格納されている所定のカテゴリーに分類された解析結果情報であって、新たに生成された解析結果情報より前に生成された解析結果情報)との差分の情報を抽出する。そして、動作制御部70は、抽出された差分の情報を他の学習型ロボットにユーザーが知覚不能な形式で供給させると共に、差分の情報に基づいて学習型ロボット1の動作を制御することもできる。
Then, for example, the
一例として、学習型ロボット1は、差分が、他の学習型ロボットの方が所定のカテゴリーに分類される情報を多く有することを示す場合、当該カテゴリーに属する情報に関する学習を活発化させるべきと判断する。例えば、動作制御部70は、他の学習型ロボットの方が所定のカテゴリーに分類される情報を多く有することを差分が示す情報を含む学習結果情報、及び判断結果情報が生成された場合、他の学習型ロボットに対し、当該カテゴリーに関する情報を取得するための質問を表す情報をユーザーに知覚可能に出力させる動作を決定する。一例として、所定のカテゴリーが「服装」に関するカテゴリーであって、他の学習型ロボットの方が「服装」に関するカテゴリーに関する情報を学習型ロボット1より多く有している場合、学習型ロボット1は、他の学習型ロボットに対し、「服装」に関する質問を発話することができる。なお、学習型ロボット1は、他の学習型ロボットより自身の方が所定のカテゴリーに分類される情報を多く有する場合、上記と逆の動作を実行することもできる。
As an example, when the
また、動作制御部70は、解析結果情報にユーザーが知覚可能な情報(例えば、音声情報)に基づいて生成された情報が含まれ、当該情報を用いて学習結果情報及び判断結果情報が生成された場合、ユーザーが知覚した一部若しくは全ての情報を学習型ロボット1から出力させる動作を決定することもできる。ユーザーが知覚可能な情報は、例えば、学習型ロボット1と当該他の学習型ロボットとの間でユーザーが知覚できない情報を交換することで得られた情報であって、当該情報に基づいて他の学習型ロボットが出力した情報(例えば、音声情報)である。
In addition, the
更に、学習型ロボット1は、他の学習型ロボットから出力されたユーザーが知覚可能な情報に基づいて、解析部40において生成されるカテゴリーの内容の重みづけを変化させ、変化させたカテゴリーの重みづけに応じて生成される判断結果情報に対応する動作を決定してもよい。例えば、動作制御部70は、ユーザーが知覚可能な情報を取得し、当該情報が属するカテゴリーの重みづけを増加させ、複数のカテゴリーのうち最も重みづけが大きい(若しくは小さい)カテゴリーに属する情報を他の学習型ロボットに伝達すべき情報と決定することができる。
Furthermore, the learning
また、動作制御部70は、判断結果情報が、他の学習型ロボットに比べ学習型ロボット1の方が一のカテゴリーに属する情報の格納量が少ないことを示す場合、他の学習型ロボットの方が「博学」であると判断する。そして、動作制御部70は、他の学習型ロボットから当該一のカテゴリーに属する情報を取得する場合、出力部80に相槌を示す情報(例えば、「なるほど」、「それで」等の音声情報)を出力させる動作を決定することもできる。
In addition, when the determination result information indicates that the
また、動作制御部70は、解析結果情報にユーザーの感情に関する情報が含まれ、かかる解析結果情報に基づいて、学習結果情報が生成され、判断結果情報が生成された場合、当該感情を示す情報に応じた学習型ロボット1の動作を決定することもできる。例えば、動作制御部70は、学習型ロボット1の頭、手、足等の動きや向きを感情を示す情報に応じて決定できる。更に、動作制御部70は、例えば、判断結果情報が学習型ロボット1において動作不能な情報を含む場合、他の学習型ロボット若しくは外部のユーザーに対してあたかも適切な判断をしているかのように思わせる情報(例えば、相槌に関する情報)を出力部80に出力させる動作を決定することもできる。
In addition, when the analysis result information includes information related to the user's emotion, and the learning result information is generated based on the analysis result information, and the determination result information is generated, the
また、動作制御部70は、所定のソーシャルネットワーキングサービスが提供する所定のフォームに判断結果情報から想定されるデータを自動的に入力する命令情報を生成することもできる。例えば、動作制御部70は、学習結果情報や質問情報、若しくは嗜好情報等を参照し、学習型ロボット1の周囲で発生した事象、若しくはユーザーの状態(例えば、ユーザーの気分等)、又は学習型ロボット1が学習していない事項(すなわち、情報格納部56に格納されていない情報)等を表すテキストデータを、ソーシャルネットワーキングサービスのフォームに出力部80に自動入力させる命令情報を生成する。
The
また、動作制御部70は、提案情報に応じて判断された判断結果情報を受け取った場合、その判断結果情報に対応する命令情報を生成する。例えば、ユーザーに所定の銘柄の株を購入するタイミングを教示する提案情報に応じ、ユーザーに株を購入することを促す情報を提示することを示す判断結果情報を受け取った場合、動作制御部70は、出力部80からユーザーに株を購入することを勧める情報を出力させる命令情報を生成する。動作制御部70は、動作を制御する命令情報を出力部80に供給する。
Further, when the
更に、動作制御部70は、判断部60においてデータ取得部20が外部から取得した情報の一部若しくは全部をそのまま外部に出力することを実行すべき動作と判断された場合、係る情報の一部若しくは全部をそのまま出力部80に出力させる命令情報を生成することもできる。例えば、データ取得部20が外部から文章に関する情報を取得した場合、当該文章を構成する語彙の一部若しくは全部を出力部80から出力させる命令情報を生成できる。
Further, when the
(出力部80)
出力部80は、動作制御部70から受け取った命令情報に基づいて、学習型ロボット1からユーザー、通信端末2、他の学習型ロボット1a、及び/又は外部のデータベースに対し、所定の情報を提示若しくは供給する。また、出力部80は、命令情報に基づいて、学習型ロボット1に所定の動作を実行させる。
(Output unit 80)
Based on the command information received from the
例えば、出力部80は、テキストデータ、画像データ等を表示する表示画面としての表示部800と、音声を出力する音声出力部802と、データを出力するデータ出力部804と、学習型ロボット1の所定箇所(例えば、頭部、胴体部、手足部等)に所定の動作を実行させる動作出力部806とを含む。
For example, the
表示部800は、動作制御部70から受け取った命令情報に応じ、ユーザーに知覚させるテキスト、静止画、動画等を表示する。音声出力部802は、命令情報に応じ、例えば、ユーザーに対する質問若しくは所定の質問に対する回答、その他の音声を出力する。データ出力部804は、命令情報に応じ、他の学習型ロボット1aに所定のデータを出力することや、所定のソーシャルネットワーキングサービスの所定のフォームにテキストデータを出力することで書込み処理を実行する。また、動作出力部806は、学習型ロボット1の所定箇所を動作させる指令を駆動部90や所定箇所に出力する。
The
(駆動部90)
駆動部90は、例えば、学習型ロボット1の頭部、胴体部、及び/又は手足部等を駆動させる。駆動部90は、動作出力部806から受け取った指令に応じ、学習型ロボット1の所定箇所を駆動させる。また、駆動部90は、ユーザー特徴情報を含む判断結果情報に応じて動作制御部70が出力する指令に応じ、学習型ロボット1の所定箇所に設けられる発光部を様々なパターンで発光させたり、学習型ロボット1の所定箇所に所定の動作を実行させたり、及び/又は音声出力部802からの様々な音声を出力させることで、学習型ロボット1の感情を表現することもできる。
(Driver 90)
The
図6は、本発明の実施の形態に係る学習型ロボットの外装を変化させる場合の概要の一例を示す。 FIG. 6 shows an example of an outline when changing the exterior of the learning robot according to the embodiment of the present invention.
本実施の形態に係る学習型ロボット1においては、学習型ロボット1のユーザーの特徴若しくは嗜好、学習の度合い、又は学習レベルの向上の度合い等に応じ、3Dプリンタ等の外装製造装置6により所望の外装を形成できる。学習型ロボット1の外装のバリエーションとしては、例えば、外装のカラーやデザインを変更した学習型ロボット1b、学習型ロボット1の外装に所定のアクセサリ(帽子、メガネ、その他備品等)を付加した学習型ロボット1c、及び学習型ロボット1のフォームを変更した学習型ロボット1d等がある。
In the
具体的に、まず、外装情報を含む判断結果情報が判断部60から動作制御部70に供給される。動作制御部70はデータ出力部804に、通信部10を介して外部の外装製造装置6に外装情報を供給させる。そして、外装情報が供給された外装製造装置6は、学習型ロボット1の外装を外装情報に対応する外装を製造する。これにより、学習型ロボット1の外装が、外装情報に対応した形状になる。
Specifically, first, determination result information including exterior information is supplied from the
図7は、本発明の実施の形態に係る学習型ロボットシステムの概要の一例を示す。 FIG. 7 shows an example of an outline of a learning robot system according to the embodiment of the present invention.
本実施の形態に係る学習型ロボットシステムは、外部の学習型ロボット1a、通信端末3、又は所定のデータを格納するデータベース(図示しない)と、外部からの情報に応じていかなる動作を実行するかを学習する学習型ロボット1とを備える。学習型ロボット1は、通信端末2と相互に通信可能に設けられる。
The learning type robot system according to the present embodiment performs an external learning type robot 1a, a
例えば、学習型ロボット1と学習型ロボット1aとが相互に初めて会話する例を説明する。ここでは、学習型ロボット1から学習型ロボット1aに問いかける例を説明する。まず、学習型ロボット1のデータ取得部20は、通信部10を介して相手方の学習型ロボットである学習型ロボット1aを識別するデータ(例えば、学習型ロボットを一意に識別するロボット識別子)を取得する。解析部40は、そのデータがロボット識別子であると解析する。学習ユニット50は、解析部40から受け取ったロボット識別子が情報格納部56に格納されているか否か判断する。この場合、学習型ロボット1と学習型ロボット1aとは互いに初めてデータのやり取りを実行したので、情報格納部56に学習型ロボット1aのロボット識別子は格納されていない。
For example, an example will be described in which the
そこで、学習ユニット50は、学習型ロボット1aに初めて接触したことを示す学習結果情報を判断部60に供給する。判断部60は、この学習結果情報に応じ、学習型ロボット1と学習型ロボット1aとの間で所定の関係を形成すべきと判断する。例えば、判断部60は、学習型ロボット1aに挨拶すべきと判断する。判断部60は、この判断結果を含む判断結果情報を動作制御部70に供給する。動作制御部70は、出力部80を制御して、学習型ロボット1aに挨拶を示す情報を提示若しくは供給する。具体的には、音声出力部802から挨拶を示す音声を出力させると共に、データ出力部804から学習型ロボット1aに対し、学習型ロボット1のロボット識別子を含むデータ、及び/又は学習型ロボット1と学習型ロボット1aとが所定の関係を構築した旨を示す情報を供給する。
Therefore, the
また、学習型ロボット1と通信端末2との間、及び学習型ロボット1aと通信端末3との間で様々な情報がやり取りされることで、学習型ロボット1及び学習型ロボット1aは、それらの学習レベルを向上させる。例えば、学習型ロボット1は、情報格納部56に格納されていない情報について、ユーザーに対して質問を発する(例えば、音声出力部802から質問を示す音声を出力する。)。ユーザーは、当該質問に回答する。具体的には、通信端末2を介し、回答を示す情報を学習型ロボット1に供給する。これにより、学習型ロボット1は学習レベルを向上させる。そして、学習型ロボット1は、ユーザーから学習した内容を学習型ロボット1aに伝達する。これにより、学習型ロボット1aも学習レベルを向上させることができる。すなわち、本実施の形態に係る学習型ロボットシステムによれば、複数の学習型ロボット相互で学習した内容を伝達できる。
In addition, various information is exchanged between the learning
また、学習型ロボット1と学習型ロボット1aとは、相互に自律的に相手方に対して発話することができる。例えば、学習型ロボット1が、学習型ロボット1のユーザーの嗜好を予め学習している場合、当該嗜好に関連する情報を学習型ロボット1aに音声、及びデータで伝達する。学習型ロボット1aは、それら音声、及びデータを取得した場合、当該嗜好に対して興味を示していることを示す音声、及びデータを学習型ロボット1に伝達する。この場合において、学習型ロボット1のユーザーと学習型ロボット1aのユーザーとがそれぞれ自己の学習型ロボット近傍に存在している場合、各ユーザーは学習型ロボット1及び学習型ロボット1aの発話内容を把握することになる。これにより、学習型ロボットシステムは、学習型ロボット1のユーザーと学習型ロボット1aのユーザーとが互いに知り合いではない場合であっても、知り合うきっかけを与えることができる。また、学習型ロボットシステムは、学習型ロボット1のユーザーと学習型ロボット1aのユーザーとの親密度合いを向上させるきっかけを提供することもできる。
Moreover, the learning
また、図示しないが、学習型ロボット1aが所定の店舗に設置されており、当該店舗に学習型ロボット1を有するユーザーが来店した場合を説明する。この場合、学習型ロボット1と学習型ロボット1aとは、自発的に相互にデータをやり取りする。例えば、学習型ロボット1は、学習型ロボット1aから当該店舗におけるクーポン情報やイベント情報を取得する。そして、学習型ロボット1は、例えば、取得したクーポン情報やイベント情報を表示画面に表示する。これにより、学習型ロボット1は、ユーザーが店舗の店員に話しかけなくても、学習型ロボット1aからクーポン情報やイベント情報を受け取ることができる。
Although not shown, a case where the learning robot 1a is installed in a predetermined store and a user who has the learning
図8は、本発明の実施の形態に係る学習型ロボットが所定のソーシャルネットワーキングサービスの所定のフォームに情報を書き込む場合の一例を示す。 FIG. 8 shows an example in which the learning robot according to the embodiment of the present invention writes information in a predetermined form of a predetermined social networking service.
例えば、学習型ロボット1の動作制御部70は、学習ユニット50の学習結果に応じ、ソーシャルネットワーキングサービスの所定のフォームとしてのコメント欄902に所定のテキストデータを入力することを決定する。そして、動作制御部70は、データ出力部804に対し、当該テキストデータを当該コメント欄902に入力させる命令情報を生成する。この命令情報を受け取ったデータ出力部804は、通信部10を介し、コメント欄902に当該テキストデータを入力する。
For example, the
コメント欄902へテキストデータが入力されると、ソーシャルネットワーキングサービスのサーバーから学習型ロボット1aにテキストデータが入力された旨が通知される。学習型ロボット1aは、学習型ロボット1aのデータ取得部20が当該通知とテキストデータとを取得する。そして、学習型ロボット1aの解析部40がテキストデータを解析すると共に、コメント欄904に入力するテキストデータを解析結果に応じて学習ユニット50が生成する。更に、学習型ロボット1aの判断部60がコメント欄904にテキストデータを入力すべきと判断し、動作制御部70がデータ出力部804に学習ユニット50において生成されたテキストデータをコメント欄904に自動入力させることを決定する。これにより、画面900に示すように、学習型ロボット1及び学習型ロボット1aが自動的にそれぞれのコメントを各コメント欄に入力することができる。
When text data is input to the
また、図示しないが、学習型ロボット1は、外部のデータベース(例えば、様々なアプリケーションプログラムやコンテンツを提供するサーバー)から、学習型ロボット1の固有の動作の仕方、遊び方、駆動の仕方、及び/又は感情表現の仕方等を規定するアプリケーションプログラムやコンテンツを取得することができる。すなわち、データ取得部20は、通信部10を介してアプリケーションプルグラムやコンテンツを取得する。そして、解析部40は、アプリケーションやコンテンツを解析し、学習型ロボット1において実行可能な形式に変換する。次に、学習ユニット50は、変換されたアプリケーションやコンテンツを用いて学習を実行し、動作命令情報を生成する。これにより、学習型ロボット1は、アプリケーションプログラムやコンテンツを外部から取得することで、学習レベルを向上させたり、所定の動作を実行すること、又はこれまでとは異なる動作を実行することができるようになる。
Further, although not shown, the
図9は、本実施の形態に係る学習型ロボットのハードウェア構成の一例を示す。 FIG. 9 shows an example of the hardware configuration of the learning robot according to the present embodiment.
本実施の形態に係る学習型ロボット1は、CPU1500と、グラフィックコントローラ1520と、Random Access Memory(RAM)、Read−Only Memory(ROM)及び/又はフラッシュROM等のメモリ1530と、データを記憶する記憶装置1540と、記録媒体からデータを読み込み及び/又は記録媒体にデータを書き込む読込み/書込み装置1545と、データを入力する入力装置1560と、外部の通信機器とデータを送受信する通信インターフェース1550と、CPU1500とグラフィックコントローラ1520とメモリ1530と記憶装置1540と読込み/書込み装置1545と入力装置1560と通信インターフェース1550とを互いに通信可能に接続するチップセット1510とを備える。
The learning
チップセット1510は、メモリ1530と、メモリ1530にアクセスして所定の処理を実行するCPU1500と、外部の表示装置の表示を制御するグラフィックコントローラ1520とを相互に接続することにより、各構成要素間のデータの受渡しを実行する。CPU1500は、メモリ1530に格納されたプログラムに基づいて動作して、各構成要素を制御する。グラフィックコントローラ1520は、メモリ1530内に設けられたバッファ上に一時的に蓄えられた画像データに基づいて、画像を所定の表示装置に表示させる。
The chip set 1510 includes a
また、チップセット1510は、記憶装置1540と、読込み/書込み装置1545と、通信インターフェース1550とを接続する。記憶装置1540は、学習型ロボット1のCPU1500が使用するプログラムとデータとを格納する。記憶装置1540は、例えば、フラッシュメモリである。読込み/書込み装置1545は、プログラム及び/又はデータを記憶している記憶媒体からプログラム及び/又はデータを読み取って、読み取ったプログラム及び/又はデータを記憶装置1540に格納する。読込み/書込み装置1545は、例えば、通信インターフェース1550を介し、インターネット上のサーバーから所定のプログラムを取得して、取得したプログラムを記憶装置1540に格納する。
The chip set 1510 connects a
通信インターフェース1550は、通信ネットワークを介して外部の装置とデータの送受信を実行する。また、通信インターフェース1550は、通信ネットワークが不通の場合、通信ネットワークを介さずに外部の装置とデータの送受信を実行することもできる。そして、音声取得装置、キーボード、タブレット、マウス等の入力装置1560は、所定のインターフェースを介してチップセット1510と接続する。
The
記憶装置1540に格納される学習型ロボット1用のプログラムは、インターネット等の通信ネットワーク、又は磁気記録媒体、光学記録媒体等の記録媒体を介して記憶装置1540に提供される。そして、記憶装置1540に格納された学習型ロボット1用のプログラムは、CPU1500により実行される。
The learning
本実施の形態に係る学習型ロボット1により実行されるプログラムは、CPU1500に働きかけて、学習型ロボット1を、図1〜図8において説明した通信部10、データ取得部20、外部情報取得部30、解析部40、学習ユニット50、レベル決定部52、レベル情報格納部54、情報格納部56、判断部60、動作制御部70、出力部80、駆動部90、位置情報取得部300、時刻情報取得部302、環境情報取得部304、音声情報取得部306、撮像部308、触覚センサ310、質問部500、知識学習部502、ユーザー学習部504、パーソナリティ学習部506、提案部508、表示部800、音声出力部802、データ出力部804、及び動作出力部806として機能させる。
The program executed by the
(実施の形態の効果)
本実施の形態に係る学習型ロボット1によれば、ユーザーからの問いかけや他の学習型ロボット1aからの問いかけ等に応じ、様々な知識や語彙、ユーザーの特徴や感情等を自律的に学習できる。また、学習型ロボット1は、他の学習型ロボット1aと協働して、自己若しくは他の学習型ロボット1aの学習レベルを向上させることができる。これにより、本実施の形態に係る学習型ロボット1によれば、ユーザーと学習型ロボット1との間のコミュニケーションを活発にすることができるだけでなく、学習型ロボット1を介し、当該ユーザーと他のユーザーとのコミュニケーションをとるきっかけを提供することや、ユーザー間のコミュニケーションを活発にさせることができる。
(Effect of embodiment)
The learning
以上、本発明の実施の形態を説明したが、上記に記載した実施の形態は特許請求の範囲に係る発明を限定するものではない。また、実施の形態の中で説明した特徴の組合せのすべてが発明の課題を解決するための手段に必須であるとは限らない点に留意すべきである。更に、上記した実施形態の技術的要素は、単独で適用されてもよいし、プログラム部品とハードウェア部品とのような複数の部分に分割されて適用されるようにすることもできる。 While the embodiments of the present invention have been described above, the embodiments described above do not limit the invention according to the claims. In addition, it should be noted that not all combinations of features described in the embodiments are necessarily essential to the means for solving the problems of the invention. Furthermore, the technical elements of the above-described embodiments may be applied independently, or may be applied by being divided into a plurality of parts such as program parts and hardware parts.
1、1a、1b、1c、1d 学習型ロボット
2、3 通信端末
4 データベース
5 通信網
6 外装製造装置
10 通信部
20 データ取得部
30 外部情報取得部
40 解析部
50 学習ユニット
52 レベル決定部
54 レベル情報格納部
56 情報格納部
60 判断部
70 動作制御部
80 出力部
90 駆動部
300 位置情報取得部
302 時刻情報取得部
304 環境情報取得部
306 音声情報取得部
308 撮像部
310 触覚センサ
500 質問部
502 知識学習部
504 ユーザー学習部
506 パーソナリティ学習部
508 提案部
800 表示部
802 音声出力部
804 データ出力部
806 動作出力部
900 画面
902、904 コメント欄
1500 CPU
1510 チップセット
1520 グラフィックコントローラ
1530 メモリ
1540 記憶装置
1545 読込み/書込み装置
1550 通信インターフェース
1560 入力装置
DESCRIPTION OF
1510 chip set 1520
Claims (14)
外部からの情報である外部情報が示す内容を、前記学習型ロボットの動作の実行に資するように解析して解析結果情報を生成する解析部と、
前記解析結果情報に応じ、前記学習型ロボットがいかなる動作を実行するかを学習する学習ユニットと、
前記学習ユニットの学習結果に応じ、前記学習型ロボットが実行すべき前記動作を判断する判断部と、
前記判断部の判断結果に応じ、前記学習型ロボットの動作を制御する動作制御部と
を備える学習型ロボット。 A learning robot that learns what action to perform according to information from outside,
An analysis unit that analyzes the content indicated by external information that is information from the outside so as to contribute to the execution of the operation of the learning robot, and generates analysis result information;
A learning unit that learns what operation the learning robot performs according to the analysis result information;
A determination unit that determines the operation to be performed by the learning robot according to a learning result of the learning unit;
A learning type robot comprising: an operation control unit that controls the operation of the learning type robot according to a determination result of the determination unit.
を更に備え、
前記学習ユニットが、前記情報格納部に格納されている前記学習結果情報を、前記解析結果情報を用いて更新する請求項1に記載の学習型ロボット。 An information storage unit for storing learning result information indicating a learning result of the learning unit;
The learning robot according to claim 1, wherein the learning unit updates the learning result information stored in the information storage unit using the analysis result information.
を更に備え、
前記判断部が、前記レベルに応じ前記動作を変更する請求項1〜3のいずれか1項に記載の学習型ロボット。 According to the learning result of the learning unit, further comprising a level determining unit that determines a level indicating a learning stage of the learning robot,
The learning robot according to claim 1, wherein the determination unit changes the operation according to the level.
前記学習ユニットが、前記プログラムに応じ、前記学習型ロボットの前記動作を学習する請求項1〜4のいずれか1項に記載の学習型ロボット。 The external information includes a program that defines information indicating at least how the learning robot operates.
The learning robot according to claim 1, wherein the learning unit learns the operation of the learning robot according to the program.
前記判断部が、前記嗜好情報に応じ、前記学習型ロボットに前記嗜好情報に関連する広告情報を出力すべきことを判断する請求項1〜5のいずれか1項に記載の学習型ロボット。 The learning unit learns the preference information indicating the preference of the learning robot user according to the analysis result information,
The learning robot according to claim 1, wherein the determination unit determines that advertisement information related to the preference information should be output to the learning robot according to the preference information.
前記判断部が、前記レベルと前記嗜好情報とに応じ、前記学習型ロボットに前記嗜好情報に関連する広告情報を出力すべきことを判断する請求項4に記載の学習型ロボット。 The learning unit learns the preference information indicating the preference of the learning robot user according to the analysis result information,
The learning type robot according to claim 4, wherein the determination unit determines that advertisement information related to the preference information should be output to the learning type robot according to the level and the preference information.
前記学習ユニットが、前記ユーザー特徴情報から導き出される前記ユーザーの外観に関する情報である外観情報を生成し、
前記判断部が、前記外観情報に応じ、前記学習型ロボットの外装を製造する外装製造装置が用いることができる前記学習型ロボットの外装を示す外装情報を決定する請求項1〜7のいずれか1項に記載の学習型ロボット。 The analysis result information includes user characteristic information indicating characteristics of a user of the learning robot,
The learning unit generates appearance information that is information about the user's appearance derived from the user characteristic information;
The determination unit determines exterior information indicating an exterior of the learning robot that can be used by an exterior manufacturing apparatus that manufactures the exterior of the learning robot according to the exterior information. The learning type robot according to the item.
前記学習ユニットが、前記ユーザーに知覚不能な形式でやり取りされた前記外部情報を解析して生成され前記カテゴリーに分類された前記解析結果情報と、既に学習済みの結果との差分の情報を抽出し、
前記動作制御部が、抽出された前記差分の情報を前記他の学習型ロボットに前記ユーザーに知覚不能な形式で供給すると共に、前記差分の情報に基づいて前記動作を制御する請求項10に記載の学習型ロボット。 The analysis unit generates the analysis result information by classifying the external information into a predetermined category,
The learning unit extracts the information of the difference between the analysis result information generated by analyzing the external information exchanged in a form not perceptible to the user and classified into the category, and the already learned result. ,
The said operation control part supplies the extracted said difference information to the said other learning type | mold robot in the form which cannot be perceived to the said user, and controls the said movement based on the said difference information. Learning robot.
前記外部の学習型ロボット、前記通信端末、若しくは前記データベースから取得するデータが示す内容、又は外部からの情報である外部情報が示す内容を、前記学習型ロボットの動作の実行に資するように解析して解析結果情報を生成する解析部と、
前記解析結果情報に応じ、前記学習型ロボットがいかなる動作を実行するかを学習する学習ユニットと、
前記学習ユニットの学習結果に応じ、前記学習型ロボットが実行すべき前記動作を判断する判断部と、
前記判断部の判断結果に応じ、前記学習型ロボットの動作を制御する動作制御部と
を備える学習型ロボットシステム。 A learning robot system comprising an external learning robot, a communication terminal, or a database that stores predetermined data, and a learning robot that learns what operation to perform according to information from the outside,
Analyzing the content indicated by data acquired from the external learning robot, the communication terminal, or the database, or the content indicated by external information that is information from the outside so as to contribute to the execution of the operation of the learning robot. An analysis unit for generating analysis result information,
A learning unit that learns what operation the learning robot performs according to the analysis result information;
A determination unit that determines the operation to be performed by the learning robot according to a learning result of the learning unit;
A learning robot system comprising: an operation control unit that controls the operation of the learning robot according to a determination result of the determination unit.
コンピューターに、
外部からの情報である外部情報が示す内容を、前記学習型ロボットの動作の実行に資するように解析して解析結果情報を生成する解析機能と、
前記解析結果情報に応じ、前記学習型ロボットがいかなる動作を実行するかを学習する学習機能と、
前記学習機能における学習結果に応じ、前記学習型ロボットが実行すべき前記動作を判断する判断機能と、
前記判断機能における判断結果に応じ、前記学習型ロボットの動作を制御する動作制御機能と
を実現させる学習型ロボット用プログラム。 A learning robot program that is executed in a learning robot that learns what action to perform according to information from outside,
On the computer,
An analysis function for generating the analysis result information by analyzing the content indicated by the external information that is information from the outside so as to contribute to the execution of the operation of the learning robot;
A learning function for learning what operation the learning robot performs according to the analysis result information;
A determination function for determining the action to be performed by the learning robot according to a learning result in the learning function;
A learning robot program for realizing an operation control function for controlling the operation of the learning robot according to a determination result in the determination function.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014236808A JP2018008316A (en) | 2014-11-21 | 2014-11-21 | Learning type robot, learning type robot system, and program for learning type robot |
PCT/JP2015/082920 WO2016080553A1 (en) | 2014-11-21 | 2015-11-24 | Learning robot, learning robot system, and learning robot program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014236808A JP2018008316A (en) | 2014-11-21 | 2014-11-21 | Learning type robot, learning type robot system, and program for learning type robot |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018008316A true JP2018008316A (en) | 2018-01-18 |
Family
ID=56014080
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014236808A Pending JP2018008316A (en) | 2014-11-21 | 2014-11-21 | Learning type robot, learning type robot system, and program for learning type robot |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2018008316A (en) |
WO (1) | WO2016080553A1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019151387A1 (en) * | 2018-01-31 | 2019-08-08 | Groove X株式会社 | Autonomous behavior robot that behaves on basis of experience |
KR20200120002A (en) * | 2019-04-11 | 2020-10-21 | 우승희 | Electronic Device for Providing User-Participating-Type AI Training Service, and Server and System therefor |
US11073823B2 (en) | 2018-01-31 | 2021-07-27 | Fanuc Corporation | Robot and robot maintenance timing notification method |
US11544594B2 (en) | 2019-04-11 | 2023-01-03 | Sunghee Woo | Electronic device comprising user interface for providing user-participating-type AI training service, and server and method for providing user-participating-type AI training service using the electronic device |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107590503A (en) * | 2016-07-07 | 2018-01-16 | 深圳狗尾草智能科技有限公司 | A kind of robot affection data update method and system |
JP6386523B2 (en) * | 2016-12-15 | 2018-09-05 | ファナック株式会社 | Machine learning device, life prediction device, numerical control device, production system, and machine learning method for predicting life of NAND flash memory |
CN108521789B (en) * | 2017-06-06 | 2021-07-27 | 深圳市大疆创新科技有限公司 | Mobile robot performance evaluation method and system and mobile robot |
US20210232949A1 (en) * | 2018-06-18 | 2021-07-29 | Sony Corporation | Information processing device, information processing method, and program |
KR102314538B1 (en) * | 2018-08-01 | 2021-10-18 | 엘지전자 주식회사 | Artificial intelligence Moving robot |
JP7034035B2 (en) * | 2018-08-23 | 2022-03-11 | 株式会社日立製作所 | Motion generation method for autonomous learning robot device and autonomous learning robot device |
US11436470B2 (en) * | 2019-09-13 | 2022-09-06 | Kyndryl, Inc. | Generating simulated image training data |
JP6858434B1 (en) * | 2020-02-14 | 2021-04-14 | 株式会社ロボマインド | Artificial intelligence systems and programs |
CN115150847A (en) * | 2021-03-31 | 2022-10-04 | 华为技术有限公司 | Model processing method, communication device and system |
CN117245643A (en) * | 2022-12-06 | 2023-12-19 | 北京小米机器人技术有限公司 | Control method and device of terminal equipment, terminal equipment and storage medium |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001179665A (en) * | 1999-12-24 | 2001-07-03 | Toshiba Corp | Intelligent robot |
JP2002301676A (en) * | 2001-04-02 | 2002-10-15 | Sony Corp | Robot device, information providing method, program and storage medium |
JP2003001582A (en) * | 2001-06-21 | 2003-01-08 | Kenji Fuse | Costume for robot |
JP2003205483A (en) * | 2001-11-07 | 2003-07-22 | Sony Corp | Robot system and control method for robot device |
JP4534427B2 (en) * | 2003-04-01 | 2010-09-01 | ソニー株式会社 | Robot control apparatus and method, recording medium, and program |
JP4411900B2 (en) * | 2003-08-08 | 2010-02-10 | ソニー株式会社 | Mutual growth system between electronic devices, electronic devices and robotic devices |
JP2005111637A (en) * | 2003-10-10 | 2005-04-28 | Ntt Data Corp | Network robot service system |
TWI306051B (en) * | 2006-12-14 | 2009-02-11 | Ind Tech Res Inst | Robotic apparatus with surface information displaying and interaction capability |
JP5172049B2 (en) * | 2011-06-14 | 2013-03-27 | パナソニック株式会社 | Robot apparatus, robot control method, and robot control program |
KR101969184B1 (en) * | 2011-07-05 | 2019-04-15 | 레고 에이/에스 | Toy building set |
-
2014
- 2014-11-21 JP JP2014236808A patent/JP2018008316A/en active Pending
-
2015
- 2015-11-24 WO PCT/JP2015/082920 patent/WO2016080553A1/en active Application Filing
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019151387A1 (en) * | 2018-01-31 | 2019-08-08 | Groove X株式会社 | Autonomous behavior robot that behaves on basis of experience |
JPWO2019151387A1 (en) * | 2018-01-31 | 2021-01-14 | Groove X株式会社 | An autonomous robot that acts based on experience |
US11073823B2 (en) | 2018-01-31 | 2021-07-27 | Fanuc Corporation | Robot and robot maintenance timing notification method |
JP7281198B2 (en) | 2018-01-31 | 2023-05-25 | Groove X株式会社 | Autonomous behavioral robot that acts based on experience |
KR20200120002A (en) * | 2019-04-11 | 2020-10-21 | 우승희 | Electronic Device for Providing User-Participating-Type AI Training Service, and Server and System therefor |
KR102363083B1 (en) * | 2019-04-11 | 2022-02-15 | 우승희 | Electronic Device for Providing User-Participating-Type AI Training Service, and Server and System therefor |
US11544594B2 (en) | 2019-04-11 | 2023-01-03 | Sunghee Woo | Electronic device comprising user interface for providing user-participating-type AI training service, and server and method for providing user-participating-type AI training service using the electronic device |
Also Published As
Publication number | Publication date |
---|---|
WO2016080553A1 (en) | 2016-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018008316A (en) | Learning type robot, learning type robot system, and program for learning type robot | |
US20190143527A1 (en) | Multiple interactive personalities robot | |
KR102306624B1 (en) | Persistent companion device configuration and deployment platform | |
US20190193273A1 (en) | Robots for interactive comedy and companionship | |
EP3381175B1 (en) | Apparatus and method for operating personal agent | |
Vinciarelli et al. | A survey of personality computing | |
Bretan et al. | Emotionally expressive dynamic physical behaviors in robots | |
US11455986B2 (en) | System and method for conversational agent via adaptive caching of dialogue tree | |
CN111418198B (en) | Electronic device for providing text-related image and method of operating the same | |
CN110400251A (en) | Method for processing video frequency, device, terminal device and storage medium | |
US20190202063A1 (en) | System and method for selective animatronic peripheral response for human machine dialogue | |
WO2016163530A1 (en) | Robot, robot control method, and robot system | |
KR102616850B1 (en) | An external device capable of being combined with an electronic device, and a display method thereof. | |
JP7010000B2 (en) | Information processing equipment and programs | |
CN109410297A (en) | It is a kind of for generating the method and apparatus of avatar image | |
CN109086860B (en) | Interaction method and system based on virtual human | |
JP2023525173A (en) | Conversational AI platform with rendered graphical output | |
CN109643540A (en) | System and method for artificial intelligent voice evolution | |
US20190202061A1 (en) | System and method for detecting physical proximity between devices | |
US20190251966A1 (en) | System and method for prediction based preemptive generation of dialogue content | |
CN112262024A (en) | System and method for dynamic robot configuration for enhanced digital experience | |
WO2019160612A1 (en) | System and method for dynamic robot profile configurations based on user interactions | |
KR102369309B1 (en) | Electronic device for performing an operation for an user input after parital landing | |
WO2016206645A1 (en) | Method and apparatus for loading control data into machine device | |
JP2001249949A (en) | Feeling generation method, feeling generator and recording medium |