JP6326167B1 - Learning device, learning method, learning program, moving image distribution device, activity device, activity program, and moving image generation device - Google Patents

Learning device, learning method, learning program, moving image distribution device, activity device, activity program, and moving image generation device Download PDF

Info

Publication number
JP6326167B1
JP6326167B1 JP2017071117A JP2017071117A JP6326167B1 JP 6326167 B1 JP6326167 B1 JP 6326167B1 JP 2017071117 A JP2017071117 A JP 2017071117A JP 2017071117 A JP2017071117 A JP 2017071117A JP 6326167 B1 JP6326167 B1 JP 6326167B1
Authority
JP
Japan
Prior art keywords
learning
motion
data
action
identifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017071117A
Other languages
Japanese (ja)
Other versions
JP2018173790A (en
Inventor
量生 川上
量生 川上
寛明 齊藤
寛明 齊藤
慶介 大垣
慶介 大垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dwango Co Ltd
Original Assignee
Dwango Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dwango Co Ltd filed Critical Dwango Co Ltd
Priority to JP2017071117A priority Critical patent/JP6326167B1/en
Application granted granted Critical
Publication of JP6326167B1 publication Critical patent/JP6326167B1/en
Publication of JP2018173790A publication Critical patent/JP2018173790A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】オブジェクトの動作を学習する。【解決手段】 学習装置1は、オブジェクトOに行わせるアクションの識別子と、アクションを行わせるための動作部の動きの組み合わせの目標とを対応づけたモーションデータ16を生成するモーション生成部22と、モーションデータ16に従って、オブジェクトOの動作部の動きを試みて、アクションに対する評価値を出力し、アクションの識別子とモーションデータと評価値とを対応づけて学習データTに記憶する更新部23とを備える。モーション生成部22は、オブジェクトに行わせるアクションの識別子に対応づけられた学習データTを参照して、新たなモーションデータを生成する。【選択図】 図3To learn the movement of an object. A learning device includes: a motion generation unit that generates motion data that associates an identifier of an action to be performed by an object with a target of a combination of movements of an operation unit for performing the action; According to the motion data 16, the motion of the movement part of the object O is tried, an evaluation value for the action is output, and an update unit 23 that associates the identifier of the action, the motion data, and the evaluation value and stores them in the learning data T is provided. . The motion generation unit 22 generates new motion data with reference to the learning data T associated with the identifier of the action to be performed by the object. [Selection] Figure 3

Description

本発明は、仮想領域で、動作部を備えるオブジェクトが学習する学習装置、学習方法、学習プログラム、動画配信装置、活動装置、活動プログラムおよび動画生成装置に関する。 The present invention relates to a learning device, a learning method, a learning program, a moving image distribution device, an activity device, an activity program, and a moving image generation device in which an object including an operation unit learns in a virtual region.

近年、機械学習が広く普及しており、ロボットなどの思考ルーチンや様々なゲームに登場する非プレイヤキャラクタ(NPC)の思考ルーチンを自動構築する技術が知られている(例えば特許文献1参照)。この特許文献1において、所定の状況において、エージェントが取る行動を決定する思考ルーチンを自動構築する方法が、開示されている。   In recent years, machine learning has become widespread, and a technique for automatically constructing a thinking routine of a robot or the like and a thinking routine of a non-player character (NPC) appearing in various games is known (see, for example, Patent Document 1). In Patent Document 1, a method of automatically constructing a thought routine for determining an action to be taken by an agent in a predetermined situation is disclosed.

特許第5874292号公報Japanese Patent No. 5874292

人工生命体と称されるオブジェクトの学習においては、取るべき行動を決定する意思決定の学習段階と、行動を行うための一連の動作を学習する学習段階の2段階に分かれることが知られている。しかしながら、特許文献1に記載の技術において、一連の動作の学習については、何ら触れられていない。   In the learning of an object called an artificial life form, it is known to be divided into two stages: a learning stage of decision making that determines an action to be taken and a learning stage that learns a series of actions for performing an action. . However, the technique described in Patent Document 1 does not mention anything about learning of a series of operations.

従って本発明の目的は、オブジェクトが動作を学習する学習装置、学習方法、学習プログラム、動画配信装置、活動装置、活動プログラムおよび動画生成装置を提供することである。 Accordingly, an object of the present invention is to provide a learning device, a learning method, a learning program, a moving image distribution device, an activity device, an activity program, and a moving image generation device in which an object learns an action.

上記課題を解決するために、本発明の第1の特徴は、動作部を備えるオブジェクトが学習する学習装置に関する。第1の特徴に係る学習装置は、オブジェクトに行わせるアクションの識別子と、アクションを行わせるための動作部の動きの組み合わせの目標とを対応づけたモーションデータを生成するモーション生成部と、モーションデータに従って、オブジェクトの動作部の動きを試みて、アクションに対する評価値を出力し、アクションの識別子とモーションデータと評価値とを対応づけて学習データに記憶する更新部とを備え、モーション生成部は、オブジェクトに行わせるアクションの識別子に対応づけられた学習データを参照して、新たなモーションデータを生成する。   In order to solve the above-described problem, a first feature of the present invention relates to a learning apparatus in which an object including an operation unit learns. The learning device according to the first feature includes a motion generation unit that generates motion data in which an identifier of an action to be performed by an object is associated with a target of a combination of movements of the operation unit for performing the action, and motion data The motion generation unit includes an update unit that tries to move the motion unit of the object, outputs an evaluation value for the action, and stores the action identifier, the motion data, and the evaluation value in the learning data in association with each other. New motion data is generated with reference to the learning data associated with the identifier of the action to be performed by the object.

オブジェクトは仮想領域で活動し、仮想領域は、複数の部分領域を備え、各部分領域に、当該部分領域の環境値識別子が対応づけられ、学習データは、アクションの識別子とモーションデータと評価値にさらに、部分領域の環境値識別子を対応づけて記憶し、モーション生成部は、オブジェクトが位置する部分領域の環境値識別子に対応づけられた学習データを参照して、新たなモーションデータを生成しても良い。   The object is active in a virtual area, and the virtual area includes a plurality of partial areas, and each partial area is associated with an environmental value identifier of the partial area, and the learning data is an action identifier, motion data, and evaluation value. Further, the environmental value identifier of the partial area is stored in association with each other, and the motion generation unit generates new motion data by referring to the learning data associated with the environmental value identifier of the partial area where the object is located. Also good.

モーションデータは、動作部について、動作部の動きと、動きを試みる時間とが対応づけられたペアを複数備え、更新部は、モーションデータで生成された複数のペアに基づいて動きを試みた後に、評価値を出力しても良い。   The motion data includes a plurality of pairs in which the motion of the motion unit is associated with the time to try the motion, and the update unit attempts to move based on the plurality of pairs generated by the motion data. The evaluation value may be output.

オブジェクトが、モーションデータに従って動作部の動きを試みる状態を示す動画データを逐次生成して配信する配信部をさらに備えても良い。   The object may further include a distribution unit that sequentially generates and distributes moving image data indicating a state in which the object tries to move the operation unit according to the motion data.

本発明の第2の特徴は、動作部を備えるオブジェクトが学習する学習方法に関する。本発明の第2の特徴に係る学習方法は、コンピュータが、オブジェクトに行わせるアクションの識別子と、アクションを行わせるための動作部の動きの組み合わせの目標とを対応づけたモーションデータを生成するステップと、コンピュータが、モーションデータに従って、オブジェクトの動作部の動きを試みて、アクションに対する評価値を出力し、アクションの識別子とモーションデータと評価値とを対応づけて学習データに記憶するステップと、コンピュータが、オブジェクトに行わせるアクションの識別子に対応づけられた学習データを参照して、新たなモーションデータを生成するステップを備える。   The second feature of the present invention relates to a learning method in which an object having an operation unit learns. In the learning method according to the second aspect of the present invention, the computer generates motion data in which an identifier of an action to be performed by the object is associated with a target of a combination of motions of the operation unit for performing the action. The computer tries to move the motion part of the object according to the motion data, outputs an evaluation value for the action, associates the action identifier, the motion data, and the evaluation value in the learning data, and the computer Includes a step of generating new motion data with reference to the learning data associated with the identifier of the action to be performed by the object.

本発明の第3の特徴は、動作部を備えるオブジェクトが学習する学習プログラムに関する。本発明の第3の特徴に係る学習プログラムは、コンピュータを、オブジェクトに行わせるアクションの識別子と、アクションを行わせるための動作部の動きの組み合わせの目標とを対応づけたモーションデータを生成するモーション生成部と、モーションデータに従って、オブジェクトの動作部の動きを試みて、アクションに対する評価値を出力し、アクションの識別子とモーションデータと評価値とを対応づけて学習データに記憶する更新部として機能させ、モーション生成部は、オブジェクトに行わせるアクションの識別子に対応づけられた学習データを参照して、新たなモーションデータを生成する。   A third feature of the present invention relates to a learning program for learning an object having an operation unit. The learning program according to the third aspect of the present invention is a program for generating motion data that associates an identifier of an action that causes an object to be performed with an object and a target of a combination of motions of an operation unit that causes the action to be performed. According to the generation unit and the motion data, the movement of the motion unit of the object is attempted, the evaluation value for the action is output, and the action identifier, the motion data, and the evaluation value are associated with each other and stored in the learning data. The motion generation unit generates new motion data with reference to the learning data associated with the identifier of the action to be performed by the object.

本発明の第4の特徴は、動作部を備えるオブジェクトが学習する学習装置に接続する動画配信装置に関する。本発明の第4の特徴において学習装置は、オブジェクトに行わせるアクションの識別子と、アクションを行わせるための動作部の動きの組み合わせの目標とを対応づけたモーションデータを生成するモーション生成部と、モーションデータに従って、オブジェクトの動作部の動きを試みて、アクションに対する評価値を出力し、アクションの識別子とモーションデータと評価値とを対応づけて学習データに記憶する更新部とを備え、モーション生成部は、オブジェクトに行わせるアクションの識別子に対応づけられた学習データを参照して、新たなモーションデータを生成し、動画配信装置は、学習装置において生成された学習データを用いて、オブジェクトが、動作部の動きを試みる状態を示す動画データを逐次生成して配信する。   A fourth feature of the present invention relates to a moving image distribution apparatus connected to a learning apparatus that an object having an operation unit learns. In a fourth aspect of the present invention, the learning device includes a motion generation unit that generates motion data in which an identifier of an action to be performed by the object is associated with a target of a combination of movements of the operation unit for performing the action; A motion generation unit including an update unit that attempts to move the motion unit of the object in accordance with the motion data, outputs an evaluation value for the action, and stores the action identifier, the motion data, and the evaluation value in association with the learning data; Refers to the learning data associated with the identifier of the action to be performed by the object, generates new motion data, and the video distribution device uses the learning data generated in the learning device to operate the object The video data indicating the state of trying the movement of the part is sequentially generated and distributed.

本発明の第5の特徴は、動作部を備えるオブジェクトが学習する学習装置に接続する活動装置に関する。本発明の第5の特徴において学習装置は、オブジェクトに行わせるアクションの識別子と、アクションを行わせるための動作部の動きの組み合わせの目標とを対応づけたモーションデータを生成するモーション生成部と、モーションデータに従って、オブジェクトの動作部の動きを試みて、アクションに対する評価値を出力し、アクションの識別子とモーションデータと評価値とを対応づけて学習データに記憶する更新部とを備え、モーション生成部は、オブジェクトに行わせるアクションの識別子に対応づけられた学習データを参照して、新たなモーションデータを生成し、活動装置は、学習装置で生成された学習データを用いて、オブジェクトを動作させる。   A fifth feature of the present invention relates to an activity device that is connected to a learning device that learns an object having an operation unit. In the fifth aspect of the present invention, the learning device includes a motion generation unit that generates motion data in which an identifier of an action to be performed by an object is associated with a target of a combination of movements of the operation unit for performing the action, A motion generation unit including an update unit that attempts to move the motion unit of the object in accordance with the motion data, outputs an evaluation value for the action, and stores the action identifier, the motion data, and the evaluation value in association with the learning data; Refers to the learning data associated with the identifier of the action to be performed by the object, generates new motion data, and the activity device operates the object using the learning data generated by the learning device.

本発明の第6の特徴は、動作部を備えるオブジェクトが学習する学習装置に接続する活動プログラムに関する。本発明の第6の特徴において学習装置は、オブジェクトに行わせるアクションの識別子と、アクションを行わせるための動作部の動きの組み合わせの目標とを対応づけたモーションデータを生成するモーション生成部と、モーションデータに従って、オブジェクトの動作部の動きを試みて、アクションに対する評価値を出力し、アクションの識別子とモーションデータと評価値とを対応づけて学習データに記憶する更新部とを備え、モーション生成部は、オブジェクトに行わせるアクションの識別子に対応づけられた学習データを参照して、新たなモーションデータを生成し、活動プログラムは、コンピュータに、学習装置で生成された学習データを用いて、オブジェクトを動作させる。   A sixth feature of the present invention relates to an activity program connected to a learning device that learns an object having an operation unit. In a sixth aspect of the present invention, the learning device includes a motion generation unit that generates motion data in which an identifier of an action to be performed by the object is associated with a target of a combination of movements of the operation unit for performing the action; A motion generation unit including an update unit that attempts to move the motion unit of the object in accordance with the motion data, outputs an evaluation value for the action, and stores the action identifier, the motion data, and the evaluation value in association with the learning data; Refers to the learning data associated with the identifier of the action to be performed by the object, generates new motion data, and the activity program uses the learning data generated by the learning device to the computer to identify the object. Make it work.

本発明の第7の特徴は、動作部を備えるオブジェクトが学習する学習装置に接続する動画生成装置に関する。本発明の第7の特徴において学習装置は、オブジェクトに行わせるアクションの識別子と、アクションを行わせるための動作部の動きの組み合わせの目標とを対応づけたモーションデータを生成するモーション生成部と、モーションデータに従って、オブジェクトの動作部の動きを試みて、アクションに対する評価値を出力し、アクションの識別子とモーションデータと評価値とを対応づけて学習データに記憶する更新部とを備え、モーション生成部は、オブジェクトに行わせるアクションの識別子に対応づけられた学習データを参照して、新たなモーションデータを生成し、動画生成装置は、学習装置で生成された学習データを用いて、オブジェクトが、動作部の動きを試みる状態を示す動画データを逐次生成する。   A seventh feature of the present invention relates to a moving image generating apparatus that is connected to a learning apparatus that learns an object having an operation unit. In a seventh aspect of the present invention, the learning device includes a motion generation unit that generates motion data in which an identifier of an action to be performed by an object is associated with a target of a combination of movements of the operation unit for performing the action; A motion generation unit including an update unit that attempts to move the motion unit of the object in accordance with the motion data, outputs an evaluation value for the action, and stores the action identifier, the motion data, and the evaluation value in association with the learning data; Refers to the learning data associated with the identifier of the action to be performed by the object, generates new motion data, and the video generation device uses the learning data generated by the learning device to operate the object The moving image data indicating the state of trying the movement of the part is sequentially generated.

本発明によれば、オブジェクトが動作を学習する学習装置、学習方法、学習プログラム、動画配信装置、活動装置、活動プログラムおよび動画生成装置を提供することができる。 According to the present invention, it is possible to provide a learning device, a learning method, a learning program, a moving image distribution device, an activity device, an activity program, and a moving image generation device in which an object learns an action.

本発明の実施の形態に係る学習システムのシステム構成を説明する図である。It is a figure explaining the system configuration of the learning system concerning an embodiment of the invention. オブジェクトが仮想領域を活動する様子の一例を説明する図である。It is a figure explaining an example of a mode that an object activates a virtual area. 本発明の実施の形態に係る学習装置のハードウエア構成および機能ブロックを説明する図である。It is a figure explaining the hardware constitutions and functional block of the learning apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る仮想領域と部分領域を説明する図である。It is a figure explaining the virtual area and partial area which concern on embodiment of this invention. 本発明の実施の形態に係る領域属性データのデータ構造とデータの一例を説明する図である。It is a figure explaining an example of a data structure and data of area attribute data concerning an embodiment of the invention. 本発明の実施の形態に係る環境値データのデータ構造とデータの一例を説明する図である。It is a figure explaining an example of the data structure and data of environmental value data which concern on embodiment of this invention. 本発明の実施の形態に係るオブジェクト属性データのデータ構造とデータの一例を説明する図である。It is a figure explaining an example of the data structure and data of object attribute data concerning an embodiment of the invention. 本発明の実施の形態に係る動作部属性データのデータ構造とデータの一例を説明する図である。It is a figure explaining an example of data structure and data of operation part attribute data concerning an embodiment of the invention. 本発明の実施の形態に係る評価値指標データのデータ構造とデータの一例を説明する図である。It is a figure explaining an example of data structure and data of evaluation value index data concerning an embodiment of the invention. 本発明の実施の形態に係る学習データのデータ構造とデータの一例を説明する図である。It is a figure explaining an example of data structure and data of learning data concerning an embodiment of the invention. 本発明の実施の形態に係る学習部による学習処理を説明するフローチャートである。It is a flowchart explaining the learning process by the learning part which concerns on embodiment of this invention. 本発明の実施の形態に係るモーションデータの一例を説明する図である。It is a figure explaining an example of motion data concerning an embodiment of the invention. 本発明の実施の形態に係るモーションデータによる動作部の動きの一例を説明する図である。It is a figure explaining an example of a motion of the operation part by motion data concerning an embodiment of the invention. 本発明の変形例に係る学習システムのシステム構成を説明する図である。It is a figure explaining the system configuration | structure of the learning system which concerns on the modification of this invention. 本発明の変形例に係る学習システムにおけるデータの流れの一例を説明する図である。It is a figure explaining an example of the flow of data in the learning system concerning the modification of the present invention.

次に、図面を参照して、本発明の実施の形態を説明する。以下の図面の記載において、同一または類似の部分には同一または類似の符号を付している。   Next, embodiments of the present invention will be described with reference to the drawings. In the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals.

(学習システム)
に示される本発明の実施の形態に係る学習システム9は、人工生命体と称されるオブジェクトOの活動を、コンピュータ上でシミュレートし、シミュレート結果を動画として提供する。本発明の実施の形態においては特に、オブジェクトOは、動作部を備える。オブジェクトOは、オブジェクトOの属性や、オブジェクトOが配置された領域の環境値などの制限下で、より良い効果が得られる動作部のモーションを学習する。
(Learning system)
The learning system 9 according to the embodiment of the present invention shown in FIG. 1 simulates the activity of an object O called an artificial life form on a computer and provides the simulation result as a moving image. Particularly in the embodiment of the present invention, the object O includes an operation unit. The object O learns the motion of the motion unit that can obtain a better effect under the restrictions of the attribute of the object O and the environment value of the area where the object O is arranged.

なお本発明の実施の形態に係るオブジェクトOは、仮想領域Vで活動することを前提に記載するが、これに限らない。オブジェクトOは、ロボットなどの有体物であって、動作部に対応する部品と、部品を制御するコンピュータを有しても良い。   The object O according to the embodiment of the present invention is described on the assumption that the object O is active in the virtual region V, but is not limited thereto. The object O is a tangible object such as a robot, and may include a component corresponding to the operation unit and a computer that controls the component.

学習システム9は、図1に示すように、学習装置1、動画配信装置2および端末3を備える。学習装置1、動画配信装置2および端末3は、通信ネットワーク8により相互に通信可能に接続される。   As shown in FIG. 1, the learning system 9 includes a learning device 1, a moving image distribution device 2, and a terminal 3. The learning device 1, the moving image distribution device 2, and the terminal 3 are connected to each other via a communication network 8 so as to communicate with each other.

学習装置1は、図2に示すように、仮想領域VにおいてオブジェクトOが活動するシミュレーションを行う。図2に示す例においてオブジェクトOは、胴体を支える四肢を有し、四足歩行をする犬型形状であるこれに限らない。オブジェクトOは、二足歩行をする人型形状であっても良いし、図12等に示すように、放射状に四肢を有する形状であっても良い。   As illustrated in FIG. 2, the learning device 1 performs a simulation in which the object O is active in the virtual region V. In the example shown in FIG. 2, the object O is not limited to the dog-shaped shape that has limbs that support the torso and walks on four legs. The object O may have a humanoid shape for biped walking, or may have a shape having limbs radially as shown in FIG.

動画配信装置2は、学習装置1によって学習されたオブジェクトOの動きの動画を、端末3に配信する。   The moving image distribution device 2 distributes the moving image of the movement of the object O learned by the learning device 1 to the terminal 3.

端末3は、動画配信装置2から配信された動画を再生する。また端末3は、学習装置1に対して、学習の開始または終了の指示を入力したり、オブジェクトOに行わせるアクションを指定したりしても良い。   The terminal 3 reproduces the moving image distributed from the moving image distribution device 2. Further, the terminal 3 may input an instruction to start or end learning to the learning device 1 or specify an action to be performed by the object O.

本発明の実施の形態において、学習装置1、動画配信装置2および端末3はそれぞれ異なる装置である場合を説明するが、同一の装置に所定の機能が実装されても良い。例えば、学習装置1が動画データを端末3に配信しても良いし、学習装置1で動画を再生しても良い。   In the embodiment of the present invention, a case where the learning device 1, the moving image distribution device 2, and the terminal 3 are different devices will be described, but a predetermined function may be mounted on the same device. For example, the learning device 1 may distribute the moving image data to the terminal 3, or the learning device 1 may reproduce the moving image.

(学習装置)
図3を参照して、本発明の実施の形態に係る学習装置1を説明する。
(Learning device)
With reference to FIG. 3, the learning apparatus 1 which concerns on embodiment of this invention is demonstrated.

本発明の実施の形態に係る学習装置1は、人工生命体とも称されるオブジェクトの活動をシミュレートする。   The learning device 1 according to the embodiment of the present invention simulates the activity of an object also called an artificial life form.

オブジェクトOにおいて動作部は、オブジェクトOを構成する部品を接続する関節である。またオブジェクトを構成する部品が武器や道具などの動作可能な部品である場合、この部品も動作部となる。この関節を所定方向に曲げたり回転させたりする一連のモーションを試みて、所定のアクションにおいてより良い効果が得られるように学習する。本発明の実施の形態において、オブジェクトOが複数の動作部を備える場合を説明するが、一つの動作部を備えても良い。   In the object O, the operation unit is a joint that connects components constituting the object O. In addition, when a part constituting the object is an operable part such as a weapon or a tool, this part is also an operation part. A series of motions in which the joint is bent or rotated in a predetermined direction is tried to learn so that a better effect can be obtained in a predetermined action. In the embodiment of the present invention, the case where the object O includes a plurality of operation units will be described, but one operation unit may be included.

本発明の実施の形態において「アクション」は、オブジェクトO全体で行う動作であって、例えば、前進、後進、回転、ジャンプなどである。またオブジェクトOの動作部が道具である場合、「アクション」は、道具の使用を含む。例えば、動作部が銃である場合、「アクション」は、前方射撃を含むIn the embodiment of the present invention, the “action” is an operation performed on the entire object O, for example, forward, backward, rotation, jump, and the like. When the action part of the object O is a tool, “action” includes use of the tool. For example, when the operation portion is a gun, "action" includes a forward fire.

本発明の実施の形態において「モーション」は、アクションを行うための、オブジェクトOの各動作部の一連の動きの組み合わせである。「モーション」単位で、アクションの効果が評価される。所定時間以内に行う、オブジェクトOの各動作部の動作の組み合わせを、モーションとして生成する。オブジェクトOの属性や、オブジェクトOが配置された領域の環境値などの制限下で、オブジェクトOに、生成したモーションに従って動作するように試みさせる。   In the embodiment of the present invention, “motion” is a combination of a series of movements of the respective operation units of the object O for performing an action. The effect of the action is evaluated in units of “motion”. A combination of motions of the motion parts of the object O performed within a predetermined time is generated as a motion. The object O is made to try to operate according to the generated motion under the restrictions of the attribute of the object O and the environment value of the area where the object O is arranged.

モーションは、アクション毎に評価される。例えば、前進のアクションを行わせるために生成されたモーションは、そのモーションを行った結果、前進した距離が大きいほど、評価が高くなる。学習装置1は、アクション毎に行ったモーションの評価に基づいて新たなモーションを生成して、より評価の高いモーションを模索して、学習する。   Motion is evaluated for each action. For example, the motion generated to perform the forward action has a higher evaluation as the distance moved forward is larger as a result of the motion. The learning device 1 generates a new motion based on the motion evaluation performed for each action, and searches for and learns a motion with higher evaluation.

図3に示すように学習装置1は、記憶装置10、処理装置20、入力装置30、出力装置40および通信制御装置50を備える一般的なコンピュータである。一般的なコンピュータが所定の処理を実行するための学習プログラムを実行することにより、図3に示す各機能を実現する。   As illustrated in FIG. 3, the learning device 1 is a general computer including a storage device 10, a processing device 20, an input device 30, an output device 40, and a communication control device 50. Each function shown in FIG. 3 is realized by a general computer executing a learning program for executing predetermined processing.

記憶装置10は、学習プログラムを記憶するとともに、領域属性データ11、環境値データ12、オブジェクト属性データ13、動作部属性データ14、評価指標データ15、モーションデータ16、学習データTおよび動画データMを記憶する。領域属性データ11、環境値データ12、オブジェクト属性データ13、動作部属性データ14および評価指標データ15は、本発明の実施の形態において、オブジェクトOが仮想領域Vで活動する際に用いられる参照データである。モーションデータ16、学習データTおよび動画データMは、オブジェクトOが仮想領域Vで活動する際に得られるデータであって、適宜更新される。   The storage device 10 stores a learning program and also stores region attribute data 11, environment value data 12, object attribute data 13, operation unit attribute data 14, evaluation index data 15, motion data 16, learning data T, and moving image data M. Remember. The area attribute data 11, the environment value data 12, the object attribute data 13, the action part attribute data 14, and the evaluation index data 15 are reference data used when the object O is active in the virtual area V in the embodiment of the present invention. It is. The motion data 16, the learning data T, and the moving image data M are data obtained when the object O is active in the virtual region V, and are updated as appropriate.

本発明の実施の形態において仮想領域Vは、複数の部分領域Dを備え、各部分領域Dに、当該部分領域Dの環境値識別子が対応づけられる。図4(a)に示すように、オブジェクトOが平面で活動する場合、平面形状の仮想領域Vは複数の部分領域Dに分割される。図4(b)に示すように、オブジェクトOが空間で活動する場合、空間形状の仮想領域Vは複数の部分領域Dに分割される。各部分領域Dは、例えば、2〜5のモーションデータを学習させることで、他の部分領域Dに移動可能な程度の大きさを有する。部分領域Dの一辺は、例えば、オブジェクトOの大きさの約1.5倍から5倍程度の大きさを有することが好ましい。   In the embodiment of the present invention, the virtual area V includes a plurality of partial areas D, and each partial area D is associated with the environment value identifier of the partial area D. As shown in FIG. 4A, when the object O is active on a plane, the planar virtual region V is divided into a plurality of partial regions D. As shown in FIG. 4B, when the object O is active in space, the space-shaped virtual region V is divided into a plurality of partial regions D. Each partial area D has such a size that it can move to another partial area D by learning 2 to 5 motion data, for example. One side of the partial region D preferably has a size of about 1.5 to 5 times the size of the object O, for example.

領域属性データ11および環境値データ12は、仮想領域Vの各部分領域Dの環境値を対応づける。領域属性データ11および環境値データ12は、オブジェクトOの活動領域における活動条件に対応する。   The area attribute data 11 and the environment value data 12 associate the environment values of the partial areas D of the virtual area V with each other. The area attribute data 11 and the environment value data 12 correspond to activity conditions in the activity area of the object O.

領域属性データ11は、オブジェクトOが活動する部分領域Dの環境値を対応づけるデータである。図5に示すように領域属性データ11は、部分領域識別子と、環境値識別子を対応づけたデータである。   The area attribute data 11 is data that associates environmental values of the partial area D in which the object O is active. As shown in FIG. 5, the region attribute data 11 is data in which a partial region identifier is associated with an environment value identifier.

本発明の実施の形態で用いられる環境値の数は、各仮想領域Vで用いられる部分領域Dの数よりも少なく設定されることが好ましい。換言すると、所定の環境値は、複数の部分領域Dに紐づけられ、所定の環境値における学習データは、その環境値が紐づけられる複数の部分領域Dの学習データとして参酌される。このように、仮想領域Vを複数の部分領域Dに分割し、各部分領域D毎に学習データを蓄積することによって、学習における計算量を削減し、効率的に学習することが可能になる。   The number of environmental values used in the embodiment of the present invention is preferably set to be smaller than the number of partial regions D used in each virtual region V. In other words, the predetermined environment value is associated with a plurality of partial areas D, and the learning data in the predetermined environment value is considered as learning data for the plurality of partial areas D associated with the environment value. Thus, by dividing the virtual region V into a plurality of partial regions D and accumulating learning data for each partial region D, it is possible to reduce the amount of calculation in learning and efficiently learn.

環境値データ12は、部分領域Dに対応づけられる環境値識別子と、環境値のパラメータの組み合わせを対応づけるデータである。環境値データ12は、図6に示すように、環境値識別子、傾斜、摩擦、重力、吸着力、水深、気温等が対応づけられる。例えば気温は、オブジェクトOのエネルギー消費量に影響を与える。環境値データ12は、各部分領域Dの環境値の組み合わせを対応づける。なお、環境値データ12において、部分領域Dの属性によっては設定されない項目があっても良い。   The environmental value data 12 is data that associates an environmental value identifier associated with the partial region D with a combination of environmental value parameters. As shown in FIG. 6, the environmental value data 12 is associated with an environmental value identifier, inclination, friction, gravity, adsorption force, water depth, temperature, and the like. For example, the temperature affects the energy consumption of the object O. The environment value data 12 associates the combination of environment values of each partial area D. In the environment value data 12, there may be an item that is not set depending on the attribute of the partial region D.

オブジェクト属性データ13および動作部属性データ14は、オブジェクトOおよび動作部の属性を対応づける。オブジェクト属性データ13および動作部属性データ14は、オブジェクトOが活動する際のオブジェクトO自身の活動条件に対応する。   The object attribute data 13 and the action part attribute data 14 associate the object O with the action part attribute. The object attribute data 13 and the action part attribute data 14 correspond to the activity conditions of the object O itself when the object O is active.

オブジェクト属性データ13は、オブジェクトO全体の属性を対応づけるデータである。オブジェクト属性データ13は、図7に示すように、仮想領域V内で活動するオブジェクトOを識別するオブジェクト識別子、オブジェクトOの種別、オブジェクトOが選択可能なアクションの識別子および個体値を対応づけたデータである。個体値には、基礎代謝、行動代謝、体力等が含まれる。オブジェクトOの種別が共通する場合でも、オブジェクト識別子毎に、異なる個体値が対応づけられる。   The object attribute data 13 is data that associates the attributes of the entire object O with each other. As shown in FIG. 7, the object attribute data 13 is data that associates an object identifier that identifies an object O that is active in the virtual region V, a type of the object O, an identifier of an action that can be selected by the object O, and an individual value. It is. Individual values include basal metabolism, behavioral metabolism, physical fitness, and the like. Even when the types of the objects O are common, different individual values are associated with each object identifier.

動作部属性データ14は、各オブジェクトOに含まれる動作部の属性を対応づけたデータである。動作部属性データ14は、図8に示すように、オブジェクト識別子、動作部識別子、個体値を対応づけたデータである。個体値には、形状、筋力、大きさ、重さ、重心、テクスチャ等が含まれる。オブジェクトOの種別および動作部識別子が共通する場合でも、オブジェクト識別子毎に、異なる個体値が対応づけられる。なお、各動作部のテクスチャの情報は、オブジェクトOの動きを描画する際に参酌される。   The action part attribute data 14 is data in which attributes of action parts included in each object O are associated. As shown in FIG. 8, the motion part attribute data 14 is data in which an object identifier, a motion part identifier, and an individual value are associated with each other. Individual values include shape, muscle strength, size, weight, center of gravity, texture, and the like. Even when the type of the object O and the motion part identifier are common, different individual values are associated with each object identifier. Note that the texture information of each operation unit is taken into account when drawing the movement of the object O.

評価指標データ15は、オブジェクトOが行うアクション毎の評価関数と評価値を対応づけたデータである。評価指標データ15は、図9に示すように、アクション識別子、アクション名、評価関数、評価指標を対応づけたデータである。具体的には、「前進」のアクションについては、「前方向の移動量」に基づいて評価され、「移動量が多いほど評価が良い」評価値が付される。また「前方射撃」のアクションについては、「発射された弾丸のずれ」に基づいて評価され、「ずれが少ないほど評価が良い」評価値が付される。ここで「発射された弾丸のずれ」は、「発射された弾丸の発射方向と、オブジェクトOの前方向との立体角のずれ」である。評価指標データ15の評価値は、数値で評価されても良いし、数値を区分したレベルで評価されても良い。   The evaluation index data 15 is data in which an evaluation function for each action performed by the object O is associated with an evaluation value. As shown in FIG. 9, the evaluation index data 15 is data in which an action identifier, an action name, an evaluation function, and an evaluation index are associated with each other. Specifically, the “forward” action is evaluated based on the “forward movement amount”, and an evaluation value of “evaluation is better as the movement amount is larger” is given. Further, the action of “forward shooting” is evaluated based on “the deviation of the fired bullet”, and the evaluation value “the smaller the deviation is, the better the evaluation” is given. Here, “the deviation of the fired bullet” is “the deviation of the solid angle between the firing direction of the fired bullet and the forward direction of the object O”. The evaluation value of the evaluation index data 15 may be evaluated by a numerical value, or may be evaluated at a level obtained by dividing the numerical value.

モーションデータ16は、動きの学習において、オブジェクトOの各動作部に行わせる一連の動きのデータである。モーションデータ16は、オブジェクトOに行わせるアクションの識別子と、アクションを行わせるための動作部の動きの組み合わせの目標とを対応づけたデータである。モーションデータ16は、動作部について、動作部の動きと、動きを試みる時間とが対応づけられたペアを複数備える。モーションデータ16については、図12を参照して、後述する。   The motion data 16 is a series of motion data to be performed by each motion unit of the object O in motion learning. The motion data 16 is data in which an identifier of an action to be performed by the object O is associated with a target of a combination of movements of the operation unit for performing the action. The motion data 16 includes a plurality of pairs in which the motion of the motion unit is associated with the time for attempting the motion. The motion data 16 will be described later with reference to FIG.

学習データTは、モーションデータに基づいてオブジェクトOに動作させた結果のデータである。学習データTは、アクション識別子および環境識別子毎に、学習した結果のデータであり、具体的には、アクション識別子、アクション名、環境値識別子、モーションおよび評価値を対応づけたデータである。   The learning data T is data obtained as a result of operating the object O based on the motion data. The learning data T is data obtained as a result of learning for each action identifier and environment identifier. Specifically, the learning data T is data in which an action identifier, an action name, an environment value identifier, a motion, and an evaluation value are associated with each other.

動画データMは、オブジェクトOが学習する様子の動画データである。   The moving image data M is moving image data that the object O learns.

処理装置20は、学習部21および動画処理部26を備える。   The processing device 20 includes a learning unit 21 and a moving image processing unit 26.

学習部21は、オブジェクトOに学習させるために、モーション生成部22と更新部23を備える。   The learning unit 21 includes a motion generation unit 22 and an update unit 23 in order to cause the object O to learn.

モーション生成部22は、オブジェクトOに行わせるアクションの識別子と、アクションを行わせるための動作部の動きの組み合わせの目標とを対応づけたモーションデータを生成する。モーション生成部22は、オブジェクトOに行わせるアクションの識別子に対応づけられた学習データを参照して、新たなモーションデータを生成する。   The motion generation unit 22 generates motion data in which an identifier of an action to be performed by the object O is associated with a target of a combination of movements of the operation unit for performing the action. The motion generation unit 22 generates new motion data with reference to the learning data associated with the identifier of the action to be performed by the object O.

モーション生成部22は、多くの場合、オブジェクトOの各動作部について、過去に学習した結果を示す学習データTから、評価の良かったモーションに基づいて、良い評価が期待できるモーションを生成する。またモーション生成部22は、所定以下の割合で、学習データTの評価にかかわらず、ランダムでモーションを生成する。良い評価が期待できるモーションのみならず、ランダムにモーションを選択することにより、予見しにくい新たな評価が得られ、その結果、さらに良い評価を得られる場合があり、オブジェクトOの進化に寄与する。   In many cases, the motion generation unit 22 generates a motion that can be expected to have a good evaluation, based on the motion that has been evaluated well, from the learning data T that indicates the result of learning in the past for each operation unit of the object O. In addition, the motion generation unit 22 randomly generates a motion at a predetermined ratio or less regardless of the evaluation of the learning data T. By selecting not only motions that can be expected to be good, but also randomly selecting motions, new evaluations that are difficult to predict can be obtained. As a result, even better evaluations can be obtained, which contributes to the evolution of the object O.

モーション生成部22は、オブジェクトOが位置する部分領域Dの環境値識別子に対応づけられた学習データTを参照して、新たなモーションデータを生成する。本発明の実施の形態において学習データTは、部分領域Dの環境値識別子に紐づけられるので、オブジェクトOは、オブジェクトOが位置する部分領域の環境値識別子における過去の学習の結果を参照して、さらに学習する。オブジェクトOが位置する環境値を個別のパラメータでなく、パラメータの組み合わせとして管理することにより、学習における計算量を削減し、より短い時間で所望の学習結果を得ることが可能になる。   The motion generation unit 22 generates new motion data with reference to the learning data T associated with the environment value identifier of the partial region D where the object O is located. In the embodiment of the present invention, the learning data T is linked to the environmental value identifier of the partial area D, so the object O refers to the past learning result in the environmental value identifier of the partial area where the object O is located. To learn more. By managing the environmental value where the object O is located as a combination of parameters instead of individual parameters, it is possible to reduce the amount of calculation in learning and obtain a desired learning result in a shorter time.

更新部23は、モーションデータ16に従って、オブジェクトOの動作部の動きを試みて、アクションに対する評価値を出力し、アクションの識別子とモーションデータと評価値とを対応づけて学習データTに記憶する。更新部23は、モーションデータ16で生成された複数のペアに基づいて動きを試みた後に、評価値を出力する。   The update unit 23 attempts to move the motion unit of the object O according to the motion data 16, outputs an evaluation value for the action, and stores the action identifier, the motion data, and the evaluation value in the learning data T in association with each other. The update unit 23 outputs an evaluation value after trying to move based on a plurality of pairs generated by the motion data 16.

更新部23は、モーションデータ16として生成された、各動作部の動きと動きを試みる時間とを対応づけたペアに基づいて、動作部の動きの組み合わせの目標を実現するように、オブジェクトOを動作させる。このとき更新部23は、オブジェクトOが位置する部分領域Dの環境値、オブジェクトOの属性および動作部の属性を制約条件として、オブジェクトOを動作させる。   The updating unit 23 sets the object O so as to realize the target of the motion unit motion combination based on the pair generated by generating the motion data 16 and associating the motion of each motion unit with the time to try the motion. Make it work. At this time, the update unit 23 operates the object O using the environment value of the partial region D where the object O is located, the attribute of the object O, and the attribute of the operation unit as constraints.

ここでオブジェクトOは、オブジェクトOが位置する部分領域の環境値、オブジェクトOの属性および動作部の属性によっては、その動作を達成できずに、途中で断念せざるを得ない場合もある。オブジェクトOは、モーションデータ16で指定された時間、その動作を試みて達成できない場合であっても、その次の時間に指定された新たな動作を試みる。   Here, depending on the environmental value of the partial area in which the object O is located, the attribute of the object O, and the attribute of the action part, the object O may not be able to achieve its action and may have to give up halfway. The object O tries a new operation specified at the next time even if the operation cannot be achieved by trying the operation for the time specified by the motion data 16.

更新部23は、モーションデータ16として生成されたすべてのペアについて、動作を試みた後、オブジェクトOに行わせたアクションに対して評価を行う。例えば、「前進」のアクションを行わせた場合、モーションデータ16に基づいてオブジェクトOが動作した結果得られた「前方向の移動量」を算出する。また更新部23は、算出された「前方向の移動量」を、評価指標データ15に基づいて評価値に換算して、学習データTに記憶する。   The update unit 23 evaluates the action performed on the object O after trying the operation for all pairs generated as the motion data 16. For example, when the “forward” action is performed, the “forward movement amount” obtained as a result of the movement of the object O based on the motion data 16 is calculated. Further, the updating unit 23 converts the calculated “forward movement amount” into an evaluation value based on the evaluation index data 15 and stores it in the learning data T.

学習部21は、所定の条件を満たして学習を終了するまで、モーションデータ16の生成と、学習データTの更新を繰り返す。学習部21は、例えば、入力装置30や通信制御装置50等から、終了の指示が入力されると、処理を終了する。学習装置1は、所定の学習回数や学習時間に達した際に、処理を終了しても良いし、所定の評価値が得られた際に、処理を終了しても良い。   The learning unit 21 repeats the generation of the motion data 16 and the update of the learning data T until the learning is completed by satisfying a predetermined condition. The learning unit 21 ends the process when an end instruction is input from the input device 30 or the communication control device 50, for example. The learning device 1 may end the process when the predetermined number of learning times or the learning time is reached, or may end the process when a predetermined evaluation value is obtained.

動画処理部26は、動画生成部27と動画配信部28を備える。   The moving image processing unit 26 includes a moving image generation unit 27 and a moving image distribution unit 28.

動画生成部27は、オブジェクトOが、モーションデータ16に従って動作部の動きを試みる状態を示す動画データを逐次生成する。動画生成部27は、オブジェクトOの動作部の動きと動きを試みる時間とを対応づけたペアに基づいて、各時間で、各動作部の動きを試みるとともに、オブジェクトOが位置する部分領域の環境値、オブジェクトOの属性および動作部の属性によって、その動作を達成できた、あるいは達成できないで途中で止まってしまう状態などを描画する動画データMを生成する。   The moving image generation unit 27 sequentially generates moving image data indicating a state in which the object O attempts to move the operation unit according to the motion data 16. The moving image generating unit 27 attempts to move each motion unit at each time based on a pair in which the motion of the motion unit of the object O is associated with the time to try the motion, and the environment of the partial region where the object O is located. Depending on the value, the attribute of the object O, and the attribute of the motion part, moving image data M is generated that draws a state where the motion can be achieved or cannot be achieved and stops halfway.

動画配信部28は、動画生成部27が生成した動画データMを端末3に配信する。動画配信部28は、動画生成部27が生成した動画データMを、動画配信装置2に送信して、動画配信装置2に配信させても良い。   The moving image distribution unit 28 distributes the moving image data M generated by the moving image generation unit 27 to the terminal 3. The moving image distribution unit 28 may transmit the moving image data M generated by the moving image generation unit 27 to the moving image distribution device 2 and distribute it to the moving image distribution device 2.

図11を参照して、本発明の実施の形態に係る学習部21による学習処理を説明する。   With reference to FIG. 11, the learning process by the learning part 21 which concerns on embodiment of this invention is demonstrated.

まずステップS1において学習部21は、オブジェクトOに行わせるアクションを特定するとともに、オブジェクトOの位置を特定する。アクションは、入力装置30を介して入力されても良いし、端末3から入力されても良いし、予めスクリプトとして設定されても良い。ステップS2において学習部21は、学習データTから、ステップS1で特定したアクションおよびオブジェクトOの位置の環境値識別子に対応する、過去の学習データを抽出する。   First, in step S <b> 1, the learning unit 21 specifies an action to be performed by the object O and specifies the position of the object O. The action may be input via the input device 30, may be input from the terminal 3, or may be set in advance as a script. In step S2, the learning unit 21 extracts past learning data corresponding to the action value specified in step S1 and the environment value identifier of the position of the object O from the learning data T.

ステップS3において学習部21は、ステップS2で抽出した過去の学習データを参照して、各動作部のモーションデータ16を生成する。ここで学習部21は、過去の学習データTで良い評価値が得られたモーションデータに基づいて、モーションデータ16を生成する。また学習部21は、例えば、モーションデータを100回生成するうちの50回以下などの所定以下の割合で、評価値にかかわらず、モーションデータ16を生成する。   In step S3, the learning unit 21 generates the motion data 16 of each operation unit with reference to the past learning data extracted in step S2. Here, the learning unit 21 generates the motion data 16 based on the motion data for which a good evaluation value is obtained from the past learning data T. In addition, the learning unit 21 generates the motion data 16 regardless of the evaluation value at a predetermined ratio such as 50 times or less out of 100 times when the motion data is generated 100 times.

ステップS4において学習部21は、ステップS3で生成したモーションデータに従って、各動作部の動きを試みる。学習部21は、ステップS5において、アクションに対応づけられた評価関数を用いて、オブジェクトOが行ったアクションを評価して、ステップS6において学習データTを更新する。   In step S4, the learning unit 21 tries the movement of each operation unit according to the motion data generated in step S3. In step S5, the learning unit 21 evaluates an action performed by the object O using an evaluation function associated with the action, and updates the learning data T in step S6.

ステップS7において、継続して学習する場合、ステップS1に戻る。学習を終了する場合、処理を終了する。   If learning is continued in step S7, the process returns to step S1. When the learning is finished, the process is finished.

図12および図13を参照して、動作部の学習について説明する。   Learning of the operation unit will be described with reference to FIGS. 12 and 13.

オブジェクトOは、図12(a)に示すように、球体形状の部品P1と、部品P1の周り設けられる四肢を有する。四肢の一つは、二つの円柱形状の部品P2およびP3を備える。部品P1と部品P2は、関節N1により接続され、部品P2と部品P3は、関節N2により接続される。   As shown in FIG. 12A, the object O has a spherical part P1 and limbs provided around the part P1. One of the limbs includes two cylindrical parts P2 and P3. The parts P1 and P2 are connected by a joint N1, and the parts P2 and P3 are connected by a joint N2.

図12(a)に示すオブジェクトOは、合計8個の関節により構成されるので、図12(b)に示すモーションデータ16は、各関節について、8個のデータセットを有する。図12(b)に示すモーションデータ16において、1行目のデータは、第0番目の関節の動作を示し、2行目のデータは、第1番目の関節の動作を示し、合計8行のデータにより構成される。   Since the object O shown in FIG. 12A is composed of a total of eight joints, the motion data 16 shown in FIG. 12B has eight data sets for each joint. In the motion data 16 shown in FIG. 12 (b), the data in the first row indicates the motion of the 0th joint, the data in the second row indicates the motion of the first joint, and a total of 8 rows. Consists of data.

図12(c)を参照して、各関節に対応づけられた動作を説明する。第0番目の先頭の記載[1,[3,2,1]]について説明する。[1,[3,2,1]]は、第0番目の関節が、1秒後に、[3,2,1]の状態になるように試みることを意味している。[3,2,1]の状態とは、オイラー角が、[3,2,1]の状態を意味し、具体的には、[0.3*(70−30)+30,0.2*(70−30)+30,0.1*(70−30)+30]であることを意味する。ここで“30”および“70”は、第0番目の関節の可動域としてあらかじめ設定された定数である。   With reference to FIG.12 (c), the operation | movement matched with each joint is demonstrated. The 0th head description [1, [3, 2, 1]] will be described. [1, [3, 2, 1]] means that the 0th joint tries to be in the state of [3, 2, 1] after 1 second. The state of [3, 2, 1] means that the Euler angle is [3, 2, 1], specifically, [0.3 * (70-30) +30, 0.2 *. (70-30) +30, 0.1 * (70-30) +30]. Here, “30” and “70” are constants set in advance as the movable range of the 0th joint.

図13(a)に示すのが、時間t=0の状態であって、オブジェクトOが動きを試みていない状態である。図13(a)では、関節N2(第0の関節)は、部品P2およびP3を垂直に接続する。一方、図13(b)は、モーションデータ16において、1秒後の目標として設定されたオイラー角[3,2,1]の状態を示す。図13(b)では、関節N2は、部品P2およびP3を所定の角度分曲げた状態で接続する。 FIG. 13A shows a state at time t = 0 and the object O is not trying to move. In FIG. 13A , the joint N2 (0th joint) connects the parts P2 and P3 vertically. On the other hand, FIG. 13B shows the state of the Euler angles [3, 2, 1] set as the target after 1 second in the motion data 16. In FIG. 13B, the joint N2 connects the parts P2 and P3 in a state bent by a predetermined angle.

図13(c)は、オブジェクトOが、第0の関節について、1秒間、オイラー角[3,2,1]の状態を目指して動作した結果である。関節を曲げる速度は、オブジェクトOの筋力や重さによって異なるため、1秒以内に、オイラー角[3,2,1]の状態に到達するとは限らず、図13(c)は、目標とする状態に到達しなかった状態を示す。図13(c)では、関節N2は、部品P2およびP3を所定の角度で接続しているものの、図13(b)に示す目標の状態の角度よりも小さい。
FIG. 13C shows the result of the object O moving toward the Euler angle [3, 2, 1] state for one second with respect to the 0th joint. Since the speed at which the joint is bent varies depending on the muscle strength and weight of the object O, it does not always reach the Euler angle [3, 2, 1] within one second, and FIG. Indicates that the state has not been reached. In FIG. 13C, the joint N2 connects the parts P2 and P3 at a predetermined angle, but is smaller than the target state angle shown in FIG. 13B.

このように、モーションデータ16において、各関節における各時間の動作目標を設定される。学習部21は、モーションデータ16に従って各関節を動かし、目標に達しなかった場合でも、モーションデータ16に従って、次に設定された目標に向かって動作する。学習部21は、モーションデータ16に設定されたすべての関節および時間における動作目標を試みて、その結果を評価する。   In this way, in the motion data 16, an operation target for each time at each joint is set. The learning unit 21 moves each joint according to the motion data 16 and operates toward the next set target according to the motion data 16 even when the target is not reached. The learning unit 21 tries motion targets for all joints and times set in the motion data 16 and evaluates the results.

図12および図13において、関節を曲げる動作について説明したが、これに限られない。例えば、動作部が、バネ形状である場合、モーションデータ16に、所定時間以内に伸長または縮小する距離が、目標として設定されても良い。動作部が、回転する車輪形状である場合、モーションデータ16に、所定時間以内に回転する回転角が、目標として設定されても良い。動作部が銃である場合、所定条件を満たした際の発砲の動作が、目標として設定されても良い。   Although the operation of bending the joint has been described with reference to FIGS. 12 and 13, the present invention is not limited thereto. For example, when the operation unit has a spring shape, a distance that expands or contracts within a predetermined time may be set as a target in the motion data 16. When the operating unit has a rotating wheel shape, a rotation angle that rotates within a predetermined time may be set as a target in the motion data 16. When the operation unit is a gun, a firing operation when a predetermined condition is satisfied may be set as a target.

このように本発明の実施の形態に係る学習装置1は、オブジェクトOがアクション毎に学習する。従って、学習装置1が、オブジェクトOに様々なアクションを動作させ、動画データMとして生成することにより、ユーザは、オブジェクトOが様々なアクションを動作する様子を観察することが可能になる。またオブジェクトOが活動する仮想領域Vを部分領域Dに分割することで、オブジェクトOの位置毎の各種環境値にあわせて学習させる必要がなく、学習に必要な計算量を削減することができる。   As described above, the learning device 1 according to the embodiment of the present invention learns the object O for each action. Therefore, the learning device 1 operates various actions on the object O and generates the moving image data M, so that the user can observe how the object O operates various actions. Further, by dividing the virtual region V in which the object O is active into the partial regions D, it is not necessary to learn according to various environmental values for each position of the object O, and the amount of calculation required for learning can be reduced.

(変形例)
図14および図15を参照して、本発明の変形例に係る学習システム9aを説明する。図14に示す学習システム9aは、学習装置1a、活動装置5、動画生成装置6および動画配信装置7を備える。学習装置1aは、図3に示す学習装置1のうち、学習部21を備え、動画処理部26を備えない。
(Modification)
With reference to FIG. 14 and FIG. 15, the learning system 9a which concerns on the modification of this invention is demonstrated. A learning system 9a shown in FIG. 14 includes a learning device 1a, an activity device 5, a moving image generating device 6, and a moving image distribution device 7. The learning device 1a includes the learning unit 21 and does not include the moving image processing unit 26 in the learning device 1 illustrated in FIG.

活動装置5、動画生成装置6および動画配信装置7は、それぞれ、一般的なコンピュータであって、所望の処理を実行するように形成される。活動装置5および動画生成装置6は、学習装置1aと連携して、学習装置1aにおいて生成された学習データから生成されたモーションデータに従って、オブジェクトOが動作する状態を可視化する。   Each of the activity device 5, the moving image generating device 6, and the moving image distribution device 7 is a general computer, and is formed so as to execute a desired process. The activity device 5 and the moving image generation device 6 cooperate with the learning device 1a to visualize the state in which the object O operates according to the motion data generated from the learning data generated in the learning device 1a.

活動装置5は、オブジェクトOが仮想領域Vで活動する場合、活動装置5は、学習装置1aにおいて生成された学習データから生成されたモーションデータに従って、仮想領域VでオブジェクトOが動きを試みる様子を描画して、表示する。オブジェクトOが有体物である場合、活動装置5は、学習装置1aにおいて生成された学習データから生成されたモーションデータに従って、オブジェクトOが備える各動作部に対応する部品が動くように制御する。   When the activity device 5 is active in the virtual region V, the activity device 5 tries to move the object O in the virtual region V according to the motion data generated from the learning data generated in the learning device 1a. Draw and display. When the object O is a tangible object, the activity device 5 performs control so that parts corresponding to each operation unit included in the object O move according to the motion data generated from the learning data generated in the learning device 1a.

動画生成装置6は、オブジェクトOが仮想領域Vで活動する場合、活動装置5は、学習装置1aにおいて生成された学習データから生成されたモーションデータに従って、仮想領域VでオブジェクトOが動きを試みる様子を示す動画データMを生成する。動画生成装置6は、図3に示す学習装置1の動画生成部27に対応する。また動画生成装置6で生成された動画データMは、動画配信装置7に送信され、動画配信装置7から各端末(図示せず)に動画データMが配信され、各端末で動画データMが再生される。   When the object O is active in the virtual region V, the moving image generating device 6 attempts to move the object O in the virtual region V according to the motion data generated from the learning data generated in the learning device 1a. Is generated. The moving image generating device 6 corresponds to the moving image generating unit 27 of the learning device 1 shown in FIG. The moving image data M generated by the moving image generating device 6 is transmitted to the moving image distribution device 7, and the moving image data M is distributed from the moving image distribution device 7 to each terminal (not shown), and the moving image data M is reproduced at each terminal. Is done.

ここで、活動装置5または動画生成装置6が、学習装置1aの学習データTを用いて処理する方法として、下記の方法が考えられる。なお、モーションデータは、学習装置1bで生成されても良いし、活動装置5または動画生成装置6で生成されても良い。また活動装置5または動画生成装置6は、学習装置1aにおいて、モーションデータに従って各動作部の動きを試みた結果を取得して、その結果に従って、動作部の動きを再現しても良い。
(1) 活動装置5または動画生成装置6が、図15に示すように、学習装置1aから、学習データTに基づいて生成された新たなモーションデータを取得して、活動装置5または動画生成装置6が、取得したモーションデータに従って、オブジェクトOの動作部の動きを試みる方法。ここで、学習装置1aが生成した新たなモーションデータは、学習データTを元に、評価に関係なくランダムに変異させたものである。
(2) 活動装置5または動画生成装置6が、学習装置1aから、学習データTを取得して、活動装置5または動画生成装置6が、取得した学習データTから、モーションデータを抽出し、抽出したモーションデータに従って、オブジェクトOの動作部の動きを試みる方法。ここで学習装置1aから取得するモーションデータは、学習データTにおいて良い評価が得られたモーションデータに従って生成されたもので、良い評価が期待できるモーションデータである。
Here, the following method can be considered as a method in which the activity device 5 or the moving image generating device 6 performs processing using the learning data T of the learning device 1a. The motion data may be generated by the learning device 1b, or may be generated by the activity device 5 or the moving image generation device 6. In addition, the activity device 5 or the moving image generation device 6 may acquire the result of trying the movement of each operation unit according to the motion data in the learning device 1a, and reproduce the movement of the operation unit according to the result.
(1) The active device 5 or the moving image generating device 6 acquires new motion data generated based on the learning data T from the learning device 1a as shown in FIG. 6 is a method of trying the movement of the motion part of the object O according to the acquired motion data. Here, the new motion data generated by the learning device 1a is obtained by randomly mutating the learning data T regardless of the evaluation.
(2) The activity device 5 or the moving image generating device 6 acquires the learning data T from the learning device 1a, and the active device 5 or the moving image generating device 6 extracts and extracts the motion data from the acquired learning data T. A method of attempting to move the motion part of the object O according to the motion data. Here, the motion data acquired from the learning device 1a is generated according to the motion data for which good evaluation is obtained in the learning data T, and is motion data that can be expected to have good evaluation.

活動装置5および動画生成装置6等は、様々な場面に適用することが可能になる。例えば、動画生成装置6において、オブジェクトOを活動させる動画データを生成して配信することにより、オブジェクトが活動する様子を観察するゲームとして提供することが可能になる。一人のユーザが一つのオブジェクトOに学習させるゲームであっても良いし、複数のユーザが一つのオブジェクトOに学習させるゲームであっても良い。   The activity device 5 and the moving image generating device 6 can be applied to various scenes. For example, by generating and distributing moving image data that activates the object O in the moving image generating device 6, it can be provided as a game for observing how the object is active. It may be a game in which one user learns one object O, or a game in which a plurality of users learn one object O.

また動画生成装置6において、仮想領域Vにおいて複数のオブジェクトを活動させる動画データを生成することにより、それぞれのオブジェクトが個性を持った動きをする動画データを生成することができる。このような動画データは、映画やビデオ等のシーンに適用することができる。   In addition, by generating moving image data that activates a plurality of objects in the virtual region V in the moving image generation device 6, moving image data in which each object moves with individuality can be generated. Such moving image data can be applied to scenes such as movies and videos.

このように、学習データTを生成する装置と、学習データTを参照してオブジェクトOが活動する装置とを分けることにより、活動装置5や動画生成装置6における処理負荷が軽減される。また、予め作成した学習データTを、場面に応じて再利用することが可能になる。   In this way, by separating the device that generates the learning data T and the device in which the object O is active with reference to the learning data T, the processing load on the activity device 5 and the moving image generation device 6 is reduced. In addition, it is possible to reuse the learning data T created in advance according to the scene.

(その他の実施の形態)
上記のように、本発明の実施の形態とその変形例によって記載したが、この開示の一部をなす論述および図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例および運用技術が明らかとなる。
(Other embodiments)
As described above, the embodiments of the present invention and the modifications thereof have been described. However, it should not be understood that the descriptions and drawings constituting a part of this disclosure limit the present invention. From this disclosure, various alternative embodiments, examples, and operational techniques will be apparent to those skilled in the art.

例えば、本発明の実施の形態に記載した学習装置は、図3に示すように一つのハードウエア上に構成されても良いし、その機能や処理数に応じて複数のハードウエア上に構成されても良い。また、既存の情報処理システム上に実現されても良い。   For example, the learning device described in the embodiment of the present invention may be configured on one piece of hardware as shown in FIG. 3, or may be configured on a plurality of pieces of hardware according to the functions and the number of processes. May be. Moreover, you may implement | achieve on the existing information processing system.

本発明はここでは記載していない様々な実施の形態等を含むことは勿論である。従って、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。   It goes without saying that the present invention includes various embodiments not described herein. Therefore, the technical scope of the present invention is defined only by the invention specifying matters according to the scope of claims reasonable from the above description.

1 学習装置
2、7 動画配信装置
3 端末
5 活動装置
6 動画生成装置
8 通信ネットワーク
9 学習システム
10 記憶装置
11 領域属性データ
12 環境値データ
13 オブジェクト属性データ
14 動作部属性データ
15 評価指標データ
16 モーションデータ
20 処理装置
21 学習部
22 モーション生成部
23 更新部
26 動画処理部
27 動画生成部
28 動画配信部
D 部分領域
M 動画データ
O オブジェクト
T 学習データ
V 仮想領域
DESCRIPTION OF SYMBOLS 1 Learning apparatus 2, 7 Movie delivery apparatus 3 Terminal 5 Activity apparatus 6 Movie generation apparatus 8 Communication network 9 Learning system 10 Storage apparatus 11 Area | region attribute data 12 Environment value data 13 Object attribute data 14 Operation | movement part attribute data 15 Evaluation index data 16 Motion Data 20 processing device 21 learning unit 22 motion generation unit 23 update unit 26 video processing unit 27 video generation unit 28 video distribution unit D partial area M video data O object T learning data V virtual area

Claims (9)

動作部を備えるオブジェクトが学習する学習装置であって、
前記オブジェクトは仮想領域で活動し、
前記仮想領域は、複数の部分領域を備え、各部分領域に、当該部分領域の環境値識別子が対応づけられ、
前記オブジェクトに行わせるアクションの識別子と、前記アクションを行わせるための前記動作部の動きの組み合わせの目標とを対応づけたモーションデータを生成するモーション生成部と、
前記モーションデータに従って、前記オブジェクトの前記動作部の動きを試みて、前記アクションに対する評価値を出力し、前記アクションの識別子と前記オブジェクトが位置する部分領域の環境値識別子と前記モーションデータと前記評価値とを対応づけて学習データに記憶する更新部とを備え、
前記モーション生成部は、前記オブジェクトに行わせるアクションの識別子および前記オブジェクトが位置する部分領域の環境値識別子に対応づけられた学習データを参照して、新たなモーションデータを生成する
ことを特徴とする学習装置。
A learning device for learning an object having a moving part,
The object is active in a virtual domain;
The virtual area includes a plurality of partial areas, and each partial area is associated with an environmental value identifier of the partial area,
A motion generation unit that generates motion data in which an identifier of an action to be performed by the object is associated with a target of a combination of movements of the operation unit to perform the action;
According to the motion data, the movement of the motion part of the object is attempted, and an evaluation value for the action is output. An identifier of the action, an environmental value identifier of a partial area where the object is located, the motion data, and the evaluation value And an update unit that stores them in learning data in association with each other,
The motion generation unit generates new motion data by referring to learning data associated with an identifier of an action to be performed by the object and an environment value identifier of a partial area where the object is located. Learning device.
前記モーションデータは、前記動作部について、前記動作部の動きと、前記動きを試みる時間とが対応づけられたペアを複数備え、
前記更新部は、前記モーションデータで生成された複数のペアに基づいて動きを試みた後に、前記評価値を出力する
ことを特徴とする請求項1に記載の学習装置。
The motion data includes a plurality of pairs in which the motion of the motion unit and the time to try the motion are associated with the motion unit,
The learning apparatus according to claim 1, wherein the update unit outputs the evaluation value after attempting to move based on a plurality of pairs generated by the motion data.
前記オブジェクトが、前記モーションデータに従って前記動作部の動きを試みる状態を示す動画データを逐次生成して配信する配信部をさらに備える
ことを特徴とする請求項1に記載の学習装置。
The learning apparatus according to claim 1, further comprising: a distribution unit that sequentially generates and distributes moving image data indicating a state in which the object attempts to move the operation unit in accordance with the motion data.
動作部を備えるオブジェクトが学習する学習方法であって、
前記オブジェクトは仮想領域で活動し、
前記仮想領域は、複数の部分領域を備え、各部分領域に、当該部分領域の環境値識別子が対応づけられ、
コンピュータが、前記オブジェクトに行わせるアクションの識別子と、前記アクションを行わせるための前記動作部の動きの組み合わせの目標とを対応づけたモーションデータを生成するステップと、
前記コンピュータが、前記モーションデータに従って、前記オブジェクトの前記動作部の動きを試みて、前記アクションに対する評価値を出力し、前記アクションの識別子と前記オブジェクトが位置する部分領域の環境値識別子と前記モーションデータと前記評価値とを対応づけて学習データに記憶するステップと、
前記コンピュータが、前記オブジェクトに行わせるアクションの識別子および前記オブジェクトが位置する部分領域の環境値識別子に対応づけられた学習データを参照して、新たなモーションデータを生成するステップ
を備えることを特徴とする学習方法。
A learning method in which an object having a moving part learns,
The object is active in a virtual domain;
The virtual area includes a plurality of partial areas, and each partial area is associated with an environmental value identifier of the partial area,
A step of generating motion data in which a computer associates an identifier of an action to be performed by the object with a target of a combination of movements of the operation unit for performing the action;
The computer attempts to move the motion part of the object according to the motion data, and outputs an evaluation value for the action. The action identifier, the environmental value identifier of the partial area where the object is located, and the motion data And storing the evaluation value in the learning data in association with each other;
The computer includes the step of generating new motion data by referring to learning data associated with an identifier of an action to be performed by the object and an environment value identifier of a partial area where the object is located. How to learn.
動作部を備えるオブジェクトが学習する学習プログラムであって、
前記オブジェクトは仮想領域で活動し、
前記仮想領域は、複数の部分領域を備え、各部分領域に、当該部分領域の環境値識別子が対応づけられ、
コンピュータを、
前記オブジェクトに行わせるアクションの識別子と、前記アクションを行わせるための前記動作部の動きの組み合わせの目標とを対応づけたモーションデータを生成するモーション生成部と、
前記モーションデータに従って、前記オブジェクトの前記動作部の動きを試みて、前記アクションに対する評価値を出力し、前記アクションの識別子と前記オブジェクトが位置する部分領域の環境値識別子と前記モーションデータと前記評価値とを対応づけて学習データに記憶する更新部として機能させ、
前記モーション生成部は、前記オブジェクトに行わせるアクションの識別子および前記オブジェクトが位置する部分領域の環境値識別子に対応づけられた学習データを参照して、新たなモーションデータを生成する
ことを特徴とする学習プログラム。
A learning program for learning an object having a moving part,
The object is active in a virtual domain;
The virtual area includes a plurality of partial areas, and each partial area is associated with an environmental value identifier of the partial area,
Computer
A motion generation unit that generates motion data in which an identifier of an action to be performed by the object is associated with a target of a combination of movements of the operation unit to perform the action;
According to the motion data, the movement of the motion part of the object is attempted, and an evaluation value for the action is output. An identifier of the action, an environmental value identifier of a partial area where the object is located, the motion data, and the evaluation value And function as an update unit that stores the learning data in association with
The motion generation unit generates new motion data by referring to learning data associated with an identifier of an action to be performed by the object and an environment value identifier of a partial area where the object is located. Learning program.
動作部を備えるオブジェクトが学習する学習装置に接続する動画配信装置であって、
前記オブジェクトは仮想領域で活動し、
前記仮想領域は、複数の部分領域を備え、各部分領域に、当該部分領域の環境値識別子が対応づけられ、
前記学習装置は、
前記オブジェクトに行わせるアクションの識別子と、前記アクションを行わせるための前記動作部の動きの組み合わせの目標とを対応づけたモーションデータを生成するモーション生成部と、
前記モーションデータに従って、前記オブジェクトの前記動作部の動きを試みて、前記アクションに対する評価値を出力し、前記アクションの識別子と前記オブジェクトが位置する部分領域の環境値識別子と前記モーションデータと前記評価値とを対応づけて学習データに記憶する更新部とを備え、
前記モーション生成部は、前記オブジェクトに行わせるアクションの識別子および前記オブジェクトが位置する部分領域の環境値識別子に対応づけられた学習データを参照して、新たなモーションデータを生成し、
前記動画配信装置は、
前記学習装置において生成された学習データを用いて、前記オブジェクトが、前記動作部の動きを試みる状態を示す動画データを逐次生成して配信することを特徴とする動画配信装置。
A video distribution device connected to a learning device that learns an object having an operation unit,
The object is active in a virtual domain;
The virtual area includes a plurality of partial areas, and each partial area is associated with an environmental value identifier of the partial area,
The learning device
A motion generation unit that generates motion data in which an identifier of an action to be performed by the object is associated with a target of a combination of movements of the operation unit to perform the action;
According to the motion data, the movement of the motion part of the object is attempted, and an evaluation value for the action is output. An identifier of the action, an environmental value identifier of a partial area where the object is located, the motion data, and the evaluation value And an update unit that stores them in learning data in association with each other,
The motion generation unit generates new motion data with reference to learning data associated with an identifier of an action to be performed on the object and an environment value identifier of a partial area where the object is located,
The video distribution device
A moving image distribution device, wherein learning data generated by the learning device is used to sequentially generate and distribute moving image data indicating a state in which the object attempts to move the motion unit.
動作部を備えるオブジェクトが学習する学習装置に接続する活動装置であって、
前記オブジェクトは仮想領域で活動し、
前記仮想領域は、複数の部分領域を備え、各部分領域に、当該部分領域の環境値識別子が対応づけられ、
前記学習装置は、
前記オブジェクトに行わせるアクションの識別子と、前記アクションを行わせるための前記動作部の動きの組み合わせの目標とを対応づけたモーションデータを生成するモーション生成部と、
前記モーションデータに従って、前記オブジェクトの前記動作部の動きを試みて、前記アクションに対する評価値を出力し、前記アクションの識別子と前記オブジェクトが位置する部分領域の環境値識別子と前記モーションデータと前記評価値とを対応づけて学習データに記憶する更新部とを備え、
前記モーション生成部は、前記オブジェクトに行わせるアクションの識別子および前記オブジェクトが位置する部分領域の環境値識別子に対応づけられた学習データを参照して、新たなモーションデータを生成し、
前記活動装置は、
前記学習装置で生成された学習データを用いて、オブジェクトを動作させることを特徴とする活動装置。
An activity device connected to a learning device for learning an object having a motion part,
The object is active in a virtual domain;
The virtual area includes a plurality of partial areas, and each partial area is associated with an environmental value identifier of the partial area,
The learning device
A motion generation unit that generates motion data in which an identifier of an action to be performed by the object is associated with a target of a combination of movements of the operation unit to perform the action;
According to the motion data, the movement of the motion part of the object is attempted, and an evaluation value for the action is output. An identifier of the action, an environmental value identifier of a partial area where the object is located, the motion data, and the evaluation value And an update unit that stores them in learning data in association with each other,
The motion generation unit generates new motion data with reference to learning data associated with an identifier of an action to be performed on the object and an environment value identifier of a partial area where the object is located,
The active device is
An activity device that operates an object using learning data generated by the learning device.
動作部を備えるオブジェクトが学習する学習装置に接続する活動プログラムであって、
前記オブジェクトは仮想領域で活動し、
前記仮想領域は、複数の部分領域を備え、各部分領域に、当該部分領域の環境値識別子が対応づけられ、
前記学習装置は、
前記オブジェクトに行わせるアクションの識別子と、前記アクションを行わせるための前記動作部の動きの組み合わせの目標とを対応づけたモーションデータを生成するモーション生成部と、
前記モーションデータに従って、前記オブジェクトの前記動作部の動きを試みて、前記アクションに対する評価値を出力し、前記アクションの識別子と前記オブジェクトが位置する部分領域の環境値識別子と前記モーションデータと前記評価値とを対応づけて学習データに記憶する更新部とを備え、
前記モーション生成部は、前記オブジェクトに行わせるアクションの識別子および前記オブジェクトが位置する部分領域の環境値識別子に対応づけられた学習データを参照して、新たなモーションデータを生成し、
前記活動プログラムは、
コンピュータに、
前記学習装置で生成された学習データを用いて、オブジェクトを動作させることを特徴とする活動プログラム。
An activity program connected to a learning device for learning an object having a moving part,
The object is active in a virtual domain;
The virtual area includes a plurality of partial areas, and each partial area is associated with an environmental value identifier of the partial area,
The learning device
A motion generation unit that generates motion data in which an identifier of an action to be performed by the object is associated with a target of a combination of movements of the operation unit to perform the action;
According to the motion data, the movement of the motion part of the object is attempted, and an evaluation value for the action is output. An identifier of the action, an environmental value identifier of a partial area where the object is located, the motion data, and the evaluation value And an update unit that stores them in learning data in association with each other,
The motion generation unit generates new motion data with reference to learning data associated with an identifier of an action to be performed on the object and an environment value identifier of a partial area where the object is located,
The activity program is
On the computer,
An activity program for operating an object using learning data generated by the learning device.
動作部を備えるオブジェクトが学習する学習装置に接続する動画生成装置であって、
前記オブジェクトは仮想領域で活動し、
前記仮想領域は、複数の部分領域を備え、各部分領域に、当該部分領域の環境値識別子が対応づけられ、
前記学習装置は、
前記オブジェクトに行わせるアクションの識別子と、前記アクションを行わせるための前記動作部の動きの組み合わせの目標とを対応づけたモーションデータを生成するモーション生成部と、
前記モーションデータに従って、前記オブジェクトの前記動作部の動きを試みて、前記アクションに対する評価値を出力し、前記アクションの識別子と前記オブジェクトが位置する部分領域の環境値識別子と前記モーションデータと前記評価値とを対応づけて学習データに記憶する更新部とを備え、
前記モーション生成部は、前記オブジェクトに行わせるアクションの識別子および前記オブジェクトが位置する部分領域の環境値識別子に対応づけられた学習データを参照して、新たなモーションデータを生成し、
前記動画生成装置は、
前記学習装置で生成された学習データを用いて、前記オブジェクトが、前記動作部の動きを試みる状態を示す動画データを逐次生成する
ことを特徴とする動画生成装置。
A moving image generating device connected to a learning device that learns an object having an operation unit,
The object is active in a virtual domain;
The virtual area includes a plurality of partial areas, and each partial area is associated with an environmental value identifier of the partial area,
The learning device
A motion generation unit that generates motion data in which an identifier of an action to be performed by the object is associated with a target of a combination of movements of the operation unit to perform the action;
According to the motion data, the movement of the motion part of the object is attempted, and an evaluation value for the action is output. An identifier of the action, an environmental value identifier of a partial area where the object is located, the motion data, and the evaluation value And an update unit that stores them in learning data in association with each other,
The motion generation unit generates new motion data with reference to learning data associated with an identifier of an action to be performed on the object and an environment value identifier of a partial area where the object is located,
The moving image generating device includes:
The moving image generating device, wherein the moving image data indicating the state in which the object tries to move the motion unit is sequentially generated using the learning data generated by the learning device.
JP2017071117A 2017-03-31 2017-03-31 Learning device, learning method, learning program, moving image distribution device, activity device, activity program, and moving image generation device Active JP6326167B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017071117A JP6326167B1 (en) 2017-03-31 2017-03-31 Learning device, learning method, learning program, moving image distribution device, activity device, activity program, and moving image generation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017071117A JP6326167B1 (en) 2017-03-31 2017-03-31 Learning device, learning method, learning program, moving image distribution device, activity device, activity program, and moving image generation device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018076795A Division JP2018171448A (en) 2018-04-12 2018-04-12 Learning device, learning method, learning program, moving image distribution device, object action device, object action program, and moving image generation device

Publications (2)

Publication Number Publication Date
JP6326167B1 true JP6326167B1 (en) 2018-05-16
JP2018173790A JP2018173790A (en) 2018-11-08

Family

ID=62143815

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017071117A Active JP6326167B1 (en) 2017-03-31 2017-03-31 Learning device, learning method, learning program, moving image distribution device, activity device, activity program, and moving image generation device

Country Status (1)

Country Link
JP (1) JP6326167B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7419635B2 (en) 2019-04-25 2024-01-23 株式会社コナミアミューズメント Game systems, control systems, control methods and programs

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001191284A (en) * 1999-10-25 2001-07-17 Sony Corp Robot device and its learning method
JP2003311669A (en) * 2002-04-18 2003-11-05 Fuji Heavy Ind Ltd Robot device
JP2004033159A (en) * 2002-07-05 2004-02-05 Heisei Polymer Co Ltd Bag for seed culture of laver
KR20100065809A (en) * 2008-12-09 2010-06-17 (주)로보티즈 Robot having a gait mechanism using learning and method for improving gait mechanism of robot using learing
JP2012008862A (en) * 2010-06-25 2012-01-12 Kyushu Institute Of Technology Motion controlling device, method for the same, and program
JP2015100877A (en) * 2013-11-25 2015-06-04 キヤノン株式会社 Robot control method, and robot control device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1552908A4 (en) * 2002-10-11 2008-10-15 Fujitsu Ltd Robot control algorithm construction device, robot control algorithm construction program, robot control device, robot control program, and robot

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001191284A (en) * 1999-10-25 2001-07-17 Sony Corp Robot device and its learning method
JP2003311669A (en) * 2002-04-18 2003-11-05 Fuji Heavy Ind Ltd Robot device
JP2004033159A (en) * 2002-07-05 2004-02-05 Heisei Polymer Co Ltd Bag for seed culture of laver
KR20100065809A (en) * 2008-12-09 2010-06-17 (주)로보티즈 Robot having a gait mechanism using learning and method for improving gait mechanism of robot using learing
JP2012008862A (en) * 2010-06-25 2012-01-12 Kyushu Institute Of Technology Motion controlling device, method for the same, and program
JP2015100877A (en) * 2013-11-25 2015-06-04 キヤノン株式会社 Robot control method, and robot control device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7419635B2 (en) 2019-04-25 2024-01-23 株式会社コナミアミューズメント Game systems, control systems, control methods and programs

Also Published As

Publication number Publication date
JP2018173790A (en) 2018-11-08

Similar Documents

Publication Publication Date Title
Risi et al. From chess and atari to starcraft and beyond: How game ai is driving the world of ai
WO2020259502A1 (en) Method and device for generating neural network model, and computer-readable storage medium
CN111260762A (en) Animation implementation method and device, electronic equipment and storage medium
CN106780681B (en) Role action generation method and device
US10758826B2 (en) Systems and methods for multi-user editing of virtual content
JP7199517B2 (en) Information prediction method, model training method, server and computer program
CN104102522B (en) The artificial emotion driving method of intelligent non-player roles in interactive entertainment
RU2557522C2 (en) Apparatus and method of improving presentation of objects in distributed interactive simulation modelling
US20230334744A1 (en) Method and apparatus for generating walk animation of virtual role, device and storage medium
CN111544889B (en) Behavior control method and device of virtual object and storage medium
US11816772B2 (en) System for customizing in-game character animations by players
CN111968204B (en) Motion display method and device for bone model
JP2018171448A (en) Learning device, learning method, learning program, moving image distribution device, object action device, object action program, and moving image generation device
JP2024511796A (en) Virtual gun shooting display method and device, computer equipment and computer program
JP6326167B1 (en) Learning device, learning method, learning program, moving image distribution device, activity device, activity program, and moving image generation device
CN111389007B (en) Game control method and device, computing equipment and storage medium
Youssef et al. Building your kingdom imitation learning for a custom gameplay using unity ml-agents
CN114359469B (en) Method, device, equipment and medium for generating master control object projection
CN114146414A (en) Virtual skill control method, device, equipment, storage medium and program product
CN106110658B (en) A kind of analogy method used in gaming and device
Grant et al. Integrating multiagent systems into virtual worlds
Estgren et al. Behaviour tree evolution by genetic programming
Pearson Architectures of deviation: exploring the spatial protocols of contemporary videogames
Duthen et al. An introduction to the bio-logic of artificial creatures
Sestini et al. Deep policy networks for NPC behaviors that adapt to changing design parameters in roguelike games

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180413

R150 Certificate of patent or registration of utility model

Ref document number: 6326167

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250