JP6735780B2 - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP6735780B2
JP6735780B2 JP2018026779A JP2018026779A JP6735780B2 JP 6735780 B2 JP6735780 B2 JP 6735780B2 JP 2018026779 A JP2018026779 A JP 2018026779A JP 2018026779 A JP2018026779 A JP 2018026779A JP 6735780 B2 JP6735780 B2 JP 6735780B2
Authority
JP
Japan
Prior art keywords
parameter
unit
behavior
animation
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018026779A
Other languages
English (en)
Other versions
JP2018092653A5 (ja
JP2018092653A (ja
Inventor
政義 中村
政義 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dwango Co Ltd
Original Assignee
Dwango Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dwango Co Ltd filed Critical Dwango Co Ltd
Priority to JP2018026779A priority Critical patent/JP6735780B2/ja
Publication of JP2018092653A publication Critical patent/JP2018092653A/ja
Publication of JP2018092653A5 publication Critical patent/JP2018092653A5/ja
Application granted granted Critical
Publication of JP6735780B2 publication Critical patent/JP6735780B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理装置、情報処理方法およびプログラムに関する。
現在、二次元または三次元画像により表現された仮想のキャラクタやロボットなどの人工生物(仮想生物、人工生命ともいう)について、人工生物が動いている映像(以下、モーションアニメーションまたはモーションとも言う)を作成するためには、次のような課題がある。すなわち、
1.それぞれの人工生物の形態に応じて適切なモーションを専門家が作成する必要がある。たとえば人工生物が歩行するモーションを作成するには、各部位をどのタイミングでどのような速度でどの方向にどれくらい動かせばよいかを、一つ一つ手作業で設定したり専門家を対象としたソフトウェアを使用して設定したりする必要があるが、そのような作業は、専門知識を有していないユーザにとっては非常に難しい作業である。
2.単純に左右の脚を交互に揺動させることで一見歩行しているように見えるモーションを生成できるとしても、仮想のキャラクタなどの現実には存在しない人工生物については、物理的に自然なモーションを作成することが極めて困難である。
3.一つのモーションを生成するために各部位の動き方を一つ一つ手作業で設定するやり方では、走る、ジャンプするなどの目的に応じて異なるモーションを大量に生成することが困難である。
特許文献1には、ロボットや二脚動物画像の歩行制御に関し、各部位の動きをニュートン力学により計算することで、各部位があたかも重力の影響を受けているかのように動いて見える技術が開示されている。
特表2004−531400号公報
特許文献1記載の技術では、専門家でなくても物理的に自然なモーションを作成できるようになるものの、作成されるモーションは、人工生物の各部位が生来備える(変更不可能な)物理的パラメタから導き出される範囲から外れることがなく、ユーザにとって所望のモーション、たとえば人間では思いもつかないようなモーションを作成することは容易でない。
本発明の目的は、専門知識を有していないユーザであっても人工生物において所望のモーションを容易に作成することができる情報処理装置、情報処理方法およびプログラムを提供することにある。
本発明の一態様に係る情報処理装置は、
人工生物の形態に関する情報を記憶する形態記憶部と、
前記記憶された人工生物の1つ以上の部位の物理的なパラメタを設定するパラメタ設定部と、
前記記憶された人工生物の行動の目標を設定する目標設定部と、
前記設定されたパラメタおよび目標に基づいて、前記記憶された人工生物の行動を学習
する行動学習部と、
前記記憶された人工生物が学習した行動に従って動いているアニメーションを生成して表示部に表示するアニメーション生成部と、
を備え、
前記パラメタ設定部は、前記表示部での前記アニメーションの表示中に、前記パラメタについての新たな入力を受け付け可能であり、
前記行動学習部は、前記パラメタ設定部が新たな入力を受け付けると、当該新たな入力に応じて再設定されるパラメタに基づいて、前記記憶された人工生物の行動の学習をやり直す。
このような態様よれば、パラメタ設定部および目標設定部により、人工生物の1つ以上の部位の物理的なパラメタと行動の目標とが設定され、行動学習部により、設定されたパラメタと目標に基づいて人工生物の行動が自動的に学習されるため、人工生物のモーションを生成するために各部位の動き方を一つ一つ手作業で設定するという専門的で複雑な作業が不要であり、かつ、異なるモーションを大量に生成することが容易である。さらに、学習した行動に従って動いているアニメーションの表示中に、その動きがユーザの所望するものでなければ、ユーザはパラメタ設定部からパラメタについての新たな入力を行うだけで、人工生物の行動の学習を容易にやり直すことができる。これを装置側から見れば、本件装置は学習成果についてその場でユーザからフィードバックをもらうことができる。これにより、人工生物のパラメタがユーザと装置との間で対話的・双方向的に調整されるので、専門知識を有していないユーザであっても、人工生物において所望のモーションを容易に作成することができる。
本発明の一態様に係る情報処理装置において、
前記パラメタ設定部は、前記表示部での前記アニメーションの表示中に、前記パラメタについての複数の入力候補の数値を表示して選択を受け付けるユーザインターフェースを、前記表示部に表示し、選択された数値で前記パラメタを再設定してもよい。
このような態様によれば、表示部でのアニメーションの表示中に、人工生物の動きがユーザの所望するものでなければ、ユーザは、表示部に表示されたユーザインターフェースにおいて入力候補の数値を選択するという直感的な操作を行うだけで、人工生物の行動の学習を容易にやり直すことができる。
本発明の一態様に係る情報処理装置において、
前記パラメタ設定部は、前記表示部での前記アニメーションの表示中に、表示中のアニメーションの評価に対応する複数の選択肢を表示して選択を受け付けるユーザインターフェースを、前記表示部に表示し、選択結果に応じて前記パラメタを再設定してもよい。
このような態様によれば、表示部でのアニメーションの表示中に、人工生物の動きがユーザの所望するものでなければ、ユーザは、表示部に表示されたユーザインターフェースにおいてその動きの評価に対応する選択肢を選択するという直感的な操作を行うだけで、人工生物の行動の学習を容易にやり直すことができる。
本発明の一態様に係る情報処理装置において、
前記目標設定部は、前記目標についての複数の入力候補を表示して選択を受け付けるユーザインターフェースを、前記表示部に表示してもよい。
このような態様によれば、ユーザは、表示部に表示されたユーザインターフェースから直感的に操作するだけで、人工生物の行動の目標を容易に設定することができる。
本発明の一態様に係る情報処理装置において、
具体的には、たとえば、前記目標についての入力候補は、移動速度を最大化する、ジャンプの高さを最大化する、物体を叩きつける力を最大化する、片足でバランスをとる時間を最大化する、逆立ちでバランスをとる時間を最大化する、からなる群のうちいずれか1つまたは2つ以上の目標を含んでいてもよい。
本発明の一態様に係る情報処理装置において、
具体的には、たとえば、前記パラメタは、当該部位を動かす力の最大値を含んでいてもよい。
本発明の一態様に係る情報処理装置において、
具体的には、たとえば、前記パラメタは、当該部位に作用する重力加速度を含んでいてもよい。
本発明の一態様に係る情報処理装置は、
複数の人工生物の形態に関する情報を記憶するデータベースから一の人工生物の形態に関する情報を取得して前記形態記憶部に記憶させる人工生物情報取得部をさらに備えていてもよい。
このような態様によれば、人工生物情報取得部が、データベースに予め記憶された複数の人工生物の中から一の人工生物の形態に関する情報を取得するため、モーション生成の対象とする人工生物を、ユーザの好みに応じて、別の人工生物と容易に交換することができる。
本発明の一態様に係る人工生物は、上記したいずれかの特徴を有する情報処理装置により生成された行動を行うように設定された人工生物である。
本発明の一態様に係る人工生物のデータ構造は、上記したいずれかの特徴を有する情報処理装置に用いられる人工生物のデータ構造であって、前記パラメタ設定部により設定されるパラメタを含む人工生物のデータ構造である。
本発明の一態様に係るモーション生成装置は、
人工生物の形態に関する情報を記憶する形態記憶部と、
前記記憶された人工生物の1つ以上の部位の物理的なパラメタを設定するパラメタ設定部と、
前記記憶された人工生物の行動の目標を設定する目標設定部と、
前記設定されたパラメタおよび目標に基づいて、前記記憶された人工生物の行動を学習する行動学習部と、
前記記憶された人工生物が学習した行動に従って動いているアニメーションを生成して表示部に表示するアニメーション生成部と、
を備え、
前記パラメタ設定部は、前記表示部での前記アニメーションの表示中に、前記パラメタについての新たな入力を受け付け可能であり、
前記行動学習部は、前記パラメタ設定部が新たな入力を受け付けると、当該新たな入力に応じて再設定されるパラメタに基づいて、前記記憶された人工生物の行動の学習をやり直す。
本発明の一態様に係る人工生物育成装置は、
人工生物の形態に関する情報を記憶する形態記憶部と、
前記記憶された人工生物の1つ以上の部位の物理的なパラメタを設定するパラメタ設定
部と、
前記記憶された人工生物の行動の目標を設定する目標設定部と、
前記設定されたパラメタおよび目標に基づいて、前記記憶された人工生物の行動を学習する行動学習部と、
前記記憶された人工生物が学習した行動に従って動いているアニメーションを生成して表示部に表示するアニメーション生成部と、
を備え、
前記パラメタ設定部は、前記表示部での前記アニメーションの表示中に、前記パラメタについての新たな入力を受け付け可能であり、
前記行動学習部は、前記パラメタ設定部が新たな入力を受け付けると、当該新たな入力に応じて再設定されるパラメタに基づいて、前記記憶された人工生物の行動の学習をやり直す。
本発明の一態様に係る情報処理方法は、
人工生物の形態に関する情報を形態記憶部に記憶するステップと、
前記記憶された人工生物の1つ以上の部位の物理的なパラメタを設定するステップと、
前記記憶された人工生物の行動の目標を設定するステップと、
前記設定されたパラメタおよび目標に基づいて、前記形態記憶部に記憶された人工生物の行動を学習するステップと、
前記記憶された人工生物が学習した行動に従って動いているアニメーションを生成して表示部に表示するステップと、
前記表示部での前記アニメーションの表示中に、前記パラメタについての新たな入力を受け付けると、当該新たな入力に応じて再設定されるパラメタに基づいて、前記記憶された人工生物の行動の学習をやり直すステップと、
を備える。
本発明の一態様に係るプログラムは、
コンピュータに、
人工生物の形態に関する情報を形態記憶部に記憶するステップと、
前記記憶された人工生物の1つ以上の部位の物理的なパラメタを設定するステップと、
前記記憶された人工生物の行動の目標を設定するステップと、
前記設定されたパラメタおよび目標に基づいて、前記記憶された人工生物の行動を学習するステップと、
前記記憶された人工生物が学習した行動に従って動いているアニメーションを生成して表示部に表示するステップと、
前記表示部での前記アニメーションの表示中に、前記パラメタについての新たな入力を受け付けると、当該新たな入力に応じて再設定されるパラメタに基づいて、前記記憶された人工生物の行動の学習をやり直すステップと、
を実行させるためのプログラムである。
本発明によれば、専門知識を有していないユーザであっても人工生物において所望のモーションを容易に作成することができる。
図1は、一実施の形態による情報処理装置を含む情報処理システムの構成を示す概略図である。 図2は、図1に示す情報処理装置の表示画面の一例を示す概略図である。 図3は、図1に示す情報処理装置の表示画面の一例を示す概略図である。 図4は、図3に示す表示画面のパラメタ入力用UIの変形例を示す概略図である。 図5は、図1に示す情報処理装置の表示画面の一例を示す概略図である。 図6は、図1に示す情報処理装置の表示画面の一例を示す概略図である。 図7は、図1に示す情報処理装置による情報処理方法の一例を示すフローチャートである。 図8は、図6に示す情報処理方法における学習工程の一例を示すフローチャートである。 図9は、図1に示す情報処理装置に用いられるデータ構造の一例を示す概略図である。 図10は、図1に示す情報処理装置による学習処理の一例を示す概念図である。
以下に、添付の図面を参照して、本発明の実施の形態を詳細に説明する。なお、以下に説明する実施の形態は、本発明を実施する場合の一例を示すものであって、本発明を以下に説明する具体的構成に限定するものではない。本発明の実施にあたっては、実施の形態に応じた具体的構成が適宜採用されてよい。
図1は、一実施の形態による情報処理装置10を含む情報処理システム1の構成を示す概略図である。
図1に示すように、情報処理システム1は、情報処理装置(端末装置)10と、データベース(サーバ)3とを有している。情報処理装置10とデータベース3とは、インターネット等のネットワーク2を介して互いに通信可能に接続されている。ネットワーク2は、無線回線であってもよいし、有線回線であってもよい。なお、情報処理装置10およびデータベース3の少なくとも一部は、コンピュータにより実現される。
データベース3は、複数の人工生物(以下、キャラクタという)の形態に関する情報D71を記憶しているサーバである。「形態に関する情報D71」とは、たとえば、キャラクタの脚の数、胴体に対する各脚の位置、各脚の部位の数(関節の数)、外見の色・質感、胴体の長さ・太さ・形状、各部位の長さ・太さ・形状、各関節の動く方向・可動域などである。
情報処理装置10は、ユーザがキャラクタのモーションを生成するための端末装置(モーション生成装置)である。情報処理装置10としては、たとえば、スマートフォンやタブレット端末などのモバイル端末、ノートブックコンピュータ、またはデスクトップコンピュータなどが用いられる。
なお、本実施の形態による情報処理装置10は、後述するように、キャラクタのモーションに係るパラメタがユーザと装置との間で対話的・双方向的に調整されることに特徴がある。このユーザと装置との間での対話的・双方向的な調整に着目した場合、情報処理装置10は、ユーザがキャラクタを育成するための端末装置(人工生物育成装置)であるとも言える。
図1に示すように、情報処理装置10は、制御部10aと、記憶部10bと、表示部10cと、入力部10dと、通信部10eとを有している。
このうち制御部10aは、パラメタ設定部11と、目標設定部12と、行動学習部13と、アニメーション生成部14と、人工生物情報取得部15とを有している。これらの各部11〜15は、情報処理装置10内のプロセッサが所定のプログラムを実行することに
より実現されてもよい。これらの各部11〜15については後述する。
記憶部10bは、たとえば内蔵メモリや外部メモリ(SDメモリーカード等)などのデータストレージである。記憶部10bには、制御部10aが取り扱う各種データが記憶される。記憶部10bは、少なくともキャラクタ(人工生物)の形態に関する情報D71を記憶する形態記憶部16を含んでいる。
本実施の形態では、記憶部10bは、たとえば、
・キャラクタの形態に関する情報D71(データベース3から取得される情報)と
・キャラクタの物理的なパラメタD72(パラメタ設定部11により設定されるパラメタ)と
・キャラクタの行動を規定するパラメタD73(行動学習部13により最適化されるパラメタ)とを含むキャラクタのデータ構造(図9参照)や
・学習回数N
などの値を記憶している。
表示部10cは、情報処理装置10からユーザに対して各種情報を表示するインターフェースである。表示部10cとしては、たとえば液晶ディスプレイや有機ELディスプレイなどが用いられる。図2、図3、図5および図6は、それぞれ、表示部10cに表示される表示画面の一例を示している。
入力部10dは、ユーザが情報処理装置10に各種情報を入力するためのインターフェースであり、たとえばモバイル端末におけるタッチパネル、ノートブックコンピュータにおけるタッチパッド、キーボードまたはマウスなどである。
通信部10eは、情報処理装置10とネットワーク2との間の通信インターフェースである。通信部10eは、ネットワーク2を介して情報処理装置10とデータベース3との間で情報を送受信する。
次に、制御部10aの各部11〜15について説明する。
人工生物情報取得部15は、複数のキャラクタの形態に関する情報を記憶するデータベース3から、一のキャラクタの形態に関する情報D71を取得して形態記憶部16に記憶させる。
具体的には、たとえば、人工生物情報取得部15は、図2に示すような入力画面を表示部10cに表示させ、ユーザがデータベース3に記憶された複数のキャラクタの中から一のキャラクタ30を主観評価で選択することをアシストする。
図2に示す例では、入力画面は、キャラクタ画像表示部31と、キャラクタ名称表示部34と、キャラクタ説明表示部35とを有している。
キャラクタ画像表示部31は、データベース3に記憶された一のキャラクタ30の画像を表示する。キャラクタ名称表示部34は、キャラクタ画像表示部31に表示されたキャラクタ30の名称を表示する。キャラクタ説明表示部35は、キャラクタ画像表示部31に表示されたキャラクタ30の説明を表示する。
キャラクタ画像表示部31上には、戻るボタン32a、進むボタン32bおよび決定ボタン33がそれぞれ配置されている。
入力部10dからの入力により戻るボタン32aが押し下げられると、人工生物情報取得部15は、キャラクタ画像表示部31、キャラクタ名称表示部34およびキャラクタ説明表示部35が表示する情報を、それぞれ、データベース3に記憶された1つ前の別のキャラクタ30の対応する情報に切り替える。
入力部10dからの入力により進むボタン32aが押し下げられると、人工生物情報取得部15は、キャラクタ画像表示部31、キャラクタ名称表示部34およびキャラクタ説明表示部35が表示する情報を、それぞれ、データベース3に記憶された1つ後の別のキャラクタ30の対応する情報に切り替える。
入力部10dからの入力により決定ボタン33が押し下げられると、人工生物情報取得部15は、キャラクタ画像表示部31、キャラクタ名称表示部34およびキャラクタ説明表示部35が表示しているキャラクタ30の形態に関する情報D71を、データベース3から取得して形態記憶部16に記憶する。その後、制御部10aは、図3に示すような入力画面を表示部10cに表示させる。
パラメタ設定部11は、形態記憶部16に記憶されたキャラクタ(人工生物)の1つ以上の部位の物理的なパラメタD72を設定する。「物理的なパラメタD72」は、たとえば、各部位の重さ、各部位を動かす力(筋力)の最大値、各部位を動かす速度(スピード)の最大値、姿勢維持力、各部位の摩擦係数、密度、各部位に作用する重力加速度などである。パラメタ設定部11は、設定したパラメタの数値を記憶部10bに記憶する。
図3に示す例では、パラメタ設定部11は、物理的なパラメタD72についての複数の入力候補の数値を表示して選択を受け付けるユーザインターフェース(GUI)22を、表示部10cに表示し、選択された数値で物理的なパラメタD72を設定する。「ユーザインターフェース(GUI)22」は、ユーザが直感的に入力できるものであれば、種類や形態は特に問わない。たとえば、「ユーザインターフェース(GUI)22」は、離散的な数値を入力可能なボタンであってもよいし(図3参照)、連続的な数値を入力可能なスライドバーであってもよい(図4参照)。また、ユーザインターフェース(GUI)22が表示する「入力候補の数値」は、物理的なパラメタD72の数値そのものであってもよいし(図4参照)、物理的なパラメタD72の数値に対応するレベル値などの中間的な数値であってもよい(図3参照)。
なお、パラメタ設定部11は、ユーザが保有するポイント26に応じて、物理的なパラメタD72の入力候補を限定してもよい。たとえば、図2に示す例では、ユーザが保有するポイント26が300Pであり、パラメタ設定部11は、「筋力」パラメタについては、レベル1〜3のみ選択可能とし、レベル4以上は300Pより高いポイントを保有していないと選択できないように制限している。
目標設定部12は、形態記憶部16に記憶されたキャラクタの行動の目標を設定する。目標設定部12は、設定した目標を記憶部10bに記憶する。
図3に示す例では、目標設定部12は、目標についての複数の入力候補を表示して選択を受け付けるユーザインターフェース(GUI)23を、表示部10cに表示し、選択された項目で目標を設定する。「ユーザインターフェース(GUI)23」は、ユーザが直感的に入力できるものであれば、種類や形態は特に問わない。図示された例では、「ユーザインターフェース(GUI)22」は、プルダウンリストである(図5参照)。
「目標についての入力候補」は、たとえば、移動速度を最大化する、ジャンプの高さを最大化する、物体を叩きつける力を最大化する、片足でバランスをとる時間を最大化する
、逆立ちでバランスをとる時間を最大化するなどである。記憶部10bは、「目標についての入力候補」の各々に対して、キャラクタの行動の評価を出力する評価関数を対応付けて予め記憶している。たとえば、「移動速度の最大化」という目標に対応する評価関数は、キャラクタが所定の行動をとった時(当該行動を規定するパラメタが評価関数に入力された時)に当該キャラクタの重心の所定時間(たとえば1秒間)での水平移動距離を出力する関数であり、「ジャンプ高さの最大化」という目標に対応する評価関数は、キャラクタが所定の行動をとった時(当該行動を規定するパラメタが評価関数に入力された時)に当該キャラクタの重心の地面からの最大高さを出力する関数であり、「物体を叩き付け力の最大化」という目標に対応する評価関数は、キャラクタが所定の行動をとった時(当該行動を規定するパラメタが評価関数に入力された時)に当該キャラクタにより投げ飛ばされた物体の飛行距離を出力する関数である。評価関数の具体的な数学的表現としては、たとえば、Martin de Lasa, Igor Mordatch, Aaron Hertzmann, Feature-Based Locomotion
Controllers, ACM Transactions on Graphics, 2010, 29, 3, (Proc. SIGGRAPH)に記載
のものが利用され得る。
なお、目標設定部12は、目標に係る「名詞」(移動速度、ジャンプの高さ等)と「動詞」(最大化する、最小化する等)とをそれぞれプルダウンリストから選択可能となるように構成され、選択された「名詞」と「動詞」の組み合わせにより目標を設定してもよい。
行動学習部13は、パラメタ設定部11により設定されたパラメタD72および目標設定部12により設定された目標に基づいて、キャラクタ30の行動を学習する。
具体的には、たとえば、行動学習部13は、目標設定部12により設定された目標に対応する評価関数を記憶部10bから読み出し、キャラクタの行動を規定するパラメタD73が当該評価関数に入力された時に当該評価関数の出力値がより高くなるように、たとえば焼きなまし法(Simulated Annealing;SA)や遺伝的アルゴリズム(Genetic Algorithm;GA)、ディープラーニングなどの手法により、キャラクタの行動を規定するパラメタD73の最適化を行う。ここで、物理演算エンジンとしては、たとえばPhysXエンジンが用いられる。キャラクタ30がセンサ(感覚器など)を備えている場合には、行動学習部13は、当該センサの出力を加味して、行動を規定するパラメタD73の最適化を行ってもよい(図10参照)。
なお、「行動を規定するパラメタD73」とは、たとえば、各関節の時々刻々の力の入れ具合を規定するパラメタであり、各時刻における各関節の角度などを規定している。
アニメーション生成部14は、形態記憶部16に記憶されたキャラクタが、行動学習部13が学習した行動(すなわち行動学習部13の学習結果である「行動を規定するパラメタD73」)に従って動いているアニメーション21を生成して、表示部10cに表示する(図6参照)。
本実施の形態では、図6に示すように、パラメタ設定部11は、表示部10cでのアニメーション21の表示中に、物理的なパラメタD72についての新たな入力を受け付け可能である。
図6に示す例では、パラメタ設定部11は、表示部10cでのアニメーション21の表示中に、物理的なパラメタD72についての複数の入力候補の数値を表示して選択を受け付けるユーザインターフェース(GUI)22を、表示部10cに表示し、選択された数値で物理的なパラメタD72を再設定する。「ユーザインターフェース(GUI)22」は、ユーザが直感的に入力できるものであれば、種類や形態は特に問わない。たとえば、
「ユーザインターフェース(GUI)22」は、離散的な数値を入力可能なボタンであってもよいし(図6参照)、連続的な数値を入力可能なスライドバーであってもよい(図4参照)。また、ユーザインターフェース(GUI)22が表示する「入力候補の数値」は、物理的なパラメタD72の数値そのものであってもよいし(図4参照)、物理的なパラメタD72の数値に対応するレベル値などの中間的な数値であってもよい(図6参照)。パラメタ設定部11は、再設定したパラメタの数値を記憶部10bに記憶する。
また、図6に示す例では、パラメタ設定部11は、表示部10cでのアニメーション21の表示中に、アニメーション21の評価に対応する複数(図示された例では2つ)の選択肢を表示して選択を受け付けるユーザインターフェース(GUI)24a、24bを、表示部10cに表示し、選択結果に応じて物理的なパラメタD72を再設定する。図示された例では、「ユーザインターフェース(GUI)」は、「良かった」という主観評価に対応する上向き矢印ボタン24aと、「悪かった」という主観評価に対応する下向き矢印ボタン24bとを有している。なお、「評価」は2択に限定されず、3択以上であってもよい。表示部10cでのアニメーション21の表示中に、パラメタ設定部11が、アニメーション21の評価に対応する複数の選択肢を表示して選択を受け付けるようになっていることで、ユーザはより直感的な入力を行うことが可能である。
行動学習部13は、表示部10cでのアニメーション21の表示中に、パラメタ設定部11が新たな入力を受け付けると、当該新たな入力に応じて再設定されるパラメタD72に基づいて、形態記憶部16に記憶されたキャラクタの行動の学習をやり直すようになっている。
次に、このような構成からなる情報処理装置10による情報処理方法について、図6を参照して説明する。図6は、情報処理装置10による情報処理方法の一例を示すフローチャートである。
まず、図6に示すように、人工生物情報取得部15は、入力部10dからの入力に基づいて、複数のキャラクタの形態に関する情報を記憶するデータベース3から、一のキャラクタの形態に関する情報D71を選択して取得する(ステップS50)。
次いで、人工生物情報取得部15は、データベース3から取得した一のキャラクタの形態に関する情報D71を、記憶部10bの形態記憶部16に記憶する(ステップS51)。制御部10aは、記憶部10bに記憶された学習回数Nをゼロにリセットする。
次に、パラメタ設定部11は、入力部10dからの入力に基づいて、形態記憶部16に記憶されたキャラクタの物理的なパラメタD72を設定する(ステップS52)。パラメタ設定部11により設定された物理的なパラメタD72は、記憶部10bに記憶される。
また、目標設定部12は、入力部10dからの入力に基づいて、形態記憶部16に記憶されたキャラクタの行動の目標を設定する(ステップS53)。目標設定部12により設定された行動の目標は、記憶部10bに記憶される。
次いで、制御部10aは、記憶部10bに記憶された学習回数Nが、予め定められた最大回数(たとえば10000回)に至ったか否かを判断する(ステップS54)。
学習回数Nが予め定められた最大回数に至っていない場合(ステップS54:YES)、行動学習部13は、パラメタ設定部11により設定されたパラメタD72、および目標設定部12により設定された行動の目標に基づいて、形態記憶部16に記憶されたキャラクタの行動を学習する(ステップS55)。
図8は、学習工程(ステップ55)の詳細を示すフローチャートである。図8に示すように、行動学習部13は、まず、記憶部10bに記憶された学習回数Nが、ゼロ(すなわち初回の学習)か否かを判断する(ステップS61)。
学習回数Nがゼロ(初回の学習)である場合(ステップS61:NO)、行動学習部13は、キャラクタの「行動を規定するパラメタD73」をランダムに設定する(ステップS62)。
一方、学習回数Nがゼロではない場合(ステップS61:YES)、行動学習部13は、キャラクタの「行動を規定するパラメタD73」の現在値を保持したまま、後述のステップS63に移行する。
次に、行動学習部13は、目標設定部12により設定された目標に対応する評価関数を記憶部10bから読み出し、キャラクタの「行動を規定するパラメタD73」が当該評価関数に入力された時に当該評価関数の出力値がより高くなるように、「行動を規定するパラメタD73」を学習する(ステップS63)。学習手法としては、たとえば焼きなまし法(Simulated Annealing;SA)や遺伝的アルゴリズム(Genetic Algorithm;GA)などの最適化手法、強化学習や機械学習などが用いられる。
その後、行動学習部13は、記憶部10bに記憶された学習回数Nを、インクリメントする(ステップS64)。
次に、行動学習部13は、記憶部10bに記憶された学習回数Nが所定値(たとえば100)の倍数であるか否かを判断する(ステップS65)。学習回数が所定値(たとえば100)の倍数ではない場合(ステップS65:NO)、行動学習部13は、ステップ63に戻って、「行動を規定するパラメタD73」の最適化(すなわち、学習)を繰り返す。
学習回数が所定値(たとえば100)の倍数である場合(ステップS65:YES)、ステップS55の学習工程を終了する。
ステップS55の学習工程が終了した後、図7に示すように、アニメーション生成部14は、形態記憶部16に記憶されたキャラクタが、行動学習部13が学習した行動(すなわち行動学習部13の学習結果である「行動を規定するパラメタD73」)に従って動いているアニメーション21を生成して、表示部10cに表示する(ステップS56)。
パラメタ設定部11は、表示部10cでのアニメーション21の表示中に、物理的なパラメタD72についての新たな入力を受け付けるユーザインターフェース(GUI)22、24aおよび24bを、表示部10cに表示する。
制御部10aは、表示部10cでのアニメーション21の表示中に、入力部10dからユーザインターフェース(GUI)22、24aおよび24bを介して新たな入力があるか否かを判断する(ステップS57)。物理的なパラメタD72についての新たな入力がない場合(ステップS57:NO)、制御部10aは、ステップS54に戻って行動の学習をやり直す。
物理的なパラメタD72についての新たな入力がある場合(ステップS57:YES)、パラメタ設定部11は、当該新たな入力に応じて、記憶部10bに記憶された物理的な
パラメタD72を再設定する(ステップS58)。その後、制御部10aは、ステップS54に戻って行動の学習をやり直す。
ステップS54において、学習回数Nが予め定められた最大回数に至った場合(ステップS54:NO)、制御部10aは、一連の処理を終了する。
以上のような本実施の形態によれば、パラメタ設定部11および目標設定部12により、キャラクタの1つ以上の部位の物理的なパラメタD72と行動の目標とが設定され、行動学習部13により、設定されたパラメタと目標に基づいてキャラクタの行動が自動的に学習されるため、キャラクタのモーションを生成するために各部位の動き方を一つ一つ手作業で設定したり専門家を対象としたソフトウェアを使用して設定したりといった専門的で複雑な作業が不要であり、かつ、異なるモーションを大量に生成することが容易である。
また、本実施の形態によれば、学習した行動に従って動いているアニメーションの表示中に、その動きがユーザの所望するものでなければ、ユーザはパラメタ設定部11からパラメタについての新たな入力を行うだけで、キャラクタの行動の学習を容易にやり直すことができる。これを装置側から見れば、本件装置は学習成果についてその場でユーザからフィードバックをもらうことができる。これにより、キャラクタのパラメタがユーザと装置との間で対話的・双方向的に調整されるので、専門知識を有していないユーザであっても、キャラクタにおいて所望のモーションを容易に作成することができる。すなわち、専門家でなくても人工知能(AI)の力を借りてクリエイティブになることができる。
また、本実施の形態によれば、パラメタ設定部11は、表示部10cでのアニメーションの表示中に、パラメタD72についての複数の入力候補の数値を表示して選択を受け付けるユーザインターフェース22を、表示部10cに表示し、選択された数値でパラメタD72を再設定するようになっているため、表示部10cでのアニメーションの表示中に、キャラクタの動きがユーザの所望するものでなければ、ユーザは、表示部10cに表示されたユーザインターフェース22において入力候補の数値を選択するという直感的な操作を行うだけで、キャラクタの行動の学習を容易にやり直すことができる。
また、本実施の形態によれば、パラメタ設定部11は、表示部10cでのアニメーションの表示中に、表示中のアニメーションの評価に対応する複数の選択肢を表示して選択を受け付けるユーザインターフェース24a、24bを、表示部に表示し、選択結果に応じてパラメタD72を再設定するようになっているため、表示部10cでのアニメーションの表示中に、キャラクタの動きがユーザの所望するものでなければ、ユーザは、表示部に表示されたユーザインターフェース24a、24bにおいてその動きの評価に対応する選択肢を選択するという直感的な操作を行うだけで、キャラクタの行動の学習を容易にやり直すことができる。
また、本実施の形態によれば、目標設定部12は、目標についての複数の入力候補を表示して選択を受け付けるユーザインターフェース23を、表示部10cに表示するようになっているため、ユーザは、表示部10cに表示されたユーザインターフェース23から直感的に操作するだけで、キャラクタの行動の目標を容易に設定することができる。
また、本実施の形態によれば、人工生物情報取得部15が、データベース3に予め記憶された複数のキャラクタの中から一のキャラクタの形態に関する情報D71を取得するため、モーション生成の対象とするキャラクタを、ユーザの好みに応じて、別のキャラクタと容易に交換することができる。
なお、本実施の形態による情報処理装置10は、コンピュータシステムによって構成され得るが、コンピュータシステムに情報処理装置10を実現させるためのプログラム、および当該プログラムを記録した記録媒体も、本件の保護対象である。
また、本実施の形態による情報処理装置10により生成された行動を行うように設定されたキャラクタ(すなわち行動学習部13により最適化された「行動を規定するパラメタD73」を設定されたキャラクタ)も、本件保護対象である。
また、本実施の形態による情報処理装置10に用いられるキャラクタのデータ構造であって、パラメタ設定部11により設定されるべき物理的なパラメタ(および行動学習部13により学習(最適化)されるべき「行動を規定するパラメタD73」)を備えたキャラクタのデータ構造(図9参照)も、本件発明の保護対象である。
1 情報処理システム
2 ネットワーク
3 データベース
10 情報処理装置
10a 制御部
10b 記憶部
10c 表示部
10d 入力部
10e 通信部
11 パラメタ設定部
12 目標設定部
13 行動学習部
14 アニメーション生成部
15 人工生物情報取得部
16 形状記憶部
21 アニメーション
22 パラメタ入力用ユーザインターフェース
23 目標入力用ユーザインターフェース
24a 評価入力用ユーザインターフェース
24b 評価入力用ユーザインターフェース
26 ポイント
30 キャラクタ(人工生物)
31 キャラクタ画像表示部
32a 戻るボタン
32b 進むボタン
33 決定ボタン
34 キャラクタ名称表示部
35 キャラクタ説明表示部

Claims (14)

  1. 人工生物の1つ以上の部位に設定する物理的なパラメタについての入力を受け付けるパラメタ設定部と、
    前記パラメタ設定部に対する入力に応じて設定されたパラメタに基づいて、前記人工生物の行動を学習する行動学習部と、
    前記行動学習部が学習した行動に従って前記人工生物が動いているアニメーションを生成して表示部に表示するアニメーション生成部と、
    を備え、
    前記パラメタ設定部は、前記表示部での前記アニメーションの表示中に、前記パラメタについての新たな入力を受け付け可能であり、
    前記行動学習部は、前記パラメタ設定部が新たな入力を受け付けると、当該新たな入力に応じて再設定されるパラメタに基づいて、前記人工生物の行動の学習をやり直す
    ことを特徴とする情報処理装置。
  2. 前記パラメタ設定部は、前記表示部での前記アニメーションの表示中に、前記パラメタについての複数の入力候補の数値を表示して選択を受け付けるユーザインターフェースを、前記表示部に表示し、選択された数値で前記パラメタを再設定する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記パラメタ設定部は、前記表示部での前記アニメーションの表示中に、表示中のアニメーションの評価に対応する複数の選択肢を表示して選択を受け付けるユーザインターフェースを、前記表示部に表示し、選択結果に応じて前記パラメタを再設定する
    ことを特徴とする請求項1に記載の情報処理装置。
  4. 前記人工生物の行動に設定する目標についての入力を受け付ける目標設定部を更に備え、
    前記行動学習部は、前記パラメタ設定部に対する入力に応じて設定されたパラメタと、前記目標設定部に対する入力に応じて設定された目標に基づいて、前記人工生物の行動を学習する
    ことを特徴とする請求項1〜3のいずれかに記載の情報処理装置。
  5. 前記目標設定部は、前記目標についての複数の入力候補を表示して選択を受け付けるユーザインターフェースを、前記表示部に表示する
    ことを特徴とする請求項4に記載の情報処理装置。
  6. 前記目標についての入力候補は、移動速度を最大化する、ジャンプの高さを最大化する、物体を叩きつける力を最大化する、片足でバランスをとる時間を最大化する、逆立ちでバランスをとる時間を最大化する、からなる群のうちいずれか1つまたは2つ以上の目標を含む
    ことを特徴とする請求項5に記載の情報処理装置。
  7. 前記パラメタは、当該部位の重さ、当該部位を動かす力の最大値、当該部位を動かす速度の最大値、姿勢維持力、当該部位の摩擦係数、密度、当該部位に作用する重力加速度、からなる群のうちいずれか1つまたは2つ以上を含む
    ことを特徴とする請求項1〜6のいずれかに記載の情報処理装置。
  8. 人工生物の1つ以上の部位に設定する物理的なパラメタについての入力を受け付けるパラメタ設定部と、
    前記パラメタ設定部に対する入力に応じて設定されたパラメタに基づいて、前記人工生物の行動を学習する行動学習部と、
    前記行動学習部が学習した行動に従って前記人工生物が動いているアニメーションを生成して表示部に表示するアニメーション生成部と、
    を備え、
    前記パラメタ設定部は、前記表示部での前記アニメーションの表示中に、前記パラメタについての新たな入力を受け付け可能であり、
    前記行動学習部は、前記パラメタ設定部が新たな入力を受け付けると、当該新たな入力に応じて再設定されるパラメタに基づいて、前記人工生物の行動の学習をやり直す
    ことを特徴とするモーション生成装置。
  9. 人工生物の1つ以上の部位に設定する物理的なパラメタについての入力を受け付けるパラメタ設定部と、
    前記パラメタ設定部に対する入力に応じて設定されたパラメタに基づいて、前記人工生物の行動を学習する行動学習部と、
    前記行動学習部が学習した行動に従って前記人工生物が動いているアニメーションを生成して表示部に表示するアニメーション生成部と、
    を備え、
    前記パラメタ設定部は、前記表示部での前記アニメーションの表示中に、前記パラメタについての新たな入力を受け付け可能であり、
    前記行動学習部は、前記パラメタ設定部が新たな入力を受け付けると、当該新たな入力に応じて再設定されるパラメタに基づいて、前記人工生物の行動の学習をやり直す
    ことを特徴とする人工生物育成装置。
  10. パラメタ設定部が、人工生物の1つ以上の部位に設定する物理的なパラメタについての入力を受け付けるステップと、
    行動学習部が、前記パラメタ設定部に対する入力に応じて設定されたパラメタに基づいて、前記人工生物の行動を学習するステップと、
    アニメーション生成部が、前記行動学習部が学習した行動に従って前記人工生物が動いているアニメーションを生成して表示部に表示するステップと、
    前記表示部での前記アニメーションの表示中に、前記パラメタ設定部が、前記パラメタについての新たな入力を受け付けると、前記行動学習部が、当該新たな入力に応じて再設定されるパラメタに基づいて、前記人工生物の行動の学習をやり直すステップと、
    を備えたことを特徴とする情報処理方法。
  11. コンピュータに、
    パラメタ設定部が、人工生物の1つ以上の部位に設定する物理的なパラメタについての入力を受け付けるステップと、
    行動学習部が、前記パラメタ設定部に対する入力に応じて設定されたパラメタ基づいて、前記人工生物の行動を学習するステップと、
    アニメーション生成部が、前記行動学習部が学習した行動に従って前記人工生物が動いているアニメーションを生成して表示部に表示するステップと、
    前記表示部での前記アニメーションの表示中に、前記パラメタ設定部が、前記パラメタについての新たな入力を受け付けると、前記行動学習部が、当該新たな入力に応じて再設定されるパラメタに基づいて、前記人工生物の行動の学習をやり直すステップと、
    を実行させるためのプログラム。
  12. 人工生物の1つ以上の部位に設定する物理的なパラメタについての入力を受け付けるパラメタ設定部に対する入力に応じて設定されたパラメタに基づいて、前記人工生物の行動を学習する行動学習部と、
    前記行動学習部が学習した行動に従って前記人工生物が動いているアニメーションを生成して表示部に表示するアニメーション生成部と、
    を備え、
    前記パラメタ設定部は、前記表示部での前記アニメーションの表示中に、前記パラメタについての新たな入力を受け付け可能であり、
    前記行動学習部は、前記パラメタ設定部が新たな入力を受け付けると、当該新たな入力に応じて再設定されるパラメタに基づいて、前記人工生物の行動の学習をやり直す
    ことを特徴とする情報処理装置。
  13. 行動学習部が、人工生物の1つ以上の部位に設定する物理的なパラメタについての入力を受け付けるパラメタ設定部に対する入力に応じて設定されたパラメタに基づいて、前記人工生物の行動を学習するステップと、
    アニメーション生成部が、前記行動学習部が学習した行動に従って前記人工生物が動いているアニメーションを生成して表示部に表示するステップと、
    前記表示部での前記アニメーションの表示中に、前記パラメタ設定部が、前記パラメタについての新たな入力を受け付けると、前記行動学習部が、当該新たな入力に応じて再設定されるパラメタに基づいて、前記人工生物の行動の学習をやり直すステップと、
    を備えたことを特徴とする情報処理方法。
  14. コンピュータに、
    行動学習部が、人工生物の1つ以上の部位に設定する物理的なパラメタについての入力を受け付けるパラメタ設定部に対する入力に応じて設定されたパラメタに基づいて、前記人工生物の行動を学習するステップと、
    アニメーション生成部が、前記行動学習部が学習した行動に従って前記人工生物が動いているアニメーションを生成して表示部に表示するステップと、
    前記表示部での前記アニメーションの表示中に、前記パラメタ設定部が、前記パラメタについての新たな入力を受け付けると、前記行動学習部が、当該新たな入力に応じて再設定されるパラメタに基づいて、前記人工生物の行動の学習をやり直すステップと、
    を実行させるためのプログラム。

JP2018026779A 2018-02-19 2018-02-19 情報処理装置、情報処理方法およびプログラム Active JP6735780B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018026779A JP6735780B2 (ja) 2018-02-19 2018-02-19 情報処理装置、情報処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018026779A JP6735780B2 (ja) 2018-02-19 2018-02-19 情報処理装置、情報処理方法およびプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016234817A Division JP6295313B1 (ja) 2016-12-02 2016-12-02 情報処理装置、情報処理方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2018092653A JP2018092653A (ja) 2018-06-14
JP2018092653A5 JP2018092653A5 (ja) 2019-07-25
JP6735780B2 true JP6735780B2 (ja) 2020-08-05

Family

ID=62563726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018026779A Active JP6735780B2 (ja) 2018-02-19 2018-02-19 情報処理装置、情報処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP6735780B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102611126B1 (ko) * 2021-04-09 2023-12-06 한양대학교 산학협력단 강화학습모델을 이용한 보행 동작 정보 출력 방법 및 서비스 장치

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3629088B2 (ja) * 1996-03-15 2005-03-16 株式会社東芝 人体コンピュータグラフィクス制御装置及びその制御方法
JP2007048143A (ja) * 2005-08-11 2007-02-22 Tokyo Institute Of Technology 3次元物体モデルの動作生成方法
JP6091407B2 (ja) * 2013-12-18 2017-03-08 三菱電機株式会社 ジェスチャ登録装置

Also Published As

Publication number Publication date
JP2018092653A (ja) 2018-06-14

Similar Documents

Publication Publication Date Title
CN111260762B (zh) 一种动画实现方法、装置、电子设备和存储介质
EP3939010B1 (en) Reinforcement learning to train a character using disparate target animation data
Mordatch et al. Discovery of complex behaviors through contact-invariant optimization
CN110827383B (zh) 三维模型的姿态模拟方法、装置、存储介质和电子设备
Carlson et al. Scuddle: Generating Movement Catalysts for Computer-Aided Choreography.
US20230334744A1 (en) Method and apparatus for generating walk animation of virtual role, device and storage medium
JP6779941B2 (ja) 格闘ゲームの学習装置および学習プログラム
CN106660209A (zh) 智能机器人控制系统、方法及智能机器人
JP6295313B1 (ja) 情報処理装置、情報処理方法およびプログラム
JP6735780B2 (ja) 情報処理装置、情報処理方法およびプログラム
Kang et al. Finite state machine-based motion-free learning of biped walking
Rodrigues et al. A serious game to improve posture and spinal health while having fun
Wu et al. Adaptive stiffness control of passivity-based biped robot on compliant ground using double deep Q network
Hettiarachchi et al. An evolutionary computational approach to humanoid motion planning
CN103729491A (zh) 用于对身体创建动画的系统和方法
JP6876072B2 (ja) ビデオゲーム処理プログラム、ビデオゲーム処理装置、ビデオゲーム処理方法及び学習用プログラム
JP2012247953A (ja) プログラム、情報記憶媒体、情報処理システム及び情報処理方法
JP2021111043A (ja) クライミング支援装置、コンピュータプログラム、クライミング支援方法、学習モデル生成方法及び表示システム
JP2018092653A5 (ja)
CN116617663B (zh) 动作指令生成方法和装置、存储介质和电子设备
Zhu et al. Deep neuro-evolution: Evolving neural network for character locomotion controller
KR102490429B1 (ko) 사용자 체력 레벨별 난이도 조절이 가능한 게임 컨텐츠를 제공하는 전자 장치의 제어 방법
Parnichkun et al. Reil: A framework for reinforced intervention-based imitation learning
Dorer et al. Humanoid Adult Size Champion 2021 Sweaty
Canaan Games as co-creative cooperative systems

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190617

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200630

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200714

R150 Certificate of patent or registration of utility model

Ref document number: 6735780

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250