JP6692481B1 - コンピュータプログラム、情報処理方法および情報処理システム - Google Patents

コンピュータプログラム、情報処理方法および情報処理システム Download PDF

Info

Publication number
JP6692481B1
JP6692481B1 JP2019113999A JP2019113999A JP6692481B1 JP 6692481 B1 JP6692481 B1 JP 6692481B1 JP 2019113999 A JP2019113999 A JP 2019113999A JP 2019113999 A JP2019113999 A JP 2019113999A JP 6692481 B1 JP6692481 B1 JP 6692481B1
Authority
JP
Japan
Prior art keywords
information
avatar
character
acquired
acquisition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019113999A
Other languages
English (en)
Other versions
JP2021002087A (ja
Inventor
宗一郎 高桑
宗一郎 高桑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2019113999A priority Critical patent/JP6692481B1/ja
Application granted granted Critical
Publication of JP6692481B1 publication Critical patent/JP6692481B1/ja
Publication of JP2021002087A publication Critical patent/JP2021002087A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 動画配信において異なるデータの内容が要求されるシステム間の連携をスムーズに行うことができる情報処理システム、情報処理方法およびコンピュータプログラムを提供する。【解決手段】 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信するためのコンピュータプログラムであって、一又は複数のコンピュータプロセッサに、キャラクタの第一の部位に関する第一の部位情報を含む第一のアバタ情報を取得する取得機能と、取得機能により取得された第一の部位情報に基づいて、第一のアバタ情報に含まれないキャラクタの第二の部位に関する第二の部位情報を特定する特定機能と、取得機能により取得された第一の部位情報、および、特定機能により特定された第二の部位情報に基づいて、第二のアバタ情報を生成する生成機能とを実現させることを特徴とする。【選択図】 図6

Description

本発明は、コンピュータプログラム、情報処理方法および情報処理システムに関する。
従来から、配信ユーザの動きに基づいてキャラクタオブジェクトのアニメーションを生成し、かかるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システムが知られている。このような動画配信システムは、例えば、特許文献1および非特許文献1に開示されている。
また、最近では、異なる動画配信プラットフォームにおいても共通の3Dデータを用いてキャラクタオブジェクトを使用可能するための、特定のファイルフォーマットが提供され始めている(非特許文献2)。
特開2015−184689号公報
長谷川 雄介,ヴァーチャルアイドル新時代の幕開けPROJECT MariA,CG WORLD,日本,株式会社ボーンデジタル,2017年11月10日,第231巻,pp.74−79 "VRM 3D Humanoid Avatar format for VR"、一般社団法人 VRMコンソーシアム、[令和1年5月20日検索]、インターネット<https://vrm.dev/>
しかしながら、異なる動画配信プラットフォーム間で、上述した特定のファイルフォーマットで作成された共通の3Dデータを使用可能ではあったとしても、求められるデータの内容が異なれば、キャラクタオブジェクトを生成するための情報が不足する可能性がある。
その場合、3Dデータの不足部分を新たに作成するという作業が必要となるため、配信者の他の動画配信プラットフォームでも配信しようという意欲が削がれてしまうという問題がある。
そのため、本開示の目的は、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することである。本開示のより具体的な目的の一つは、動画配信において異なるデータの内容が要求されるシステム間の連携をスムーズに行うことができる情報処理システム、情報処理方法およびコンピュータプログラムを提供することである。
本発明のコンピュータプログラムは、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信するためのコンピュータプログラムであって、一又は複数のコンピュータプロセッサに、キャラクタの第一の部位に関する第一の部位情報を含む第一のアバタ情報を取得する取得機能と、取得機能により取得された第一の部位情報に基づいて、第一のアバタ情報に含まれないキャラクタの第二の部位に関する第二の部位情報を特定する特定機能と、取得機能により取得された第一の部位情報、および、特定機能により特定された第二の部位情報に基づいて、第二のアバタ情報を生成する生成機能とを実現させることを特徴とする。
特定機能は、第一の部位情報に対応付けられた一以上の第二の部位情報を抽出し、当該抽出された一以上の第二の部位情報に対するユーザの選択情報に基づいて、一の第二の部位情報を特定することができる。
取得機能は、一以上の装着オブジェクト情報が関連付けられた第一の部位情報を含む第一のアバタ情報を取得し、
特定機能は、一以上の装着オブジェクト情報に基づいて、第二の部位に関連付けられる一以上の装着オブジェクト情報を含む第二の部位情報を特定することができる。
第一のアバタ情報は、所定の情報処理端末が備えるフェイシャルキャプチャ機能により取得される、アクターの顔部のモーション情報に基づいて、少なくとも顔部が動作するアバタを生成するための情報とすることができる。
第二のアバタ情報は、所定の情報処理装置が備えるモーションキャプチャ機能により取得される、アクターの全身のモーション情報に基づいて、全身が動作するアバタを生成するための情報とすることができる。
本発明のコンピュータプログラムは、一又は複数のコンピュータに、さらに、キャラクタが番組に出演する際に要求されるアバタ情報の種類を取得する種類取得機能を実現させ、種類取得機能により取得された種類が第二のアバタ情報の種類である場合に、生成機能が第二のアバタ情報を生成することができる。
本発明のコンピュータプログラムは、一又は複数のコンピュータに、さらに、第二のアバタ情報が既に生成されているか否かを判断する判断機能を実現させ、判断機能による判断の結果、第二のアバタ情報が未だ生成されていない場合であって、種類取得機能により取得された種類が第二のアバタ情報の種類である場合に、生成機能が第二のアバタ情報を生成することができる。
特定機能は、取得機能により取得された第一の部位情報と対になる第二の部位情報を特定することができる。
本発明の情報処理方法は、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信するための情報処理方法であって、一又は複数のコンピュータプロセッサに、キャラクタの第一の部位に関する第一の部位情報を含む第一のアバタ情報を取得する取得ステップと、取得ステップにおいて取得された第一の部位情報に基づいて、第一のアバタ情報に含まれないキャラクタの第二の部位に関する第二の部位情報を特定する特定ステップと、取得ステップにおいて取得された第一の部位情報、および、特定ステップにおいて特定された第二の部位情報に基づいて、第二のアバタ情報を生成する生成ステップとを実行させることを特徴とする。
本発明の情報処理システムは、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムであって、一又は複数のコンピュータプロセッサを備え、一又は複数のコンピュータプロセッサは、キャラクタの第一の部位に関する第一の部位情報を含む第一のアバタ情報を取得する取得部と、取得部が取得した第一の部位情報に基づいて、第一のアバタ情報に含まれないキャラクタの第二の部位に関する第二の部位情報を特定する特定部と、取得部が取得し第一の部位情報、および、特定部が特定し第二の部位情報に基づいて、第二のアバタ情報を生成する生成部とを備えることを特徴とする。
本発明によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。本発明によれば、動画配信において異なるデータの内容が要求されるシステム間の連携をスムーズに行うことができる。
本発明の情報処理システムの一例を示すシステム構成図である。 本発明の情報処理システムが連携可能な情報処理システムの一例を示すシステム構成図である。 モバイル配信の配信画面のイメージを示した概念図である。 スタジオ配信の配信画面のイメージを示した概念図である。 本発明の実施形態にかかる情報処理装置の機能構成を示す構成図である。 キャラクタの上半身に対応付けられる装着オブジェクトのイメージを示した概念図である。 キャラクタの下半身に対応付けられる装着オブジェクトのイメージを示した概念図である。 装着オブジェクトとコーディネートポイントのデータテーブルの一例を示したものである。 装着オブジェクトの優先度のデータテーブルを示したものである。 本発明の他の実施形態にかかる情報処理装置の機能構成を示す構成図である。 本発明の実施形態にかかる情報処理装置のハードウェア構成の一例を示す構成図である。 本発明の実施形態にかかる情報処理方法のフローの一例を示すフロー図である。 本発明の実施形態にかかるコンピュータプログラムの機能構成を実現するための回路の一例を示す回路構成図である。
初めに、本発明の情報処理システムの概要について図面を参照しながら説明する。
本発明の実施形態に係る情報処理システムは、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムであって、一又は複数のコンピュータプロセッサを備える。
<システム構成>
図1に一例として示されるように、情報処理システム100は、1以上の視聴ユーザ端末200、および、これら視聴ユーザ端末200とネットワーク300を介して接続される、動画の配信スタジオ等に配置された情報処理装置(サポートコンピュータ)400を含むことができる。
また、当該情報処理装置400は、インターネットを介してサーバ装置500(図示せず)と接続され、後述する情報処理装置400で行われるべき処理の一部を当該サーバ装置500で行うものとしてもよい。
本明細書において、かかる情報処理システム100による配信を、スタジオ配信と呼ぶものとする。
スタジオ配信において、配信ユーザ(アクター)の全身の動きは、配信ユーザに取り付けられたマーカをスタジオに備え付けられたカメラで撮影し、既知のモーションキャプチャ技術を用いてリアルタイムでキャラクタに反映させるものとする。
また、本発明の情報処理システム100は、図2に一例として示される別の情報処理システム10と連携することができる。図2に示される情報処理システム10は、配信ユーザ端末20、1以上の視聴ユーザ端末30、および、これら配信ユーザ端末20および視聴ユーザ端末30とネットワーク40を介して接続される情報処理装置(サーバ装置)50を含むことができる。
上記の例において、配信ユーザ端末20はスマートフォン等の情報処理端末とすることができる。本明細書において、かかる情報処理システム10による配信を、モバイル配信と呼ぶものとする。
モバイル配信において、配信ユーザの顔の動きは、配信ユーザの顔を配信ユーザの情報処理端末が備えるカメラで撮影し、既知のフェイストラッキング技術を用いてリアルタイムでキャラクタの顔に反映させるものとする。
上記情報処理システム100および情報処理システム10により生成される動画は、一例として、一の動画配信プラットフォームから、視聴ユーザへ配信することができる。
ここで、一例として、一般の配信ユーザは、上記動画配信プラットフォームにおいて、情報処理システム10によるモバイル配信を行うことのみが許可されているものとする。図3に示すように、モバイル配信において配信ユーザのキャラクタは上半身のみが表示され、下半身は表示されない。そのため、必要とされるキャラクタの3Dデータは上半身のデータだけである。
なお、ここでいう上半身とは少なくとも脚部を含まないという意味であり、図3に示されるように、腰部や尻部が含まれていてもよい。
一方、公式の配信ユーザは、上記動画配信プラットフォームにおいて、情報処理システム100によるスタジオ配信を行うことが許可されているものとする。ここでいう公式の配信ユーザとは、動画配信プラットフォームの運営者が定める公式番組に出演するキャラクタのアクターを意味するものとする。
図4に示すように、スタジオ配信において配信ユーザのキャラクタは全身が表示される。そのため、必要とされるキャラクタの3Dデータは全身のデータである。
なお、本実施形態においては、モバイル配信とスタジオ配信とが共通の動画配信プラットフォームにおいて実現し、これら配信間の連携について説明を行うが、本発明は、別々の動画配信プラットフォームにおける配信間の連携についても適用が可能である。かかる場合において、動画の配信形式(例えば、モバイル配信かスタジオ配信か)については何ら限定されない。
ここで、上記動画配信プラットフォームにおいて、一般の配信ユーザがスタジオ配信を行う場合がある。
一例として、動画配信プラットフォームの運営者は、一般の配信ユーザに対して、「公式番組デビューイベント」を開催することができる。イベントの内容については説明を省略するが、例えば、視聴ユーザからもらったギフトをイベントスコアに換算して順位を競うイベントとすることができる。そして、この「公式番組デビューイベント」で勝ち抜いたランキング上位3名の一般の配信ユーザのキャラクタは、公式番組に出演する権利(すなわち、スタジオ配信を行う権利)を獲得するものとする。なお、この権利を獲得する配信ユーザの数は3名に限られるものではない。
本実施形態における情報処理システム100では、配信ユーザのイベント成績をデータとして保持し、その上位者についてフラグ付けを行うものとする。そして、公式番組出演に際して必要となる、フラグ付けされた上位者のキャラクタの全身の3Dデータ(後述する第二のアバタ情報)を生成するものとする。
通常、一般の配信ユーザは、スタジオ配信のためのキャラクタの全身の3Dデータが用意されていない。一般の配信ユーザは、予め用意されたキャラクタのパーツ(体型、肌色、髪型等)や装着アイテム(洋服、アクセサリ等)を自由に組み合わせて自身のオリジナルキャラクタの上半身の3Dデータを生成し、これを使用してモバイル配信を行っており、このような多種多様なオリジナルキャラクタの全身の3Dデータを予め用意しておくことは膨大な作業が必要となり現実的ではないためである。
そこで、本発明における上記一又は複数のコンピュータプロセッサは、図5に示すように、取得部410と、特定部420と、生成部430とを備える。
取得部410は、第一のアバタ情報を取得する。
第一のアバタ情報は、キャラクタの第一の部位に関する第一の部位情報を含むものであって、一例として、モバイル配信で求められる内容の3Dデータとする。
キャラクタは、複数の部位で構成されるものとする。キャラクタは、上半身および下半身という2つの部位で構成されてもよいし、頭部、首部、胸部、肩部、腕部、胴部、脚部等のより細かな部位で構成されるものとしてもよい。
そして、第一の部位は、上記部位の少なくとも一つの部位とする。また、第一の部位情報は、第一の部位の性別情報、色情報および/またはサイズ情報等を含むものとする。また、第一の部位情報は、第一の部位に関連付けられた装着オブジェクトの情報を含んでもよい。第一の部位に関連付けられた装着オブ得ジェクトとは、洋服、アクセサリおよび/または小物等のアイテムとすることができる。
特定部420は、取得部410により取得された第一の部位情報に基づいて、第二の部位情報を特定する。一例として、第一の部位情報に含まれる性別情報、色情報および/またはサイズ情報に基づいて、同一の性別情報、色情報および/またはサイズ情報を含む第二の部位情報を特定する。第二の部位情報の特定の方法のバリエーションについては後述する。
第二の部位情報は、第一のアバタ情報に含まれないキャラクタの第二の部位に関するものである。また、第二の部位情報は、第二の部位の性別情報、色情報および/またはサイズ情報等を含むものとする。なお、詳細は後述するが、第二の部位情報は、第二の部位に関連付けられた装着オブジェクトの情報を含んでもよい。第二の部位に関連付けられた装着オブジェクトとは、洋服、アクセサリおよび/または小物等のアイテムとすることができる。
一例として、第一の部位が上半身である場合には、第二の部位は下半身である。
そして、生成部430は、取得部410により取得された第一の部位情報、および、特定部420により特定された第二の部位情報に基づいて、第二のアバタ情報を生成する。
一例として、第二のアバタ情報は、上半身に関する情報である第一の部位情報、および、下半身に関する第二の部位情報に基づいて生成されるキャラクタの全身の3Dデータである。そして、一例として、この全身の3Dデータはスタジオ配信で求められる内容の3Dデータである。
以上の構成によれば、第一のアバタ情報から第二のアバタ情報を自動的に生成することができる。これにより、動画配信において異なるデータの内容が要求されるシステム間の連携をスムーズに行うことができる。
例えば、上述したようなイベントにおいて、一般の配信ユーザ用のモバイル配信用のキャラクタの上半身の3Dデータから、スタジオ配信用のキャラクタの全身の3Dデータを容易に生成することができるため、配信ユーザおよび/または運営者の作業負担を軽減することができる。
また、上述したように、第一のアバタ情報は、所定の情報処理端末が備えるフェイシャルキャプチャ機能により取得される、アクターの顔部のモーション情報に基づいて、少なくとも顔部が動作するアバタを生成するための情報とすることができる。
同様に、第二のアバタ情報は、所定の情報処理装置が備えるモーションキャプチャ機能により取得される、アクターの全身のモーション情報に基づいて、全身が動作するアバタを生成するための情報とすることができる。
また、取得部410は、一以上の装着オブジェクト情報が関連付けられた第一の部位情報を含む第一のアバタ情報を取得する。
図6に示すように、第一のアバタ情報により表示されるキャラクタは、通常は裸ではなく洋服を着用した状態で表示される。第一のアバタ情報が含むのは第一の部位情報に関連付けられた装着オブジェクト情報であるので、第一の部位が上半身である場合には、少なくともトップスの情報を含む。
また、第一のアバタ情報は、装着オブジェクト情報として、トップスであるTシャツ、ジャケット、頭部に装着されるカチューシャ、帽子、眼鏡、イヤリング、あるいは、腕部に装着されるブレスレット、時計、指に装着される指輪などを含んでもよい。
そして、特定部420は、一以上の装着オブジェクト情報に基づいて、第二の部位に関連付けられる一以上の装着オブジェクト情報を含む第二の部位情報を特定することができる。
図7に示すように、第二のアバタ情報により表示されるキャラクタは、通常は裸ではなく洋服を着用した状態で表示される。それ故に、上半身と下半身の装着オブジェクトのコーディネートが重要となる。
一例として、あるトップスと対になるボトムスとを対応付けたコーディネート情報を記憶しておき、この情報を用いて、第一の部位に関連付けられる一以上の装着オブジェクト情報に基づいて、第二の部位に関連付けられる一以上の装着オブジェクト情報を決定することができる。
すなわち、コーディネート情報は、装着オブジェクトと、当該装着オブジェクトとコーディネート可能な他の装着オブジェクトと対応付けて管理するものである。なお、この対応付けは一対一の関係であってもでもよいし、一対複数、複数対複数の関係であってもよい。
対応付けが一対一である場合には、特定部420は、取得部410により取得された第一の部位情報と対になる第二の部位情報を特定することができる。
これは、トップスとボトムスがセパレートされないワンピース、浴衣、水着、サロペットの洋服、トップスとボトムスが上下セットである制服やスーツなどの場合に有効な特定方法である。
また、対応付けが一対複数または複数対複数の場合には、特定部420は、取得部410により取得された第一の部位情報と対応付けられた第二の部位情報を特定することができる。
例えば、トップスAにはボトムスa,ボトムスb,ボトムスc,ボトムスdが対応付けられる。このとき、これら複数のボトムスにはトップスAとのコーディネートポイントが定められていてもよい。図8は、本発明の情報処理システム100が備える記憶部または外部の記憶装置が備える装着オブジェクトとコーディネートポイントのデータテーブルを示したものである。
このように、一の装着オブジェクトに複数の装着オブジェクトが対応付けられる場合には、コーディネートポイントにより優先度を定め、最上位の装着オブジェクトが決定され、この装着オブジェクトが関連付けられた第二の部位情報が特定されるものとしてもよい。最上位の装着オブジェクトが複数ある場合には、ランダムで一の装着オブジェクトが決定されるものとしてもよい。
また、対応付けが一対複数または複数対複数の場合には、特定部420は、第一の部位情報に対応付けられた一以上の第二の部位情報を抽出し、当該抽出された一以上の第二の部位情報に対するユーザの選択情報に基づいて、一の第二の部位情報を特定することができる。
例えば、図8の例では、複数のボトムスのそれぞれが関連付けられた第二の部情報の全てが情報処理端末の表示画面に表示され、表示された中からユーザが一の第二の部位情報を選択するものであってもよい。
ここでいうユーザは、アクターである配信ユーザまたは運営者とすることができる。
これにより、ユーザは複数提示されたボトムスの中から好みのボトムスを装着した下半身を選ぶことができるようになり、キャラクタのコーディネートの自由度を高めることができる。
また、第一の部位情報に複数の装着オブジェクトが関連付けられている場合には、装着オブジェクトの予め定められた優先度に基づいて、第二の部位情報を特定することができる。図9は、本発明の情報処理システム100が備える記憶部または外部の記憶装置が備える、装着オブジェクトの優先度のデータテーブルを示したものである。
図9の例では、複数の装着オブジェクトの中で最も優先度の高いトップスに対応付けられたボトムスが関連付けられた第二の部位情報が特定される。この優先度は、装着オブジェクトのキャラクタのコーディネートに与える印象の度合いに基づいて定められることができる。
また、本発明の情報処理システム100は、図10に示されるように、さらに、種類取得部440を備えることができる。
種類取得部440は、キャラクタが番組に出演する際に要求されるアバタ情報の種類を取得するものである。
アバタ情報の種類とは、アバタ情報のデータ形式の種類などとすることができる。データ形式は、VRアプリケーション向けの人型3Dアバタ(3Dモデル)データを扱うためのファイルフォーマットであるVRMと呼ばれるファイルフォーマットの形式とすることができる。
そして、種類取得部440により取得された種類が第二のアバタ情報の種類である場合に、生成部430が第二のアバタ情報を生成することができる。
上記では、第一のアバタ情報の種類のうち、データ形式の種類は同一であるものとして説明を行った。すなわち、第二のアバタ情報は、第一のアバタ情報に不足している情報を生成するだけで生成されるものである。そのため、種類取得部440は、要求されるアバタ情報の種類が、本発明により生成可能な第二のアバタ情報の種類(データ形式)であることを確認し、第二のアバタ情報を生成することができる。
また、本発明の情報処理システム100は、さらに、判断部450を備えることができる。
判断部450は、第二のアバタ情報が既に生成されているか否かを判断するものである。
そして、判断部450による判断の結果、第二のアバタ情報が未だ生成されていない場合であって、種類取得部440により取得された種類が第二のアバタ情報の種類である場合に、生成部430が第二のアバタ情報を生成することができる。
以上、記載した実施形態によれば、一例としてVRMを利用して、モバイル配信で利用しているアバタ(上半身のみ)に基づいて、スタジオ配信用の全身アバタを自動的に生成することで、ユーザの手間をかけずスムーズにスタジオ配信(例えば公式番組)へ対応することができる。
例えば、上半身のアバタデータからその他のパーツのアバタ情報を自動的に決定したり、上半身のアバタデータにマッチする他のパーツのアバタ情報の候補をプレイヤーに提示したりしても良い。これにより、スタジオ配信とモバイル配信の両方に対応しているVtuberアプリケーションへの活用が期待される。
<ハードウェア構成>
ここで、図11を用いて、情報処理システム100に含まれる情報処理装置400のハードウェア構成について説明する。情報処理装置400は、プロセッサ401と、メモリ402と、ストレージ403と、入出力インタフェース(入出力I/F)404と、通信インタフェース(通信I/F)405とを含む。各構成要素は、バスBを介して相互に接続される。
情報処理装置400は、プロセッサ401と、メモリ402と、ストレージ403と、入出力I/F404と、通信I/F405との協働により、本実施形態に記載される機能、方法を実現することができる。
プロセッサ401は、ストレージ403に記憶されるプログラムに含まれるコード又は命令によって実現する機能、及び/又は、方法を実行する。プロセッサ401は、例えば、中央処理装置(CPU)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ(microprocessor)、プロセッサコア(processor core)、マルチプロセッサ(multiprocessor)、ASIC(Application-Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等を含み、集積回路(IC(Integrated Circuit)チップ、LSI(Large Scale Integration))等に形成された論理回路(ハードウェア)や専用回路によって各実施形態に開示される各処理を実現してもよい。また、これらの回路は、1又は複数の集積回路により実現されてよく、各実施形態に示す複数の処理を1つの集積回路により実現されることとしてもよい。また、LSIは、集積度の違いにより、VLSI、スーパーLSI、ウルトラLSI等と呼称されることもある。
メモリ402は、ストレージ403からロードしたプログラムを一時的に記憶し、プロセッサ401に対して作業領域を提供する。メモリ402には、プロセッサ401がプログラムを実行している間に生成される各種データも一時的に格納される。メモリ402は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)等を含む。
ストレージ403は、プログラムを記憶する。ストレージ403は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等を含む。
通信I/F405は、ネットワークアダプタ等のハードウェアや通信用ソフトウェア、及びこれらの組み合わせとして実装され、ネットワーク600を介して各種データの送受信を行う。当該通信は、有線、無線のいずれで実行されてもよく、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。通信I/F405は、ネットワーク600を介して、他の情報処理装置との通信を実行する。通信I/F405は、各種データをプロセッサ401からの指示に従って、他の情報処理装置に送信する。また、通信I/F405は、他の情報処理装置から送信された各種データを受信し、プロセッサ401に伝達する。
入出力I/F404は、情報処理装置400に対する各種操作を入力する入力装置、及び、情報処理装置400で処理された処理結果を出力する出力装置を含む。入出力I/F404は、入力装置と出力装置が一体化していてもよいし、入力装置と出力装置とに分離していてもよい。
入力装置は、ユーザからの入力を受け付けて、当該入力に係る情報をプロセッサ401に伝達できる全ての種類の装置のいずれか、又は、その組み合わせにより実現される。入力装置は、例えば、タッチパネル、タッチディスプレイ、キーボード等のハードウェアキーや、マウス等のポインティングデバイス、カメラ(画像を介した操作入力)、マイク(音声による操作入力)を含む。
出力装置は、プロセッサ401で処理された処理結果を出力する。出力装置は、例えば、タッチパネル、スピーカ等を含む。なお、視聴ユーザ端末200も特筆すべき場合を除き、図11と同様のハードウェア構成で構成されることができる。
続いて、本発明の実施形態に係る情報処理方法の一例について説明する。
本発明の情報処理方法は、図12に示されるように、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムにおける情報処理方法であって、一又は複数のコンピュータプロセッサに、取得ステップS110と、特定ステップS120と、生成ステップS130とを実行させる。
取得ステップS110は、キャラクタの第一の部位に関する第一の部位情報を含む第一のアバタ情報を取得する。取得ステップS110は、上述した取得部410により実行されることができる。
特定ステップS120は、取得ステップにおいて取得された第一の部位情報に基づいて、第一のアバタ情報に含まれないキャラクタの第二の部位に関する第二の部位情報を特定する。特定ステップS120は、上述した特定部420により実行されることができる。
生成ステップS130は、取得ステップにおいて取得された第一の部位情報、および、特定ステップにおいて特定された第二の部位情報に基づいて、第二のアバタ情報を生成する。生成ステップS130は、上述した生成部430により実行されることができる。
以上の構成によれば、第一のアバタ情報から第二のアバタ情報を自動的に生成することができる。これにより、動画配信において異なるデータの内容が要求されるシステム間の連携をスムーズに行うことができる。
最後に、本発明のコンピュータプログラムについて説明を行う。
本発明のコンピュータプログラムは、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信するためのコンピュータプログラムであって、一又は複数のコンピュータプロセッサに、取得機能と、特定機能と、生成機能とを実現させる。
取得機能は、キャラクタの第一の部位に関する第一の部位情報を含む第一のアバタ情報を取得する。
特定機能は、取得機能により取得された第一の部位情報に基づいて、第一のアバタ情報に含まれないキャラクタの第二の部位に関する第二の部位情報を特定する。
生成機能は、取得機能により取得された第一の部位情報、および、特定機能により特定された第二の部位情報に基づいて、第二のアバタ情報 を生成する。
上記取得機能、特定機能および生成機能は、図13に示す取得回路1410、特定回路1420および生成回路1430により実現されることができる。取得回路1410、特定回路1420および生成回路1430は、それぞれ上述した取得部410、特定部420および生成部430により実現されるものとする。各部の詳細については上述したとおりである。
以上の構成によれば、第一のアバタ情報から第二のアバタ情報を自動的に生成することができる。これにより、動画配信において異なるデータの内容が要求されるシステム間の連携をスムーズに行うことができる。
また、上述した実施形態に係るサーバ装置又は端末装置として機能させるために、コンピュータ又は携帯電話などの情報処理装置を好適に用いることができる。このような情報処理装置は、実施形態に係るサーバ装置又は端末装置の各機能を実現する処理内容を記述したプログラムを、情報処理装置の記憶部に格納し、情報処理装置のCPUによって当該プログラムを読み出して実行させることによって実現可能である。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
また、実施形態に記載した手法は、計算機(コンピュータ)に実行させることができるプログラムとして、例えば磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD、MO等)、半導体メモリ(ROM、RAM、フラッシュメモリ等)等の記録媒体に格納し、また通信媒体により伝送して頒布することもできる。なお、媒体側に格納されるプログラムには、計算機に実行させるソフトウェア手段(実行プログラムのみならずテーブルやデータ構造も含む)を計算機内に構成させる設定プログラムをも含む。本装置を実現する計算機は、記録媒体に記録されたプログラムを読み込み、また場合により設定プログラムによりソフトウェア手段を構築し、このソフトウェア手段によって動作が制御されることにより上述した処理を実行する。なお、本明細書でいう記録媒体は、頒布用に限らず、計算機内部あるいはネットワークを介して接続される機器に設けられた磁気ディスクや半導体メモリ等の記憶媒体を含むものである。記憶部は、例えば主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してもよい。
100 情報処理システム
200 視聴ユーザ端末
300 ネットワーク
400 情報処理装置
410 取得部
420 特定部
430 生成部
440 種類取得部
450 判断部


Claims (10)

  1. 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信するためのコンピュータプログラムであって、一又は複数のコンピュータプロセッサに、
    キャラクタの第一の部位に関する第一の部位情報を含む第一のアバタ情報を取得する取得機能と、
    前記取得機能により取得された前記第一の部位情報に基づいて、前記第一のアバタ情報に含まれない前記キャラクタの第二の部位に関する第二の部位情報を特定する特定機能と、
    前記取得機能により取得された前記第一の部位情報、および、前記特定機能により特定された前記第二の部位情報に基づいて、第二のアバタ情報を生成する生成機能と
    を実現させ
    前記取得機能は、一以上の装着オブジェクト情報が関連付けられた第一の部位情報を含む第一のアバタ情報を取得し、
    前記特定機能は、前記一以上の装着オブジェクト情報に基づいて、前記第二の部位に関連付けられる一以上の装着オブジェクト情報を含む前記第二の部位情報を特定する、コンピュータプログラム。
  2. 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信するためのコンピュータプログラムであって、一又は複数のコンピュータプロセッサに、
    前記キャラクタオブジェクトの生成に要求されるアバタ情報の種類を取得する種類取得機能と、
    前記種類取得機能により取得された種類が、キャラクタの第一の部位に関する第一の部位情報、および、前記キャラクタの第二の部位に関する第二の部位情報に基づいて生成されるアバタ情報の種類である場合に、当該アバタ情報が既に生成されているか否かを判断する判断機能と、
    前記キャラクタの第一の部位に関する第一の部位情報を含む第一のアバタ情報を取得する取得機能と、
    前記判断機能による判断の結果、前記アバタ情報が未だ生成されていない場合に、前記取得機能により取得された前記第一の部位情報に基づいて、前記第一のアバタ情報に含まれない前記第二の部位情報を特定する特定機能と、
    前記取得機能により取得された前記第一の部位情報、および、前記特定機能により特定された前記第二の部位情報に基づいて、前記種類取得機能により取得された種類と同種の第二のアバタ情報を生成する生成機能と
    を実現させる、コンピュータプログラム。
  3. 前記特定機能は、前記第一の部位情報に対応付けられた一以上の第二の部位情報を抽出し、当該抽出された一以上の第二の部位情報に対するユーザの選択情報に基づいて、一の第二の部位情報を特定することを特徴とする請求項1または2に記載のコンピュータプログラム。
  4. 前記第一のアバタ情報は、所定の情報処理端末が備えるフェイシャルキャプチャ機能により取得される、アクターの顔部のモーション情報に基づいて、少なくとも顔部が動作するアバタを生成するための情報であることを特徴とする請求項1から3のいずれか一項に記載のコンピュータプログラム。
  5. 前記第二のアバタ情報は、所定の情報処理装置が備えるモーションキャプチャ機能により取得される、アクターの全身のモーション情報に基づいて、全身が動作するアバタを生成するための情報であることを特徴とする請求項1から4のいずれか一項に記載のコンピュータプログラム。
  6. 前記特定機能は、前記取得機能により取得された前記第一の部位情報と対になる前記第二の部位情報を特定することを特徴とする請求項1から5のいずれか一項に記載のコンピュータプログラム。
  7. 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信するための情報処理方法であって、一又は複数のコンピュータプロセッサに、
    キャラクタの第一の部位に関する第一の部位情報を含む第一のアバタ情報を取得する取得ステップと、
    前記取得ステップにおいて取得された前記第一の部位情報に基づいて、前記第一のアバタ情報に含まれない前記キャラクタの第二の部位に関する第二の部位情報を特定する特定ステップと、
    前記取得ステップにおいて取得された前記第一の部位情報、および、前記特定ステップにおいて特定された前記第二の部位情報に基づいて、第二のアバタ情報を生成する生成ステップと
    を実行させ
    前記取得ステップでは、一以上の装着オブジェクト情報が関連付けられた第一の部位情報を含む第一のアバタ情報を取得し、
    前記特定ステップでは、前記一以上の装着オブジェクト情報に基づいて、前記第二の部位に関連付けられる一以上の装着オブジェクト情報を含む前記第二の部位情報を特定する、情報処理方法。
  8. 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信するための情報処理方法であって、一又は複数のコンピュータプロセッサに、
    前記キャラクタオブジェクトの生成に要求されるアバタ情報の種類を取得する種類取得ステップと、
    前記種類取得ステップにおいて取得された種類が、キャラクタの第一の部位に関する第一の部位情報、および、前記キャラクタの第二の部位に関する第二の部位情報に基づいて生成されるアバタ情報の種類である場合に、当該アバタ情報が既に生成されているか否かを判断する判断ステップと、
    前記第一の部位情報を含む第一のアバタ情報を取得する取得ステップと、
    前記判断ステップにおける判断の結果、前記アバタ情報が未だ生成されていない場合に、前記取得ステップにおいて取得された前記第一の部位情報に基づいて、前記第一のアバタ情報に含まれない前記キャラクタの第二の部位に関する前記第二の部位情報を特定する特定ステップと、
    前記取得ステップにおいて取得された前記第一の部位情報、および、前記特定ステップにおいて特定された前記第二の部位情報に基づいて、前記種類取得ステップにおいて取得された種類と同種の第二のアバタ情報を生成する生成ステップと
    を実行させる、情報処理方法。
  9. 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムであって、一又は複数のコンピュータプロセッサを備え、
    前記一又は複数のコンピュータプロセッサは、
    キャラクタの第一の部位に関する第一の部位情報を含む第一のアバタ情報を取得する取得部と、
    前記取得部が取得した前記第一の部位情報に基づいて、前記第一のアバタ情報に含まれない前記キャラクタの第二の部位に関する第二の部位情報を特定する特定部と、
    前記取得部が取得し前記第一の部位情報、および、前記特定部が特定し前記第二の部位情報に基づいて、第二のアバタ情報を生成する生成部と
    を備え
    前記取得部は、一以上の装着オブジェクト情報が関連付けられた第一の部位情報を含む第一のアバタ情報を取得し、
    前記特定部は、前記一以上の装着オブジェクト情報に基づいて、前記第二の部位に関連付けられる一以上の装着オブジェクト情報を含む前記第二の部位情報を特定する情報処理システム。
  10. 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムであって、一又は複数のコンピュータプロセッサを備え、
    前記一又は複数のコンピュータプロセッサは、
    前記キャラクタオブジェクトの生成に要求されるアバタ情報の種類を取得する種類取得部と、
    前記種類取得部において取得された種類が、キャラクタの第一の部位に関する第一の部位情報、および、前記キャラクタの第二の部位に関する第二の部位情報に基づいて生成されるアバタ情報の種類である場合に、当該アバタ情報が既に生成されているか否かを判断する判断部と、
    前記第一の部位情報を含む第一のアバタ情報を取得する取得部と、
    前記判断部における判断の結果、前記アバタ情報が未だ生成されていない場合に、前記取得部において取得された前記第一の部位情報に基づいて、前記第一のアバタ情報に含まれない前記キャラクタの第二の部位に関する前記第二の部位情報を特定する特定部と、
    前記取得部において取得された前記第一の部位情報、および、前記特定部において特定された前記第二の部位情報に基づいて、前記種類取得部により取得された種類と同種の第二のアバタ情報を生成する生成部と
    を備える情報処理システム。
JP2019113999A 2019-06-19 2019-06-19 コンピュータプログラム、情報処理方法および情報処理システム Active JP6692481B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019113999A JP6692481B1 (ja) 2019-06-19 2019-06-19 コンピュータプログラム、情報処理方法および情報処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019113999A JP6692481B1 (ja) 2019-06-19 2019-06-19 コンピュータプログラム、情報処理方法および情報処理システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020072537A Division JP7220173B2 (ja) 2020-04-14 2020-04-14 コンピュータプログラム、情報処理方法および情報処理システム

Publications (2)

Publication Number Publication Date
JP6692481B1 true JP6692481B1 (ja) 2020-05-13
JP2021002087A JP2021002087A (ja) 2021-01-07

Family

ID=70549726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019113999A Active JP6692481B1 (ja) 2019-06-19 2019-06-19 コンピュータプログラム、情報処理方法および情報処理システム

Country Status (1)

Country Link
JP (1) JP6692481B1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022147658A (ja) * 2021-03-23 2022-10-06 株式会社Jvcケンウッド 3次元モデル生成装置、3次元モデル生成方法およびプログラム
JP7223241B1 (ja) 2022-07-13 2023-02-16 株式会社Mixi 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015184689A (ja) * 2014-03-20 2015-10-22 株式会社Mugenup 動画生成装置及びプログラム
JP6491388B1 (ja) * 2018-08-28 2019-03-27 グリー株式会社 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム

Also Published As

Publication number Publication date
JP2021002087A (ja) 2021-01-07

Similar Documents

Publication Publication Date Title
US11256901B2 (en) Image information processing method and apparatus, and computer storage medium
US10699461B2 (en) Telepresence of multiple users in interactive virtual space
US20180365904A1 (en) Systems And Methods For Providing Real-Time Composite Video From Multiple Source Devices Featuring Augmented Reality Elements
CN114303120A (zh) 虚拟键盘
WO2019154339A1 (zh) 特效程序文件包的生成及特效生成方法与装置、电子设备
WO2022105846A1 (zh) 虚拟对象显示方法及装置、电子设备、介质
CN106873767B (zh) 一种虚拟现实应用的运行控制方法和装置
US20190126152A1 (en) Emoji-based communications derived from facial features during game play
JP2021149407A (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
KR102034838B1 (ko) 영상 통화 서비스를 제공하는 단말과 서버
WO2019114328A1 (zh) 一种基于增强现实的视频处理方法及其装置
CN113362263B (zh) 变换虚拟偶像的形象的方法、设备、介质及程序产品
US20140022238A1 (en) System for simulating user clothing on an avatar
US12108106B2 (en) Video distribution device, video distribution method, and video distribution process
JP6692481B1 (ja) コンピュータプログラム、情報処理方法および情報処理システム
JP2018151966A (ja) 情報処理装置及びプログラム
JP7370525B2 (ja) 動画配信システム、動画配信方法および動画配信プログラム
CN114049468A (zh) 一种展示方法、装置、设备及存储介质
JP7220173B2 (ja) コンピュータプログラム、情報処理方法および情報処理システム
WO2023035725A1 (zh) 虚拟道具展示方法及装置
US12062122B2 (en) System and method for user virtual object controlling other virtual objects triggering predetermined animations
JP6804781B1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
US20240233274A9 (en) Electronic device and method for displaying modification of virtual object and method thereof
JP2005196670A (ja) 携帯端末装置及びオブジェクト生成方法
KR20240109157A (ko) 가상 공간에서 컨텐츠를 제공하는 전자 장치 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190619

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190619

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190703

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191125

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200414

R150 Certificate of patent or registration of utility model

Ref document number: 6692481

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250