JP6900419B2 - 動画配信システム、動画配信方法および動画配信プログラム - Google Patents

動画配信システム、動画配信方法および動画配信プログラム Download PDF

Info

Publication number
JP6900419B2
JP6900419B2 JP2019074594A JP2019074594A JP6900419B2 JP 6900419 B2 JP6900419 B2 JP 6900419B2 JP 2019074594 A JP2019074594 A JP 2019074594A JP 2019074594 A JP2019074594 A JP 2019074594A JP 6900419 B2 JP6900419 B2 JP 6900419B2
Authority
JP
Japan
Prior art keywords
character object
distribution
moving image
displayed
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019074594A
Other languages
English (en)
Other versions
JP2020173582A (ja
Inventor
夏子 串田
夏子 串田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2019074594A priority Critical patent/JP6900419B2/ja
Publication of JP2020173582A publication Critical patent/JP2020173582A/ja
Priority to JP2021099547A priority patent/JP7098026B2/ja
Application granted granted Critical
Publication of JP6900419B2 publication Critical patent/JP6900419B2/ja
Priority to JP2022038581A priority patent/JP7370525B2/ja
Priority to JP2023174008A priority patent/JP2023181219A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、動画配信システム、動画配信方法および動画配信プログラムに関し、特に、明細書における開示は、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム、動画配信方法および動画配信プログラムに関する。
従来から、アクターの動きに基づいてキャラクタオブジェクトのアニメーションを生成し、かかるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システムが知られている。このような動画配信システムは、例えば、特許文献1に開示されている。
コンテンツを視聴する視聴ユーザからの要求に応じて、当該視聴ユーザが購入したアイテムに対応するギフトオブジェクトを表示画面に表示させるコンテンツ配信システムも知られている。例えば、特許文献2に開示されている動画配信システムでは、視聴ユーザは、ギフトアイテムを購入し、この購入したギフトアイテムをパフォーマー(コンテンツ配信者)に対してギフトとして提供することができる。
特開2015−184689号公報 特開2012−120098号公報
このような動画配信に用いられるキャラクタオブジェクトは、アクター(配信ユーザ)により動画配信の前に予め設定されるのが一般的であるが、視聴ユーザのギフトを提供する意欲を向上させるべく、動画配信中であってもキャラクタオブジェクトを変更したいという要望が出てきている。
しかしながら、動画配信中にキャラクタオブジェクトを変更する場合、アクターのアクトへの集中力が低下してしまうおそれがある。
その場合、動画内容のクオリティが下がり、視聴ユーザの視聴意欲が低下してしまうおそれがある。
本開示の目的は、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することである。本開示のより具体的な目的の一つは、アクターのアクトへの集中力を低下させることなく、キャラクタオブジェクトを、他のキャラクタオブジェクトに変更することができる動画配信システム、動画配信方法および動画配信プログラムを提供することである。
本発明の実施形態に係る動画配信システムは、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システムであって、一又は複数のコンピュータプロセッサを備え、一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、ユーザの操作による、1以上のボディパーツおよび1以上の装着パーツで構成されるキャラクタオブジェクトがそれぞれ対応付けられた複数のスロットの設定を受け付ける機能と、ユーザの操作により指定された、複数のスロットの中の一のスロットに対応付けられた一のキャラクタオブジェクトのアニメーションを含む動画を配信する機能とを実現させ、動画を配信する機能は、動画の配信中に所定の条件が満たされた場合に、動画に含まれるキャラクタオブジェクトを、一のキャラクタオブジェクトから、複数のスロットの中の他のスロットに対応付けられた他のキャラクタオブジェクトに変更することを特徴とする。
所定の条件の充足は、ユーザおよび/または視聴ユーザの操作、動作、音声の少なくとも一つに基づいて判断されることができる。
動画を配信している際のユーザ用の画面には、キャラクタオブジェクトを切り替えるためのGUIが表示され、所定の条件の充足は、GUIに対する操作があったか否かにより判断されることができる。
所定の条件の充足は、視聴ユーザによるギフティングの数が所定数以上であるか否かにより判断されることができる。
所定の条件の充足は、視聴ユーザの数が所定数以上であるか否かにより判断されることができる。
動画を配信する前のユーザ用の画面には、少なくともキャラクタオブジェクトと第一のGUIと第二のGUIが表示される表示画面が表示され、第一のGUIは、動画の配信を開始するためのGUIであり、第二のGUIは、ボディパーツおよび装着パーツの一覧画面の表示を開始するためのGUIであり、一覧画面は、表示画面の少なくとも一部に重畳して表示されることができる。
一覧画面は、第三のGUIおよび第四のGUIを含み、第三のGUIは、ボディパーツおよび装着パーツのカテゴリを示し、かつ、所定の第一の方向に表示内容をスライド可能なGUIであり、第四のGUIは、カテゴリ毎に属するボディパーツおよび装着パーツを示し、かつ、第一の方向とは異なる第二の方向に表示内容をスライド可能なGUIとすることができる。
表示画面には、第三のGUIが重畳して表示され、第三のGUIに対する所定のユーザ操作があった場合に、さらに第四のGUIを表示画面に重畳して表示させることができる。
動画の配信が開始されているか否かを問わず、表示画面に表示されるキャラクタオブジェクトの少なくとも顔部分は、ユーザの顔部分がキャプチャされることができる。
動画の配信中であっても、動画に含まれるキャラクタオブジェクトを、一のキャラクタオブジェクトから、複数のスロットの中の他のスロットに対応付けられた他のキャラクタオブジェクトに変更している最中は、表示画面に表示されるキャラクタオブジェクトの少なくとも顔部分は、ユーザの顔部分がキャプチャされないものとすることができる。
動画の配信前であっても、一覧画面が表示されている間は、表示画面に表示されるキャラクタオブジェクトの少なくとも顔部分は、ユーザの顔部分がキャプチャされないものとすることができる。
本発明の実施形態に係る動画配信方法は、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信方法であって、ユーザの操作による、1以上のボディパーツおよび1以上の装着パーツで構成されるキャラクタオブジェクトがそれぞれ対応付けられた複数のスロットの設定を受け付ける工程と、ユーザの操作により指定された、複数のスロットの中の一のスロットに対応付けられた一のキャラクタオブジェクトのアニメーションを含む動画を配信する工程とを備え、動画を配信する工程は、動画の配信中に所定の条件が満たされた場合に、動画に含まれるキャラクタオブジェクトを、一のキャラクタオブジェクトから、複数のスロットの中の他のスロットに対応付けられた他のキャラクタオブジェクトに変更することを特徴とする。
本発明の実施形態に係る動画配信プログラムは、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信プログラムであって、一又は複数のコンピュータプロセッサに、ユーザの操作による、1以上のボディパーツおよび1以上の装着パーツで構成されるキャラクタオブジェクトがそれぞれ対応付けられた複数のスロットの設定を受け付ける工程と、ユーザの操作により指定された、複数のスロットの中の一のスロットに対応付けられた一のキャラクタオブジェクトのアニメーションを含む動画を配信する工程とを実現させ、動画を配信する工程は、動画の配信中に所定の条件が満たされた場合に、動画に含まれるキャラクタオブジェクトを、一のキャラクタオブジェクトから、複数のスロットの中の他のスロットに対応付けられた他のキャラクタオブジェクトに変更することを特徴とする。
本発明の動画配信システム、動画配信方法および動画配信プログラムによれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。また、本発明の動画配信システム、動画配信方法および動画配信プログラムによれば、アクターのアクトへの集中力を低下させることなく、キャラクタオブジェクトを、他のキャラクタオブジェクトに変更することができる。
本発明の一実施形態係る動画配信システムのシステム構成を示すシステム構成図である。 本発明の一実施形態係る配信ユーザ用端末の構成を示すブロック図である。 配信アプリにより表示される表示画面の一例を示すイメージ図である。 配信アプリにより表示される表示画面の一例を示すイメージ図である。 配信アプリにより表示される表示画面の一例を示すイメージ図である。 配信アプリにより表示される表示画面の一例を示すイメージ図である。 配信アプリにより表示される表示画面の一例を示すイメージ図である。 配信アプリにより表示される表示画面の一例を示すイメージ図である。 配信アプリにより表示される表示画面の一例を示すイメージ図である。 配信アプリにより表示される表示画面の一例を示すイメージ図である。 配信アプリにより表示される表示画面の一例を示すイメージ図である。 配信アプリにより表示される表示画面の一例を示すイメージ図である。 配信アプリにより表示される表示画面の一例を示すイメージ図である。 配信アプリにより表示される表示画面の一例を示すイメージ図である。 本発明の一実施形態係るサーバ装置、配信ユーザ用端末および視聴ユーザ用端末のハードウェア構成を示すブロック図である。 本発明の一実施形態に係る動画配信処理の流れを示すフロー図である。 本発明の一実施形態に係るキャラクタオブジェクトを変更する処理の流れを示すフロー図である。 配信アプリにより表示される表示画面の一例を示すイメージ図である。 配信アプリにより表示される表示画面の一例を示すイメージ図である。
初めに、本発明の動画配信システムの概要について図面を参照しながら説明する。
本発明の動画配信システムは、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システムである。
図1に示されるように、本発明の動画配信システム100は、一例として、サーバ装置200と、配信ユーザ用端末300と、1以上の視聴ユーザ用端末400とで構成される。
配信ユーザ用端末300は、一例として図2に示されるように、表情解析部310、生成部320、受付部330、動画配信部340および変更部350を備え、配信ユーザの表情を認識するフェイシャルキャプチャ機能を実現可能なスマートフォンやタブレット等の情報処理端末とすることができる。具体的には、フェイシャルキャプチャ機能は、表情解析部310により実現されることができる。なお、視聴ユーザ用端末300に関しては、かかるフェイシャルキャプチャ機能を備えることは必須ではない。
キャラクタオブジェクトは、配信ユーザ用端末300で実行される専用アプリケーション(以下、「配信アプリ」という。)において、フェイシャルキャプチャ機能により配信ユーザの表情が表現される顔、および、少なくとも胴体の一部を有するオブジェクトである。すなわち、このキャラクタオブジェクトには、全身を表したもののみならず、上半身のみを表したものも含まれる。なお、顔以外の部位についても、配信ユーザの動きを認識するモーションキャプチャ機能により配信ユーザの動きが表示されるものとしてもよい。
そして、このキャラクタオブジェクトは、1以上のボディパーツおよび1以上の装着パーツで構成される。これらボディパーツおよび装着パーツは、サーバ装置200が備えるストレージにおいてそれぞれ識別番号と対応付けて記憶される。
ボディパーツは、例えば、目、眉、鼻、口、ホクロおよび化粧などのパーツである。化粧には、チーク、アイシャドウおよび口紅など、さらに細分化されたパーツが含まれる。また、これらのパーツには、色のみが異なる色違いパーツが存在する。
装着パーツは、例えば、アクセサリ、洋服および靴などのパーツをいう。洋服には、トップス、ボトムスおよび靴下などさらに細分化されたパーツが含まれる。また、これらのパーツには、色のみが異なる色違いパーツが存在する。
そして、配信ユーザは、配信アプリの初回起動時に、自身のアバタとなるキャラクタオブジェクトを作成する。図3〜図6は、配信ユーザ用端末300における配信アプリの初回起動時の画面30の遷移の一例を示したイメージ図である。
初めに、配信ユーザ用端末300の画面30には、図3に示されるように、キャラクタオブジェクトの作成を開始する画面が表示される。なお、図3に示されるように、初回起動時に生成されたキャラクタオブジェクトは後から変更することが可能である。
そして、図4に示されるように、カテゴリ(図4ではA〜D)ごとに表示される1以上のボディパーツおよび1以上の装着パーツの中から所定のパーツ(図4ではパーツa1)を指定し、かつ、指定したパーツに対するカラー(図4ではカラーCL2)を選択することで、選択されたカラーCL2の指定されたパーツa1で構成されるキャラクタオブジェクトCOを作成する。なお、各パーツを指定する毎にキャラクタオブジェクトCOの表示は対応して変化する。なお、基本的に各カテゴリでは少なくとも1つのパーツが指定されるが、必須ではないカテゴリのパーツがあってもよい。
そして、図5では一例として右上に示される決定ボタン33が選択されると、この段階で画面30に表示されたキャラクタオブジェクトCOが初期キャラクタオブジェクトとして作成される。また、図6に示されるように、パーツの一覧の表示は画面30から一時的に消すこともでき、配信ユーザは、キャラクタオブジェクトCOの全体を確認しながら各パーツを指定することができる。
これらボディパーツおよび装着パーツの組み合わせは、各パーツの種類および色の掛け合わせにより無限に近い。そのため、配信ユーザは、膨大なパーツの組み合わせを試しながら、自身の希望するキャラクタオブジェクトを熟考して作成することになる。
初期キャラクタオブジェクト作成後の配信アプリのトップ画面35には、図7に一例として示されるように、少なくとも動画配信開始ボタン36およびクローゼットボタン37が表示される。図7では、さらに、配信アプリの詳細設定を行う設定ボタン38が表示されている。
動画配信開始ボタン36が選択されると、表示されているキャラクタオブジェクトCOを使用した動画の配信が開始される。動画配信の詳細については後述する。
クローゼットボタン37が選択されると、上述したボディパーツおよび装着パーツの一覧画面の表示が開始され、キャラクタオブジェクトCOの変更が可能となる。
なお、ここでいうキャラクタオブジェクトCOの変更は、ボディパーツの変更を行わずに単に装着パーツを変更する場合である「着替え」も含むものとする。
そして、本発明において、配信ユーザは、キャラクタオブジェクトCOを複数用意して動画配信を行うことができる。すなわち、クローゼットボタン37が選択された際のキャラクタオブジェクトCOの変更は、スロットごとに行われる。
図8に一例として示されるように、クローゼットボタン37が選択された際の画面40には、スロットを識別可能な番号が表示されたスロットボタン41〜43が表示され、このボタンを選択しスロットを切り替えることで、各スロットに対してキャラクタオブジェクトを作成し、対応づける。なお、このスロットは複数あればよく、上限値は特に定める必要はない。
図8には、スロットボタン41に対応するスロット1に対応付けられたキャラクタオブジェクトCO1が示されている。同様に、図9、図10は、それぞれスロットボタン42、スロットボタン43に対応するスロット2、スロット3に対応付けられたキャラクタオブジェクトCO2、キャラクタオブジェクトCO3が示されている。
このように、配信ユーザは、スロット毎にキャラクタオブジェクトを設定し、複数のキャラクタオブジェクトを準備して動画配信を開始することができる。かかる複数のキャラクタオブジェクトの準備は、配信ユーザ用端末300の受付部330により受け付けられた配信ユーザからの入力操作に基づいて行われる。
本発明の他の例として、配信ユーザ用端末300の受付部330により受け付けられた配信ユーザの顔写真から自動的にキャラクタオブジェクトCOが作成されるものとしてもよい。
そして、配信ユーザによる動画配信は、複数のスロットの中の一のスロットに対応付けられた一のキャラクタオブジェクトを使用して開始される。かかる動画配信は、配信ユーザ用端末300の動画配信部340により実行される。
動画配信を開始する際のスロットの指定は、動画配信を開始する際に配信ユーザに入力を求めるものであってもよいし、スロットにキャラクタオブジェクトを設定する際に、予め動画配信を開始する際に使用するスロットを指定させるものであってもよい。
そして、動画配信中の配信ユーザは、一例として図11に示されるように、画面50に表示された変更ボタン51〜53を選択することにより、使用するキャラクタオブジェクトを変更することができる。なお、ここでは変更ボタン51〜53はそれぞれスロット1〜3に対応している。かかる変更は、配信ユーザ用端末300の変更部350により実行される。
図11は、変更ボタン53に対応するスロット3に対応付けられたキャラクタオブジェクトCOを使用した例であり、どのキャラクタオブジェクトCOを使用しているか配信ユーザが認識可能に表示されている。
キャラクタオブジェクトの切り替えの際には、所定の演出効果を発生させることもできる。例えば、キャラクタオブジェクトが着替え室に入るような演出を表示したり、キャラクタオブジェクトが回転して変身するような演出を表示したりしてもよい。かかる構成は、キャラクタオブジェクトの変更処理に要する時間を視聴ユーザに感じさせないという効果を奏することができる。
以上、本発明の動画配信システムの概要について説明を行った。続いて、各構成の詳細について説明を行う。
本発明の動画配信システム100は、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システムであって、一又は複数のコンピュータプロセッサを備える。
一又は複数のコンピュータプロセッサは、上述したサーバ装置200、配信ユーザ用端末300および視聴ユーザ用端末400が備えるプロセッサとすることができる。上記装置および各端末のハードウェア構成の詳細については後述する。
そして、一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、以下の機能を実現させる。
第一に、一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、配信ユーザの操作による、1以上のボディパーツおよび1以上の装着パーツで構成されるキャラクタオブジェクトがそれぞれ対応付けられた複数のスロットの設定を受け付ける機能を実現する。かかる機能は、受付部330により実現される。受付部330の詳細については上述したとおりである。
第二に、一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、配信ユーザの操作により指定された、複数のスロットの中の一のスロットに対応付けられた一のキャラクタオブジェクトのアニメーションを含む動画を配信する機能を実現する。かかる機能は、動画配信部340により実現される。動画配信部340の詳細については後述する。
そして、動画を配信する機能は、動画の配信中に所定の条件が満たされた場合に、動画に含まれるキャラクタオブジェクトを、一のキャラクタオブジェクトから、複数のスロットの中の他のスロットに対応付けられた他のキャラクタオブジェクトに変更350する。かかる機能は、変更部350により実現される。変更部350の詳細については上述したとおりである。
以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。また、以上の構成によれば、アクターのアクトへの集中力を低下させることなく、キャラクタオブジェクトを、他のキャラクタオブジェクトに変更することができる。具体的には、動画配信中にキャラクタオブジェクトの各パーツを変更するのではなく、予め準備されたスロットを用いてキャラクタオブジェクトを変更することができるため、アクターのアクトへの集中力が維持される。
上記所定の条件の充足は、配信ユーザおよび/または視聴ユーザの操作、動作、音声の少なくとも一つに基づいて判断されることができる。
具体的には、動画を配信している際の配信ユーザ用の画面に、キャラクタオブジェクトを切り替えるためのGUIが表示され、所定の条件の充足は、GUIに対する操作があったか否かにより判断されることができる。
かかるGUIは、図11に示した画面に表示される変更ボタン51〜53とすることができる。なお、かかる変更ボタンには数字以外にもマークを表示したり、キャラクタオブジェクトそのものを縮小して表示したりすることもできる。
配信ユーザの動作とは、例えばウインクを3回するなどのフェイシャルキャプチャ機能により変更指示として認識可能な動作とすることができる。
配信ユーザの音声とは、例えば「チェンジ」などの音声認識機能により変更指示として認識可能な音声とすることができる。
あるいは、所定の条件の充足は、視聴ユーザによるギフティングの数が所定数以上であるか否かにより判断されることができる。視聴ユーザは、視聴ユーザ用端末を介して、動画に対してギフティング操作を行うことができる。かかるギフティングの数を集計し、グフティングの数が所定数以上である場合に、キャラクタオブジェクトが変更されるものとしてもよい。
あるいは、所定の条件の充足は、視聴ユーザの数が所定数以上であるか否かにより判断されるものとしてもよい。
また、視聴ユーザの動作や音声については、視聴ユーザ用端末から直接または間接的に入力された情報から取得されることができる。例えば、視聴ユーザ用端末のマイク、視聴ユーザが装着する眼鏡や所持するペンライトなどから視聴ユーザの動作や音声を取得し、所定の条件を満たした場合にキャラクタオブジェクトが変更されるものとしてもよい。
以上のように、視聴ユーザの情報からキャラクタオブジェクトを変更する場合には、視聴ユーザの動画視聴やギフティングの意欲をより向上させることが可能となる。
動画を配信する前の配信ユーザ用の画面には、少なくともキャラクタオブジェクトと第一のGUIと第二のGUIが表示される表示画面が表示され、第一のGUIは、動画の配信を開始するためのGUIであり、第二のGUIは、ボディパーツおよび装着パーツの一覧画面の表示を開始するためのGUIであり、一覧画面は、表示画面の少なくとも一部に重畳して表示されることができる。
かかるGUIの一例は図7に示される。第一のGUIは動画開始ボタン36であり、第二のGUIはクローゼットボタン37に対応する。なお、これらのGUIの配置位置は図示されたものに限られず、配信ユーザの利便性を考慮して適宜設定することができる。
そして、一覧画面の一例は図12に示される。このように、一覧画面61を表示画面60の少なくとも一部に重畳して表示することは、キャラクタオブジェクトを見ながら各パーツを見ることができるため、利便性がよい。なお、一覧画面は透過させてキャラクタオブジェクCOに重畳してもキャラクタオブジェクトが見えるようにするのが好ましい。
また、図12に示されるように、一覧画面61は、第三のGUI62および第四のGUI63を含み、第三のGUI62は、ボディパーツおよび装着パーツのカテゴリを示し、かつ、所定の第一の方向Xに表示内容をスライド可能なGUIであり、第四のGUI63は、カテゴリ毎に属するボディパーツおよび装着パーツを示し、かつ、第一の方向Xとは異なる第二の方向Yに表示内容をスライド可能なGUIとすることができる。
なお、図12において第一の方向Xは画面横方向、第二の方向Yは画面縦方向として示したが、第二の方向Yを画面横方向、第一の方向Xを画面縦方向となるようにしてもよい。かかる設定は、配信ユーザ用端末300が備える傾きセンサの機能を用いて画面の向きを判定し、利便性の高い表示となるように自動的に変更されるものとしてもよい。
また、図13に示すように、表示画面60には、第三のGUI62が重畳して表示され、第三のGUI62に対する所定の配信ユーザ操作があった場合に、さらに第四のGUI63を表示画面60に重畳して表示させるものとしてもよい。また、第三のGUI62を上方に引き出す操作により、図14に示すように、第四のGUI63は、表示画面60全体に表示されるものとしてもよい。
かかる構成により、容易に第四のGUI63の表示/非表示を操作することができる。
続いて、フェイシャルキャプチャ機能を実現する表情解析部320の詳細について説明を行う。表情解析部320は、配信ユーザ用端末300のカメラにより撮影された配信ユーザの顔の画像を分析し、配信ユーザの表情を解析する。かかる手法は特に限定されるものではなく、本願の出願時に既に公知の技術を用いることもできるし、今後開発される新たな技術を用いることもできる。
そして、動画の配信が開始されているか否かを問わず、表示画面に表示されるキャラクタオブジェクトの少なくとも顔部分は、配信ユーザの顔部分がキャプチャされるものとすることができる。
一例として、配信アプリの初回起動後であって、キャラクタオブジェクトが画面に表示されている場合には常に配信ユーザの表情がキャラクタオブジェクトの顔に表現される。
かかる構成によれば、キャラクタオブジェクトが配信ユーザの分身(アバタ)であることが配信ユーザに強く意識づけられ、動画の配信の際にクオリティの高いアクトが実現可能となる。
ただし、動画の配信前であっても、一覧画面が表示されている間は、表示画面に表示されるキャラクタオブジェクトの少なくとも顔部分は、配信ユーザの顔部分がキャプチャされない構成としてもよい。
キャラクタオブジェクトを作成している最中、すなわち、パーツを指定している最中には、自身の表情にまで気を配ることができないおそれがあるためである。
また、動画の配信中であっても、動画に含まれるキャラクタオブジェクトを、一のキャラクタオブジェクトから、複数のスロットの中の他のスロットに対応付けられた他のキャラクタオブジェクトに変更している最中は、表示画面に表示されるキャラクタオブジェクトの少なくとも顔部分は、配信ユーザの顔部分がキャプチャされないものとすることができる。
かかる構成によれば、変更処理に伴う処理負荷を考慮し、フェイシャルキャプチャによる処理負荷をなくすことができる。なお、この変更している最中には、フェイシャルキャプチャの代わりに、処理負荷の軽い上述した演出効果を発生させるのが好ましい。
続いて、サーバ装置200、配信ユーザ用端末300および視聴ユーザ用端末400のハードウェア構成について図15を参照しながら説明を行う。
図15に示すように、配信ユーザ用端末300は、プロセッサ301と、メモリ302と、ストレージ303と、入出力インタフェース(入出力I/F)304と、通信インタフェース(通信I/F)305とを含む。各構成要素は、バスBを介して相互に接続される。
配信ユーザ端末300は、プロセッサ301と、メモリ302と、ストレージ303と、入出力I/F304と、通信I/F305との協働により、本実施形態に記載される機能、方法を実現する。
プロセッサ301は、ストレージ303に記憶されるプログラムに含まれるコード又は命令によって実現する機能、及び/又は、方法を実行する。プロセッサ301は、例えば、中央処理装置(CPU)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ(microprocessor)、プロセッサコア(processor core)、マルチプロセッサ(multiprocessor)、ASIC(Application-Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等を含み、集積回路(IC(Integrated Circuit)チップ、LSI(Large Scale Integration))等に形成された論理回路(ハードウェア)や専用回路によって各実施形態に開示される各処理を実現してもよい。また、これらの回路は、1又は複数の集積回路により実現されてよく、各実施形態に示す複数の処理を1つの集積回路により実現されることとしてもよい。また、LSIは、集積度の違いにより、VLSI、スーパーLSI、ウルトラLSI等と呼称されることもある。
メモリ302は、ストレージ303からロードしたプログラムを一時的に記憶し、プロセッサ301に対して作業領域を提供する。メモリ302には、プロセッサ301がプログラムを実行している間に生成される各種データも一時的に格納される。メモリ302は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)等を含む。
ストレージ303は、プログラムを記憶する。ストレージ303は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等を含む。
通信I/F305は、ネットワークアダプタ等のハードウェアや通信用ソフトウェア、及びこれらの組み合わせとして実装され、ネットワーク400を介して各種データの送受信を行う。当該通信は、有線、無線のいずれで実行されてもよく、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。通信I/F305は、ネットワーク400を介して、他の情報処理装置との通信を実行する。通信I/F305は、各種データをプロセッサ301からの指示に従って、他の情報処理装置に送信する。また、通信I/F305は、他の情報処理装置から送信された各種データを受信し、プロセッサ301に伝達する。
入出力I/F304は、配信ユーザ端末300に対する各種操作を入力する入力装置、及び、配信ユーザ端末300で処理された処理結果を出力する出力装置を含む。入出力I/F304は、入力装置と出力装置が一体化していてもよいし、入力装置と出力装置とに分離していてもよい。
入力装置は、配信ユーザからの入力を受け付けて、当該入力に係る情報をプロセッサ301に伝達できる全ての種類の装置のいずれか、又は、その組み合わせにより実現される。入力装置は、例えば、タッチパネル、タッチディスプレイ、キーボード等のハードウェアキーや、マウス等のポインティングデバイス、カメラ(画像を介した操作入力)、音声出力装置を含むマイク(音声による操作入力)を含む。
出力装置は、プロセッサ301で処理された処理結果を出力する。出力装置は、例えば、ディスプレイやスピーカ等を含む。
なお、サーバ装置200および視聴ユーザ用端末400も上記視聴ユーザ用端末300の構成と同等であるため図示および説明は省略する。
次に、図16および図17を参照して、一態様による動画配信処理について説明する。図16は、一実施形態における動画配信処理の流れを示すフロー図であり、図17は、一実施形態における他のキャラクタオブジェクトを表示する処理の流れを示すフロー図である。
まず、ステップS11では、配信ユーザの顔の動き(表情)のデジタル表現であるフェイスモーションデータが生成される。かかるステップは、表情解析部310により実行される。
次に、ステップS12において、配信ユーザのフェイスモーションデータに基づいて、配信ユーザの表情の動きに同期して動くキャラクタオブジェクトのアニメーションが生成される。かかるステップは、生成部320により実行される。
次に、ステップS13において、配信ユーザに対応するキャラクタオブジェクトのアニメーションを含む動画を生成する。この動画には、配信ユーザの音声が合成されてもよい。キャラクタオブジェクトのアニメーションは、仮想空間内に配置されてもよい。かかるステップは、生成部320により実行される。
次に、ステップS14に移行し、ステップS13にて生成された動画が配信される。この動画は、ネットワークを介して視聴ユーザ用端末に配信される。動画は、所定の配信期間にわたって継続して配信される。動画の配信期間は、例えば、30秒間、1分間、5分間、10分、30分間、60分間、120分間、およびこれら以外の任意の時間に定め得る。かかるステップは、動画配信部340により実行される。
次に、ステップS15に進み、動画の配信を終了させるための終了条件が成就したか否かが判定される。終了条件は、例えば、配信の終了時刻に達したことなどの条件である。終了条件が成就していなければステップS11〜S14の処理が繰り返し実行され、配信ユーザの動きに同期したアニメーションを含む動画の配信が継続される。動画について終了条件が成就していると判定された場合には、当該動画の配信処理を終了する。
次に、図17をさらに参照して、動画の配信中に行われるキャラクタオブジェクトの変更処理について説明する。キャラクタオブジェクトの変更処理は、図16に示した動画の配信処理と並行して行われる。
動画の配信中に、ステップS21において、キャラクタオブジェクトの変更要求がなされたか否かが判定される。
キャラクタオブジェクトの変更要求がなされた場合には、当該表示処理はステップS22に進む。ステップS22においては、当該変更要求に基づいて、表示が要求された他のキャラクタオブジェクトを配信中の動画に表示させるための処理が行われる。
キャラクタオブジェクトの変更要求がなされていない場合には、変更処理は行われない。
続いて、本発明の実施形態に係る動画配信方法について説明する。
本発明の動画配信方法は、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信方法であって、以下の工程110〜130を備える。
工程110は、配信ユーザの操作による、1以上のボディパーツおよび1以上の装着パーツで構成されるキャラクタオブジェクトがそれぞれ対応付けられた複数のスロットの設定を受け付ける。かかる工程110は、上述した受付部330により実行されることができる。
工程120は、配信ユーザの操作により指定された、複数のスロットの中の一のスロットに対応付けられた一のキャラクタオブジェクトのアニメーションを含む動画を配信する。かかる工程120は、上述した表情解析部310、生成部320および動画配信部340により実行されることができる。
そして、工程120は、動画の配信中に所定の条件が満たされた場合に、動画に含まれるキャラクタオブジェクトを、一のキャラクタオブジェクトから、複数のスロットの中の他のスロットに対応付けられた他のキャラクタオブジェクトに変更する(工程130)ことを特徴とする。かかる工程120は、上述した変更部350により実行されることができる。
以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。また、本発明の動画配信システム、動画配信方法および動画配信プログラムによれば、アクターのアクトへの集中力を低下させることなく、キャラクタオブジェクトを、他のキャラクタオブジェクトに変更することができる。
最後に、本発明の実施形態に係る動画配信プログラムについて説明する。
本発明の動画配信プログラムは、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信プログラムであって、一又は複数のコンピュータプロセッサに、以下の工程110〜130を実現させる。
工程110は、配信ユーザの操作による、1以上のボディパーツおよび1以上の装着パーツで構成されるキャラクタオブジェクトがそれぞれ対応付けられた複数のスロットの設定を受け付ける。かかる工程110は、上述した受付部330により実行されることができる。
工程120は、配信ユーザの操作により指定された、複数のスロットの中の一のスロットに対応付けられた一のキャラクタオブジェクトのアニメーションを含む動画を配信する。かかる工程120は、上述した表情解析部310、生成部320および動画配信部340により実行されることができる。
そして、工程120は、動画の配信中に所定の条件が満たされた場合に、動画に含まれるキャラクタオブジェクトを、一のキャラクタオブジェクトから、複数のスロットの中の他のスロットに対応付けられた他のキャラクタオブジェクトに変更する(工程130)ことを特徴とする。かかる工程120は、上述した変更部350により実行されることができる。
以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。また、本発明の動画配信システム、動画配信方法および動画配信プログラムによれば、アクターのアクトへの集中力を低下させることなく、キャラクタオブジェクトを、他のキャラクタオブジェクトに変更することができる。
本発明の実施形態は、上述した実施形態に限定されるものではなく、その要旨を逸脱しない範囲内で様々な変更が可能である。上述した例では、配信ユーザは自宅で自身のスマートフォンを用いて動画を配信する例を想定したが、配信スタジオにおいて動画を配信する場合にも適用可能である。その場合には、顔だけではなく身体もモーションキャプチャされたキャラクタオブジェクトが作成され、使用される。また、キャラクタオブジェクトの変更指示は、配信ユーザのみならず、補助者により行われるものであってもよい。
また、上述した実施形態に係るサーバ装置又は端末装置として機能させるために、コンピュータ又は携帯電話などの情報処理装置を好適に用いることができる。このような情報処理装置は、実施形態に係るサーバ装置又は端末装置の各機能を実現する処理内容を記述したプログラムを、情報処理装置の記憶部に格納し、情報処理装置のCPUによって当該プログラムを読み出して実行させることによって実現可能である。
また、上述したとおり、動画を配信する機能における所定の条件の充足は、配信ユーザおよび/または視聴ユーザの操作、動作、音声の少なくとも一つに基づいて判断される点について説明したが、かかる所定の条件の内容は、予め定められているものとしてもよいし、配信ユーザにより設定されるものとしてもよい。
特に、図18に設定画面の一例が示されるように、配信ユーザは、各スロットに対して、「音声認識」「コメント」「ジェスチャ」「コメント数」「ギフティング数」などのプルダウン式の選択肢の中から所定の条件の内容を設定することができるようにしてもよい。
なお、かかる設定は、配信の開始前または配信開始後に配信を一時停止した場合に行うことができる。配信開始後の一時停止は、図19に一例として示される一時停止ボタンを選択することにより実行される。
「音声認識」を選択した場合には、配信ユーザは、任意の音声を録音して登録することができる。この場合、所定の条件の充足は、配信ユーザにより発せられた音声と登録された音声との一致率が所定値以上であることである。より詳細には、所定時間内の発生された音声と登録された音声との一致率を確認することにより、一致率が所定値以上が否かを判断する。
「コメント」を選択した場合には、配信ユーザは、特定のワードをテキストで登録することができる。この場合、所定の条件の充足は、視聴ユーザが登録されたワードをコメントすることである。
「コメント数」を選択した場合には、配信ユーザは、コメント数を登録することができる。この場合、所定の条件の充足は、視聴ユーザのコメントの総数が登録数を上回ったことである。
「ギフティング数」を選択した場合には、配信ユーザは、ギフティング数を登録することができる。この場合、所定の条件の充足は、視聴ユーザからのギフティング総数が登録数を上回ったことである。
また、これらの構成は、動画配信中に配信ユーザ側と視聴ユーザ側で表示されている画面が同じとなるために表示し辛い配信ユーザへの操作用GUIを表示させることなく、キャラクタオブジェクトの変更を行うことができるようになる。
さらに、本発明により実現される動画の生配信用のアプリケーションにおいて、配信中に生配信ならではの条件を満たすことでキャラクタオブジェクト(アバター)のビジュアルを変更できることによって、配信の臨場感を向上させ、アプリケーションの興趣性を高めることができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
また、実施形態に記載した手法は、計算機(コンピュータ)に実行させることができるプログラムとして、例えば磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD、MO等)、半導体メモリ(ROM、RAM、フラッシュメモリ等)等の記録媒体に格納し、また通信媒体により伝送して頒布することもできる。なお、媒体側に格納されるプログラムには、計算機に実行させるソフトウェア手段(実行プログラムのみならずテーブルやデータ構造も含む)を計算機内に構成させる設定プログラムをも含む。本装置を実現する計算機は、記録媒体に記録されたプログラムを読み込み、また場合により設定プログラムによりソフトウェア手段を構築し、このソフトウェア手段によって動作が制御されることにより上述した処理を実行する。なお、本明細書でいう記録媒体は、頒布用に限らず、計算機内部あるいはネットワークを介して接続される機器に設けられた磁気ディスクや半導体メモリ等の記憶媒体を含むものである。記憶部は、例えば主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してもよい。
100 動画配信システム
200 サーバ装置
300 配信ユーザ用端末
400 視聴ユーザ用端末
310 表情解析部
320 生成部
330 受付部
340 動画配信部
350 変更部

Claims (11)

  1. アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システムであって、一又は複数のコンピュータプロセッサを備え、
    前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
    配信ユーザの操作による、1以上のボディパーツおよび1以上の装着パーツで構成されるキャラクタオブジェクトがそれぞれ対応付けられた複数のスロットの設定を受け付ける機能と、
    前記配信ユーザの操作により指定された、前記複数のスロットの中の一のスロットに対応付けられた一のキャラクタオブジェクトのアニメーションを含む動画を配信する機能と
    を実現させ、
    前記動画を配信する機能は、動画の配信中に所定の条件が満たされた場合に、前記動画に含まれるキャラクタオブジェクトを、前記一のキャラクタオブジェクトから、前記複数のスロットの中の他のスロットに対応付けられた他のキャラクタオブジェクトに変更し、
    前記動画を配信する前の配信ユーザ用の画面には、少なくともキャラクタオブジェクトと前記ボディパーツおよび前記装着パーツの一覧画面の表示を開始するためのGUIが表示される表示画面が表示され、
    前記一覧画面が表示されている間は、前記表示画面に表示されるキャラクタオブジェクトの少なくとも顔部分は、前記配信ユーザの顔部分がキャプチャされない、動画配信システム。
  2. 前記所定の条件の充足は、前記配信ユーザおよび/または視聴ユーザの操作、動作、音声の少なくとも一つに基づいて判断されることを特徴とする請求項1に記載の動画配信システム。
  3. 前記動画を配信している際の配信ユーザ用の画面には、前記キャラクタオブジェクトを切り替えるためのGUIが表示され、
    前記所定の条件の充足は、前記GUIに対する操作があったか否かにより判断されることを特徴とする請求項2に記載の動画配信システム。
  4. 前記所定の条件の充足は、前記視聴ユーザによるギフティングの数が所定数以上であるか否かにより判断されることを特徴とする請求項2に記載の動画配信システム。
  5. 前記所定の条件の充足は、前記視聴ユーザの数が所定数以上であるか否かにより判断されることを特徴とする請求項2に記載の動画配信システム。
  6. 前記表示画面には、さらに、前記動画の配信を開始するためのGUIが表示され、
    前記一覧画面は、前記表示画面の少なくとも一部に重畳して表示されることを特徴とする請求項1から5のいずれか一項に記載の動画配信システム。
  7. 前記一覧画面は、
    前記ボディパーツおよび前記装着パーツのカテゴリを示し、かつ、所定の第一の方向に表示内容をスライド可能なGUIと、
    前記カテゴリ毎に属する前記ボディパーツおよび前記装着パーツを示し、かつ、前記第一の方向とは異なる第二の方向に表示内容をスライド可能なGUIと、
    を含むことを特徴とする請求項1から5のいずれか一項に記載の動画配信システム。
  8. 前記表示画面には、前記ボディパーツおよび前記装着パーツのカテゴリを示し、かつ、所定の第一の方向に表示内容をスライド可能なGUIが重畳して表示され、
    前記ボディパーツおよび前記装着パーツのカテゴリを示し、かつ、所定の第一の方向に表示内容をスライド可能なGUIに対する所定の配信ユーザの操作があった場合に、さらに前記カテゴリ毎に属する前記ボディパーツおよび前記装着パーツを示し、かつ、前記第一の方向とは異なる第二の方向に表示内容をスライド可能なGUIを前記表示画面に重畳して表示させることを特徴とする請求項7に記載の動画配信システム。
  9. 前記キャラクタオブジェクトを切り替えるためのGUIに対する操作を行っている最中は、前記表示画面に表示されるキャラクタオブジェクトの少なくとも顔部分は、前記配信ユーザの顔部分がキャプチャされないことを特徴とする請求項3に記載の動画配信システム。
  10. アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信方法であって、
    配信ユーザの操作による、1以上のボディパーツおよび1以上の装着パーツで構成されるキャラクタオブジェクトがそれぞれ対応付けられた複数のスロットの設定を受け付ける工程と、
    前記配信ユーザの操作により指定された、前記複数のスロットの中の一のスロットに対応付けられた一のキャラクタオブジェクトのアニメーションを含む動画を配信する工程と
    を備え、
    前記動画を配信する機能は、動画の配信中に所定の条件が満たされた場合に、前記動画に含まれるキャラクタオブジェクトを、前記一のキャラクタオブジェクトから、前記複数のスロットの中の他のスロットに対応付けられた他のキャラクタオブジェクトに変更し、
    前記動画を配信する前の配信ユーザ用の画面には、少なくともキャラクタオブジェクトと前記ボディパーツおよび前記装着パーツの一覧画面の表示を開始するためのGUIが表示される表示画面が表示され、
    前記一覧画面が表示されている間は、前記表示画面に表示されるキャラクタオブジェクトの少なくとも顔部分は、前記配信ユーザの顔部分がキャプチャされない、動画配信方法。
  11. アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信プログラムであって、
    一又は複数のコンピュータプロセッサに、
    配信ユーザの操作による、1以上のボディパーツおよび1以上の装着パーツで構成されるキャラクタオブジェクトがそれぞれ対応付けられた複数のスロットの設定を受け付ける工程と、
    前記配信ユーザの操作により指定された、前記複数のスロットの中の一のスロットに対応付けられた一のキャラクタオブジェクトのアニメーションを含む動画を配信する工程と
    を実現させ、
    前記動画を配信する機能は、動画の配信中に所定の条件が満たされた場合に、前記動画に含まれるキャラクタオブジェクトを、前記一のキャラクタオブジェクトから、前記複数のスロットの中の他のスロットに対応付けられた他のキャラクタオブジェクトに変更し、
    前記動画を配信する前の配信ユーザ用の画面には、少なくともキャラクタオブジェクトと前記ボディパーツおよび前記装着パーツの一覧画面の表示を開始するためのGUIが表示される表示画面が表示され、
    前記一覧画面が表示されている間は、前記表示画面に表示されるキャラクタオブジェクトの少なくとも顔部分は、前記配信ユーザの顔部分がキャプチャされない、動画配信プログラム。
JP2019074594A 2019-04-10 2019-04-10 動画配信システム、動画配信方法および動画配信プログラム Active JP6900419B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019074594A JP6900419B2 (ja) 2019-04-10 2019-04-10 動画配信システム、動画配信方法および動画配信プログラム
JP2021099547A JP7098026B2 (ja) 2019-04-10 2021-06-15 動画配信システム、動画配信方法および動画配信プログラム
JP2022038581A JP7370525B2 (ja) 2019-04-10 2022-03-11 動画配信システム、動画配信方法および動画配信プログラム
JP2023174008A JP2023181219A (ja) 2019-04-10 2023-10-06 動画配信システム、動画配信方法および動画配信プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019074594A JP6900419B2 (ja) 2019-04-10 2019-04-10 動画配信システム、動画配信方法および動画配信プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021099547A Division JP7098026B2 (ja) 2019-04-10 2021-06-15 動画配信システム、動画配信方法および動画配信プログラム

Publications (2)

Publication Number Publication Date
JP2020173582A JP2020173582A (ja) 2020-10-22
JP6900419B2 true JP6900419B2 (ja) 2021-07-07

Family

ID=72831629

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2019074594A Active JP6900419B2 (ja) 2019-04-10 2019-04-10 動画配信システム、動画配信方法および動画配信プログラム
JP2021099547A Active JP7098026B2 (ja) 2019-04-10 2021-06-15 動画配信システム、動画配信方法および動画配信プログラム
JP2022038581A Active JP7370525B2 (ja) 2019-04-10 2022-03-11 動画配信システム、動画配信方法および動画配信プログラム
JP2023174008A Pending JP2023181219A (ja) 2019-04-10 2023-10-06 動画配信システム、動画配信方法および動画配信プログラム

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2021099547A Active JP7098026B2 (ja) 2019-04-10 2021-06-15 動画配信システム、動画配信方法および動画配信プログラム
JP2022038581A Active JP7370525B2 (ja) 2019-04-10 2022-03-11 動画配信システム、動画配信方法および動画配信プログラム
JP2023174008A Pending JP2023181219A (ja) 2019-04-10 2023-10-06 動画配信システム、動画配信方法および動画配信プログラム

Country Status (1)

Country Link
JP (4) JP6900419B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7062820B1 (ja) 2021-08-31 2022-05-06 株式会社ドワンゴ 情報処理装置、情報処理方法、及び情報処理プログラム
JP7301263B1 (ja) 2022-02-25 2023-07-03 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256862A (ja) * 2002-02-28 2003-09-12 Sony Communication Network Corp キャラクタ表示方法および装置
JP4630232B2 (ja) * 2006-06-09 2011-02-09 ヤフー株式会社 キャラクタのコーディネートを示すコーディネートデータを表示するための方法、サーバおよびプログラム
WO2018057272A1 (en) * 2016-09-23 2018-03-29 Apple Inc. Avatar creation and editing
JP6812803B2 (ja) * 2017-01-12 2021-01-13 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP6479933B1 (ja) * 2017-11-01 2019-03-06 株式会社コロプラ プログラム、情報処理装置、および方法
JP6382468B1 (ja) * 2018-05-08 2018-08-29 グリー株式会社 アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム、動画配信方法及び動画配信プログラム

Also Published As

Publication number Publication date
JP7370525B2 (ja) 2023-10-30
JP2021168147A (ja) 2021-10-21
JP7098026B2 (ja) 2022-07-08
JP2022082592A (ja) 2022-06-02
JP2023181219A (ja) 2023-12-21
JP2020173582A (ja) 2020-10-22

Similar Documents

Publication Publication Date Title
JP7370525B2 (ja) 動画配信システム、動画配信方法および動画配信プログラム
KR102546016B1 (ko) 개인화된 비디오를 제공하기 위한 시스템들 및 방법들
WO2022105846A1 (zh) 虚拟对象显示方法及装置、电子设备、介质
JP7145266B2 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
EP3912136A1 (en) Systems and methods for generating personalized videos with customized text messages
US11842433B2 (en) Generating personalized videos with customized text messages
US11721046B2 (en) Customizing soundtracks and hairstyles in modifiable videos of multimedia messaging application
JP2021149407A (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
US20230049489A1 (en) Personalized videos featuring multiple persons
JP2024506639A (ja) 画像表示方法、装置、機器及び媒体
CN113542624A (zh) 生成商品对象讲解视频的方法及装置
JP2022089817A (ja) 動画用アプリケーションプログラム、動画のオブジェクト描画方法、動画配信システム、動画配信サーバ及び動画配信方法
JP2018151966A (ja) 情報処理装置及びプログラム
KR20210147654A (ko) 전자 장치 및 사용자 아바타 기반의 이모지 스티커를 생성하는 방법
JP2024529251A (ja) メディアファイル処理方法、装置、デバイス、可読記憶媒体および製品
JP2021002699A (ja) 動画配信システム、情報処理方法およびコンピュータプログラム
JP6902133B2 (ja) 動画配信システム、情報処理方法およびコンピュータプログラム
JP6692481B1 (ja) コンピュータプログラム、情報処理方法および情報処理システム
JP7095162B2 (ja) 動画配信システム、情報処理方法およびコンピュータプログラム
JP2022097475A (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
KR20210061869A (ko) 증강현실 콘텐츠 제작 방법 및 장치
JP7329209B1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
KR20230158283A (ko) 전자 장치 및 이의 제어 방법
CN118536616A (zh) 具有用于合成图像生成的图像编码器的机器学习扩散模型

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190410

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210504

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210616

R150 Certificate of patent or registration of utility model

Ref document number: 6900419

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250