JP7261207B2 - 情報処理システム及び情報処理方法 - Google Patents

情報処理システム及び情報処理方法 Download PDF

Info

Publication number
JP7261207B2
JP7261207B2 JP2020175762A JP2020175762A JP7261207B2 JP 7261207 B2 JP7261207 B2 JP 7261207B2 JP 2020175762 A JP2020175762 A JP 2020175762A JP 2020175762 A JP2020175762 A JP 2020175762A JP 7261207 B2 JP7261207 B2 JP 7261207B2
Authority
JP
Japan
Prior art keywords
character
moving image
information processing
image
distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020175762A
Other languages
English (en)
Other versions
JP2022067190A (ja
Inventor
崇司 大井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tomy Co Ltd
Original Assignee
Tomy Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tomy Co Ltd filed Critical Tomy Co Ltd
Priority to JP2020175762A priority Critical patent/JP7261207B2/ja
Publication of JP2022067190A publication Critical patent/JP2022067190A/ja
Application granted granted Critical
Publication of JP7261207B2 publication Critical patent/JP7261207B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、情報処理システム及び情報処理方法に関する。
従来、オンラインイベントの複数の参加者の端末装置に対し、オンラインイベントに係る動画コンテンツを一斉にライブ配信する技術が知られている。また、ライブ配信される動画コンテンツの品質を高めるための各種技術が提案されている。例えば、特許文献1には、キャラクターの動作及び音声を含む動画コンテンツをライブ配信する場合において、配信者の動作及び音声を、リアルタイムでキャラクターの動作及び音声に変換して反映させることで、あたかもキャラクターが自らの意思で動作及び発声しているように演出する技術が開示されている。
特開2020-113857号公報
上記のようなライブ配信は、動画コンテンツの内容の他に、複数の参加者が同時に視聴することで形成される一体感も大きな魅力となり得る。
しかしながら、上記従来の技術では、ライブ配信の各参加者の意識が動画コンテンツの内容に向かいやすく、各参加者は、他の参加者の存在を意識しにくい。このため、ライブ配信において参加者同士の繋がりにより形成される一体感を演出することが困難であるという課題がある。
この発明の目的は、ライブ配信における一体感をより効果的に演出することができる情報処理システム及び情報処理方法を提供することにある。
第1の手段は、
オンラインイベントの複数の参加者が使用する複数の端末装置に対して配信される配信動画を生成する配信動画生成手段と、
所定のキャラクターが動作するキャラクター動画を生成するキャラクター動画生成手段と、を備え、
前記配信動画生成手段は、前記複数の端末装置により撮影された複数の矩形の端末撮影動画のうち、少なくとも一部の端末撮影動画がマトリクス状に配列されている背景動画に対し、当該背景動画の少なくとも一部を視認可能な状態でレイヤー画像を重畳させて前記配信動画を生成し、
前記複数の端末撮影動画の各々は、前記複数の参加者の各々を撮影した動画であり、
前記レイヤー画像は、前記キャラクター動画を含むことを特徴とする情報処理システムである。
の手段は、第の手段において、
前記キャラクター動画は、前記キャラクターが、前記背景動画の内容に応じた動作を行う動画であることを特徴とする。
の手段は、第の手段又は第の手段において、
前記キャラクター動画生成手段は、前記キャラクターを演じる演者の動作を所定の動作検出装置により検出した結果に基づいて、前記演者の動作に応じて前記キャラクターが動作する前記キャラクター動画を生成することを特徴とする。
の手段は、第の手段において、
前記動作検出装置は、前記演者が装着するヘッドマウントディスプレイを有し、
前記配信動画生成手段は、生成した前記配信動画を前記ヘッドマウントディスプレイに表示させることを特徴とする。
第5の手段は、
オンラインイベントの複数の参加者が使用する複数の端末装置に対して配信される配信動画を生成する配信動画生成手段と、
所定のキャラクターが動作するキャラクター動画を生成するキャラクター動画生成手段と、を備え、
前記配信動画生成手段は、前記複数の端末装置により撮影された複数の端末撮影動画のうち2以上の端末撮影動画が配列されている背景動画に対し、当該背景動画の少なくとも一部を視認可能な状態でレイヤー画像を重畳させて前記配信動画を生成し、
前記レイヤー画像は、前記キャラクター動画を含み、
前記キャラクター動画生成手段は、前記キャラクターを演じる演者の動作を所定の動作検出装置により検出した結果に基づいて、前記演者の動作に応じて前記キャラクターが動作する前記キャラクター動画を生成し、
前記動作検出装置は、前記演者が装着するヘッドマウントディスプレイを有し、
前記配信動画生成手段は、生成した前記配信動画を前記ヘッドマウントディスプレイに表示させることを特徴とする情報処理システムである。
第6の手段は、第の手段~第5の手段のいずれかにおいて、
前記配信動画は、前記キャラクターの輪郭の外側の範囲において前記背景動画を視認可能であることを特徴とする。
する。
第7の手段は、第1の手段~第6の手段のいずれかにおいて、
前記配信動画に特殊効果を付与するための特殊効果画像を生成する特殊効果画像生成手段を備え、
前記レイヤー画像は、前記特殊効果画像を含むことを特徴とする。
第8の手段は、第7の手段において、
前記特殊効果画像は、前記背景動画内の所定範囲を特定する画像であることを特徴とする。
第9の手段は、第8の手段において、
前記特殊効果画像は、前記背景動画の前記所定範囲を露出させるとともに、前記背景動画のうち前記所定範囲を除いた部分を遮蔽する画像であることを特徴とする。
第10の手段は、第7の手段において、
前記特殊効果画像は、前記背景動画における前記少なくとも一部の端末撮影動画の各々を着色要素とする塗り絵の線画を含むことを特徴とする。
第11の手段は、
オンラインイベントの複数の参加者が使用する複数の端末装置に対して配信される配信動画を生成する配信動画生成手段と、
前記配信動画に特殊効果を付与するための特殊効果画像を生成する特殊効果画像生成手段と、を備え、
前記配信動画生成手段は、前記複数の端末装置により撮影された複数の端末撮影動画のうち2以上の端末撮影動画が配列されている背景動画に対し、当該背景動画の少なくとも一部を視認可能な状態でレイヤー画像を重畳させて前記配信動画を生成し、
前記レイヤー画像は、前記特殊効果画像を含み、
前記特殊効果画像は、前記背景動画における前記2以上の端末撮影動画の各々を着色要素とする塗り絵の線画を含むことを特徴とする情報処理システムである。
第12の手段は、第1の手段~第11の手段のいずれかにおいて、
前記配信動画生成手段は、
前記複数の端末装置が通信接続されている所定のオンライン会議システムから前記背景動画を取得し、
生成した前記配信動画を前記オンライン会議システムに出力することで前記配信動画を前記複数の端末装置に送信することを特徴とする。
第13の手段は、
オンラインイベントの複数の参加者が使用する複数の端末装置に対して配信される配信動画を生成する配信動画生成ステップと、
所定のキャラクターが動作するキャラクター動画を生成するキャラクター動画生成ステップと、を含み、
前記配信動画生成ステップでは、前記複数の端末装置により撮影された複数の矩形の端末撮影動画のうち、少なくとも一部の端末撮影動画がマトリクス状に配列されている背景動画に対し、当該背景動画の少なくとも一部を視認可能な状態でレイヤー画像を重畳させて前記配信動画を生成し、
前記複数の端末撮影動画の各々は、前記複数の参加者の各々を撮影した動画であり、
前記レイヤー画像は、前記キャラクター動画を含むことを特徴とする情報処理方法である。
第14の手段は、
オンラインイベントの複数の参加者が使用する複数の端末装置に対して配信される配信動画を生成する配信動画生成ステップと、
所定のキャラクターが動作するキャラクター動画を生成するキャラクター動画生成ステップと、を含み、
前記配信動画生成ステップでは、前記複数の端末装置により撮影された複数の端末撮影動画のうち2以上の端末撮影動画が配列されている背景動画に対し、当該背景動画の少なくとも一部を視認可能な状態でレイヤー画像を重畳させて前記配信動画を生成し、
前記レイヤー画像は、前記キャラクター動画を含み、
前記キャラクター動画生成ステップでは、前記キャラクターを演じる演者の動作を所定の動作検出装置により検出した結果に基づいて、前記演者の動作に応じて前記キャラクターが動作する前記キャラクター動画を生成し、
前記動作検出装置は、前記演者が装着するヘッドマウントディスプレイを有し、
前記配信動画生成ステップでは、生成した前記配信動画を前記ヘッドマウントディスプレイに表示させることを特徴とする情報処理方法である。
第15の手段は、
オンラインイベントの複数の参加者が使用する複数の端末装置に対して配信される配信
動画を生成する配信動画生成ステップと、
前記配信動画に特殊効果を付与するための特殊効果画像を生成する特殊効果画像生成ステップと、を含み、
前記配信動画生成ステップでは、前記複数の端末装置により撮影された複数の端末撮影動画のうち2以上の端末撮影動画が配列されている背景動画に対し、当該背景動画の少なくとも一部を視認可能な状態でレイヤー画像を重畳させて前記配信動画を生成し、
前記レイヤー画像は、前記特殊効果画像を含み、
前記特殊効果画像は、前記背景動画における前記2以上の端末撮影動画の各々を着色要素とする塗り絵の線画を含むことを特徴とする情報処理方法である。
第1の手段によれば、オンラインイベントに用いられる配信動画において、背景動画に複数の参加者を映しつつ、レイヤー画像によって各種演出を行うことができる。よって、各参加者は、背景動画を通じて、自身がオンラインイベントに参加しているという実感を強く得ることができる。また、背景動画によって、各参加者の意識が他の参加者にも向きやすくなるため、参加者同士の繋がりにより形成される一体感が効果的に得られる。また、複数の参加者が映っている背景動画にキャラクター動画を重畳させることで、同一画面内で、キャラクターと複数の参加者との間のリアルタイムかつ双方向のコミュニケーションが可能となる。また、背景動画において複数の参加者を映すことができるため、参加者同士の繋がりにより形成される一体感が効果的に得られる。
の手段によれば、背景動画を通じた参加者からの働きかけに対してキャラクターが応答しているように演出することができる。よって、ライブ配信の一体感をより高めることができる。
の手段によれば、キャラクターが自らの意思で自然に動作及び発声しているように演出することができる。また、背景動画を通じた参加者からの働きかけに対してキャラクターがより自然に応答しているように演出することができる。
の手段、第5の手段、及び第14の手段によれば、演者は、その時点で生成されている配信動画を、ヘッドマウントディスプレイによってリアルタイムで視認することができる。よって、任意の体勢において、自身が演じるキャラクターと、背景動画との位置関係を視認することができる。このため、演者は、例えばキャラクターが背景動画に向かって振り返っているような体勢においても、背景動画の状態に合わせた自然かつ適切な演技を行うことができる。
第6の手段によれば、あたかも実在するキャラクターが背景動画の前に位置しているような演出を行うことができる。また、より広い範囲で背景動画を視認することができる。
第7の手段によれば、種々の趣向の特殊効果画像を重畳させることで、配信動画のエンターテインメント性を向上させることができる。
第8の手段によれば、背景画像に映っている複数の参加者のうち一部の参加者を選択的に特定する演出などが可能となる。
第9の手段によれば、参加者の興味を強く引くことができるとともに、オンラインイベントを盛り上げることができる。
第10の手段、第11の手段、及び第15の手段によれば、背景動画内の全ての参加者が参加する塗り絵の演出が可能となる。これにより、各参加者の興味を引くことができる。また、各参加者は、塗り絵の演出を通じて他の参加者の存在を意識することとなるため、ライブ配信ならではの一体感を得ることができる。
第11の手段によれば、背景動画において複数の参加者を映すことができるため、参加者同士の繋がりにより形成される一体感が効果的に得られる。
第12の手段によれば、オンライン会議システムを用いて、ライブ配信における一体感を効果的に演出することが可能なオンラインイベントを簡易に行うことができる。また、各参加者は、オンライン会議システムを利用するためのアプリケーションプログラム(以下、オンライン会議アプリと記す)を端末装置にインストールすることで、この単一のオンライン会議アプリを用いてオンラインイベントに参加することができる。すなわち、端末装置で参加者を撮影して端末撮影動画をオンライン会議システムに送信しつつ、同時に配信動画及び配信音声をオンライン会議システムから受信して端末装置で視聴することができる。よって、参加者を撮影して送信する端末と、配信動画及び配信音声を受信して視聴するための端末とを別個に用意する必要がないため、簡易な環境でオンラインイベントに参加することができる。
第13の手段によれば、オンラインイベントに用いられる配信動画において、背景動画に複数の参加者を映しつつ、レイヤー画像によって各種演出を行うことができる。よって、各参加者は、背景動画を通じて、自身がオンラインイベントに参加しているという実感を強く得ることができる。また、背景動画によって、各参加者の意識が他の参加者にも向きやすくなるため、参加者同士の繋がりにより形成される一体感が効果的に得られる。また、複数の参加者が映っている背景動画にキャラクター動画を重畳させることで、同一画面内で、キャラクターと複数の参加者との間のリアルタイムかつ双方向のコミュニケーションが可能となる。また、背景動画において複数の参加者を映すことができるため、参加者同士の繋がりにより形成される一体感が効果的に得られる。
ライブ配信システムの概略構成を示す図である。 オンラインイベントを開催するまでのフローを示す図である。 ギャラリービュー、特殊効果画像及びキャラクター動画の例を示す図である。 配信動画の例を示す図である。 配信動画における演出の例を示す図である。 情報処理システムの構成及びライブ配信システムの動作を示す図である。 第1の情報処理装置の主要な機能構成を示すブロック図である。 第2の情報処理装置の主要な機能構成を示すブロック図である。 第3の情報処理装置の主要な機能構成を示すブロック図である。 第4の情報処理装置の主要な機能構成を示すブロック図である。 第5の情報処理装置の主要な機能構成を示すブロック図である。 第6の情報処理装置の主要な機能構成を示すブロック図である。 端末装置の主要な機能構成を示すブロック図である。 ギャラリービューの所定範囲を特定する演出を行う場合のギャラリービュー、特殊効果画像及びキャラクター動画の例を示す図である。 所定範囲を特定する演出を行っている配信動画の例を示す図である。 特殊効果画像を用いて塗り絵の演出を行う場合のギャラリービュー及び特殊効果画像を示す図である。 塗り絵の演出を行っている配信動画の例を示す図である。
以下、本発明の情報処理システム及び情報処理方法に係る実施の形態を図面に基づいて説明する。
図1は、ライブ配信システム100の概略構成を示す図である。
ライブ配信システム100は、情報処理システム1と、オンライン会議システム2と、複数の端末装置3とを備える。情報処理システム1、オンライン会議システム2及び端末装置3は、通信ネットワークNを介して通信接続されている。通信ネットワークNは、例えばインターネットであるが、これに限られない。また、情報処理システム1、オンライン会議システム2及び端末装置3の相互の通信経路の一部は、無線通信により実現されていていてもよい。
情報処理システム1は、オンラインイベントの配信者が配信動画及びその音声(以下、配信音声と記す)をライブ配信するために使用するシステムである。また、複数の端末装置3の各々は、オンラインイベントの複数の参加者の各々が、オンラインイベントへの参加、すなわち配信動画及び配信音声の視聴のために使用する端末である。端末装置3は、例えばノートPC、スマートフォン、又はタブレット端末などであるが、これらに限られない。
オンライン会議システム2は、データサーバー等により構成され、情報処理システム1及び複数の端末装置3の各々から、Webカメラで撮影された動画及び音声のデータを受信し、これらのデータを、情報処理システム1及び複数の端末装置3のうち配信設定で定められた配信対象に対してリアルタイムで配信(送信)する。これにより、情報処理システム1及び複数の端末装置3において動画及び音声をリアルタイムで共有することで実現されるオンラインイベント(ウェビナー、オンライン会議等)を行うことができる。
本実施形態では、情報処理システム1がオンラインイベントとしてのウェビナーのホストとなり、複数の端末装置3がゲストとして当該オンラインイベントに参加する。詳しくは、情報処理システム1においてオンラインイベントに係る配信動画が生成され、この配信動画がオンライン会議システム2を介して複数の端末装置3に対して同時配信されることで、オンラインイベントが行われる。オンラインイベントにおけるライブ配信では、配信動画とともに配信音声が配信される。この配信動画及び配信音声の生成には、情報処理システム1内で生成される画像及び音声に加えて、複数の端末装置3からオンライン会議システム2を介して情報処理システム1に送信される動画及び音声も用いられる。配信動画及び配信音声の生成方法については、後に詳述する。
図2は、オンラインイベントを開催するまでのフローを示す図である。
図2では、オンラインイベントの参加者、オンライン会議システム2、及びオンラインイベントの配信者の各々により行われる動作又は処理が示されている。このうち参加者による処理は、端末装置3により行われる。また、配信者による処理は、配信者の管理下にあり、かつ通信ネットワークNに接続されている任意のコンピューターにより実行することができる。当該コンピューターは、情報処理システム1に含まれていてもよい。
図2におけるフローでは、まず、参加者が、配信者の提供するWebサイト(申し込みサイト)にてオンラインイベントの参加申し込み手続きを行う(ステップS101)。ここでは、参加者は、申し込みサイトにおいて自身に係る第1登録情報(住所、氏名、メールアドレス等)を入力するとともに、オンラインイベントが有料である場合には料金の支払手続きを行う。入力された第1登録情報は、配信者のコンピューターに送信される。
配信者は、第1登録情報に基づき、参加者宛てに招待メールを送信する(ステップS102)。招待メールには、オンラインイベント(ウェビナー)に事前登録するための、オンライン会議システム2が提供するWebサイト(ウェビナー事前登録サイト)のURLが記載されている。
参加者は、招待メールの内容に従ってウェビナー事前登録サイトにアクセスし、ウェビナーへの事前登録手続きを行う(ステップS103)。ここでは、参加者は、ウェビナー事前登録サイトにおいて自身に係る第2登録情報(住所、氏名、メールアドレス等)を入力する。第2登録情報の各入力項目の内容は、第1登録情報の各入力項目の内容と同一となる。この第2登録情報は、オンライン会議システム2に送信される。
オンライン会議システム2は、受信した第2登録情報を配信者に送信する(ステップS104)。
配信者は、第1登録情報と第2登録情報とを照合し、これらが一致した参加者に対して承認メールを送信する(ステップS105)。承認メールには、オンラインイベント(ウェビナー)を視聴するための視聴URLが記載されている。このように、第1登録情報及び第2登録情報を照合するステップを設けることで、ステップS101の参加申し込みをしていない第三者に承認メールが送信されないようにすることができる。
配信者は、イベント用アイテムを参加者に郵送する(ステップS106)。このイベント用アイテムは、オンラインイベントの視聴中に参加者が使用する道具や資料等であり、イベントの内容に応じたものが予め配信者により準備されて郵送される。一例を挙げると、イベント用アイテムは、イベント中に配信者から出題される問題(例えば、クイズ、間違い探し等)に回答するためのヒントとなる資料、当該問題に対する回答を配信者に向けて示すための回答用ボード、及び、端末装置3から送信される動画を着色するために端末装置3のWebカメラ37に被せる着色フィルムなどである。
配信者及びオンライン会議システム2は、予め定められた開催日時にオンラインイベントの配信を開始する(ステップS107)。
参加者は、オンラインイベントの開催日時に、承認メールの視聴URLにアクセスすることで、オンラインイベントへの参加を開始する(ステップS108)。オンラインイベントでは、参加者は、予め郵送されたイベント用アイテムを使用しつつ、端末装置3により配信動画及び配信音声を視聴する。
次に、オンラインイベント配信時におけるライブ配信システム100の動作の概要について、図3~図5を参照して説明する。
オンラインイベント配信時において、オンライン会議システム2は、複数の参加者Pが映っているギャラリービュー41(背景動画)(図3(a))を生成して情報処理システム1に送信する。ここで、ギャラリービュー41は、複数の端末装置3からオンライン会議システム2に送信される複数の端末撮影動画411のうち2以上の端末撮影動画411が配列されている動画である。図3(a)では、7行7列に配列された49個の端末撮影動画411を含むギャラリービュー41が例示されている。各端末撮影動画411は、端末装置3のWebカメラ37(図13参照)により撮影されている動画であり、通常、端末装置3を使用している参加者Pが映っている。
一方、情報処理システム1は、配信動画に特殊効果を付与するための特殊効果画像42(図3(b))を生成する。図3(b)では、特殊効果としての星画像421を含む特殊効果画像42が例示されている。特殊効果画像42は、静止画であってもよいし、動画であってもよい。
また、情報処理システム1は、所定のキャラクターCが動作するキャラクター動画43(図3(c))を生成する。キャラクター動画43は、キャラクターCを演じる演者の動作を、動作検出装置21(図6参照)により検出した結果(モーションキャプチャーデータ)に基づいて生成される。キャラクター動画43では、演者の動作が、キャラクターCの動作としてリアルタイムに反映されるようになっている。よって、演者が、ギャラリービュー41における端末撮影動画411の内容に応じた動作を行うことにより、キャラクター動画43は、キャラクターCが、当該端末撮影動画411の内容に応じた動作を行う動画となる。例えば、ギャラリービュー41に映っている参加者Pの1人の言動に対してキャラクターCが動作及び音声で応答するといった演出が可能となる。
情報処理システム1は、オンライン会議システム2から受信したギャラリービュー41に対し、当該ギャラリービュー41の一部が露出するように特殊効果画像42及びキャラクター動画43を重畳させて合成することにより、配信動画40(図4)を生成する。ここで、特殊効果画像42及びキャラクター動画43は、「レイヤー画像」の一例である。
配信動画40では、上述のとおり、キャラクターCが演者の演技のとおりに動作する。
また、配信動画40とともに配信される配信音声には、キャラクターCの音声、及び参加者Pの音声が含まれる。このうちキャラクターCの音声は、ボイスチェンジャーによって演者の声をリアルタイムでキャラクターCの声音に変換したものである。
また、配信動画40は、ギャラリービュー41が背景となっており、このギャラリービュー41において参加者Pの動作等がリアルタイムに反映される。
情報処理システム1は、配信動画40を、配信音声とともにオンライン会議システム2に送信する。配信音声には、別途生成したBGM及びSE(サウンドエフェクト)などがさらに付加される。これらの配信動画40及び配信音声が、オンライン会議システム2から各端末装置3にライブ配信される。各参加者Pは、配信動画40を端末装置3の表示部36(図13参照)に表示させて視聴する。参加者Pは、配信動画40に含まれるキャラクター動画43によりキャラクターCのパフォーマンスを楽しむことができるとともに、配信動画40の背景となっているギャラリービュー41により、自身を含む複数の参加者Pの様子を一覧することができる。
例えば、図5に示すように、キャラクターCからの質問に対して、各参加者Pが、事前に郵送されている「A」又は「B」の回答用ボードをWebカメラ37に向かって掲げることで、各参加者Pの回答内容をギャラリービュー41に反映させるといった演出も可能である。このような演出によれば、各参加者Pは、自身がオンラインイベントに参加しているという実感を強く得ることができるとともに、他の参加者Pにも意識が向くため、参加者同士の一体感も感じることができる。
このように、情報処理システム1で生成された配信動画40及び配信音声を複数の端末装置3にライブ配信することにより、同一画面内で、キャラクターC(配信者)と複数の参加者Pとの間のリアルタイムかつ双方向のコミュニケーションが可能となる。
特に、演者の動作及び音声をリアルタイムでキャラクターCの動作及び音声に変換することで、キャラクターCが自らの意思で自然に動作及び発声しているように演出することができる。また、ギャラリービュー41を通じた参加者Pからの働きかけに対してキャラクターCが自然に応答しているように演出することができる。
また、複数の参加者Pが映っているギャラリービュー41を背景とし、このギャラリービュー41にキャラクター動画43を重畳させることで、キャラクターCと複数の参加者Pとの繋がり、及び参加者P同士の繋がりにより形成される一体感が効果的に得られる。
従来、参加者Pが映っている領域と、キャラクターCが映っている領域とを、画面内の別個の領域に分割してそれぞれ表示する方法が考案されていたが、この方法では、各参加者Pは、キャラクターCと、当該キャラクターCを見ている自分とを認識するのみで、他の参加者Pを意識しにくかった。これに対し、本実施形態のようにギャラリービュー41とキャラクター動画43とを重畳させた配信動画40によれば、各参加者Pは、他の多数の参加者Pと一体となってキャラクターCとコミュニケーションを行う感覚が得られる。
また、配信動画40に、複数の参加者Pから入力されたチャットの文字情報を流す方法と比較すると、本実施形態の方が、視覚的、直感的により分かりやすい演出が可能である。このため、例えば、文字を素早く読むことが困難な子供などでもオンラインイベントを楽しむことができる。
さらに、種々の趣向の特殊効果画像42を重畳させることで、配信動画40のエンターテインメント性を向上させることができる。
また、各参加者は、オンライン会議システム2を利用するためのオンライン会議アプリ33a(図13参照)を端末装置3にインストールすることで、この単一のオンライン会議アプリ33aを用いてオンラインイベントに参加することができる。すなわち、端末装置3により参加者自身を撮影して端末撮影動画411をオンライン会議システム2に送信しつつ、同時に配信動画40をオンライン会議システム2から受信して端末装置3で視聴することができる。よって、参加者を撮影して送信する端末と、配信動画40を受信して視聴するための端末とを別個に用意する必要がなく、簡易な環境でオンラインイベントに参加することができる。
次に、情報処理システム1の構成、及びオンラインイベント配信時のライブ配信システム100の動作について詳しく説明する。
図6は、情報処理システム1の構成及びライブ配信システム100の動作を示す図である。
図6に示すように、情報処理システム1は、第1の情報処理装置11、第2の情報処理装置12、第3の情報処理装置13、第4の情報処理装置14、第5の情報処理装置15、第6の情報処理装置16(以下では、これらをまとめて「情報処理装置11~16」と記す)、動作検出装置21、ヘッドセット22、オーディオI/F23及びミキサー24などを備える。情報処理装置11~16の各々は、例えばノートPC又はデスクトップPCとすることができる。情報処理装置11~16の各々の具体的な機能ブロックについては後述する。
これらのうち第1の情報処理装置11、第5の情報処理装置15及び第6の情報処理装置16がオンライン会議システム2に接続されており、オンラインイベント(ウェビナー)の共同ホストとなっている。なお、図6では通信ネットワークNは記載が省略されている。
動作検出装置21は、キャラクターCを演じる演者の動作を検出する。本実施形態では、動作検出装置21は、演者が頭部に装着するヘッドマウントディスプレイ211と、演者が右手及び左手でそれぞれ保持する図示略のコントローラーとを有する。ヘッドマウントディスプレイ211及び各コントローラーには、演者の頭部及び両手の位置及び向きを検出する各種センサーが設けられている。これらのセンサーによる検出結果は、第2の情報処理装置12に出力される。また、ヘッドマウントディスプレイ211は、第2の情報処理装置12から送信された動画等を、演者が視認可能な表示部に表示する。
ヘッドセット22は、マイク及びヘッドホンを有し、演者により装着されて用いられる。ヘッドセット22は、演者の声をマイクにより集音してオーディオI/F23に出力するとともに、ミキサー24から入力された音声をヘッドホンから出力する。
図6では、情報処理システム1の各装置間で送受信される、静止画又は動画のデータ、及び音声のデータ等の流れが示されている。また、情報処理システム1とオンライン会議システム2、及びオンライン会議システム2と端末装置3の間でそれぞれ送受信されるデータの流れも併せて示されている。
なお、図6の各データの流れに付された「S1」~「S20」の符号は、各データの流れを特定するためのものであり、必ずしもデータの送受信の時系列を表すものではない。オンラインイベントの配信中は、「S1」~「S20」の各データの送受信が並行して実行される。また、以下では、簡便のため、静止画像のデータ、動画のデータ、及び音声のデータについては、それぞれ単に「画像」、「動画」、及び「音声」と記す。
以下では、図6の「S1」~「S20」の各データの流れに言及しつつ、ライブ配信システム100の動作について説明する。
オンラインイベントの配信中は、端末装置3からオンライン会議システム2に、Webカメラ37で撮影されている端末撮影動画411、及びマイク38(図13参照)により集音されている参加者音声が送信される(S1)。
オンライン会議システム2は、複数の端末装置3から受信した複数の端末撮影動画411をマトリクス状に配列したギャラリービュー41を生成する。上述のとおり、ギャラリービュー41は、端末装置3に配信される配信動画40の背景となる動画である。
図3(a)に示したように、本実施形態のギャラリービュー41は、7行7列に配列された49個の端末撮影動画411を含む。オンラインイベントの参加者が49人を超えている場合には、後述する第6の情報処理装置16からのイベント制御信号(S20)に従って、ギャラリービュー41に含める端末撮影動画411(すなわち、参加者)が切り替えられる。
なお、ギャラリービュー41における端末撮影動画411の配列は7行7列に限られない。また、必ずしも行列をなすように端末撮影動画411が配列されていなくてもよい。
オンライン会議システム2により生成されたギャラリービュー41、及び端末装置3からオンライン会議システム2に送信された参加者音声は、情報処理システム1の第1の情報処理装置11に送信される(S2)。
一方、動作検出装置21により、演者の動作の検出結果(モーションキャプチャーデータ)が取得され、第2の情報処理装置12に送信される(S3)。第2の情報処理装置12は、受信したモーションキャプチャーデータに基づいて、図3(c)に示したようなキャラクター動画43を生成する。ここでは、第2の情報処理装置12は、予め用意されているキャラクターCの3D外観データの各部を、受信したモーションキャプチャーデータにより表される体の各部の位置及び向きと一致するように配置して、キャラクター動画43のフレーム画像を生成する。この処理を、順次送信されるモーションキャプチャーデータに応じて繰り返し実行することで、キャラクター動画43を生成する。キャラクター動画43の背景、すなわちキャラクターCの輪郭の外側の範囲は、グリーン又はブルー等の、キャラクターCの主要な色と補色の関係にある色とされている。これにより、キャラクター動画43は、後述するようにギャラリービュー41に対してクロマキー合成を行うことが可能となっている。以下では、クロマキー合成のための背景を「グリーンバック」と記す。
第2の情報処理装置12は、生成したキャラクター動画43を第1の情報処理装置11に送信する(S4)。
また、第3の情報処理装置13は、図3(b)に示したような特殊効果画像42を生成して第1の情報処理装置11に送信する(S5)。特殊効果画像42も、キャラクター動画43と同様にグリーンバックとされており、ギャラリービュー41に対してクロマキー合成を行うことが可能となっている。
第1の情報処理装置11は、オンライン会議システム2から入力されたギャラリービュー41(S2)に、第3の情報処理装置13から入力された特殊効果画像42(S5)、及び第2の情報処理装置12から入力されたキャラクター動画43(S4)をリアルタイムでクロマキー合成(重畳)して、図4に示したような配信動画40を生成する(S6:配信動画生成ステップ)。
クロマキー合成により、キャラクター動画43は、キャラクターCの輪郭の外側の範囲が透明化された状態でギャラリービュー41に重畳される。このため、配信動画40は、キャラクターCの輪郭の外側の範囲においてギャラリービュー41を視認可能である。ここで、「ギャラリービュー41を視認可能である」とは、ギャラリービュー41に他の特殊効果画像42が重畳されていない場合にギャラリービュー41を視認可能であることをいう。
生成された配信動画40は、上述のとおりオンライン会議システム2に送信されるとともに(S18)、第2の情報処理装置12にも送信される(S7)。第2の情報処理装置12は、この配信動画40をヘッドマウントディスプレイ211に送信して、ヘッドマウントディスプレイ211に配信動画40を表示させる(S8)。これにより、演者は、その時点で生成されている配信動画40をリアルタイムで視認することができる。よって、任意の体勢において、自身が演じるキャラクターCと、ギャラリービュー41及び特殊効果画像42との位置関係を、配信動画40から認識することができる。このため、例えばキャラクターCがギャラリービュー41に向かって振り返っているような体勢(例えば、図14(c)及び図15参照)においても、配信動画40を確認している素振りを参加者に見せることなく、ギャラリービュー41及び特殊効果画像42の状態に合わせた自然かつ適切な演技を行うことができる。
なお、ヘッドマウントディスプレイ211には、配信動画40の他に、演者の演技に必要な各種情報(動作検出装置21の操作に用いられる画像や、合成前のキャラクター動画43等)が表示される。
次に、音声データの流れについて説明する。
演者の音声は、ヘッドセット22により集音されてオーディオI/F23に出力される(S9)。オーディオI/F23は、この演者の音声を第4の情報処理装置14に出力する(S10)。
第4の情報処理装置14は、入力された演者の音声を、ボイスチェンジャーによりリアルタイムでキャラクターCの音声に変換する。第4の情報処理装置14は、変換後のキャラクターCの音声をオーディオI/F23に出力する(S11)。
オーディオI/F23に入力されたキャラクターCの音声は、ミキサー24に出力されるとともに、第2の情報処理装置12に出力される(S12)。このうち第2の情報処理装置12に入力されたキャラクターCの音声は、上述のキャラクター動画43の生成において、キャラクターCの唇の動きをキャラクターCの音声に合わせるリップシンクの処理に用いられる。
一方、第5の情報処理装置15は、配信動画40とともに配信されるBGM及びSEを生成する。ここで、SEには、各種の効果音の他、演者の音声を用いないセリフなども含まれる。第5の情報処理装置15は、生成したBGM及びSEをミキサー24に出力するとともに、オンラインイベントのホストとして、当該BGM及びSEをオンライン会議システム2に直接送信する(S13)。
なお、BGM及びSEをミキサー24のみへ送るようにしてもよい。この場合には、後述するS16、S18、S19のルートで、配信動画40とともにBGM及びSEが端末装置3に送信される。
また、第1の情報処理装置11は、オンライン会議システム2から取得した参加者音声をミキサー24に出力する(S14)。
ミキサー24は、入力されたBGM、SE及び参加者音声を合成してヘッドセット22に出力する(S15)。演者は、ヘッドセット22からこの合成後の音声を聞くことで、配信中の配信動画40の内容に合わせた適切な演技をすることができる。
また、ミキサー24は、入力されたキャラクターCの音声を第1の情報処理装置11に出力する(S16)。第1の情報処理装置11は、入力されたキャラクターCの音声を配信動画40に付加する(S17)。また、第1の情報処理装置11は、配信動画40及びキャラクターCの音声を、オンラインイベントのホストとしてオンライン会議システム2に出力する(S18)。なお、S16において、キャラクターCの音声とともに参加者音声を送信し、S17において配信動画40に付加することも可能であるが、ハウリングなど起こす可能性があるため、本実施形態では実施していない。
ここで、第1の情報処理装置11からオンライン会議システム2への配信動画40の出力は、画像合成・配信プログラム113a(図7参照)の仮想カメラ出力プラグイン113bにより行われる。すなわち、通常、オンライン会議システム2に対しては、Webカメラにより撮影されているカメラ画像が出力されるところ、第1の情報処理装置11は、仮想カメラ出力プラグイン113bを用いることで、カメラ画像に代えて、仮想のカメラ画像として配信動画40を出力する。
オンライン会議システム2は、第1の情報処理装置11から入力された配信動画40及び配信音声(キャラクターCの音声、BGM、SE、及び各端末装置3から受信した参加者音声を含む)を、リアルタイムに各端末装置3に送信(ライブ配信)する(S19)。
上記のS1~S19の処理と並行して、第6の情報処理装置16は、オンラインイベントのホストとして、オンラインイベントを制御するためのイベント制御信号を随時オンライン会議システム2に出力する(S20)。
このイベント制御信号により、全ての端末装置3からの端末撮影動画411のうち、ギャラリービュー41に配列する端末撮影動画411を選択することができる。具体的には、ギャラリービュー41に含まれる49個の端末撮影動画411を一斉に入れ替えたり、ギャラリービュー41における特定の端末撮影動画411を入れ替えたりすることができる。例えば、オンラインイベントの参加者が1000人である場合に、ギャラリービュー41に含まれる端末撮影動画411を10秒に1回の頻度で一斉に入れ替えることで、約200秒で全ての参加者の端末撮影動画411をギャラリービュー41(配信動画40の背景)に表示させることができる。
また、イベント制御信号により、各端末装置3からオンライン会議システム2に送信されている参加者音声のうち、全端末装置3及び第1の情報処理装置11に配信される参加者音声を選択することができる。すなわち、特定の端末撮影動画411の参加者音声のみを選択したり、全参加者の音声を出力又はミュートしたりすることができる。
情報処理装置11~16は、それぞれ担当のオペレーターにより操作される。ただし、操作の自動化が可能である場合には、その情報処理装置についてはオペレーターの配置を省略してもよい。また、情報処理装置11~16のうち2以上の情報処理装置を1人のオペレーターが操作してもよい。
また、情報処理装置11~16のうち2以上の情報処理装置の機能を1台の情報処理装置に統合してもよい。よって、情報処理システム1を構成する情報処理装置は6台に限られない。
また、情報処理システム1に、図6に示されていない構成を付加してもよい。例えば、演者に対して指示を出すディレクターが必要な場合において、当該ディレクターが使用するディレクター用ヘッドセットを別途設けてもよい。この場合、ディレクター用ヘッドセットからミキサー24に、ディレクターの指示音声を送信し、ミキサー24から演者のヘッドセット22に送信される音声に、この指示音声を合成すればよい。また、ディレクター用ヘッドセットには、キャラクターCの音声、BGM、SE及び参加者音声などを合成した音声をミキサー24から送信すればよい。
次に、情報処理装置11~16及び端末装置3の機能構成について説明する。
図7は、第1の情報処理装置11の主要な機能構成を示すブロック図である。
第1の情報処理装置11は、第1の制御部110と、通信部114と、操作部115と、ギャラリービュー表示部116aと、特殊効果画像表示部116bと、キャラクター動画表示部116cと、配信動画表示部116dなどを備え、これらの各部はバス117を介して接続されている。
第1の制御部110は、CPU111(Central Processing Unit)、RAM112(Random Access Memory)、及び記憶部113を備える。第1の制御部110は、CPU111が、記憶部113に記憶された画像合成・配信プログラム113aを実行して各種処理を行うことで、配信動画40を生成する配信動画生成手段として機能する。
CPU111は、記憶部113に記憶されているプログラムに従って各種演算処理を行う。RAM112は、CPU111に作業用のメモリー空間を提供し、一時データを記憶する。
記憶部113は、HDD(Hard Disk Drive)又はSSD(Solid State Drive)などの不揮発性の記憶装置により構成され、第1の制御部110により実行される各種プログラム及びデータ等を格納する。詳しくは、記憶部113には、画像合成・配信プログラム113aが記憶されている。
第1の制御部110は、画像合成・配信プログラム113aに従って各種処理を実行することで、ギャラリービュー41に対して特殊効果画像42及びキャラクター動画43を重畳させて配信動画40を生成する。
また、画像合成・配信プログラム113aには、仮想カメラ出力プラグイン113bが含まれる。仮想カメラ出力プラグイン113bは、カメラ画像に代えて配信動画40を出力するためのプラグインソフトウェアである。第1の制御部110は、画像合成・配信プログラム113aに従ってオンラインイベントの共同ホストとしてオンライン会議システム2に接続し、仮想カメラ出力プラグイン113bを用いて、配信動画40をオンライン会議システム2に送信する。
また、第1の制御部110は、第2の情報処理装置12を介して配信動画40を動作検出装置21に送信することで、動作検出装置21のヘッドマウントディスプレイ211に配信動画40を表示させる。
通信部114は、例えば、NIC(Network Interface Card)等によって実現される。通信部114は、情報処理システム1内の他の機器及び通信ネットワークNと有線又は無線で通信接続され、接続先の機器との間でデータの送受信を行う。
操作部115は、キーボード及びマウス等の入力デバイスを備え、当該入力デバイスによりオペレーターからの入力操作を受け付けて、当該入力操作に応じた操作信号を第1の制御部110に出力する。
ギャラリービュー表示部116a、特殊効果画像表示部116b、キャラクター動画表示部116c、及び配信動画表示部116dは、液晶表示装置や有機EL表示装置などにより実現され、第1の制御部110による制御下で画像や情報を表示する。
このうちギャラリービュー表示部116aは、オンライン会議システム2から受信したギャラリービュー41を表示する。
また、特殊効果画像表示部116bは、第3の情報処理装置13から受信した特殊効果画像42を表示する。
また、キャラクター動画表示部116cは、第2の情報処理装置12から受信したキャラクター動画43を表示する。
また、配信動画表示部116dは、生成された配信動画40を表示する。
このように、配信動画40とは別個にギャラリービュー41、特殊効果画像42及びキャラクター動画43を各表示部に表示させることで、配信者(ここでは、第1の情報処理装置11のオペレーター)がギャラリービュー41、特殊効果画像42及びキャラクター動画43を独立して視認することができる。これにより、配信動画40の内容を調整しやすくすることができる。
なお、合成前のギャラリービュー41、特殊効果画像42及びキャラクター動画43のうち一部又は全部を別個に確認する必要がない場合などにおいては、ギャラリービュー表示部116a、特殊効果画像表示部116b及びキャラクター動画表示部116cのうち一部又は全部を省略してもよい。また、1つの表示部内で、配信動画40、ギャラリービュー41、特殊効果画像42及びキャラクター動画43のうち2以上の画像を分割して表示させてもよい。
図8は、第2の情報処理装置12の主要な機能構成を示すブロック図である。
第2の情報処理装置12は、第2の制御部120と、通信部124と、操作部125と、キャラクター動画表示部126などを備え、これらの各部はバス127を介して接続されている。
第2の制御部120は、CPU121、RAM122及び記憶部123を備える。CPU121、RAM122及び記憶部123のハードウェア構成は、第1の情報処理装置11のCPU111、RAM112及び記憶部113と同様である。
記憶部113には、動画検出装置制御プログラム123a及びキャラクター動画生成プログラム123bが記憶されている。
第2の制御部120は、動画検出装置制御プログラム123aに従って各種処理を実行することで、動作検出装置21に制御信号を送信して動作検出装置21の動作を制御するとともに、動作検出装置21から演者のモーションキャプチャーデータを取得する。
また、第2の制御部120は、キャラクター動画生成プログラム123bに従って各種処理を実行することで、キャラクターCの3D外観データ、及び動作検出装置21から受信したモーションキャプチャーデータに基づいて、キャラクター動画43を生成する。
このように、第2の制御部120は、CPU121が動画検出装置制御プログラム123a及びキャラクター動画生成プログラム123bを実行して各種処理を行うことで、キャラクター動画43を生成するキャラクター動画生成手段として機能する。
通信部124、操作部125及びキャラクター動画表示部126のハードウェア構成は、第1の情報処理装置11の通信部114、操作部115及びギャラリービュー表示部116a等と同様である。このうちキャラクター動画表示部126は、生成されたキャラクター動画43を表示する。
図9は、第3の情報処理装置13の主要な機能構成を示すブロック図である。
第3の情報処理装置13は、第3の制御部130と、通信部134と、操作部135と、表示部136などを備え、これらの各部はバス137を介して接続されている。
第3の制御部130は、CPU131、RAM132及び記憶部133を備える。CPU131、RAM132及び記憶部133のハードウェア構成は、第1の情報処理装置11のCPU111、RAM112及び記憶部113と同様である。
記憶部133には、特殊効果画像生成プログラム133aが記憶されている。
第3の制御部130は、特殊効果画像生成プログラム133aに従って各種処理を実行することで、特殊効果画像42を生成する。すなわち、第3の制御部130は、CPU131が特殊効果画像生成プログラム133aを実行して各種処理を行うことで、特殊効果画像42を生成する特殊効果画像生成手段として機能する。
通信部134、操作部135及び表示部136のハードウェア構成は、第1の情報処理装置11の通信部114、操作部115及びギャラリービュー表示部116a等と同様である。
図10は、第4の情報処理装置14の主要な機能構成を示すブロック図である。
第4の情報処理装置14は、第4の制御部140と、通信部144と、操作部145と、表示部146などを備え、これらの各部はバス147を介して接続されている。
第4の制御部140は、CPU141、RAM142及び記憶部143を備える。CPU141、RAM142及び記憶部143のハードウェア構成は、第1の情報処理装置11のCPU111、RAM112及び記憶部113と同様である。
記憶部143には、ボイスチェンジプログラム143aが記憶されている。
第4の制御部140は、ボイスチェンジプログラム143aに従って各種処理を実行することで、入力された演者の声を、リアルタイムでキャラクターCの声音に変換する。
通信部144、操作部145及び表示部146のハードウェア構成は、第1の情報処理装置11の通信部114、操作部115及びギャラリービュー表示部116a等と同様である。
図11は、第5の情報処理装置15の主要な機能構成を示すブロック図である。
第5の情報処理装置15は、第5の制御部150と、通信部154と、操作部155と、表示部156などを備え、これらの各部はバス157を介して接続されている。
第5の制御部150は、CPU151、RAM152及び記憶部153を備える。CPU151、RAM152及び記憶部153のハードウェア構成は、第1の情報処理装置11のCPU111、RAM112及び記憶部113と同様である。
記憶部153には、BGM出力・配信プログラム153aが記憶されている。
第5の制御部150は、BGM出力・配信プログラム153aに従って各種処理を実行することで、BGM及びSEのデータを生成する。また、第5の制御部150は、当該GBM及びSEを、オンラインイベントの共同ホストとしてオンライン会議システム2に接続してBGM及びSEのデータをオンライン会議システム2に送信するとともに、ミキサー24に送信する。なお、上述のとおり、BGM及びSEをミキサー24のみへ送信してもよい。
通信部154、操作部155及び表示部156のハードウェア構成は、第1の情報処理装置11の通信部114、操作部115及びギャラリービュー表示部116a等と同様である。
図12は、第6の情報処理装置16の主要な機能構成を示すブロック図である。
第6の情報処理装置16は、第6の制御部160と、通信部164と、操作部165と、表示部166などを備え、これらの各部はバス167を介して接続されている。
第6の制御部160は、CPU161、RAM162及び記憶部163を備える。CPU161、RAM162及び記憶部163のハードウェア構成は、第1の情報処理装置11のCPU111、RAM112及び記憶部113と同様である。
記憶部163には、オンライン会議アプリ163aが記憶されている。
第6の制御部160は、オンライン会議アプリ163aに従って各種処理を実行することで、オンラインイベントの共同ホストとしてオンライン会議システム2に接続し、上述したイベント制御信号をオンライン会議システム2に出力する。
通信部164、操作部165及び表示部166のハードウェア構成は、第1の情報処理装置11の通信部114、操作部115及びギャラリービュー表示部116a等と同様である。
図13は、端末装置3の主要な機能構成を示すブロック図である。
端末装置3は、制御部30と、通信部34と、操作部35と、表示部36と、Webカメラ37と、マイク38などを備え、これらの各部はバス39を介して接続されている。
制御部30は、CPU31、RAM32及び記憶部33を備える。CPU31、RAM32及び記憶部33のハードウェア構成は、第1の情報処理装置11のCPU111、RAM112及び記憶部113と同様とすることができる。また、通信部34、操作部35及び表示部36のハードウェア構成は、第1の情報処理装置11の通信部114、操作部115及びギャラリービュー表示部116a等と同様とすることができる。
Webカメラ37は、その向きに応じた撮影範囲の動画を撮影して制御部30に出力する。
マイク38は、音声を集音して制御部30に出力する。
Webカメラ37及び/又はマイク38は、端末装置3に内蔵されたものに限られず、ケーブル等を介して端末装置3に接続されている外付け機器であってもよい。
記憶部33には、オンライン会議アプリ33aが記憶されている。
制御部30は、オンライン会議アプリ33aに従って各種処理を実行することで、オンラインイベントのゲストとしてオンライン会議システム2に接続し、Webカメラ37により撮影されている動画(端末撮影動画411)、及びマイク38により集音されている参加者音声を、オンライン会議システム2に送信する。また、配信動画40を受信して表示部36に表示させるとともに、配信音声を受信して図示略のスピーカー又はイヤホン端子に出力する。
(変形例)
次に、上記実施形態の変形例について説明する。
上記実施形態では、図3(b)において1つの特殊効果画像42を例示したが、特殊効果画像42はこれに限られない。本明細書における「特殊効果」には、配信動画40に対して付与される任意の視覚的効果が含まれる。よって、特殊効果画像42には、任意の視覚的効果を配信動画40に付与するための画像が含まれ得る。以下では、図14~図17を参照して、特殊効果画像42のバリエーションについて説明する。
図14及び図15は、特殊効果画像42を用いてギャラリービュー41の所定範囲を特定する演出を行う例を示す図である。
図14(b)に示すように、この例における特殊効果画像42は、円形の開口422の内部がグリーンバックとなっており、開口422を除いた部分が黒色のベタ画像となっている。この特殊効果画像42をギャラリービュー41に重畳させて合成すると、ギャラリービュー41のうち開口422と重なる所定範囲が露出し、ギャラリービュー41のうち当該所定範囲を除いた部分がベタ画像により遮蔽される。このような特殊効果画像42を用いることで、開口422によってギャラリービュー41の所定範囲を特定することができる。
さらに、図14(c)に示すように、開口422の位置を指し示す動作を行うキャラクター動画43を重畳させると、図15に示す配信動画40が得られる。この配信動画40では、開口422から露出している参加者Pに焦点を当てることができるとともに、この参加者PとキャラクターCとの特別なコミュニケーションを演出することができる。
また、例えば開口422の位置を移動させていくと、各参加者Pは、自身が開口422から露出してギャラリービュー41に映るか否かを注視することとなる。このような演出により、参加者Pの興味を強く引くことができるとともに、オンラインイベントを盛り上げることができる。
図16及び図17は、特殊効果画像42を用いて塗り絵の演出を行う例を示す図である。
図16(b)に例示する特殊効果画像42は、郵便ポストの線画423を含む。ギャラリービュー41にこの特殊効果画像42を重畳させて合成すると、図17に示す配信動画40が得られる。図17の配信動画40に、さらにキャラクターCを重畳させてもよい。
図17の配信動画40では、複数の端末撮影動画411のうち一部が郵便ポストの線画423の範囲内となり、残りが線画423の範囲外となる。ここで、線画423の範囲内にある端末撮影動画411Rの参加者Pが、予め郵送されて手元にある赤色のフィルムをWebカメラ37に被せることで、自身の端末撮影動画411Rを赤色に着色することができる。線画423の範囲内にある各端末撮影動画411Rが赤色に着色されることで、ギャラリービュー41に赤色の郵便ポストが浮かび上がる演出を行うことができる。このような演出により、ギャラリービュー41の全ての参加者Pの興味を引くことができる。また、各参加者Pは、他の参加者Pの存在を意識することとなるため、ライブ配信ならではの一体感を得ることができる。
また、赤色のフィルム及び青色のフィルムは、赤及び青の着色に用いる他、これらを重ねてWebカメラ37に被せることで、端末撮影動画411を紫色に着色することもできる。このように複数の色のフィルムの組み合わせを用いることで、より高度な塗り絵を演出することもできる。
以上、本発明の実施形態を説明したが、本発明は、かかる実施形態に限定されるものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含み、その要旨を逸脱しない範囲で種々の変形が可能である。
例えば、ギャラリービュー41に対し、特殊効果画像42及びキャラクター動画43のうち一方のみを重畳させて配信動画40を生成してもよい。また、ギャラリービュー41に対し、特殊効果画像42及びキャラクター動画43以外のレイヤー画像を重畳させて配信動画40を生成してもよい。
また、キャラクター動画43において動作するキャラクターCとして、演者の動作を反映した動作を行う3DアニメーションのキャラクターCを例示したが、これに限定する趣旨ではない。
例えば、キャラクター動画43におけるキャラクターは、2Dアニメーションのキャラクターであってもよい。
また、キャラクター動画43におけるキャラクターは、実写のパフォーマー(役者、演奏者、歌手等)であってもよい。すなわち、キャラクター動画43は、パフォーマーを撮影した実写動画であってもよい。また、この実写のキャラクター動画43をギャラリービュー41にクロマキー合成して配信動画40を生成してもよい。これにより、パフォーマーの輪郭の外側の範囲においてギャラリービュー41を視認可能な配信動画40が得られる。
また、上記実施形態では、ソフトウェア(画像合成・配信プログラム113a)によりギャラリービュー41、特殊効果画像42及びキャラクター動画43を合成したが、これに限られず、スイッチャー等により各画像を抽出してハードウェア映像合成を行ってもよい。
また、動作検出装置21として、ヘッドマウントディスプレイ211、及び演者が両手に持つコントローラーによって演者の動作を検出するものを例示したが、これに限られず、動作検出装置21は、演者の動作を検出可能な任意の方式のものを用いることができる。例えば、演者をカメラによって撮影した結果に基づいて演者の動作を検出する動作検出装置21を用いてもよい。
また、事前に配信者から参加者に郵送されるイベント用アイテムは、上記実施形態で例示したものに限られない。例えば、配信動画を立体画像として視認するための3D眼鏡を事前に郵送し、オンラインイベントにおいて参加者が立体画像を視聴できるようにしてもよい。
1 情報処理システム
2 オンライン会議システム
3 端末装置
30 制御部
33a オンライン会議アプリ
37 Webカメラ
38 マイク
11 第1の情報処理装置
110 第1の制御部(配信動画生成手段)
113a 画像合成・配信プログラム
113b 仮想カメラ出力プラグイン
12 第2の情報処理装置(キャラクター動画生成手段)
120 第2の制御部
123a 動画検出装置制御プログラム
123b キャラクター動画生成プログラム
13 第3の情報処理装置(特殊効果画像生成手段)
130 第3の制御部
133a 特殊効果画像生成プログラム
14 第4の情報処理装置
140 第4の制御部
143a ボイスチェンジプログラム
15 第5の情報処理装置
150 第5の制御部
153a BGM出力・配信プログラム
16 第6の情報処理装置
160 第6の制御部
163a オンライン会議アプリ
21 動作検出装置
211 ヘッドマウントディスプレイ
22 ヘッドセット
23 オーディオI/F
24 ミキサー
40 配信動画
41 ギャラリービュー(背景動画)
411、411R 端末撮影動画
42 特殊効果画像(レイヤー画像)
421 星画像
422 開口
423 線画
43 キャラクター動画(レイヤー画像)
100 ライブ配信システム
C キャラクター
N 通信ネットワーク
P 参加者

Claims (15)

  1. オンラインイベントの複数の参加者が使用する複数の端末装置に対して配信される配信動画を生成する配信動画生成手段と、
    所定のキャラクターが動作するキャラクター動画を生成するキャラクター動画生成手段と、を備え、
    前記配信動画生成手段は、前記複数の端末装置により撮影された複数の矩形の端末撮影動画のうち、少なくとも一部の端末撮影動画がマトリクス状に配列されている背景動画に対し、当該背景動画の少なくとも一部を視認可能な状態でレイヤー画像を重畳させて前記配信動画を生成し、
    前記複数の端末撮影動画の各々は、前記複数の参加者の各々を撮影した動画であり、
    前記レイヤー画像は、前記キャラクター動画を含むことを特徴とする情報処理システム
  2. 前記キャラクター動画は、前記キャラクターが、前記背景動画の内容に応じた動作を行う動画であることを特徴とする請求項に記載の情報処理システム。
  3. 前記キャラクター動画生成手段は、前記キャラクターを演じる演者の動作を所定の動作検出装置により検出した結果に基づいて、前記演者の動作に応じて前記キャラクターが動作する前記キャラクター動画を生成することを特徴とする請求項又はに記載の情報処理システム。
  4. 前記動作検出装置は、前記演者が装着するヘッドマウントディスプレイを有し、
    前記配信動画生成手段は、生成した前記配信動画を前記ヘッドマウントディスプレイに表示させることを特徴とする請求項に記載の情報処理システム。
  5. オンラインイベントの複数の参加者が使用する複数の端末装置に対して配信される配信動画を生成する配信動画生成手段と、
    所定のキャラクターが動作するキャラクター動画を生成するキャラクター動画生成手段と、を備え、
    前記配信動画生成手段は、前記複数の端末装置により撮影された複数の端末撮影動画のうち2以上の端末撮影動画が配列されている背景動画に対し、当該背景動画の少なくとも一部を視認可能な状態でレイヤー画像を重畳させて前記配信動画を生成し、
    前記レイヤー画像は、前記キャラクター動画を含み、
    前記キャラクター動画生成手段は、前記キャラクターを演じる演者の動作を所定の動作検出装置により検出した結果に基づいて、前記演者の動作に応じて前記キャラクターが動作する前記キャラクター動画を生成し、
    前記動作検出装置は、前記演者が装着するヘッドマウントディスプレイを有し、
    前記配信動画生成手段は、生成した前記配信動画を前記ヘッドマウントディスプレイに表示させることを特徴とする情報処理システム。
  6. 前記配信動画は、前記キャラクターの輪郭の外側の範囲において前記背景動画を視認可能である、請求項~5のいずれか一項に記載の情報処理システム。
  7. 前記配信動画に特殊効果を付与するための特殊効果画像を生成する特殊効果画像生成手段を備え、
    前記レイヤー画像は、前記特殊効果画像を含むことを特徴とする請求項1~6のいずれか一項に記載の情報処理システム。
  8. 前記特殊効果画像は、前記背景動画内の所定範囲を特定する画像であることを特徴とする請求項7に記載の情報処理システム。
  9. 前記特殊効果画像は、前記背景動画の前記所定範囲を露出させるとともに、前記背景動画のうち前記所定範囲を除いた部分を遮蔽する画像であることを特徴とする請求項8に記載の情報処理システム。
  10. 前記特殊効果画像は、前記背景動画における前記少なくとも一部の端末撮影動画の各々を着色要素とする塗り絵の線画を含むことを特徴とする請求項7に記載の情報処理システム。
  11. オンラインイベントの複数の参加者が使用する複数の端末装置に対して配信される配信動画を生成する配信動画生成手段と、
    前記配信動画に特殊効果を付与するための特殊効果画像を生成する特殊効果画像生成手段と、を備え、
    前記配信動画生成手段は、前記複数の端末装置により撮影された複数の端末撮影動画のうち2以上の端末撮影動画が配列されている背景動画に対し、当該背景動画の少なくとも一部を視認可能な状態でレイヤー画像を重畳させて前記配信動画を生成し、
    前記レイヤー画像は、前記特殊効果画像を含み、
    前記特殊効果画像は、前記背景動画における前記2以上の端末撮影動画の各々を着色要素とする塗り絵の線画を含むことを特徴とする情報処理システム。
  12. 前記配信動画生成手段は、
    前記複数の端末装置が通信接続されている所定のオンライン会議システムから前記背景動画を取得し、
    生成した前記配信動画を前記オンライン会議システムに出力することで前記配信動画を前記複数の端末装置に送信することを特徴とする請求項1~11のいずれか一項に記載の情報処理システム。
  13. オンラインイベントの複数の参加者が使用する複数の端末装置に対して配信される配信動画を生成する配信動画生成ステップと、
    所定のキャラクターが動作するキャラクター動画を生成するキャラクター動画生成ステップと、を含み、
    前記配信動画生成ステップでは、前記複数の端末装置により撮影された複数の矩形の端末撮影動画のうち、少なくとも一部の端末撮影動画がマトリクス状に配列されている背景動画に対し、当該背景動画の少なくとも一部を視認可能な状態でレイヤー画像を重畳させて前記配信動画を生成し、
    前記複数の端末撮影動画の各々は、前記複数の参加者の各々を撮影した動画であり、
    前記レイヤー画像は、前記キャラクター動画を含むことを特徴とする情報処理方法。
  14. オンラインイベントの複数の参加者が使用する複数の端末装置に対して配信される配信動画を生成する配信動画生成ステップと、
    所定のキャラクターが動作するキャラクター動画を生成するキャラクター動画生成ステップと、を含み、
    前記配信動画生成ステップでは、前記複数の端末装置により撮影された複数の端末撮影動画のうち2以上の端末撮影動画が配列されている背景動画に対し、当該背景動画の少なくとも一部を視認可能な状態でレイヤー画像を重畳させて前記配信動画を生成し、
    前記レイヤー画像は、前記キャラクター動画を含み、
    前記キャラクター動画生成ステップでは、前記キャラクターを演じる演者の動作を所定の動作検出装置により検出した結果に基づいて、前記演者の動作に応じて前記キャラクターが動作する前記キャラクター動画を生成し、
    前記動作検出装置は、前記演者が装着するヘッドマウントディスプレイを有し、
    前記配信動画生成ステップでは、生成した前記配信動画を前記ヘッドマウントディスプレイに表示させることを特徴とする情報処理方法。
  15. オンラインイベントの複数の参加者が使用する複数の端末装置に対して配信される配信動画を生成する配信動画生成ステップと、
    前記配信動画に特殊効果を付与するための特殊効果画像を生成する特殊効果画像生成ステップと、を含み、
    前記配信動画生成ステップでは、前記複数の端末装置により撮影された複数の端末撮影動画のうち2以上の端末撮影動画が配列されている背景動画に対し、当該背景動画の少なくとも一部を視認可能な状態でレイヤー画像を重畳させて前記配信動画を生成し、
    前記レイヤー画像は、前記特殊効果画像を含み、
    前記特殊効果画像は、前記背景動画における前記2以上の端末撮影動画の各々を着色要素とする塗り絵の線画を含むことを特徴とする情報処理方法。
JP2020175762A 2020-10-20 2020-10-20 情報処理システム及び情報処理方法 Active JP7261207B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020175762A JP7261207B2 (ja) 2020-10-20 2020-10-20 情報処理システム及び情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020175762A JP7261207B2 (ja) 2020-10-20 2020-10-20 情報処理システム及び情報処理方法

Publications (2)

Publication Number Publication Date
JP2022067190A JP2022067190A (ja) 2022-05-06
JP7261207B2 true JP7261207B2 (ja) 2023-04-19

Family

ID=81390574

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020175762A Active JP7261207B2 (ja) 2020-10-20 2020-10-20 情報処理システム及び情報処理方法

Country Status (1)

Country Link
JP (1) JP7261207B2 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003087757A (ja) 2001-09-12 2003-03-20 Mitsubishi Electric Corp テレビ電話装置およびテレビ電話の表示方法
JP2013179601A (ja) 2013-03-25 2013-09-09 Kyocera Corp 画像表示装置、画像表示方法および画像表示プログラム
WO2016152633A1 (ja) 2015-03-26 2016-09-29 ソニー株式会社 画像処理システムおよび画像処理方法、並びにプログラム
WO2017159383A1 (ja) 2016-03-16 2017-09-21 ソニー株式会社 情報処理装置、情報処理方法、プログラム、動画像配信システム
JP2018074294A (ja) 2016-10-26 2018-05-10 学校法人幾徳学園 情報処理システムおよび情報処理方法
JP2020107264A (ja) 2018-12-28 2020-07-09 グリー株式会社 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
JP2020113857A (ja) 2019-01-10 2020-07-27 株式会社Zizai キャラクタを使ったライブ通信システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003087757A (ja) 2001-09-12 2003-03-20 Mitsubishi Electric Corp テレビ電話装置およびテレビ電話の表示方法
JP2013179601A (ja) 2013-03-25 2013-09-09 Kyocera Corp 画像表示装置、画像表示方法および画像表示プログラム
WO2016152633A1 (ja) 2015-03-26 2016-09-29 ソニー株式会社 画像処理システムおよび画像処理方法、並びにプログラム
WO2017159383A1 (ja) 2016-03-16 2017-09-21 ソニー株式会社 情報処理装置、情報処理方法、プログラム、動画像配信システム
JP2018074294A (ja) 2016-10-26 2018-05-10 学校法人幾徳学園 情報処理システムおよび情報処理方法
JP2020107264A (ja) 2018-12-28 2020-07-09 グリー株式会社 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
JP2020113857A (ja) 2019-01-10 2020-07-27 株式会社Zizai キャラクタを使ったライブ通信システム

Also Published As

Publication number Publication date
JP2022067190A (ja) 2022-05-06

Similar Documents

Publication Publication Date Title
US20180316948A1 (en) Video processing systems, methods and a user profile for describing the combination and display of heterogeneous sources
US20180316939A1 (en) Systems and methods for video processing, combination and display of heterogeneous sources
US8767034B2 (en) Augmenting a video conference
CN112104594A (zh) 沉浸式交互式远程参与现场娱乐
US20200349751A1 (en) Presentation interface and immersion platform
US20180316944A1 (en) Systems and methods for video processing, combination and display of heterogeneous sources
WO2020022405A1 (ja) 3次元コンテンツ配信システム、3次元コンテンツ配信方法、コンピュータプログラム
US20180316946A1 (en) Video processing systems and methods for display, selection and navigation of a combination of heterogeneous sources
US20090317778A1 (en) Public Library System for Providing Reading-Together at Two Remote Locations of a Selected Children Literature Item
US11399053B2 (en) System and method for providing a real-time digital virtual audience
CN113518232B (zh) 视频显示方法、装置、设备和存储介质
EP3996365A1 (en) Information processing device and program
US20240048677A1 (en) Information processing system, information processing method, and computer program
CN114402276A (zh) 授课系统、视听终端、信息处理方法以及程序
WO2022083133A1 (zh) 一种远程视频会议演示的方法和装置
JP2016034087A (ja) 映像表示システム
JP7261207B2 (ja) 情報処理システム及び情報処理方法
US20240056492A1 (en) Presentations in Multi-user Communication Sessions
WO2020194973A1 (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
CN109005441B (zh) 虚拟完赛场景播放方法、装置、终端及服务器
KR102082670B1 (ko) 방송 시청을 위한 가상 현실 사용자 인터페이스 제공 방법 및 장치
US6980333B2 (en) Personalized motion imaging system
KR20220126660A (ko) Ar 안면인식을 활용한 메타버스 화상 교육 플랫폼 제공 방법 및 네트워크 시스템
JP7408506B2 (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
Sun Sharing and Exchanging Realities through Video See-Through MR Headsets

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230407

R150 Certificate of patent or registration of utility model

Ref document number: 7261207

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150