JP2020123981A - コンテンツ配信システム、コンテンツ配信方法、コンピュータプログラム、コンテンツ配信用サーバ、および伝送路 - Google Patents

コンテンツ配信システム、コンテンツ配信方法、コンピュータプログラム、コンテンツ配信用サーバ、および伝送路 Download PDF

Info

Publication number
JP2020123981A
JP2020123981A JP2020077735A JP2020077735A JP2020123981A JP 2020123981 A JP2020123981 A JP 2020123981A JP 2020077735 A JP2020077735 A JP 2020077735A JP 2020077735 A JP2020077735 A JP 2020077735A JP 2020123981 A JP2020123981 A JP 2020123981A
Authority
JP
Japan
Prior art keywords
image
content distribution
avatar
scene
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020077735A
Other languages
English (en)
Other versions
JP7102457B2 (ja
JP2020123981A5 (ja
Inventor
進之介 岩城
Shinnosuke Iwaki
進之介 岩城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Virtual Cast Inc
Original Assignee
Virtual Cast Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Virtual Cast Inc filed Critical Virtual Cast Inc
Priority to JP2020077735A priority Critical patent/JP7102457B2/ja
Publication of JP2020123981A publication Critical patent/JP2020123981A/ja
Publication of JP2020123981A5 publication Critical patent/JP2020123981A5/ja
Application granted granted Critical
Publication of JP7102457B2 publication Critical patent/JP7102457B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】放送などコンテンツにおいて、被撮影者とアバター(仮想的キャラクター)とが同じ画面に描画されるようにして、リアルな現場にはあり得ない人工的なキャラクターがいることの意外さや面白さ、あるいは仮想的で人工的であるはずのアバターにリアル感を付加する面白さ、などを視聴者は十分に楽しむことができるとともに、被撮影者と人工的(仮想的)なキャラクターであるアバターとが一緒に登場するシーンにおける不自然さを解消することができる、コンテンツ配信システム、コンテンツ配信方法、コンピュータプログラム、コンテンツ配信用サーバ、および伝送路を提供する。【解決手段】演者20と、ダミー物体21とを一つの画面内に撮影する構成、その画面内におけるダミー物体21の描画をアバターの画像50cで置換してコンテンツ画像73を生成する構成、を備える。【選択図】図1

Description

本開示は、現実の演者である被撮影者と仮想キャラクタ(アバター)とが参加する公開番組等のライブコンテンツを配信するコンテンツ配信システム、コンテンツ配信方法、コンピュータプログラム、コンテンツ配信用サーバ、および伝送路に関する。
従来より、地上デジタル放送、BSデジタル放送、インターネット生放送など(以下ではこれらを包括して「放送」ともいう)では、複数の演者がシーンに登場する番組がしばしば放送されている。
例えば、従来技術にかかる放送番組の一シーンを模式的に示した図7(A)では、インタビュウを受けるインタビュウイー101が、インタビュウを行うインタビュアー102と近い位置で相対しており、インタビュウイー101がとインタビュアー102とが一つのシーンに収まるよう、図示しないカメラが彼らを撮影してインタビュウシーン100が生成され、これが放送に供されて視聴者が視聴する。カメラが彼ら二人により近づくか、あるいはカメラのレンズをより長焦点にズームアップすれば、図7(B)に見られるように同じインタビュウのバストショット103が得られる。
放送におけるこのようなインタビュウは、インタビュウイー101とインタビュアー102とが同じ場所にいない場合もあり、その場合には、従来技術にかかる放送番組の別な一シーンを模式的に示した図8(A)のように、撮影現場に居るインタビュウイー107を単独でカメラが撮影してインタビュウイー107のみが現れるシーンが撮影され、インタビュアーは例えば放送局のスタジオに居てインタビュウイー107と会話を行うので、このインタビュアーは放送シーン106には現れず、ただインタビュアーの発話音声のみが放送される。
また、図8(B)に示すように、インタビュアー111は同じく、インタビュウイー110とは別な場所、例えば放送局のスタジオに居るものの、別なカメラにてインタビュアー111を撮影し、インタビュウイー110を撮影した主画面の内部に子画面109としてはめ込む、ピクチャーインピクチャーの手法でインタビュウシーン108が作成される場合もある。
このように放送内において複数の演者が登場するシーンは、インタビュウに限らず、例えば記者やアナウンサが事件が起きた現場からレポートを行う際に、放送局スタジオにいる別のアナウンサと会話を行うシーン、歌番組や漫才などの芸能番組、ドラマ、など多数ありうる。
ところで、CG(コンピュータグラフィック)技術を用いて作成した仮想的なキャラクター(以下「アバター」ともいう)を、同じくCGで作成した仮想的な3次元空間内に描出して移動や動作を行わせるゲーム、放送、コンテンツが盛んに制作されている。
例えば下記特許文献1には、仮想空間内におけるアバターの移動操作を行おうとする参加者が、現実の空間内における参加者の位置情報をGPS(global positioning system)技術を利用して取得し、これを仮想空間内の位置情報に変換してアバターの仮想空間内位置操作に用いようとする構成が開示されている。
特許第4637889号公報
このように盛んに用いられるようになってきている仮想的キャラクター(アバター)を、ただ仮想的な空間内に描画するのではなく、現実の空間内に描画して、現実の演者である被撮影者(演技者、出演者、あるいはインタビュウを受ける通行人など)とアバターとが同じ画面に描画するようにして、リアルな現場にはあり得ない人工的なキャラクターがいることの意外さや面白さ、あるいは仮想的で人工的であるはずのアバターにリアル感を付加する面白さ、などを楽しめるようにした提案が最近なされている。
しかしながら、このように現実空間の画像と、人工的なアバターとを合成して一つのシーンに描画するようにした放送あるいはコンテンツでは従来、次のような本質的な課題が存在し未解決であった。
先に説明したように、現実の演者複数を一つのシーンとして撮影した、例えば図7(A),図7(B)に示す各シーンにおいては、登場する二人の演者101、102、104、105は互いに相手を視認し、直接会話をしているので、当然シーン中の会話は自然で違和感がなく、視聴者から見て自然である。
しかしながら、現実空間にいる現実の演者が、人工的なアバターと共演し一つのシーンに収まる番組を想定したとすると、アバターは実際には現実の演者の目の前には存在しないので、現実の演者は会話を行う相手が目の前にはおらず、一人であたかも会話を行うような演技を強いられることとなり、現実の演者が視線を投げる方向も定めることができず、シーン全体が不自然となってしまう。
そこで、先に示した図8(B)のように、現実の演者のみをカメラが撮影し、アバターは、はめ込み画面(ピクチャーインピクチャー)に登場するようにすれば、実際には同じ場所に存在しない現実の演者とアバターとが無理に一つの画面に描画されていないので、現実の演者が目の前に会話を行う相手がいないにも関わらずあたかもいるかのように話しているといった演技をする必要がないため不自然さはなくなるが、人工的なアバターを現実の空間内に描画するものとは異なるシーンとなってしまう。
従って、先に述べたような、現実の演者とアバターとを同じ画面に描画した場合に生じる、リアルな現場にはあり得ない人工的なキャラクターがいることの意外さや面白さ、あるいは仮想的で人工的であるはずのアバターにリアル感を付加する面白さ、などを視聴者は十分に楽しむことができない恐れがあった。
そこで、本開示では、現実の演者と人工的(仮想的)なキャラクターであるアバターとが一緒に登場するシーンにおける不自然さを解消するための、コンテンツ配信システム、コンテンツ配信方法、コンピュータプログラム、コンテンツ配信用サーバ、および伝送路を提供することを目的とする。
上記の課題を解決するために、本発明は、下記の1)乃至11)に記載のコンテンツ配信システム、コンテンツ配信方法、コンピュータプログラム、コンテンツ配信用サーバ、および伝送路を提供する。
1)
被撮影者を、仮想的キャラクターとともに一つのシーン中に表示して配信する、コンテンツ配信システムであって、
被撮影者とダミー物体とが一つのシーンに収まるよう撮影を行うシーン撮影用カメラ部、
撮影がなされたシーン中のダミー物体の画像を、仮想的キャラクターの画像へ置換をして配信する画像置換部、
を備えたことを特徴とする、コンテンツ配信システム。
2)
ダミー物体は、仮想的キャラクターの画像を表示するディスプレイを備えることを特徴とする、1)に記載のコンテンツ配信システム。
3)
画像置換部が配信する画像における、置換がなされた前記仮想的キャラクターの画像は、ダミー物体が備えるディスプレイに表示された仮想的キャラクターの画像とは異なる態様であることを特徴とする、2)に記載のコンテンツ配信システム。
4)
異なる態様は、異なる視点に基づくことを特徴とする、3)に記載のコンテンツ配信システム。
5)
ダミー物体は、シーン撮影用カメラ部とは異なる位置から被撮影者を撮影するカメラ及び/または被撮影者の音声を拾うマイクロフォンを有することを特徴とする、1)乃至4)のいずれか1項に記載のコンテンツ配信システム。
6)
仮想的キャラクターの外観表示態様を変更操作する操作部と、カメラおよび/またはマイクロフォンが収集した情報を表示する仮想的キャラクターの外観表示態様操作用表示部と、をさらに有することを特徴とする、5)に記載のコンテンツ配信システム。
7)
操作部は、ディスプレイに表示される仮想的キャラクターの外観表示態様、および/または、画像置換部が配信する画像中の前記仮想的キャラクターの画像の外観表示態様を変更操作するよう構成されたことを特徴とする、6)に記載のコンテンツ配信システム。
8)
画像置換部の配信画像を含んだコンテンツを通信路経由で放送する放送送信部と、放送中のコンテンツの画面中に表示させるユーザー投稿情報を受け付ける受信部とをさらに備え、且つ、ユーザー投稿情報は、仮想的キャラクターの画像を表示するディスプレイにもまた表示がなされるよう構成されたことを特徴とする、2)乃至7)のいずれか1項に記載のコンテンツ配信システム。
9)
画像置換部の配信画像を含んだコンテンツを通信路経由で放送する放送送信部と、放送中のコンテンツの画面中に表示させるユーザー投稿情報を受け付ける受信部とをさらに備え、且つ、前記ユーザー投稿情報は、仮想的キャラクターの外観表示態様操作用表示部にもまた表示がなされるよう構成されたことを特徴とする、6)乃至8)のいずれか1項に記載のコンテンツ配信システム。
10)
被撮影者を、仮想的キャラクターとともに一つのシーン中に表示して配信する、コンテンツ配信方法であって、
シーン撮影用カメラ部が、被撮影者とダミー物体とが一つのシーンに収まるよう撮影を行うステップ、
画像置換部が、撮影がなされたシーン中のダミー物体の画像を、仮想的キャラクターの画像へ置換をして配信するステップ、
を備えたことを特徴とする、コンテンツ配信方法。
11)
請求項10に記載のコンテンツ配信方法における各ステップをコンピュータが実行するコード群を含んだことを特徴とする、コンピュータプログラム。
12)
被撮影者を、仮想的キャラクターとともに一つのシーン中に表示して配信する、コンテンツ配信用サーバであって、
被撮影者とダミー物体とが一つのシーンに収まるよう撮影がなされたシーン中のダミー物体の画像を、仮想的キャラクターの画像へ置換をして配信するよう構成されたことを特徴とする、コンテンツ配信用サーバ。
13)
12)に記載のコンテンツ配信用サーバが前記配信を行った信号を伝送する伝送路。
本開示によれば、被撮影者と人工的(仮想的)なキャラクターであるアバターとが一緒に登場するシーンにおける不自然さを解消することができる。
本発明にかかるコンテンツ配信受信システムの構成を模式的に示した図である。 図1のコンテンツ配信受信システムが有するコンテンツ配信サーバのブロック図である。 図1のコンテンツ配信受信システムが有するアバター変更ユニットのブロック図である。 図1のコンテンツ配信受信システムが、被撮影者とアバターとを描画した画像を送信し表示する処理を示すフローチャートである。 図1のコンテンツ配信受信システムが、被撮影者視聴用のディスプレイにアバターを描画する処理を示すフローチャートである。 (A)図1のコンテンツ配信受信システムが有するシーン撮影用カメラが撮影した画像の模式図である。(B)図1のコンテンツ配信受信システムが有するアバター変更ユニットが生成した、アバターの画像を示す模式図である。(C)図1のコンテンツ配信受信システムが有するコンテンツ配信サーバが生成する、被撮影者とアバターとを一つの画面に収めたシーンの模式図である。 従来技術にかかる放送における、シーンの模式図である。 従来技術にかかる放送における、シーンの模式図である。
以下、本開示に係る実施形態について説明する。なお、以下に説明する本実施形態は、それぞれ例示に過ぎず、本発明の趣旨を脱しない範囲で種々の変形が可能であり、これらもまた本発明が包含する。
〔コンテンツ配信受信システム1の構成〕
図1は、本発明にかかるコンテンツ配信受信システム1の構成を模式的に示した図である。コンテンツ配信受信システム1は、現実の演者が撮影されるスタジオ、あるいは放送中継現場などである演者撮影現場2、アバターの動きなどをアバター操作者が操作するためにモーションキャプチャーシステムなどを備えたアバター操作スタジオ3、番組を放送するコンテンツ配信業者の配信環境4、放送番組を視聴するエンドユーザーであるコンテンツ閲覧者の閲覧環境5、にそれぞれ以下の構成が配置されている。
なお、上記の「現実の演者」とは、仮想キャラクター(アバター)ではない実際の被撮影者を指しており、演技を行う演者に限らず、例えば街頭インタビュウにおける通りがかりのインタビュウイーなども含んでいる。
このように異なる場所に各構成が配置されていることは本発明の実施に必須なものではなく、各構成のうちいずれかが、または全てが同一の場所に配置されていても良い。
演者撮影現場2には、演者20が居て番組のために演技を行い、演者の近傍には、演者用表示スタンドユニット21が配置されている。この演者用表示スタンドユニット21には、演者20を撮影してアバター操作者30の視認に供するための演者撮影用カメラ21a、演者20の発話を拾って同じくアバター操作者30の聴取に供したり、あるいは番組の音声として用いるための演者発話用マイク21b、アバター30が発した発話音声あるいは放送ディレクター(図示しない)からの指令音声などを発話するための演者聴取用スピーカー21c、アバターの画像21eを演者20が視認し、この結果、あたかも演者20が人工的なアバターと相対しているような環境を提供する演者視認用ディスプレイ21d、これら演者用表示スタンドユニット21が備える各構成を支えるスタンド21fなどを備えている。
また、演者撮影現場2にはシーン撮影用カメラ22が配置され、演者20と演者用表示スタンドユニット21とが一つの画面(シーン撮影用カメラ撮影ゾーン23)に収まるようにした撮影に用いられる。
演者用表示スタンドユニット21とシーン撮影用カメラ22の各信号系統は、インターネット通信網60、61、62、66を経由してコンテンツ配信サーバ40とデータ接続している。
なお、インターネット回線60、61,62,66間の接続ノードについては説明や図示を省略する。本発明の実施にあたり、各箇所に説明を行う信号、データの伝送は種々の回線、通信網を用いることが可能でありインターネット回線60、61,62,66に限定されない。この点は以下の記載においても同様である。
アバター操作スタジオ3は、前述のとおりアバター操作者30がモーションキャプチャー技術を用いてアバターの動きなどを操作するための場であり、図1ではその一例として、光学マーカー31がアバター操作者30の体の各所に取り付けられ、モーションキャプチャー用カメラ32がこれら各光学マーカー31を撮影して、後に示すアバター変更ユニット34が三角測距の原理を用いて各光学マーカー31の3次元空間内位置座標を検出している。
モーションキャプチャー技術として上記のような光学マーカーと、それに対応するカメラとの組み合わせにより実施するほかに、加速度センサーを用いてアバター操作者30の動きを検知する方式や、高周帯域電磁波をアバター操作者30に照射して反射して戻ってくる電磁波の解析結果からドップラー現象によりアバター操作者30の体の動きを検出する方式など様々な方式を用いることが可能である。
アバター操作スタジオ3には、アバターの操作者用表示スタンドユニット33が配置されており、同ユニット33には、必要に応じて点滅をして現在オンエア中であることをアバターの操作者30に知らせるタリーランプ33a、アバターの操作者の発話音声を拾うためのアバターの操作者撮影用マイク33b、演者20あるいは番組ディレクター(図示しない)などの発話音声を発声するアバターの操作者聴取用スピーカー33c、演者の画像33eを表示して、遠方に居る演者20とあたかも目の前で会話をしているごとき環境を提供するアバターの操作者視認用ディスプレイ33d、アバターの操作者用表示スタンドユニット33の各構成を支えるスタンド33fをそれぞれ備えている。なお、タリーランプ33aの近傍あるいは他の位置にアバターの操作者30の顔の表情などを撮影するカメラ(図示しない)を備え、アバターのレンダリングにあたってアバターの操作者30の顔の表情などを利用するように構成してもよい。
モーションキャプチャー用カメラ32とアバターの操作者用表示スタンドユニット33、の各信号系統は、インターネット通信網63,64を介してアバター変更ユニット34とデータ接続をしている。アバター変更ユニット34の構成は別途説明を行う。アバター変更ユニット34はインターネット通信網60、65、66を介してコンテンツ配信サーバ40とデータ接続をしている。
なお、上記のアバター変更ユニット34の一部の、あるいはすべての構成をコンテンツ配信サーバ40内に含めるようにしてもよい。その場合、アバター変更ユニット34の構成や機能、処理として説明を行った箇所は、コンテンツ配信サーバ40の構成、機能、処理となる。
またコンテンツ配信業者の配信環境4にはコンテンツ配信サーバ40が配置されており、その構成は別途説明を行う。
コンテンツ閲覧者の閲覧環境5には汎用のパーソナルコンピュータ50が設けられており、コンテンツ閲覧者(図示しない)はパーソナルコンピュータディスプレイ50aに描画された番組を楽しむことができる。後で説明するように番組の画面には演者の画像50bとアバターの画像50cとが一緒に描画されるように構成されており、この結果コンテンツ閲覧者は、現実の演者とアバターとが同じ画面に描画されることによって、リアルな現場にはあり得ない人工的なキャラクターがいることの意外さや面白さ、あるいは仮想的で人工的であるはずのアバターにリアル感を付加する面白さ、などを十分に楽しむことができる。
〔アバター変更ユニット34の構成〕
アバター変更ユニット34は、図3のブロック図に示すように、ユニット34全体の統制制御を行うCPUである制御ユニット340、メモリ341、モーションキャプチャー技術によりアバター操作者30の動きをデータ化するモーショントラッカ343、メモリ341内のアバターデータメモリ341bに蓄積された、アバターの外観などのデータ(画像データ)とモーショントラッカ343が生成するアバター操作者30の動きのデータとを用いて現在のアバターの姿勢に応じたCG画像を生成するレンダリング部344、ユニット34内外の通信送受を行う通信インターフェース345などを備えており、これら各構成はデータバスライン342を介して相互にデータ接続をしている。
またメモリ341が備えるプログラムメモリ341aは、本願明細書記載実施の形態に開示された動作を含む各動作を制御ユニット340その他が実行するための実行コード群を含んだ、アバター変更ユニット34が実行するべきコンピュータプログラムを読み出し可能に記憶しており、同じく一時メモリ341cはいわゆるキャッシュメモリとして使用される。
〔コンテンツ配信サーバ40の構成〕
図2のブロック図に示すようにコンテンツ配信サーバ40は、サーバ40全体の統制制御を行うCPUである制御ユニット41、メモリ42、シーン撮影用カメラ22が撮影して画像に含まれている演者用表示スタンドユニット21の画像がどのエリアであるかを特定するために、メモリ42内のテンプレート画像メモリ42bに記憶されているこの演者用表示スタンドユニット21の画像をテンプレート(型紙)としてシーン撮影用カメラ22が撮影して画像に対してすり合わせ法(統計的相関マッチング)などの技術を用いてエリアの特定を行うテンプレート画像トラッカ44、アバター変更ユニット34から送出された現在のアバターの画像を上記の特定されたエリアに重畳し、あるいは置換して、演者20とアバターとが一緒に描画されている放送用コンテンツ画像を生成するコンテンツ画像生成部45、サーバ40内外間のデータ送受を行う通信インターフェース46、をそれぞれ備えており、これら各構成はデータバスライン43を介して相互にデータ接続をしている。
またメモリ42が備えるプログラムメモリ42aは、本願明細書記載実施の形態に開示された動作を含む各動作を制御ユニット41その他が実行するための実行コード群を含んだ、サーバ40が実行するべきコンピュータプログラムを読み出し可能に記憶しており、同じく一時メモリ42cはいわゆるキャッシュメモリとして使用される。
またコンテンツ配信サーバ40は、後に説明する通り、被撮影者を仮想的キャラクター(アバター)とともに一つのシーン中に表示して配信するサーバであって、被撮影者とダミー物体とが一つのシーンに収まるよう撮影がなされたシーン中のダミー物体の画像を、仮想的キャラクターの画像へ置換をして配信するよう構成されている。また、コンテンツ配信サーバ40が配信を行った信号は、伝送路であるインターネット通信網60,66,67などが担持し、これら各伝送路を経由して伝送がなされる。
〔コンテンツ画像73の生成および表示処理〕
次に、コンテンツ(放送)に用いるべき、演者20とアバターとが一緒に描画されている画像73(以下、「コンテンツ画像」とも呼び、図6(C)の模式図、あるいは図1中のパーソナルコンピュータディスプレイ50a内にもその一例が示されている)が生成され、閲覧ユーザー(図示しない)が閲覧可能となるまでの処理を、図4のフローチャート、図6の模式図を援用して説明を行う。
まずアバター変更ユニット34の制御ユニット340は、メモリ341内のアバターデータメモリ341bに蓄積された、コンテンツ画像に描画をしたいアバターのデータ(仮想的キャラクターの外観を表す画像データなど)を読み出す(ステップS101)。次に制御ユニット340は、モーショントラッカ343を統制制御して先に説明をしたモーションキャプチャー技術によりアバター操作者30の動きを得てデータ化する(ステップS102)。
次に制御ユニット340は、得られたモーションキャプチャーデータと、アバターのデータとを用いて、アバターの3D描画画像を生成するレンダリングをレンダリング部344に行わせる(ステップS103)。レンダリングに際してはどの位置から見たアバターの画像を生成するかが、重要であるので、レンダリング部344はあらかじめコンテンツ配信サーバ40からこの視点の位置の情報、具体的には図1における、演者撮影現場2中のシーン撮影用カメラ22の位置の情報であって、後に説明するように、アバターの画像と置換をすべき対象物である演者用表示スタンドユニット21の相対的な位置の情報が保存されている。この視点から見てアバターがどの方向を向いているようにレンダリングを行うかについて制約はないが、演者20とアバターとが向かい合ってインテビュウを行っているシーンである場合には、アバターを横から見た情景のレンダリングとすることは適格な選択である。
なお、上記に説明を行った態様とは一部異なる構成とした別態様とすることができ、一つの別態様ではアバター変更ユニット34はモーションキャプチャーにかかわる動作までのみを実施してその結果となるデータをコンテンツ配信サーバ40へ送信し、コンテンツ配信サーバ40では上記に説明をしたアバター画像のレンダリングを行うようにしてもよい。この場合、レンダリングにかかわる構成は、先の説明ではアバター変更ユニット34に含まれるとしたことに代えて、コンテンツ配信サーバ40に含まれることとする。
さらに、先に説明した、アバター操作スタジオ3に配置された一部あるいはすべての構成をコンテンツ配信業者の配信環境4や他の場所に配置し、それぞれの機能を有するようにしてもよい。
このような別態様における構成の相違点、処理の相違点は本明細書の各所説明箇所から容易に理解できるものであるので説明を省略する。
レンダリングにより得られたアバターの画像データは、通信インターフェース345、インターネット通信網60、65、66を経由してコンテンツ配信サーバ40へ伝送される(ステップS104)。
コンテンツ配信サーバ40では伝送されたアバター画像のデータを受信するとともに(ステップS204)、あらかじめ次の動作を実行する。
まず、後にアバターの画像へ置換がされるべき対象物の画像であって、シーン撮影用カメラ22が演者20とともに撮影した画像(図6(A)における演者用表示スタンドユニット21)がテンプレート(型紙)画像としてあらかじめコンテンツ配信サーバ40のテンプレート画像メモリ42bに記憶されており、制御ユニット41は、テンプレート画像トラッカ44に対してそのテンプレート画像の読み出しを命じる(ステップS201)。
また制御ユニット41の統制制御に応じて、シーン撮影用カメラ22が演者20とともに演者用表示スタンドユニット21を撮影した画像70(以下、「シーン撮影画像」ともいう)が、インターネット通信網60、62、66、通信インターフェース46経由で受信がなされる(ステップS202)。
次に、制御ユニット41の統制制御に応じて、コンテンツ画像生成部45が、受信されたシーン撮影画像70中におけるテンプレート画像すなわち演者用表示スタンドユニット21が描画された位置を特定する(ステップS203)。特定に際しては、シーン撮影画像70に対して少しずつ位置をずらしながらテンプレート画像との相関マッチングを行うすり合わせ法により、最も相関の高い位置を選択する、などの方法があり、他の方法でもよい。
例えば、図示をしない操作者の操作に応じて、アバターの画像72を描画すべき画面中の位置が決定されるようにしてもよい。
次にコンテンツ画像生成部45は、特定されたテンプレート画像すなわち演者用表示スタンドユニット21の位置において、このテンプレート画像すなわち演者用表示スタンドユニット21の画像を、ステップS204で伝送されたアバターの画像72で置換する(ステップS205)。置換により、画面中に演者20とアバターの画像72とが一緒に描画されたコンテンツ画像73が生成されるので、このコンテンツ画像73が通信インターフェース46、インターネット通信網60、66、67経由でパーソナルコンピュータ50へ伝送がなされる(ステップS206)。すなわち、インターネット通信網60、66、67は、コンテンツ配信サーバ40が生成した信号あるいは情報である、被撮影者である演者20と、ダミー物体とが一つのシーンに収まるよう撮影がなされたシーン中のダミー物体の画像を、仮想的キャラクター(アバター)の画像へ置換をして配信された信号あるいは情報を伝送し、あるいは担持(carry)し、この後説明をおこなう受信用端末であるパーソナルコンピュータ50などへ供給することとなる。
なお、上記の態様のように、アバター画像に置き換わるべきダミー物体(例示では演者用表示スタンドユニット21)の画像をあらかじめテンプレートして保持しておき統計的処理によってそのダミー物体の描画位置をサーバ40が判断する態様以外にも、操作を行う人が手作業で、画面内におけるアバターの描画位置を指定する方法としてもよい点を先に説明した。
一方、閲覧ユーザー(図示しない)が用いるパーソナルコンピュータ50は、コンテンツ配信サーバ40が送信するコンテンツ画像73をパーソナルコンピュータディスプレイ50aに表示する(ステップS302)。
図4図示のフローチャートに示す通り、以上説明をした各処理は、終了操作を待つ判断ステップS105,S207、S303において終了操作が検知されない限り繰り返されるので、コンテンツ画像73は繰り返し更新がされることとなり、この結果、閲覧ユーザーは、演者20とアバターの画像73とが一緒の画面中に描画された動画を閲覧することが可能となる。この時、演者20は、演者用表示スタンドユニット21を見て、あたかも現実の対話者のごとくに話をしたり視線を合わせたりしているシーンが置換前のシーン撮影画像70であるので、置換後のコンテンツ画像73を視認する閲覧ユーザーは、まるで演者20がアバターと本当に相対して会話をしているような感覚を得ることができ、この結果、本実施形態によれば、現実の演者と人工的(仮想的)なキャラクターであるアバターとが一緒に登場するシーンにおける不自然さを解消することができる。
あるいは、演者20が直接アバターの方向を向いていない態様の描画においても、演者20はあたかも演者視認用ディスプレイ21dの位置にアバターが存在するように会話や演技を行うことができ、その様な態様においても、現実の演者と人工的(仮想的)なキャラクターであるアバターとが一緒に登場するシーンにおける不自然さを解消することができる。
それゆえに、現実の演者とアバターとが同じ画面に描画するようにして、リアルな現場にはあり得ない人工的なキャラクターがいることの意外さや面白さ、あるいは仮想的で人工的であるはずのアバターにリアル感を付加する面白さ、などを視聴者である閲覧ユーザーは十分に楽しむことが可能となる。
〔演者視認用ディスプレイ21dにおけるアバターの画像21e表示の処理〕
以上は、閲覧ユーザー(図示しない)が閲覧を行う、パーソナルコンピュータディスプレイ50aの表示画面において、アバターの画像50cが描画される処理を中心に説明を行った。
次に、閲覧ユーザーが閲覧することを主たる目的とはせず、演者20が閲覧をする演者視認用ディスプレイ21dにおけるアバターの画像21e表示の処理について説明を行う。
生成されたコンテンツ画像73において、演者20がアバターとあたかも相対し、向かい合い、視線を合わせているように描画を行うことは、本発明の効果を奏する上で好ましい点であることを先に説明した。
そこで、演者20が相対している演者用表示スタンドユニット21が備える演者視認用ディスプレイ21dに、アバターが演者20の方を向いている概略正面像が描画されれば、演者20は本当にアバターと相対している感覚を持つことができ、この結果、閲覧ユーザーもまたコンテンツ画像73を閲覧した際にリアルな感覚を得ることができる。
そのために、図5のフローチャートに示すように、アバター変更ユニット34では、まずアバター変更ユニット34の制御ユニット340が、メモリ341内のアバターデータメモリ341bに蓄積された、コンテンツ画像に描画をしたいアバターのデータ(仮想的キャラクターの外観を表す画像データなど)を読み出す(ステップS401)。次に制御ユニット340は、モーショントラッカ343を統制制御して先に説明をしたモーションキャプチャー技術によりアバター操作者30の動きを得てデータ化する(ステップS402)。
次に制御ユニット340は、得られたモーションキャプチャーデータと、アバターのデータとを用いて、アバターの3D描画画像を生成するレンダリングをレンダリング部344に行わせる(ステップS403)。レンダリングに際してはどの位置から見たアバターの画像を生成するかが、重要であるので、レンダリング部34はあらかじめコンテンツ配信サーバ40からこの視点の位置の情報、具体的には図1における、演者撮影現場2中のシーン撮影用カメラ22の位置の情報であって、後に説明するように、アバターの画像と置換をすべき対象物である演者用表示スタンドユニット21の相対的な位置の情報が用いられる。この視点から見てアバターがどの方向を向いているようにレンダリングを行うかについて制約はないが、演者20とアバターとが向かい合ってインテビュウを行っているシーンである場合には、アバターを正面から見た情景のレンダリングとすることは適格な選択である。
レンダリングにより得られたアバターの画像データは、通信インターフェース345、インターネット通信網60、65、66を経由してコンテンツ配信サーバ40へ伝送される(ステップS404、S501)。
コンテンツ配信サーバ40は伝送されたアバターの画像を、そのままかあるいは適切な背景をつけるなど加工を行い、インターネット通信網60、61、66経由で演者視認用ディスプレイ21dへ送出して描画をさせる(ステップS502)。
図5図示のフローチャートに示す通り、以上説明をした各処理は、終了操作を待つ判断ステップS405,S503において終了操作が検知されない限り繰り返されるので、演者視認用ディスプレイ21dに描画がなされるアバターの画像は繰り返し更新がされることとなり、この結果、演者20は、アバターの画像の動画を閲覧することが可能となる。
この時、演者20は、演者用表示スタンドユニット21を見て、あたかも現実の対話者のごとくに話をしたり視線を合わせたりしているシーンが、先に説明をした置換前のシーン撮影画像70であるので、置換後のコンテンツ画像73を視認する閲覧ユーザーは、まるで演者20がアバターと本当に相対して会話をしているような感覚を得ることができ、この結果、本実施形態によれば、現実の演者と人工的(仮想的)なキャラクターであるアバターとが一緒に登場するシーンにおける不自然さを解消することができる。
あるいは、演者20が直接アバターの方向を向いていない態様の描画においても、演者20はあたかも演者視認用ディスプレイ21dの位置にアバターが存在するように会話や演技を行うことができ、その様な態様においても、現実の演者と人工的(仮想的)なキャラクターであるアバターとが一緒に登場するシーンにおける不自然さを解消することができる。
それゆえに、現実の演者とアバターとが同じ画面に描画するようにして、リアルな現場にはあり得ない人工的なキャラクターがいることの意外さや面白さ、あるいは仮想的で人工的であるはずのアバターにリアル感を付加する面白さ、などを視聴者である閲覧ユーザーは十分に楽しむことが可能となる。
なお、演者視認用ディスプレイ21dには、上記実施態様のようにアバターの画像21e以外にも、被撮影者が読むために作成された指示コメント(いわゆる「カンニングペーパー」、「カンペ」)や、番組のディレクターなどスタッフの画像(図示しない)や音声、を表示したり付属のスピーカーで発声するようにしてもよい。
〔ユーザー投稿情報の表示〕
以上に説明した実施形態のほかに、あるいはこの構成に加えて、次のような構成としてもよい。
インターネット通信網などを用いて生で放送を行うコンテンツなどを閲覧者(図示しない)が楽しむ方法として、コンテンツの感想や閲覧者のつぶやきなど(以下、「コメント」ともいう)を、閲覧者のパーソナルコンピュータ50で入力操作して送信し、入力したこれらコメントをリアルタイムに、他の閲覧者使用端末(図示しない)で表示を行えば、コメントを書き込んだ閲覧者は自分の発言を他の閲覧者へ知らせることができるし、他人が書いたコメントを読む閲覧者は、自分が該当するコンテンツを閲覧して楽しむほかに他の閲覧者の考えや感想も知ることができるので、あたかも一つの会場に会してコンサートやイベントを楽しむような、疑似的な(バーチャルな)同時参加の感覚や連帯感を得ることができる。
その際に、本システム1では、いずれかの閲覧者が投稿したコメントを、コンテンツ配信サーバ40を経由して演者視認用ディスプレイ21dや、アバターの操作者視認用ディスプレイ33dの少なくともいずれかにも表示されるように構成することができる。この結果、コメントを読んだ演者20あるいはアバターの操作者30は、上に述べた同時参加の感覚や連帯感を得て、よりリアルな演技や応答、アバターの操作が可能となる。
〔コンテンツ配信受信システム1における音声の取り扱い〕
先に説明をしたように、本実施形態にかかるコンテンツ配信受信システム1は、あたかも演者20とアバターとが現実の空間内に一緒に存在しているかのようなコンテンツ画像73を生成することができる。よりリアル感を増すために、このようなコンテンツ画像73とともに、演者20の発話音声、およびアバターの発話音声を例えばアバター操作者30の発話で代替した音声、を放送に加えることは自然な発想であり、また重要な点である。そのために本システム1は、演者の発話を拾うための演者発話用マイク21bや、アバター操作者30の発話を拾うためのアバターの操作者撮影用マイク33bを有しており、また演者20の発話をアバター操作者30が聴取するためのアバターの操作者聴取用スピーカー33cや、アバター操作者30の発話を演者20が聴取するための演者聴取用スピーカー21cが備えられており、これらを用いた音声信号の伝送は、先に説明をした各動画像の伝送にかかわる実施態様から明らかであるので、繰り返しとなる説明は避けることとする。
なお、本実施形態は放送コンテンツに関するものであるので、この放送が生放送である場合については、演者20の発話音声や、アバターの発話音声を例えばアバター操作者30の発話で代替した音声は、この生放送を視聴する汎用のパーソナルコンピュータでも発音することができるので、先に説明をした各スピーカー21c、33cに代えて、汎用パーソナルコンピュータ付属するかまたは接続するスピーカーを利用してもよい。
同様に、演者20を演者撮影用カメラ21aで撮影した画像33eが、アバターの操作者視認用ディスプレイ33dに描画がされれば、アバター操作者30もまた、あたかも演者20が目の前で相対しているような感覚でアバターの操作が行えるので、発明の効果をより向上させることができる。
〔変形例〕
以上説明をした本実施形態にかかるコンテンツ配信受信システム1は、以上に説明をした構成に限ることはなく種々の変形が可能であり、いずれも本発明が包含をする。
例えば、演者視認用ディスプレイ21dを省略して、演者20はアバター操作者30の画像は視認しないながらもアバター操作者30の音声のみを聴取して対話を行うようにしてもよいし、その様なシステムでは構成がよりシンプルとなり、コスト低減や信頼性向上が実現する。
あるいは、演者用表示スタンドユニット21を用いるのではなく、単なる置物やぬいぐるみ、すなわちダミーの物体を配置して、演者20が対話の動作を行い、先に説明をした置換と同じ処理によりダミー物体の表示部分をアバターの画像で置換して、コンテンツ画像73を生成して閲覧に供するようにしてもよい。この場合、演者20は、生放送であれば、この生放送の画像や音声によってアバターの動きや発話を認識できるので、同様に自然な感覚でアバターと演者20とが同じ画面に描画された放送を閲覧ユーザーが楽しむことができ、その様なシステムもまた構成がよりシンプルとなり、コスト低減や信頼性向上が実現する。このように、演者20が生放送の映像や音声を送出するパーソナルコンピュータ(図示しない)を自分も視聴しながら演じることとなり、パーソナルコンピュータはダミー物体(置物やぬいぐるみなど)の近傍に置かれていても、離れた場所に置かれていてもよく、このパーソナルコンピュータがシーン撮影用カメラ撮影ゾーン23に含まれるようにしても、含まれないようにしてもよい。さらに、このパーソナルコンピュータ自身を、アバターの画像に描画が置き換えられるダミー物体として用いてもよい。
(発明の効果の説明)
放送などコンテンツにおいて、現実の演者とアバターとが同じ画面に描画するようにして、リアルな現場にはあり得ない人工的なキャラクターがいることの意外さや面白さ、あるいは仮想的で人工的であるはずのアバターにリアル感を付加する面白さ、などを視聴者は十分に楽しむことができるとともに、現実の演者と人工的(仮想的)なキャラクターであるアバターとが一緒に登場するシーンにおける不自然さを解消することができる、コンテンツ配信システム、コンテンツ配信方法、コンピュータプログラム、コンテンツ配信用サーバ、および伝送路を本発明は提供する。
本発明は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものとする。
1 コンテンツ配信受信システム
2 演者撮影現場
3 アバター操作スタジオ
4 コンテンツ配信業者
5 コンテンツ閲覧者宅
20 演者
21 演者用表示スタンドユニット
21a 演者撮影用カメラ
21b 演者発話用マイク
21c 演者聴取用スピーカー
21d 演者視認用ディスプレイ
21e アバターの画像
21f スタンド
22 シーン撮影用カメラ
23 シーン撮影用カメラ撮影ゾーン
30 アバターの操作者
31 モーションキャプチャー用光学マーカー
32 モーションキャプチャー用カメラ
33 アバターの操作者用表示スタンドユニット
33a タリーランプ
33b アバターの操作者撮影用マイク
33c アバターの操作者聴取用スピーカー
33d アバターの操作者視認用ディスプレイ
33e 演者の画像
33f スタンド
34 アバター変更ユニット
340 制御ユニット
341 メモリ
341a プログラムメモリ
341b アバターデータメモリ
341c 一時メモリ
342 データバスライン
343 モーショントラッカ
344 レンダリング部
345 通信インターフェース
40 コンテンツ配信サーバ
41 制御ユニット
42 メモリ
42a プログラムメモリ
42b テンプレート画像メモリ
42c 一時メモリ
43 データバスライン
44 テンプレート画像トラッカ
45 コンテンツ画像生成部
46 通信インターフェース
50 パーソナルコンピュータ
50a パーソナルコンピュータディスプレイ
50b シーン中の演者の画像
50c シーン中のアバターの画像
60、61、62、63、64、65、66、67 インターネット通信網

Claims (13)

  1. 被撮影者を、仮想的キャラクターとともに一つのシーン中に表示して配信する、コンテンツ配信システムであって、
    前記被撮影者とダミー物体とが一つのシーンに収まるよう撮影を行うシーン撮影用カメラ部、
    前記撮影がなされたシーン中の前記ダミー物体の画像を、前記仮想的キャラクターの画像へ置換をして配信する画像置換部、
    を備えたことを特徴とする、コンテンツ配信システム。
  2. 前記ダミー物体は、前記仮想的キャラクターの画像を表示するディスプレイを備えることを特徴とする、請求項1に記載のコンテンツ配信システム。
  3. 前記画像置換部が配信する画像における、置換がなされた前記仮想的キャラクターの画像は、前記ダミー物体が備えるディスプレイに表示された仮想的キャラクターの画像とは異なる態様であることを特徴とする、請求項2に記載のコンテンツ配信システム。
  4. 前記異なる態様は、異なる視点に基づくことを特徴とする、請求項3に記載のコンテンツ配信システム。
  5. 前記ダミー物体は、前記シーン撮影用カメラ部とは異なる位置から前記被撮影者を撮影するカメラ及び/または前記被撮影者の音声を拾うマイクロフォンを有することを特徴とする、請求項1乃至4のいずれか1項に記載のコンテンツ配信システム。
  6. 前記仮想的キャラクターの外観表示態様を変更操作する操作部と、前記カメラおよび/またはマイクロフォンが収集した情報を表示する前記仮想的キャラクターの外観表示態様操作用表示部と、をさらに有することを特徴とする、請求項5に記載のコンテンツ配信システム。
  7. 前記操作部は、前記ディスプレイに表示される前記仮想的キャラクターの外観表示態様、および/または、前記画像置換部が配信する画像中の前記仮想的キャラクターの画像の外観表示態様を変更操作するよう構成されたことを特徴とする、請求項6に記載のコンテンツ配信システム。
  8. 前記画像置換部の配信画像を含んだコンテンツを通信路経由で放送する放送送信部と、前記放送中のコンテンツの画面中に表示させるユーザー投稿情報を受け付ける受信部とをさらに備え、且つ、前記ユーザー投稿情報は、前記仮想的キャラクターの画像を表示するディスプレイにもまた表示がなされるよう構成されたことを特徴とする、請求項2乃至7のいずれか1項に記載のコンテンツ配信システム。
  9. 前記画像置換部の配信画像を含んだコンテンツを通信路経由で放送する放送送信部と、前記放送中のコンテンツの画面中に表示させるユーザー投稿情報を受け付ける受信部とをさらに備え、且つ、前記ユーザー投稿情報は、前記仮想的キャラクターの外観表示態様操作用表示部にもまた表示がなされるよう構成されたことを特徴とする、請求項6乃至8のいずれか1項に記載のコンテンツ配信システム。
  10. 被撮影者を、仮想的キャラクターとともに一つのシーン中に表示して配信する、コンテンツ配信方法であって、
    シーン撮影用カメラ部が、前記被撮影者とダミー物体とが一つのシーンに収まるよう撮影を行うステップ、
    画像置換部が、前記撮影がなされたシーン中の前記ダミー物体の画像を、前記仮想的キャラクターの画像へ置換をして配信するステップ、
    を備えたことを特徴とする、コンテンツ配信方法。
  11. 請求項10に記載のコンテンツ配信方法における各ステップをコンピュータが実行するコード群を含んだことを特徴とする、コンピュータプログラム。
  12. 被撮影者を、仮想的キャラクターとともに一つのシーン中に表示して配信する、コンテンツ配信用サーバであって、
    前記被撮影者とダミー物体とが一つのシーンに収まるよう撮影がなされたシーン中の前記ダミー物体の画像を、前記仮想的キャラクターの画像へ置換をして配信するよう構成されたことを特徴とする、コンテンツ配信用サーバ。
  13. 請求項12に記載のコンテンツ配信用サーバが前記配信を行った信号を伝送する伝送路。
JP2020077735A 2020-04-24 2020-04-24 コンテンツ配信システム、コンテンツ配信方法、およびコンピュータプログラム Active JP7102457B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020077735A JP7102457B2 (ja) 2020-04-24 2020-04-24 コンテンツ配信システム、コンテンツ配信方法、およびコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020077735A JP7102457B2 (ja) 2020-04-24 2020-04-24 コンテンツ配信システム、コンテンツ配信方法、およびコンピュータプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018125403A Division JP6697512B2 (ja) 2018-06-14 2018-06-14 コンテンツ配信システム、コンテンツ配信方法、およびコンピュータプログラム

Publications (3)

Publication Number Publication Date
JP2020123981A true JP2020123981A (ja) 2020-08-13
JP2020123981A5 JP2020123981A5 (ja) 2021-07-26
JP7102457B2 JP7102457B2 (ja) 2022-07-19

Family

ID=71993119

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020077735A Active JP7102457B2 (ja) 2020-04-24 2020-04-24 コンテンツ配信システム、コンテンツ配信方法、およびコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP7102457B2 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002271694A (ja) * 2001-03-13 2002-09-20 Canon Inc 画像処理方法、画像処理装置、スタジオ装置、記憶媒体及びプログラム
JP2003323628A (ja) * 2002-05-02 2003-11-14 Nippon Hoso Kyokai <Nhk> 発言者特定映像装置およびそのプログラムならびに発言者特定映像表示方法
JP2003324709A (ja) * 2002-05-07 2003-11-14 Nippon Hoso Kyokai <Nhk> 擬似出張用情報送信方法、擬似出張用情報送信装置、擬似出張用情報送信プログラムおよび擬似出張用情報再生方法、擬似出張用情報再生装置、擬似出張用情報再生プログラム
JP2003346190A (ja) * 2002-05-29 2003-12-05 Canon Inc 画像処理装置
JP2006067405A (ja) * 2004-08-30 2006-03-09 Sharp Corp テレビ放送送信機、テレビ放送受信機、ブロードキャスト番組参加システム、及び方法
JP2011055483A (ja) * 2009-08-06 2011-03-17 Bond:Kk 番組画像配信システム、番組画像配信方法及びプログラム
JP2018074294A (ja) * 2016-10-26 2018-05-10 学校法人幾徳学園 情報処理システムおよび情報処理方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002271694A (ja) * 2001-03-13 2002-09-20 Canon Inc 画像処理方法、画像処理装置、スタジオ装置、記憶媒体及びプログラム
JP2003323628A (ja) * 2002-05-02 2003-11-14 Nippon Hoso Kyokai <Nhk> 発言者特定映像装置およびそのプログラムならびに発言者特定映像表示方法
JP2003324709A (ja) * 2002-05-07 2003-11-14 Nippon Hoso Kyokai <Nhk> 擬似出張用情報送信方法、擬似出張用情報送信装置、擬似出張用情報送信プログラムおよび擬似出張用情報再生方法、擬似出張用情報再生装置、擬似出張用情報再生プログラム
JP2003346190A (ja) * 2002-05-29 2003-12-05 Canon Inc 画像処理装置
JP2006067405A (ja) * 2004-08-30 2006-03-09 Sharp Corp テレビ放送送信機、テレビ放送受信機、ブロードキャスト番組参加システム、及び方法
JP2011055483A (ja) * 2009-08-06 2011-03-17 Bond:Kk 番組画像配信システム、番組画像配信方法及びプログラム
JP2018074294A (ja) * 2016-10-26 2018-05-10 学校法人幾徳学園 情報処理システムおよび情報処理方法

Also Published As

Publication number Publication date
JP7102457B2 (ja) 2022-07-19

Similar Documents

Publication Publication Date Title
JP6724110B2 (ja) 仮想空間中のアバター表示システム、仮想空間中のアバター表示方法、コンピュータプログラム
US9866795B2 (en) System and method for interactive animations for enhanced and personalized video communications
US9792954B2 (en) Information processing apparatus and recording medium
US10225608B2 (en) Generating a representation of a user&#39;s reaction to media content
US20210092466A1 (en) Information processing apparatus, information processing method, and program
JP2022177053A (ja) 情報処理システム、情報処理方法、および情報処理プログラム
JP2002150317A (ja) 映像表示装置
WO2021246183A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
CN110401810B (zh) 虚拟画面的处理方法、装置、系统、电子设备及存储介质
JP2019087226A (ja) 情報処理装置、情報処理システムおよび表情画像出力方法
CN110413108A (zh) 虚拟画面的处理方法、装置、系统、电子设备及存储介质
JP7318139B1 (ja) 操縦可能なアバターを有するウェブベースのテレビ会議仮想環境及びその適用
KR102200239B1 (ko) 실시간 cg 영상 방송 서비스 시스템
WO2011027475A1 (ja) テレビ会議装置
JP6697512B2 (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンピュータプログラム
CN116964544A (zh) 信息处理装置、信息处理终端、信息处理方法和程序
JP2020102782A (ja) コンテンツ配信システム、配信装置、受信装置及びプログラム
JP7102457B2 (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンピュータプログラム
CN113632498A (zh) 内容发布系统、内容发布方法、以及内容发布程序
JP2011109371A (ja) 3次元画像にコメントテキストを重畳して表示するサーバ、端末、プログラム及び方法
JP2016048855A (ja) 遠隔意思疎通装置及びプログラム
JP2002271694A (ja) 画像処理方法、画像処理装置、スタジオ装置、記憶媒体及びプログラム
CN116962746A (zh) 基于连麦直播的线上合唱方法、装置及线上合唱系统
JP2006067405A (ja) テレビ放送送信機、テレビ放送受信機、ブロードキャスト番組参加システム、及び方法
JP2020127211A (ja) 3次元コンテンツ配信システム、3次元コンテンツ配信方法、コンピュータプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210614

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210614

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220706

R150 Certificate of patent or registration of utility model

Ref document number: 7102457

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150