JP7102457B2 - Content distribution systems, content distribution methods, and computer programs - Google Patents
Content distribution systems, content distribution methods, and computer programs Download PDFInfo
- Publication number
- JP7102457B2 JP7102457B2 JP2020077735A JP2020077735A JP7102457B2 JP 7102457 B2 JP7102457 B2 JP 7102457B2 JP 2020077735 A JP2020077735 A JP 2020077735A JP 2020077735 A JP2020077735 A JP 2020077735A JP 7102457 B2 JP7102457 B2 JP 7102457B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- content distribution
- virtual character
- avatar
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本開示は、現実の演者である被撮影者と仮想キャラクタ(アバター)とが参加する公開番組等のライブコンテンツを配信するコンテンツ配信システム、コンテンツ配信方法、コンピュータプログラム、コンテンツ配信用サーバ、および伝送路に関する。 The present disclosure describes a content distribution system, a content distribution method, a computer program, a content distribution server, and a transmission path for distributing live contents such as public programs in which a photographed person who is an actual performer and a virtual character (avatar) participate. Regarding.
従来より、地上デジタル放送、BSデジタル放送、インターネット生放送など(以下ではこれらを包括して「放送」ともいう)では、複数の演者がシーンに登場する番組がしばしば放送されている。 Conventionally, in terrestrial digital broadcasting, BS digital broadcasting, live Internet broadcasting, etc. (hereinafter, these are collectively referred to as "broadcasting"), programs in which a plurality of performers appear in the scene are often broadcast.
例えば、従来技術にかかる放送番組の一シーンを模式的に示した図7(A)では、インタビュウを受けるインタビュウイー101が、インタビュウを行うインタビュアー102と近い位置で相対しており、インタビュウイー101がとインタビュアー102とが一つのシーンに収まるよう、図示しないカメラが彼らを撮影してインタビュウシーン100が生成され、これが放送に供されて視聴者が視聴する。カメラが彼ら二人により近づくか、あるいはカメラのレンズをより長焦点にズームアップすれば、図7(B)に見られるように同じインタビュウのバストショット103が得られる。
For example, in FIG. 7A schematically showing a scene of a broadcast program according to the prior art, the
放送におけるこのようなインタビュウは、インタビュウイー101とインタビュアー102とが同じ場所にいない場合もあり、その場合には、従来技術にかかる放送番組の別な一シーンを模式的に示した図8(A)のように、撮影現場に居るインタビュウイー107を単独でカメラが撮影してインタビュウイー107のみが現れるシーンが撮影され、インタビュアーは例えば放送局のスタジオに居てインタビュウイー107と会話を行うので、このインタビュアーは放送シーン106には現れず、ただインタビュアーの発話音声のみが放送される。
In such an interview in broadcasting, the
また、図8(B)に示すように、インタビュアー111は同じく、インタビュウイー110とは別な場所、例えば放送局のスタジオに居るものの、別なカメラにてインタビュアー111を撮影し、インタビュウイー110を撮影した主画面の内部に子画面109としてはめ込む、ピクチャーインピクチャーの手法でインタビュウシーン108が作成される場合もある。
Further, as shown in FIG. 8B, the interviewer 111 is also in a place different from the interviewee 110, for example, in the studio of a broadcasting station, but the interviewer 111 is photographed by a different camera, and the interviewee 110 is photographed. In some cases, the
このように放送内において複数の演者が登場するシーンは、インタビュウに限らず、例えば記者やアナウンサが事件が起きた現場からレポートを行う際に、放送局スタジオにいる別のアナウンサと会話を行うシーン、歌番組や漫才などの芸能番組、ドラマ、など多数ありうる。 In this way, the scene where multiple performers appear in the broadcast is not limited to the interview, but for example, when a reporter or an announcer reports from the scene where the incident occurred, a scene where he talks with another announcer in the broadcasting station studio. , There can be many entertainment programs such as song programs and manga, dramas, and so on.
ところで、CG(コンピュータグラフィック)技術を用いて作成した仮想的なキャラクター(以下「アバター」ともいう)を、同じくCGで作成した仮想的な3次元空間内に描出して移動や動作を行わせるゲーム、放送、コンテンツが盛んに制作されている。 By the way, a game in which a virtual character (hereinafter also referred to as "avatar") created using CG (computer graphic) technology is drawn in a virtual three-dimensional space also created by CG to move or move. , Broadcasting, and content are being actively produced.
例えば下記特許文献1には、仮想空間内におけるアバターの移動操作を行おうとする参加者が、現実の空間内における参加者の位置情報をGPS(global positioning system)技術を利用して取得し、これを仮想空間内の位置情報に変換してアバターの仮想空間内位置操作に用いようとする構成が開示されている。
For example, in
このように盛んに用いられるようになってきている仮想的キャラクター(アバター)を、ただ仮想的な空間内に描画するのではなく、現実の空間内に描画して、現実の演者である被撮影者(演技者、出演者、あるいはインタビュウを受ける通行人など)とアバターとが同じ画面に描画するようにして、リアルな現場にはあり得ない人工的なキャラクターがいることの意外さや面白さ、あるいは仮想的で人工的であるはずのアバターにリアル感を付加する面白さ、などを楽しめるようにした提案が最近なされている。 The virtual character (avatar) that is becoming popular in this way is not just drawn in the virtual space, but drawn in the real space to be photographed as a real performer. It is surprising and interesting that there is an artificial character that can not be found in a real scene by drawing on the same screen as the person (actor, performer, or passerby who is interviewed) and the avatar. Alternatively, a proposal has recently been made to make it possible to enjoy the fun of adding a sense of reality to an avatar that should be virtual and artificial.
しかしながら、このように現実空間の画像と、人工的なアバターとを合成して一つのシーンに描画するようにした放送あるいはコンテンツでは従来、次のような本質的な課題が存在し未解決であった。 However, in broadcasting or content in which an image in real space and an artificial avatar are combined and drawn in one scene in this way, the following essential problems have existed and are unsolved. rice field.
先に説明したように、現実の演者複数を一つのシーンとして撮影した、例えば図7(A),図7(B)に示す各シーンにおいては、登場する二人の演者101、102、104、105は互いに相手を視認し、直接会話をしているので、当然シーン中の会話は自然で違和感がなく、視聴者から見て自然である。
As described above, in each of the scenes shown in FIGS. 7 (A) and 7 (B), in which a plurality of actual performers are photographed as one scene, for example, the two
しかしながら、現実空間にいる現実の演者が、人工的なアバターと共演し一つのシーンに収まる番組を想定したとすると、アバターは実際には現実の演者の目の前には存在しないので、現実の演者は会話を行う相手が目の前にはおらず、一人であたかも会話を行うような演技を強いられることとなり、現実の演者が視線を投げる方向も定めることができず、シーン全体が不自然となってしまう。 However, if a real performer in the real space assumes a program that co-stars with an artificial avatar and fits in one scene, the avatar does not actually exist in front of the real performer, so it is real. The performer is not in front of the person with whom he is talking, and he is forced to act as if he were talking alone, and the direction in which the actual performer throws his eyes cannot be determined, making the entire scene unnatural. turn into.
そこで、先に示した図8(B)のように、現実の演者のみをカメラが撮影し、アバターは、はめ込み画面(ピクチャーインピクチャー)に登場するようにすれば、実際には同じ場所に存在しない現実の演者とアバターとが無理に一つの画面に描画されていないので、現実の演者が目の前に会話を行う相手がいないにも関わらずあたかもいるかのように話しているといった演技をする必要がないため不自然さはなくなるが、人工的なアバターを現実の空間内に描画するものとは異なるシーンとなってしまう。 Therefore, as shown in FIG. 8B, if the camera shoots only the actual performer and the avatar appears on the inset screen (picture in picture), it actually exists in the same place. Since the real performer and the avatar are not forcibly drawn on one screen, the real performer acts as if he were talking as if he had no one to talk to in front of him. Since it is not necessary, the unnaturalness disappears, but the scene is different from the one that draws an artificial avatar in the real space.
従って、先に述べたような、現実の演者とアバターとを同じ画面に描画した場合に生じる、リアルな現場にはあり得ない人工的なキャラクターがいることの意外さや面白さ、あるいは仮想的で人工的であるはずのアバターにリアル感を付加する面白さ、などを視聴者は十分に楽しむことができない恐れがあった。 Therefore, as mentioned above, it is surprising, interesting, or virtual that there is an artificial character that cannot be found in a real scene, which occurs when a real performer and an avatar are drawn on the same screen. There was a risk that viewers would not be able to fully enjoy the fun of adding a sense of reality to avatars that should be artificial.
そこで、本開示では、現実の演者と人工的(仮想的)なキャラクターであるアバターとが一緒に登場するシーンにおける不自然さを解消するための、コンテンツ配信システム、コンテンツ配信方法、コンピュータプログラム、コンテンツ配信用サーバ、および伝送路を提供することを目的とする。 Therefore, in this disclosure, a content distribution system, a content distribution method, a computer program, and content for eliminating the unnaturalness in a scene in which a real performer and an artificial (virtual) character, an avatar, appear together. The purpose is to provide a distribution server and a transmission line.
上記の課題を解決するために、本発明は、下記の1)乃至11)に記載のコンテンツ配信システム、コンテンツ配信方法、コンピュータプログラム、コンテンツ配信用サーバ、および伝送路を提供する。
1)
被撮影者を、仮想的キャラクターとともに一つのシーン中に表示して配信する、コンテンツ配信システムであって、
被撮影者とダミー物体とが一つのシーンに収まるよう撮影を行うシーン撮影用カメラ部、
撮影がなされたシーン中のダミー物体の画像を、仮想的キャラクターの画像へ置換をして配信する画像置換部、
を備えたことを特徴とする、コンテンツ配信システム。
2)
ダミー物体は、仮想的キャラクターの画像を表示するディスプレイを備えることを特徴とする、1)に記載のコンテンツ配信システム。
3)
画像置換部が配信する画像における、置換がなされた前記仮想的キャラクターの画像は、ダミー物体が備えるディスプレイに表示された仮想的キャラクターの画像とは異なる態様であることを特徴とする、2)に記載のコンテンツ配信システム。
4)
異なる態様は、異なる視点に基づくことを特徴とする、3)に記載のコンテンツ配信システム。
5)
ダミー物体は、シーン撮影用カメラ部とは異なる位置から被撮影者を撮影するカメラ及び/または被撮影者の音声を拾うマイクロフォンを有することを特徴とする、1)乃至4)のいずれか1項に記載のコンテンツ配信システム。
6)
仮想的キャラクターの外観表示態様を変更操作する操作部と、カメラおよび/またはマイクロフォンが収集した情報を表示する仮想的キャラクターの外観表示態様操作用表示部と、をさらに有することを特徴とする、5)に記載のコンテンツ配信システム。
7)
操作部は、ディスプレイに表示される仮想的キャラクターの外観表示態様、および/または、画像置換部が配信する画像中の前記仮想的キャラクターの画像の外観表示態様を変更操作するよう構成されたことを特徴とする、6)に記載のコンテンツ配信システム。
8)
画像置換部の配信画像を含んだコンテンツを通信路経由で放送する放送送信部と、放送中のコンテンツの画面中に表示させるユーザー投稿情報を受け付ける受信部とをさらに備え、且つ、ユーザー投稿情報は、仮想的キャラクターの画像を表示するディスプレイにもまた表示がなされるよう構成されたことを特徴とする、2)乃至7)のいずれか1項に記載のコンテンツ配信システム。
9)
画像置換部の配信画像を含んだコンテンツを通信路経由で放送する放送送信部と、放送中のコンテンツの画面中に表示させるユーザー投稿情報を受け付ける受信部とをさらに備え、且つ、前記ユーザー投稿情報は、仮想的キャラクターの外観表示態様操作用表示部にもまた表示がなされるよう構成されたことを特徴とする、6)乃至8)のいずれか1項に記載のコンテンツ配信システム。
10)
被撮影者を、仮想的キャラクターとともに一つのシーン中に表示して配信する、コンテンツ配信方法であって、
シーン撮影用カメラ部が、被撮影者とダミー物体とが一つのシーンに収まるよう撮影を行うステップ、
画像置換部が、撮影がなされたシーン中のダミー物体の画像を、仮想的キャラクターの画像へ置換をして配信するステップ、
を備えたことを特徴とする、コンテンツ配信方法。
11)
請求項10に記載のコンテンツ配信方法における各ステップをコンピュータが実行するコード群を含んだことを特徴とする、コンピュータプログラム。
12)
被撮影者を、仮想的キャラクターとともに一つのシーン中に表示して配信する、コンテンツ配信用サーバであって、
被撮影者とダミー物体とが一つのシーンに収まるよう撮影がなされたシーン中のダミー物体の画像を、仮想的キャラクターの画像へ置換をして配信するよう構成されたことを特徴とする、コンテンツ配信用サーバ。
13)
12)に記載のコンテンツ配信用サーバが前記配信を行った信号を伝送する伝送路。
In order to solve the above problems, the present invention provides the content distribution system, content distribution method, computer program, content distribution server, and transmission path described in 1) to 11) below.
1)
It is a content distribution system that displays and distributes the photographed person in one scene together with a virtual character.
A camera unit for scene shooting that shoots so that the subject and the dummy object fit in one scene,
An image replacement unit that replaces the image of a dummy object in the shot scene with an image of a virtual character and delivers it.
A content distribution system characterized by being equipped with.
2)
The content distribution system according to 1), wherein the dummy object includes a display for displaying an image of a virtual character.
3)
The image of the virtual character that has been replaced in the image delivered by the image replacement unit is characterized in that the image of the virtual character that has been replaced is different from the image of the virtual character displayed on the display included in the dummy object 2). Described content distribution system.
4)
The content distribution system according to 3), wherein the different aspects are based on different viewpoints.
5)
The dummy object is characterized by having a camera that shoots the photographed person from a position different from the scene shooting camera unit and / or a microphone that picks up the sound of the photographed person, according to any one of 1) to 4). Content distribution system described in.
6)
It is characterized by further having an operation unit for changing the appearance display mode of the virtual character and an operation unit for operating the appearance display mode of the virtual character that displays information collected by the camera and / or the microphone. ) Described in the content distribution system.
7)
The operation unit is configured to change the appearance display mode of the virtual character displayed on the display and / or the appearance display mode of the image of the virtual character in the image delivered by the image replacement unit. The content distribution system according to 6), which is a feature.
8)
The broadcast transmission unit that broadcasts the content including the distribution image of the image replacement unit via the communication path, and the reception unit that receives the user-posted information to be displayed on the screen of the content being broadcast, and the user-posted information is The content distribution system according to any one of 2) to 7), wherein the display is also configured to display an image of a virtual character.
9)
The broadcast transmission unit that broadcasts the content including the distribution image of the image replacement unit via the communication path, and the reception unit that receives the user-posted information to be displayed on the screen of the content being broadcast, and the user-posted information The content distribution system according to any one of 6) to 8), characterized in that the display unit for operating the appearance display mode of the virtual character is also displayed.
10)
It is a content distribution method that displays and distributes the photographed person in one scene together with a virtual character.
A step in which the camera unit for scene shooting shoots so that the subject and the dummy object fit in one scene.
The step in which the image replacement unit replaces the image of the dummy object in the shot scene with the image of the virtual character and delivers it.
A content distribution method characterized by being equipped with.
11)
A computer program comprising a code group in which a computer executes each step in the content distribution method according to
12)
A content distribution server that displays and distributes the photographed person in one scene together with a virtual character.
Content characterized by being configured to replace the image of a dummy object in a scene shot so that the photographed person and the dummy object fit into one scene with an image of a virtual character and deliver it. Delivery server.
13)
A transmission line for transmitting the signal delivered by the content distribution server according to 12).
本開示によれば、被撮影者と人工的(仮想的)なキャラクターであるアバターとが一緒に登場するシーンにおける不自然さを解消することができる。 According to the present disclosure, it is possible to eliminate the unnaturalness in a scene in which the photographed person and the avatar, which is an artificial (virtual) character, appear together.
以下、本開示に係る実施形態について説明する。なお、以下に説明する本実施形態は、それぞれ例示に過ぎず、本発明の趣旨を脱しない範囲で種々の変形が可能であり、これらもまた本発明が包含する。 Hereinafter, embodiments according to the present disclosure will be described. It should be noted that the embodiments described below are merely examples, and various modifications can be made without departing from the spirit of the present invention, which are also included in the present invention.
〔コンテンツ配信受信システム1の構成〕
図1は、本発明にかかるコンテンツ配信受信システム1の構成を模式的に示した図である。コンテンツ配信受信システム1は、現実の演者が撮影されるスタジオ、あるいは放送中継現場などである演者撮影現場2、アバターの動きなどをアバター操作者が操作するためにモーションキャプチャーシステムなどを備えたアバター操作スタジオ3、番組を放送するコンテンツ配信業者の配信環境4、放送番組を視聴するエンドユーザーであるコンテンツ閲覧者の閲覧環境5、にそれぞれ以下の構成が配置されている。
[Configuration of content distribution / reception system 1]
FIG. 1 is a diagram schematically showing a configuration of a content distribution /
なお、上記の「現実の演者」とは、仮想キャラクター(アバター)ではない実際の被撮影者を指しており、演技を行う演者に限らず、例えば街頭インタビュウにおける通りがかりのインタビュウイーなども含んでいる。 The above-mentioned "real performer" refers to an actual photographed person who is not a virtual character (avatar), and includes not only the performer who performs the acting but also a passing interview in a street interview, for example. ..
このように異なる場所に各構成が配置されていることは本発明の実施に必須なものではなく、各構成のうちいずれかが、または全てが同一の場所に配置されていても良い。 It is not essential for the practice of the present invention that the configurations are arranged in different places in this way, and any or all of the configurations may be arranged in the same place.
演者撮影現場2には、演者20が居て番組のために演技を行い、演者の近傍には、演者用表示スタンドユニット21が配置されている。この演者用表示スタンドユニット21には、演者20を撮影してアバター操作者30の視認に供するための演者撮影用カメラ21a、演者20の発話を拾って同じくアバター操作者30の聴取に供したり、あるいは番組の音声として用いるための演者発話用マイク21b、アバター30が発した発話音声あるいは放送ディレクター(図示しない)からの指令音声などを発話するための演者聴取用スピーカー21c、アバターの画像21eを演者20が視認し、この結果、あたかも演者20が人工的なアバターと相対しているような環境を提供する演者視認用ディスプレイ21d、これら演者用表示スタンドユニット21が備える各構成を支えるスタンド21fなどを備えている。
A
また、演者撮影現場2にはシーン撮影用カメラ22が配置され、演者20と演者用表示スタンドユニット21とが一つの画面(シーン撮影用カメラ撮影ゾーン23)に収まるようにした撮影に用いられる。
Further, a
演者用表示スタンドユニット21とシーン撮影用カメラ22の各信号系統は、インターネット通信網60、61、62、66を経由してコンテンツ配信サーバ40とデータ接続している。
Each signal system of the performer
なお、インターネット回線60、61,62,66間の接続ノードについては説明や図示を省略する。本発明の実施にあたり、各箇所に説明を行う信号、データの伝送は種々の回線、通信網を用いることが可能でありインターネット回線60、61,62,66に限定されない。この点は以下の記載においても同様である。 The description and illustration of the connection nodes between the Internet lines 60, 61, 62, and 66 will be omitted. In carrying out the present invention, the transmission of signals and data described in each place can use various lines and communication networks, and is not limited to the Internet lines 60, 61, 62, 66. This point is the same in the following description.
アバター操作スタジオ3は、前述のとおりアバター操作者30がモーションキャプチャー技術を用いてアバターの動きなどを操作するための場であり、図1ではその一例として、光学マーカー31がアバター操作者30の体の各所に取り付けられ、モーションキャプチャー用カメラ32がこれら各光学マーカー31を撮影して、後に示すアバター変更ユニット34が三角測距の原理を用いて各光学マーカー31の3次元空間内位置座標を検出している。
As described above, the
モーションキャプチャー技術として上記のような光学マーカーと、それに対応するカメラとの組み合わせにより実施するほかに、加速度センサーを用いてアバター操作者30の動きを検知する方式や、高周帯域電磁波をアバター操作者30に照射して反射して戻ってくる電磁波の解析結果からドップラー現象によりアバター操作者30の体の動きを検出する方式など様々な方式を用いることが可能である。
As a motion capture technology, in addition to the combination of the above optical markers and the corresponding camera, a method of detecting the movement of the
アバター操作スタジオ3には、アバターの操作者用表示スタンドユニット33が配置されており、同ユニット33には、必要に応じて点滅をして現在オンエア中であることをアバターの操作者30に知らせるタリーランプ33a、アバターの操作者の発話音声を拾うためのアバターの操作者撮影用マイク33b、演者20あるいは番組ディレクター(図示しない)などの発話音声を発声するアバターの操作者聴取用スピーカー33c、演者の画像33eを表示して、遠方に居る演者20とあたかも目の前で会話をしているごとき環境を提供するアバターの操作者視認用ディスプレイ33d、アバターの操作者用表示スタンドユニット33の各構成を支えるスタンド33fをそれぞれ備えている。なお、タリーランプ33aの近傍あるいは他の位置にアバターの操作者30の顔の表情などを撮影するカメラ(図示しない)を備え、アバターのレンダリングにあたってアバターの操作者30の顔の表情などを利用するように構成してもよい。
A
モーションキャプチャー用カメラ32とアバターの操作者用表示スタンドユニット33、の各信号系統は、インターネット通信網63,64を介してアバター変更ユニット34とデータ接続をしている。アバター変更ユニット34の構成は別途説明を行う。アバター変更ユニット34はインターネット通信網60、65、66を介してコンテンツ配信サーバ40とデータ接続をしている。
Each signal system of the
なお、上記のアバター変更ユニット34の一部の、あるいはすべての構成をコンテンツ配信サーバ40内に含めるようにしてもよい。その場合、アバター変更ユニット34の構成や機能、処理として説明を行った箇所は、コンテンツ配信サーバ40の構成、機能、処理となる。
The content distribution server 40 may include a part or all of the above-mentioned
またコンテンツ配信業者の配信環境4にはコンテンツ配信サーバ40が配置されており、その構成は別途説明を行う。
Further, a content distribution server 40 is arranged in the
コンテンツ閲覧者の閲覧環境5には汎用のパーソナルコンピュータ50が設けられており、コンテンツ閲覧者(図示しない)はパーソナルコンピュータディスプレイ50aに描画された番組を楽しむことができる。後で説明するように番組の画面には演者の画像50bとアバターの画像50cとが一緒に描画されるように構成されており、この結果コンテンツ閲覧者は、現実の演者とアバターとが同じ画面に描画されることによって、リアルな現場にはあり得ない人工的なキャラクターがいることの意外さや面白さ、あるいは仮想的で人工的であるはずのアバターにリアル感を付加する面白さ、などを十分に楽しむことができる。
A general-purpose
〔アバター変更ユニット34の構成〕
アバター変更ユニット34は、図3のブロック図に示すように、ユニット34全体の統制制御を行うCPUである制御ユニット340、メモリ341、モーションキャプチャー技術によりアバター操作者30の動きをデータ化するモーショントラッカ343、メモリ341内のアバターデータメモリ341bに蓄積された、アバターの外観などのデータ(画像データ)とモーショントラッカ343が生成するアバター操作者30の動きのデータとを用いて現在のアバターの姿勢に応じたCG画像を生成するレンダリング部344、ユニット34内外の通信送受を行う通信インターフェース345などを備えており、これら各構成はデータバスライン342を介して相互にデータ接続をしている。
[Structure of avatar change unit 34]
As shown in the block diagram of FIG. 3, the
またメモリ341が備えるプログラムメモリ341aは、本願明細書記載実施の形態に開示された動作を含む各動作を制御ユニット340その他が実行するための実行コード群を含んだ、アバター変更ユニット34が実行するべきコンピュータプログラムを読み出し可能に記憶しており、同じく一時メモリ341cはいわゆるキャッシュメモリとして使用される。
Further, the program memory 341a included in the
〔コンテンツ配信サーバ40の構成〕
図2のブロック図に示すようにコンテンツ配信サーバ40は、サーバ40全体の統制制御を行うCPUである制御ユニット41、メモリ42、シーン撮影用カメラ22が撮影して画像に含まれている演者用表示スタンドユニット21の画像がどのエリアであるかを特定するために、メモリ42内のテンプレート画像メモリ42bに記憶されているこの演者用表示スタンドユニット21の画像をテンプレート(型紙)としてシーン撮影用カメラ22が撮影して画像に対してすり合わせ法(統計的相関マッチング)などの技術を用いてエリアの特定を行うテンプレート画像トラッカ44、アバター変更ユニット34から送出された現在のアバターの画像を上記の特定されたエリアに重畳し、あるいは置換して、演者20とアバターとが一緒に描画されている放送用コンテンツ画像を生成するコンテンツ画像生成部45、サーバ40内外間のデータ送受を行う通信インターフェース46、をそれぞれ備えており、これら各構成はデータバスライン43を介して相互にデータ接続をしている。
[Configuration of content distribution server 40]
As shown in the block diagram of FIG. 2, the content distribution server 40 is for a performer photographed by a control unit 41, a
またメモリ42が備えるプログラムメモリ42aは、本願明細書記載実施の形態に開示された動作を含む各動作を制御ユニット41その他が実行するための実行コード群を含んだ、サーバ40が実行するべきコンピュータプログラムを読み出し可能に記憶しており、同じく一時メモリ42cはいわゆるキャッシュメモリとして使用される。
Further, the program memory 42a included in the
またコンテンツ配信サーバ40は、後に説明する通り、被撮影者を仮想的キャラクター(アバター)とともに一つのシーン中に表示して配信するサーバであって、被撮影者とダミー物体とが一つのシーンに収まるよう撮影がなされたシーン中のダミー物体の画像を、仮想的キャラクターの画像へ置換をして配信するよう構成されている。また、コンテンツ配信サーバ40が配信を行った信号は、伝送路であるインターネット通信網60,66,67などが担持し、これら各伝送路を経由して伝送がなされる。
Further, as will be described later, the content distribution server 40 is a server that displays and distributes the photographed person together with the virtual character (avatar) in one scene, and the photographed person and the dummy object are combined into one scene. The image of the dummy object in the scene shot so as to fit is replaced with the image of the virtual character and distributed. Further, the signal distributed by the content distribution server 40 is carried by the
〔コンテンツ画像73の生成および表示処理〕
次に、コンテンツ(放送)に用いるべき、演者20とアバターとが一緒に描画されている画像73(以下、「コンテンツ画像」とも呼び、図6(C)の模式図、あるいは図1中のパーソナルコンピュータディスプレイ50a内にもその一例が示されている)が生成され、閲覧ユーザー(図示しない)が閲覧可能となるまでの処理を、図4のフローチャート、図6の模式図を援用して説明を行う。
[Generation and display processing of content image 73]
Next, an image 73 in which the
まずアバター変更ユニット34の制御ユニット340は、メモリ341内のアバターデータメモリ341bに蓄積された、コンテンツ画像に描画をしたいアバターのデータ(仮想的キャラクターの外観を表す画像データなど)を読み出す(ステップS101)。次に制御ユニット340は、モーショントラッカ343を統制制御して先に説明をしたモーションキャプチャー技術によりアバター操作者30の動きを得てデータ化する(ステップS102)。
First, the control unit 340 of the
次に制御ユニット340は、得られたモーションキャプチャーデータと、アバターのデータとを用いて、アバターの3D描画画像を生成するレンダリングをレンダリング部344に行わせる(ステップS103)。レンダリングに際してはどの位置から見たアバターの画像を生成するかが、重要であるので、レンダリング部344はあらかじめコンテンツ配信サーバ40からこの視点の位置の情報、具体的には図1における、演者撮影現場2中のシーン撮影用カメラ22の位置の情報であって、後に説明するように、アバターの画像と置換をすべき対象物である演者用表示スタンドユニット21の相対的な位置の情報が保存されている。この視点から見てアバターがどの方向を向いているようにレンダリングを行うかについて制約はないが、演者20とアバターとが向かい合ってインテビュウを行っているシーンである場合には、アバターを横から見た情景のレンダリングとすることは適格な選択である。
Next, the control unit 340 causes the rendering unit 344 to perform rendering to generate a 3D drawing image of the avatar using the obtained motion capture data and the avatar data (step S103). Since it is important from which position the image of the avatar is generated when rendering, the rendering unit 344 receives information on the position of this viewpoint from the content distribution server 40 in advance, specifically, the performer shooting site in FIG. Information on the position of the
なお、上記に説明を行った態様とは一部異なる構成とした別態様とすることができ、一つの別態様ではアバター変更ユニット34はモーションキャプチャーにかかわる動作までのみを実施してその結果となるデータをコンテンツ配信サーバ40へ送信し、コンテンツ配信サーバ40では上記に説明をしたアバター画像のレンダリングを行うようにしてもよい。この場合、レンダリングにかかわる構成は、先の説明ではアバター変更ユニット34に含まれるとしたことに代えて、コンテンツ配信サーバ40に含まれることとする。
In addition, it is possible to make another aspect having a configuration partially different from the aspect described above, and in one alternative aspect, the
さらに、先に説明した、アバター操作スタジオ3に配置された一部あるいはすべての構成をコンテンツ配信業者の配信環境4や他の場所に配置し、それぞれの機能を有するようにしてもよい。
Further, a part or all of the configurations arranged in the
このような別態様における構成の相違点、処理の相違点は本明細書の各所説明箇所から容易に理解できるものであるので説明を省略する。 Since the differences in the configuration and the differences in the processing in such another aspect can be easily understood from the various parts of the present specification, the description thereof will be omitted.
レンダリングにより得られたアバターの画像データは、通信インターフェース345、インターネット通信網60、65、66を経由してコンテンツ配信サーバ40へ伝送される(ステップS104)。
The image data of the avatar obtained by rendering is transmitted to the content distribution server 40 via the communication interface 345 and the
コンテンツ配信サーバ40では伝送されたアバター画像のデータを受信するとともに(ステップS204)、あらかじめ次の動作を実行する。 The content distribution server 40 receives the transmitted avatar image data (step S204) and executes the following operations in advance.
まず、後にアバターの画像へ置換がされるべき対象物の画像であって、シーン撮影用カメラ22が演者20とともに撮影した画像(図6(A)における演者用表示スタンドユニット21)がテンプレート(型紙)画像としてあらかじめコンテンツ配信サーバ40のテンプレート画像メモリ42bに記憶されており、制御ユニット41は、テンプレート画像トラッカ44に対してそのテンプレート画像の読み出しを命じる(ステップS201)。
First, an image of an object to be replaced with an avatar image later, and an image taken by the
また制御ユニット41の統制制御に応じて、シーン撮影用カメラ22が演者20とともに演者用表示スタンドユニット21を撮影した画像70(以下、「シーン撮影画像」ともいう)が、インターネット通信網60、62、66、通信インターフェース46経由で受信がなされる(ステップS202)。
Further, in response to the control control of the control unit 41, the image 70 (hereinafter, also referred to as “scene shooting image”) obtained by the
次に、制御ユニット41の統制制御に応じて、コンテンツ画像生成部45が、受信されたシーン撮影画像70中におけるテンプレート画像すなわち演者用表示スタンドユニット21が描画された位置を特定する(ステップS203)。特定に際しては、シーン撮影画像70に対して少しずつ位置をずらしながらテンプレート画像との相関マッチングを行うすり合わせ法により、最も相関の高い位置を選択する、などの方法があり、他の方法でもよい。
Next, according to the control control of the control unit 41, the content image generation unit 45 specifies the position where the template image, that is, the performer
例えば、図示をしない操作者の操作に応じて、アバターの画像72を描画すべき画面中の位置が決定されるようにしてもよい。 For example, the position on the screen on which the image 72 of the avatar should be drawn may be determined according to the operation of an operator (not shown).
次にコンテンツ画像生成部45は、特定されたテンプレート画像すなわち演者用表示スタンドユニット21の位置において、このテンプレート画像すなわち演者用表示スタンドユニット21の画像を、ステップS204で伝送されたアバターの画像72で置換する(ステップS205)。置換により、画面中に演者20とアバターの画像72とが一緒に描画されたコンテンツ画像73が生成されるので、このコンテンツ画像73が通信インターフェース46、インターネット通信網60、66、67経由でパーソナルコンピュータ50へ伝送がなされる(ステップS206)。すなわち、インターネット通信網60、66、67は、コンテンツ配信サーバ40が生成した信号あるいは情報である、被撮影者である演者20と、ダミー物体とが一つのシーンに収まるよう撮影がなされたシーン中のダミー物体の画像を、仮想的キャラクター(アバター)の画像へ置換をして配信された信号あるいは情報を伝送し、あるいは担持(carry)し、この後説明をおこなう受信用端末であるパーソナルコンピュータ50などへ供給することとなる。
Next, the content image generation unit 45 transfers the template image, that is, the image of the performer
なお、上記の態様のように、アバター画像に置き換わるべきダミー物体(例示では演者用表示スタンドユニット21)の画像をあらかじめテンプレートして保持しておき統計的処理によってそのダミー物体の描画位置をサーバ40が判断する態様以外にも、操作を行う人が手作業で、画面内におけるアバターの描画位置を指定する方法としてもよい点を先に説明した。
As in the above aspect, the image of the dummy object (in the example, the
一方、閲覧ユーザー(図示しない)が用いるパーソナルコンピュータ50は、コンテンツ配信サーバ40が送信するコンテンツ画像73をパーソナルコンピュータディスプレイ50aに表示する(ステップS302)。
On the other hand, the
図4図示のフローチャートに示す通り、以上説明をした各処理は、終了操作を待つ判断ステップS105,S207、S303において終了操作が検知されない限り繰り返されるので、コンテンツ画像73は繰り返し更新がされることとなり、この結果、閲覧ユーザーは、演者20とアバターの画像73とが一緒の画面中に描画された動画を閲覧することが可能となる。この時、演者20は、演者用表示スタンドユニット21を見て、あたかも現実の対話者のごとくに話をしたり視線を合わせたりしているシーンが置換前のシーン撮影画像70であるので、置換後のコンテンツ画像73を視認する閲覧ユーザーは、まるで演者20がアバターと本当に相対して会話をしているような感覚を得ることができ、この結果、本実施形態によれば、現実の演者と人工的(仮想的)なキャラクターであるアバターとが一緒に登場するシーンにおける不自然さを解消することができる。
As shown in the flowchart of FIG. 4, each process described above is repeated unless the end operation is detected in the determination steps S105, S207, and S303 waiting for the end operation, so that the content image 73 is repeatedly updated. As a result, the viewing user can view the moving image drawn on the screen together with the
あるいは、演者20が直接アバターの方向を向いていない態様の描画においても、演者20はあたかも演者視認用ディスプレイ21dの位置にアバターが存在するように会話や演技を行うことができ、その様な態様においても、現実の演者と人工的(仮想的)なキャラクターであるアバターとが一緒に登場するシーンにおける不自然さを解消することができる。
Alternatively, even in drawing in a mode in which the
それゆえに、現実の演者とアバターとが同じ画面に描画するようにして、リアルな現場にはあり得ない人工的なキャラクターがいることの意外さや面白さ、あるいは仮想的で人工的であるはずのアバターにリアル感を付加する面白さ、などを視聴者である閲覧ユーザーは十分に楽しむことが可能となる。 Therefore, the real performer and the avatar should be drawn on the same screen, and it should be surprising and interesting that there is an artificial character that is impossible in the real scene, or it should be virtual and artificial. Browsing users who are viewers can fully enjoy the fun of adding a sense of reality to avatars.
〔演者視認用ディスプレイ21dにおけるアバターの画像21e表示の処理〕
以上は、閲覧ユーザー(図示しない)が閲覧を行う、パーソナルコンピュータディスプレイ50aの表示画面において、アバターの画像50cが描画される処理を中心に説明を行った。
[Processing of avatar image 21e display on performer
The above description has focused on the process of drawing the avatar image 50c on the display screen of the personal computer display 50a, which is browsed by the browsing user (not shown).
次に、閲覧ユーザーが閲覧することを主たる目的とはせず、演者20が閲覧をする演者視認用ディスプレイ21dにおけるアバターの画像21e表示の処理について説明を行う。
Next, the process of displaying the image 21e of the avatar on the
生成されたコンテンツ画像73において、演者20がアバターとあたかも相対し、向かい合い、視線を合わせているように描画を行うことは、本発明の効果を奏する上で好ましい点であることを先に説明した。
It has been described above that in the generated content image 73, drawing as if the
そこで、演者20が相対している演者用表示スタンドユニット21が備える演者視認用ディスプレイ21dに、アバターが演者20の方を向いている概略正面像が描画されれば、演者20は本当にアバターと相対している感覚を持つことができ、この結果、閲覧ユーザーもまたコンテンツ画像73を閲覧した際にリアルな感覚を得ることができる。
Therefore, if a schematic front image in which the avatar faces the
そのために、図5のフローチャートに示すように、アバター変更ユニット34では、まずアバター変更ユニット34の制御ユニット340が、メモリ341内のアバターデータメモリ341bに蓄積された、コンテンツ画像に描画をしたいアバターのデータ(仮想的キャラクターの外観を表す画像データなど)を読み出す(ステップS401)。次に制御ユニット340は、モーショントラッカ343を統制制御して先に説明をしたモーションキャプチャー技術によりアバター操作者30の動きを得てデータ化する(ステップS402)。
Therefore, as shown in the flowchart of FIG. 5, in the
次に制御ユニット340は、得られたモーションキャプチャーデータと、アバターのデータとを用いて、アバターの3D描画画像を生成するレンダリングをレンダリング部344に行わせる(ステップS403)。レンダリングに際してはどの位置から見たアバターの画像を生成するかが、重要であるので、レンダリング部34はあらかじめコンテンツ配信サーバ40からこの視点の位置の情報、具体的には図1における、演者撮影現場2中のシーン撮影用カメラ22の位置の情報であって、後に説明するように、アバターの画像と置換をすべき対象物である演者用表示スタンドユニット21の相対的な位置の情報が用いられる。この視点から見てアバターがどの方向を向いているようにレンダリングを行うかについて制約はないが、演者20とアバターとが向かい合ってインテビュウを行っているシーンである場合には、アバターを正面から見た情景のレンダリングとすることは適格な選択である。
Next, the control unit 340 causes the rendering unit 344 to perform rendering to generate a 3D drawing image of the avatar using the obtained motion capture data and the avatar data (step S403). Since it is important from which position the image of the avatar is generated when rendering, the
レンダリングにより得られたアバターの画像データは、通信インターフェース345、インターネット通信網60、65、66を経由してコンテンツ配信サーバ40へ伝送される(ステップS404、S501)。
The image data of the avatar obtained by rendering is transmitted to the content distribution server 40 via the communication interface 345 and the
コンテンツ配信サーバ40は伝送されたアバターの画像を、そのままかあるいは適切な背景をつけるなど加工を行い、インターネット通信網60、61、66経由で演者視認用ディスプレイ21dへ送出して描画をさせる(ステップS502)。
The content distribution server 40 processes the transmitted avatar image as it is or adds an appropriate background, and sends it to the performer
図5図示のフローチャートに示す通り、以上説明をした各処理は、終了操作を待つ判断ステップS405,S503において終了操作が検知されない限り繰り返されるので、演者視認用ディスプレイ21dに描画がなされるアバターの画像は繰り返し更新がされることとなり、この結果、演者20は、アバターの画像の動画を閲覧することが可能となる。
As shown in the flowchart of FIG. 5, each process described above is repeated unless the end operation is detected in the determination steps S405 and S503 waiting for the end operation. Therefore, the image of the avatar drawn on the performer
この時、演者20は、演者用表示スタンドユニット21を見て、あたかも現実の対話者のごとくに話をしたり視線を合わせたりしているシーンが、先に説明をした置換前のシーン撮影画像70であるので、置換後のコンテンツ画像73を視認する閲覧ユーザーは、まるで演者20がアバターと本当に相対して会話をしているような感覚を得ることができ、この結果、本実施形態によれば、現実の演者と人工的(仮想的)なキャラクターであるアバターとが一緒に登場するシーンにおける不自然さを解消することができる。
At this time, the
あるいは、演者20が直接アバターの方向を向いていない態様の描画においても、演者20はあたかも演者視認用ディスプレイ21dの位置にアバターが存在するように会話や演技を行うことができ、その様な態様においても、現実の演者と人工的(仮想的)なキャラクターであるアバターとが一緒に登場するシーンにおける不自然さを解消することができる。
Alternatively, even in drawing in a mode in which the
それゆえに、現実の演者とアバターとが同じ画面に描画するようにして、リアルな現場にはあり得ない人工的なキャラクターがいることの意外さや面白さ、あるいは仮想的で人工的であるはずのアバターにリアル感を付加する面白さ、などを視聴者である閲覧ユーザーは十分に楽しむことが可能となる。 Therefore, the real performer and the avatar should be drawn on the same screen, and it should be surprising and interesting that there is an artificial character that is impossible in the real scene, or it should be virtual and artificial. Browsing users who are viewers can fully enjoy the fun of adding a sense of reality to avatars.
なお、演者視認用ディスプレイ21dには、上記実施態様のようにアバターの画像21e以外にも、被撮影者が読むために作成された指示コメント(いわゆる「カンニングペーパー」、「カンペ」)や、番組のディレクターなどスタッフの画像(図示しない)や音声、を表示したり付属のスピーカーで発声するようにしてもよい。
In addition to the avatar image 21e as in the above embodiment, the performer
〔ユーザー投稿情報の表示〕
以上に説明した実施形態のほかに、あるいはこの構成に加えて、次のような構成としてもよい。
[Display user posted information]
In addition to the above-described embodiment, or in addition to this configuration, the following configuration may be used.
インターネット通信網などを用いて生で放送を行うコンテンツなどを閲覧者(図示しない)が楽しむ方法として、コンテンツの感想や閲覧者のつぶやきなど(以下、「コメント」ともいう)を、閲覧者のパーソナルコンピュータ50で入力操作して送信し、入力したこれらコメントをリアルタイムに、他の閲覧者使用端末(図示しない)で表示を行えば、コメントを書き込んだ閲覧者は自分の発言を他の閲覧者へ知らせることができるし、他人が書いたコメントを読む閲覧者は、自分が該当するコンテンツを閲覧して楽しむほかに他の閲覧者の考えや感想も知ることができるので、あたかも一つの会場に会してコンサートやイベントを楽しむような、疑似的な(バーチャルな)同時参加の感覚や連帯感を得ることができる。
As a way for viewers (not shown) to enjoy content that is broadcast live using the Internet communication network, etc., the viewer's personal impressions and tweets of the viewer (hereinafter, also referred to as "comments") are personalized. If the input operation is performed by the
その際に、本システム1では、いずれかの閲覧者が投稿したコメントを、コンテンツ配信サーバ40を経由して演者視認用ディスプレイ21dや、アバターの操作者視認用ディスプレイ33dの少なくともいずれかにも表示されるように構成することができる。この結果、コメントを読んだ演者20あるいはアバターの操作者30は、上に述べた同時参加の感覚や連帯感を得て、よりリアルな演技や応答、アバターの操作が可能となる。
At that time, in this
〔コンテンツ配信受信システム1における音声の取り扱い〕
先に説明をしたように、本実施形態にかかるコンテンツ配信受信システム1は、あたかも演者20とアバターとが現実の空間内に一緒に存在しているかのようなコンテンツ画像73を生成することができる。よりリアル感を増すために、このようなコンテンツ画像73とともに、演者20の発話音声、およびアバターの発話音声を例えばアバター操作者30の発話で代替した音声、を放送に加えることは自然な発想であり、また重要な点である。そのために本システム1は、演者の発話を拾うための演者発話用マイク21bや、アバター操作者30の発話を拾うためのアバターの操作者撮影用マイク33bを有しており、また演者20の発話をアバター操作者30が聴取するためのアバターの操作者聴取用スピーカー33cや、アバター操作者30の発話を演者20が聴取するための演者聴取用スピーカー21cが備えられており、これらを用いた音声信号の伝送は、先に説明をした各動画像の伝送にかかわる実施態様から明らかであるので、繰り返しとなる説明は避けることとする。
[Handling of audio in the content distribution / reception system 1]
As described above, the content distribution /
なお、本実施形態は放送コンテンツに関するものであるので、この放送が生放送である場合については、演者20の発話音声や、アバターの発話音声を例えばアバター操作者30の発話で代替した音声は、この生放送を視聴する汎用のパーソナルコンピュータでも発音することができるので、先に説明をした各スピーカー21c、33cに代えて、汎用パーソナルコンピュータ付属するかまたは接続するスピーカーを利用してもよい。
Since this embodiment relates to broadcast content, in the case where this broadcast is a live broadcast, the voice of the
同様に、演者20を演者撮影用カメラ21aで撮影した画像33eが、アバターの操作者視認用ディスプレイ33dに描画がされれば、アバター操作者30もまた、あたかも演者20が目の前で相対しているような感覚でアバターの操作が行えるので、発明の効果をより向上させることができる。
Similarly, if the image 33e of the
〔変形例〕
以上説明をした本実施形態にかかるコンテンツ配信受信システム1は、以上に説明をした構成に限ることはなく種々の変形が可能であり、いずれも本発明が包含をする。
[Modification example]
The content distribution /
例えば、演者視認用ディスプレイ21dを省略して、演者20はアバター操作者30の画像は視認しないながらもアバター操作者30の音声のみを聴取して対話を行うようにしてもよいし、その様なシステムでは構成がよりシンプルとなり、コスト低減や信頼性向上が実現する。
For example, the performer
あるいは、演者用表示スタンドユニット21を用いるのではなく、単なる置物やぬいぐるみ、すなわちダミーの物体を配置して、演者20が対話の動作を行い、先に説明をした置換と同じ処理によりダミー物体の表示部分をアバターの画像で置換して、コンテンツ画像73を生成して閲覧に供するようにしてもよい。この場合、演者20は、生放送であれば、この生放送の画像や音声によってアバターの動きや発話を認識できるので、同様に自然な感覚でアバターと演者20とが同じ画面に描画された放送を閲覧ユーザーが楽しむことができ、その様なシステムもまた構成がよりシンプルとなり、コスト低減や信頼性向上が実現する。このように、演者20が生放送の映像や音声を送出するパーソナルコンピュータ(図示しない)を自分も視聴しながら演じることとなり、パーソナルコンピュータはダミー物体(置物やぬいぐるみなど)の近傍に置かれていても、離れた場所に置かれていてもよく、このパーソナルコンピュータがシーン撮影用カメラ撮影ゾーン23に含まれるようにしても、含まれないようにしてもよい。さらに、このパーソナルコンピュータ自身を、アバターの画像に描画が置き換えられるダミー物体として用いてもよい。
Alternatively, instead of using the
(発明の効果の説明)
放送などコンテンツにおいて、現実の演者とアバターとが同じ画面に描画するようにして、リアルな現場にはあり得ない人工的なキャラクターがいることの意外さや面白さ、あるいは仮想的で人工的であるはずのアバターにリアル感を付加する面白さ、などを視聴者は十分に楽しむことができるとともに、現実の演者と人工的(仮想的)なキャラクターであるアバターとが一緒に登場するシーンにおける不自然さを解消することができる、コンテンツ配信システム、コンテンツ配信方法、コンピュータプログラム、コンテンツ配信用サーバ、および伝送路を本発明は提供する。
本発明は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものとする。
(Explanation of the effect of the invention)
In content such as broadcasting, the actual performer and avatar are drawn on the same screen, and it is surprising and interesting that there is an artificial character that is impossible in the real scene, or it is virtual and artificial. Viewers can fully enjoy the fun of adding a sense of realism to the supposed avatar, and at the same time, it is unnatural in a scene where a real performer and an artificial (virtual) character avatar appear together. The present invention provides a content distribution system, a content distribution method, a computer program, a content distribution server, and a transmission path that can solve the problem.
The present invention can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof shall be included in the scope of the invention described in the claims and the equivalent scope thereof, as well as in the scope and gist of the invention.
1 コンテンツ配信受信システム
2 演者撮影現場
3 アバター操作スタジオ
4 コンテンツ配信業者
5 コンテンツ閲覧者宅
20 演者
21 演者用表示スタンドユニット
21a 演者撮影用カメラ
21b 演者発話用マイク
21c 演者聴取用スピーカー
21d 演者視認用ディスプレイ
21e アバターの画像
21f スタンド
22 シーン撮影用カメラ
23 シーン撮影用カメラ撮影ゾーン
30 アバターの操作者
31 モーションキャプチャー用光学マーカー
32 モーションキャプチャー用カメラ
33 アバターの操作者用表示スタンドユニット
33a タリーランプ
33b アバターの操作者撮影用マイク
33c アバターの操作者聴取用スピーカー
33d アバターの操作者視認用ディスプレイ
33e 演者の画像
33f スタンド
34 アバター変更ユニット
340 制御ユニット
341 メモリ
341a プログラムメモリ
341b アバターデータメモリ
341c 一時メモリ
342 データバスライン
343 モーショントラッカ
344 レンダリング部
345 通信インターフェース
40 コンテンツ配信サーバ
41 制御ユニット
42 メモリ
42a プログラムメモリ
42b テンプレート画像メモリ
42c 一時メモリ
43 データバスライン
44 テンプレート画像トラッカ
45 コンテンツ画像生成部
46 通信インターフェース
50 パーソナルコンピュータ
50a パーソナルコンピュータディスプレイ
50b シーン中の演者の画像
50c シーン中のアバターの画像
60、61、62、63、64、65、66、67 インターネット通信網
1 Content
Claims (11)
前記被撮影者と、前記仮想的キャラクターの画像を表示するディスプレイを備えたダミー物体とが一つのシーンに収まるよう撮影を行うシーン撮影用カメラ部と、
前記撮影がなされたシーン中の前記ダミー物体の画像に、前記仮想的キャラクターの画像を重畳した画像を生成する画像生成部と、
を備え、
前記画像生成部が生成する画像における、前記重畳がなされた前記仮想的キャラクターの画像は、前記ダミー物体が備えるディスプレイに表示された前記仮想的キャラクターの画像とは異なる態様であり、前記画像生成部が生成した画像を配信するコンテンツ配信システム。 It is a content distribution system that displays and distributes the photographed person in one scene together with a virtual character.
A scene shooting camera unit that shoots the photographed person and a dummy object having a display for displaying an image of the virtual character so as to fit in one scene.
An image generation unit that generates an image in which an image of the virtual character is superimposed on an image of the dummy object in the shot scene.
With
The superimposed image of the virtual character in the image generated by the image generation unit is different from the image of the virtual character displayed on the display included in the dummy object, and is different from the image of the virtual character displayed on the display of the dummy object. A content distribution system that distributes images generated by .
前記放送中のコンテンツの画面中に表示させるユーザー投稿情報を受け付ける受信部と、をさらに備え、
前記ユーザー投稿情報は、前記仮想的キャラクターの画像を表示するディスプレイにもまた表示がなされるよう構成された、請求項1または2に記載のコンテンツ配信システム。 A broadcast transmission unit that broadcasts content including an image generated by the image generation unit via a communication path, and
It is further provided with a receiving unit that receives user-posted information to be displayed on the screen of the content being broadcast.
The content distribution system according to claim 1 or 2, wherein the user-submitted information is also displayed on a display displaying an image of the virtual character .
前記被撮影者と、前記仮想的キャラクターの画像を表示するディスプレイを備えたダミー物体とが一つのシーンに収まるよう撮影を行うシーン撮影用カメラ部と、
前記撮影がなされたシーン中の前記ダミー物体の画像に、前記仮想的キャラクターの画像を重畳した画像を生成する画像生成部と、
を備え、
前記ダミー物体は、前記シーン撮影用カメラ部とは異なる位置から前記被撮影者を撮影するカメラ及び/または前記被撮影者の音声を拾うマイクロフォンを有し、前記画像生成部が生成した画像を配信するコンテンツ配信システム。 It is a content distribution system that displays and distributes the photographed person in one scene together with a virtual character.
A scene shooting camera unit that shoots the photographed person and a dummy object having a display for displaying an image of the virtual character so as to fit in one scene.
An image generation unit that generates an image in which an image of the virtual character is superimposed on an image of the dummy object in the shot scene.
With
The dummy object has a camera that shoots the photographed person from a position different from that of the scene shooting camera unit and / or a microphone that picks up the sound of the photographed person, and distributes an image generated by the image generating unit. Content distribution system.
前記放送中のコンテンツの画面中に表示させるユーザー投稿情報を受け付ける受信部と、をさらに備え、
前記ユーザー投稿情報は、前記仮想的キャラクターの画像を表示する前記ディスプレイにもまた表示がなされるよう構成された、請求項4乃至6のいずれか1項に記載のコンテンツ配信システム。 A broadcast transmission unit that broadcasts content including an image generated by the image generation unit via a communication path, and
It is further provided with a receiving unit that receives user-posted information to be displayed on the screen of the content being broadcast.
The content distribution system according to any one of claims 4 to 6, wherein the user-posted information is also displayed on the display that displays an image of the virtual character .
前記放送中のコンテンツの画面中に表示させるユーザー投稿情報を受け付ける受信部と、をさらに備え、
前記ユーザー投稿情報は、前記仮想的キャラクターの外観表示態様操作用表示部にもまた表示がなされるよう構成された、請求項5または6に記載のコンテンツ配信システム。 A broadcast transmission unit that broadcasts content including an image generated by the image generation unit via a communication path, and
It is further provided with a receiving unit that receives user-posted information to be displayed on the screen of the content being broadcast .
The content distribution system according to claim 5 or 6, wherein the user-posted information is also displayed on a display unit for operating the appearance display mode of the virtual character.
シーン撮影用カメラ部が、前記被撮影者と、前記仮想的キャラクターの画像を表示するディスプレイを備えたダミー物体とが一つのシーンに収まるよう撮影を行うステップ、
画像生成部が、前記撮影がなされたシーン中の前記ダミー物体の画像に、前記仮想的キャラクターの画像を重畳した画像を生成するステップ、
を備え、
前記画像生成部が生成する画像における、前記重畳がなされた前記仮想的キャラクターの画像は、前記ダミー物体が備えるディスプレイに表示された前記仮想的キャラクターの画像とは異なる態様であり、前記画像生成部が生成した画像を配信するコンテンツ配信方法。 It is a content distribution method that displays and distributes the photographed person in one scene together with a virtual character.
A step in which the camera unit for scene shooting takes a picture so that the person to be photographed and a dummy object having a display for displaying an image of the virtual character are contained in one scene.
A step in which the image generation unit generates an image in which the image of the virtual character is superimposed on the image of the dummy object in the scene in which the shooting was performed.
With
The superimposed image of the virtual character in the image generated by the image generation unit is different from the image of the virtual character displayed on the display included in the dummy object, and is different from the image of the virtual character displayed on the display of the dummy object. A content distribution method that distributes the images generated by .
A computer program comprising a set of codes in which a computer executes each step in the content distribution method according to claim 9 or 10.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020077735A JP7102457B2 (en) | 2020-04-24 | 2020-04-24 | Content distribution systems, content distribution methods, and computer programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020077735A JP7102457B2 (en) | 2020-04-24 | 2020-04-24 | Content distribution systems, content distribution methods, and computer programs |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018125403A Division JP6697512B2 (en) | 2018-06-14 | 2018-06-14 | Content distribution system, content distribution method, and computer program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020123981A JP2020123981A (en) | 2020-08-13 |
JP2020123981A5 JP2020123981A5 (en) | 2021-07-26 |
JP7102457B2 true JP7102457B2 (en) | 2022-07-19 |
Family
ID=71993119
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020077735A Active JP7102457B2 (en) | 2020-04-24 | 2020-04-24 | Content distribution systems, content distribution methods, and computer programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7102457B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002271694A (en) | 2001-03-13 | 2002-09-20 | Canon Inc | Image processing method, image processing unit, studio device, storage medium and program |
JP2003323628A (en) | 2002-05-02 | 2003-11-14 | Nippon Hoso Kyokai <Nhk> | Device and program for video identifying speaker and method of displaying video identifying speaker |
JP2003324709A (en) | 2002-05-07 | 2003-11-14 | Nippon Hoso Kyokai <Nhk> | Method, apparatus, and program for transmitting information for pseudo visit, and method, apparatus, and program for reproducing information for pseudo visit |
JP2003346190A (en) | 2002-05-29 | 2003-12-05 | Canon Inc | Image processor |
JP2006067405A (en) | 2004-08-30 | 2006-03-09 | Sharp Corp | Television broadcast transmitter, television broadcast receiver, and broadcast program participation system and method |
JP2011055483A (en) | 2009-08-06 | 2011-03-17 | Bond:Kk | Program image distribution system, program image distribution method, and program |
JP2018074294A (en) | 2016-10-26 | 2018-05-10 | 学校法人幾徳学園 | Information processing system and information processing method |
-
2020
- 2020-04-24 JP JP2020077735A patent/JP7102457B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002271694A (en) | 2001-03-13 | 2002-09-20 | Canon Inc | Image processing method, image processing unit, studio device, storage medium and program |
JP2003323628A (en) | 2002-05-02 | 2003-11-14 | Nippon Hoso Kyokai <Nhk> | Device and program for video identifying speaker and method of displaying video identifying speaker |
JP2003324709A (en) | 2002-05-07 | 2003-11-14 | Nippon Hoso Kyokai <Nhk> | Method, apparatus, and program for transmitting information for pseudo visit, and method, apparatus, and program for reproducing information for pseudo visit |
JP2003346190A (en) | 2002-05-29 | 2003-12-05 | Canon Inc | Image processor |
JP2006067405A (en) | 2004-08-30 | 2006-03-09 | Sharp Corp | Television broadcast transmitter, television broadcast receiver, and broadcast program participation system and method |
JP2011055483A (en) | 2009-08-06 | 2011-03-17 | Bond:Kk | Program image distribution system, program image distribution method, and program |
JP2018074294A (en) | 2016-10-26 | 2018-05-10 | 学校法人幾徳学園 | Information processing system and information processing method |
Also Published As
Publication number | Publication date |
---|---|
JP2020123981A (en) | 2020-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6724110B2 (en) | Avatar display system in virtual space, avatar display method in virtual space, computer program | |
US9792954B2 (en) | Information processing apparatus and recording medium | |
US20210092466A1 (en) | Information processing apparatus, information processing method, and program | |
JP7135141B2 (en) | Information processing system, information processing method, and information processing program | |
JP4310916B2 (en) | Video display device | |
JP6707111B2 (en) | Three-dimensional content distribution system, three-dimensional content distribution method, computer program | |
JP7347597B2 (en) | Video editing device, video editing method and program | |
KR101915786B1 (en) | Service System and Method for Connect to Inserting Broadcasting Program Using an Avata | |
JP2014187559A (en) | Virtual reality presentation system and virtual reality presentation method | |
WO2021246183A1 (en) | Information processing device, information processing method, and program | |
JP2019087226A (en) | Information processing device, information processing system, and method of outputting facial expression images | |
KR20150105058A (en) | Mixed reality type virtual performance system using online | |
US20190287313A1 (en) | Head-mountable apparatus and methods | |
JP2024019661A (en) | Information processing device, information processing method, and information processing program | |
KR102200239B1 (en) | Real-time computer graphics video broadcasting service system | |
JP2020102236A (en) | Content distribution system, receiving device and program | |
JP6697512B2 (en) | Content distribution system, content distribution method, and computer program | |
JP6454883B1 (en) | Content distribution system, content distribution method, and content distribution program | |
KR20190031220A (en) | System and method for providing virtual reality content | |
JP7102457B2 (en) | Content distribution systems, content distribution methods, and computer programs | |
CN113632498A (en) | Content distribution system, content distribution method, and content distribution program | |
JP2002271694A (en) | Image processing method, image processing unit, studio device, storage medium and program | |
JP2011109371A (en) | Server, terminal, program, and method for superimposing comment text on three-dimensional image for display | |
JP2006067405A (en) | Television broadcast transmitter, television broadcast receiver, and broadcast program participation system and method | |
JP2020127211A (en) | Three-dimensional content distribution system, three-dimensional content distribution method, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210614 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210614 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220530 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220607 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220706 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7102457 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |