JP7102457B2 - Content distribution systems, content distribution methods, and computer programs - Google Patents

Content distribution systems, content distribution methods, and computer programs Download PDF

Info

Publication number
JP7102457B2
JP7102457B2 JP2020077735A JP2020077735A JP7102457B2 JP 7102457 B2 JP7102457 B2 JP 7102457B2 JP 2020077735 A JP2020077735 A JP 2020077735A JP 2020077735 A JP2020077735 A JP 2020077735A JP 7102457 B2 JP7102457 B2 JP 7102457B2
Authority
JP
Japan
Prior art keywords
image
content distribution
virtual character
avatar
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020077735A
Other languages
Japanese (ja)
Other versions
JP2020123981A (en
JP2020123981A5 (en
Inventor
進之介 岩城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Virtual Cast Inc
Original Assignee
Virtual Cast Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Virtual Cast Inc filed Critical Virtual Cast Inc
Priority to JP2020077735A priority Critical patent/JP7102457B2/en
Publication of JP2020123981A publication Critical patent/JP2020123981A/en
Publication of JP2020123981A5 publication Critical patent/JP2020123981A5/en
Application granted granted Critical
Publication of JP7102457B2 publication Critical patent/JP7102457B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本開示は、現実の演者である被撮影者と仮想キャラクタ(アバター)とが参加する公開番組等のライブコンテンツを配信するコンテンツ配信システム、コンテンツ配信方法、コンピュータプログラム、コンテンツ配信用サーバ、および伝送路に関する。 The present disclosure describes a content distribution system, a content distribution method, a computer program, a content distribution server, and a transmission path for distributing live contents such as public programs in which a photographed person who is an actual performer and a virtual character (avatar) participate. Regarding.

従来より、地上デジタル放送、BSデジタル放送、インターネット生放送など(以下ではこれらを包括して「放送」ともいう)では、複数の演者がシーンに登場する番組がしばしば放送されている。 Conventionally, in terrestrial digital broadcasting, BS digital broadcasting, live Internet broadcasting, etc. (hereinafter, these are collectively referred to as "broadcasting"), programs in which a plurality of performers appear in the scene are often broadcast.

例えば、従来技術にかかる放送番組の一シーンを模式的に示した図7(A)では、インタビュウを受けるインタビュウイー101が、インタビュウを行うインタビュアー102と近い位置で相対しており、インタビュウイー101がとインタビュアー102とが一つのシーンに収まるよう、図示しないカメラが彼らを撮影してインタビュウシーン100が生成され、これが放送に供されて視聴者が視聴する。カメラが彼ら二人により近づくか、あるいはカメラのレンズをより長焦点にズームアップすれば、図7(B)に見られるように同じインタビュウのバストショット103が得られる。 For example, in FIG. 7A schematically showing a scene of a broadcast program according to the prior art, the interviewee 101 to be interviewed faces the interviewer 102 to be interviewed at a position close to the interviewee 101. And the interviewer 102 are photographed by a camera (not shown) so that the interviewer 102 and the interviewer 102 fit into one scene, and an interview scene 100 is generated, which is broadcast and viewed by the viewer. If the camera gets closer to them or zooms in on the camera lens to a longer focal point, a bust shot 103 of the same interview is obtained, as seen in FIG. 7 (B).

放送におけるこのようなインタビュウは、インタビュウイー101とインタビュアー102とが同じ場所にいない場合もあり、その場合には、従来技術にかかる放送番組の別な一シーンを模式的に示した図8(A)のように、撮影現場に居るインタビュウイー107を単独でカメラが撮影してインタビュウイー107のみが現れるシーンが撮影され、インタビュアーは例えば放送局のスタジオに居てインタビュウイー107と会話を行うので、このインタビュアーは放送シーン106には現れず、ただインタビュアーの発話音声のみが放送される。 In such an interview in broadcasting, the interviewee 101 and the interviewer 102 may not be in the same place, and in that case, FIG. 8 (A) schematically showing another scene of the broadcasting program according to the prior art. ), The scene where the interviewee 107 at the shooting site is photographed by the camera alone and only the interviewee 107 appears is shot, and the interviewer is in the studio of the broadcasting station and talks with the interviewee 107, for example. This interviewer does not appear in the broadcast scene 106, only the interviewer's spoken voice is broadcast.

また、図8(B)に示すように、インタビュアー111は同じく、インタビュウイー110とは別な場所、例えば放送局のスタジオに居るものの、別なカメラにてインタビュアー111を撮影し、インタビュウイー110を撮影した主画面の内部に子画面109としてはめ込む、ピクチャーインピクチャーの手法でインタビュウシーン108が作成される場合もある。 Further, as shown in FIG. 8B, the interviewer 111 is also in a place different from the interviewee 110, for example, in the studio of a broadcasting station, but the interviewer 111 is photographed by a different camera, and the interviewee 110 is photographed. In some cases, the interview scene 108 is created by a picture-in-picture method in which the sub screen 109 is fitted inside the photographed main screen.

このように放送内において複数の演者が登場するシーンは、インタビュウに限らず、例えば記者やアナウンサが事件が起きた現場からレポートを行う際に、放送局スタジオにいる別のアナウンサと会話を行うシーン、歌番組や漫才などの芸能番組、ドラマ、など多数ありうる。 In this way, the scene where multiple performers appear in the broadcast is not limited to the interview, but for example, when a reporter or an announcer reports from the scene where the incident occurred, a scene where he talks with another announcer in the broadcasting station studio. , There can be many entertainment programs such as song programs and manga, dramas, and so on.

ところで、CG(コンピュータグラフィック)技術を用いて作成した仮想的なキャラクター(以下「アバター」ともいう)を、同じくCGで作成した仮想的な3次元空間内に描出して移動や動作を行わせるゲーム、放送、コンテンツが盛んに制作されている。 By the way, a game in which a virtual character (hereinafter also referred to as "avatar") created using CG (computer graphic) technology is drawn in a virtual three-dimensional space also created by CG to move or move. , Broadcasting, and content are being actively produced.

例えば下記特許文献1には、仮想空間内におけるアバターの移動操作を行おうとする参加者が、現実の空間内における参加者の位置情報をGPS(global positioning system)技術を利用して取得し、これを仮想空間内の位置情報に変換してアバターの仮想空間内位置操作に用いようとする構成が開示されている。 For example, in Patent Document 1 below, a participant who intends to move an avatar in a virtual space acquires the position information of the participant in the real space by using GPS (global positioning system) technology. Is disclosed to be converted into position information in the virtual space and used for the position operation in the virtual space of the avatar.

特許第4637889号公報Japanese Patent No. 4637889

このように盛んに用いられるようになってきている仮想的キャラクター(アバター)を、ただ仮想的な空間内に描画するのではなく、現実の空間内に描画して、現実の演者である被撮影者(演技者、出演者、あるいはインタビュウを受ける通行人など)とアバターとが同じ画面に描画するようにして、リアルな現場にはあり得ない人工的なキャラクターがいることの意外さや面白さ、あるいは仮想的で人工的であるはずのアバターにリアル感を付加する面白さ、などを楽しめるようにした提案が最近なされている。 The virtual character (avatar) that is becoming popular in this way is not just drawn in the virtual space, but drawn in the real space to be photographed as a real performer. It is surprising and interesting that there is an artificial character that can not be found in a real scene by drawing on the same screen as the person (actor, performer, or passerby who is interviewed) and the avatar. Alternatively, a proposal has recently been made to make it possible to enjoy the fun of adding a sense of reality to an avatar that should be virtual and artificial.

しかしながら、このように現実空間の画像と、人工的なアバターとを合成して一つのシーンに描画するようにした放送あるいはコンテンツでは従来、次のような本質的な課題が存在し未解決であった。 However, in broadcasting or content in which an image in real space and an artificial avatar are combined and drawn in one scene in this way, the following essential problems have existed and are unsolved. rice field.

先に説明したように、現実の演者複数を一つのシーンとして撮影した、例えば図7(A),図7(B)に示す各シーンにおいては、登場する二人の演者101、102、104、105は互いに相手を視認し、直接会話をしているので、当然シーン中の会話は自然で違和感がなく、視聴者から見て自然である。 As described above, in each of the scenes shown in FIGS. 7 (A) and 7 (B), in which a plurality of actual performers are photographed as one scene, for example, the two performers 101, 102, 104, appearing in each scene. Since 105 visually recognizes each other and has a direct conversation, the conversation in the scene is naturally natural and comfortable, and is natural from the viewer's point of view.

しかしながら、現実空間にいる現実の演者が、人工的なアバターと共演し一つのシーンに収まる番組を想定したとすると、アバターは実際には現実の演者の目の前には存在しないので、現実の演者は会話を行う相手が目の前にはおらず、一人であたかも会話を行うような演技を強いられることとなり、現実の演者が視線を投げる方向も定めることができず、シーン全体が不自然となってしまう。 However, if a real performer in the real space assumes a program that co-stars with an artificial avatar and fits in one scene, the avatar does not actually exist in front of the real performer, so it is real. The performer is not in front of the person with whom he is talking, and he is forced to act as if he were talking alone, and the direction in which the actual performer throws his eyes cannot be determined, making the entire scene unnatural. turn into.

そこで、先に示した図8(B)のように、現実の演者のみをカメラが撮影し、アバターは、はめ込み画面(ピクチャーインピクチャー)に登場するようにすれば、実際には同じ場所に存在しない現実の演者とアバターとが無理に一つの画面に描画されていないので、現実の演者が目の前に会話を行う相手がいないにも関わらずあたかもいるかのように話しているといった演技をする必要がないため不自然さはなくなるが、人工的なアバターを現実の空間内に描画するものとは異なるシーンとなってしまう。 Therefore, as shown in FIG. 8B, if the camera shoots only the actual performer and the avatar appears on the inset screen (picture in picture), it actually exists in the same place. Since the real performer and the avatar are not forcibly drawn on one screen, the real performer acts as if he were talking as if he had no one to talk to in front of him. Since it is not necessary, the unnaturalness disappears, but the scene is different from the one that draws an artificial avatar in the real space.

従って、先に述べたような、現実の演者とアバターとを同じ画面に描画した場合に生じる、リアルな現場にはあり得ない人工的なキャラクターがいることの意外さや面白さ、あるいは仮想的で人工的であるはずのアバターにリアル感を付加する面白さ、などを視聴者は十分に楽しむことができない恐れがあった。 Therefore, as mentioned above, it is surprising, interesting, or virtual that there is an artificial character that cannot be found in a real scene, which occurs when a real performer and an avatar are drawn on the same screen. There was a risk that viewers would not be able to fully enjoy the fun of adding a sense of reality to avatars that should be artificial.

そこで、本開示では、現実の演者と人工的(仮想的)なキャラクターであるアバターとが一緒に登場するシーンにおける不自然さを解消するための、コンテンツ配信システム、コンテンツ配信方法、コンピュータプログラム、コンテンツ配信用サーバ、および伝送路を提供することを目的とする。 Therefore, in this disclosure, a content distribution system, a content distribution method, a computer program, and content for eliminating the unnaturalness in a scene in which a real performer and an artificial (virtual) character, an avatar, appear together. The purpose is to provide a distribution server and a transmission line.

上記の課題を解決するために、本発明は、下記の1)乃至11)に記載のコンテンツ配信システム、コンテンツ配信方法、コンピュータプログラム、コンテンツ配信用サーバ、および伝送路を提供する。
1)
被撮影者を、仮想的キャラクターとともに一つのシーン中に表示して配信する、コンテンツ配信システムであって、
被撮影者とダミー物体とが一つのシーンに収まるよう撮影を行うシーン撮影用カメラ部、
撮影がなされたシーン中のダミー物体の画像を、仮想的キャラクターの画像へ置換をして配信する画像置換部、
を備えたことを特徴とする、コンテンツ配信システム。
2)
ダミー物体は、仮想的キャラクターの画像を表示するディスプレイを備えることを特徴とする、1)に記載のコンテンツ配信システム。
3)
画像置換部が配信する画像における、置換がなされた前記仮想的キャラクターの画像は、ダミー物体が備えるディスプレイに表示された仮想的キャラクターの画像とは異なる態様であることを特徴とする、2)に記載のコンテンツ配信システム。
4)
異なる態様は、異なる視点に基づくことを特徴とする、3)に記載のコンテンツ配信システム。
5)
ダミー物体は、シーン撮影用カメラ部とは異なる位置から被撮影者を撮影するカメラ及び/または被撮影者の音声を拾うマイクロフォンを有することを特徴とする、1)乃至4)のいずれか1項に記載のコンテンツ配信システム。
6)
仮想的キャラクターの外観表示態様を変更操作する操作部と、カメラおよび/またはマイクロフォンが収集した情報を表示する仮想的キャラクターの外観表示態様操作用表示部と、をさらに有することを特徴とする、5)に記載のコンテンツ配信システム。
7)
操作部は、ディスプレイに表示される仮想的キャラクターの外観表示態様、および/または、画像置換部が配信する画像中の前記仮想的キャラクターの画像の外観表示態様を変更操作するよう構成されたことを特徴とする、6)に記載のコンテンツ配信システム。
8)
画像置換部の配信画像を含んだコンテンツを通信路経由で放送する放送送信部と、放送中のコンテンツの画面中に表示させるユーザー投稿情報を受け付ける受信部とをさらに備え、且つ、ユーザー投稿情報は、仮想的キャラクターの画像を表示するディスプレイにもまた表示がなされるよう構成されたことを特徴とする、2)乃至7)のいずれか1項に記載のコンテンツ配信システム。
9)
画像置換部の配信画像を含んだコンテンツを通信路経由で放送する放送送信部と、放送中のコンテンツの画面中に表示させるユーザー投稿情報を受け付ける受信部とをさらに備え、且つ、前記ユーザー投稿情報は、仮想的キャラクターの外観表示態様操作用表示部にもまた表示がなされるよう構成されたことを特徴とする、6)乃至8)のいずれか1項に記載のコンテンツ配信システム。
10)
被撮影者を、仮想的キャラクターとともに一つのシーン中に表示して配信する、コンテンツ配信方法であって、
シーン撮影用カメラ部が、被撮影者とダミー物体とが一つのシーンに収まるよう撮影を行うステップ、
画像置換部が、撮影がなされたシーン中のダミー物体の画像を、仮想的キャラクターの画像へ置換をして配信するステップ、
を備えたことを特徴とする、コンテンツ配信方法。
11)
請求項10に記載のコンテンツ配信方法における各ステップをコンピュータが実行するコード群を含んだことを特徴とする、コンピュータプログラム。
12)
被撮影者を、仮想的キャラクターとともに一つのシーン中に表示して配信する、コンテンツ配信用サーバであって、
被撮影者とダミー物体とが一つのシーンに収まるよう撮影がなされたシーン中のダミー物体の画像を、仮想的キャラクターの画像へ置換をして配信するよう構成されたことを特徴とする、コンテンツ配信用サーバ。
13)
12)に記載のコンテンツ配信用サーバが前記配信を行った信号を伝送する伝送路。
In order to solve the above problems, the present invention provides the content distribution system, content distribution method, computer program, content distribution server, and transmission path described in 1) to 11) below.
1)
It is a content distribution system that displays and distributes the photographed person in one scene together with a virtual character.
A camera unit for scene shooting that shoots so that the subject and the dummy object fit in one scene,
An image replacement unit that replaces the image of a dummy object in the shot scene with an image of a virtual character and delivers it.
A content distribution system characterized by being equipped with.
2)
The content distribution system according to 1), wherein the dummy object includes a display for displaying an image of a virtual character.
3)
The image of the virtual character that has been replaced in the image delivered by the image replacement unit is characterized in that the image of the virtual character that has been replaced is different from the image of the virtual character displayed on the display included in the dummy object 2). Described content distribution system.
4)
The content distribution system according to 3), wherein the different aspects are based on different viewpoints.
5)
The dummy object is characterized by having a camera that shoots the photographed person from a position different from the scene shooting camera unit and / or a microphone that picks up the sound of the photographed person, according to any one of 1) to 4). Content distribution system described in.
6)
It is characterized by further having an operation unit for changing the appearance display mode of the virtual character and an operation unit for operating the appearance display mode of the virtual character that displays information collected by the camera and / or the microphone. ) Described in the content distribution system.
7)
The operation unit is configured to change the appearance display mode of the virtual character displayed on the display and / or the appearance display mode of the image of the virtual character in the image delivered by the image replacement unit. The content distribution system according to 6), which is a feature.
8)
The broadcast transmission unit that broadcasts the content including the distribution image of the image replacement unit via the communication path, and the reception unit that receives the user-posted information to be displayed on the screen of the content being broadcast, and the user-posted information is The content distribution system according to any one of 2) to 7), wherein the display is also configured to display an image of a virtual character.
9)
The broadcast transmission unit that broadcasts the content including the distribution image of the image replacement unit via the communication path, and the reception unit that receives the user-posted information to be displayed on the screen of the content being broadcast, and the user-posted information The content distribution system according to any one of 6) to 8), characterized in that the display unit for operating the appearance display mode of the virtual character is also displayed.
10)
It is a content distribution method that displays and distributes the photographed person in one scene together with a virtual character.
A step in which the camera unit for scene shooting shoots so that the subject and the dummy object fit in one scene.
The step in which the image replacement unit replaces the image of the dummy object in the shot scene with the image of the virtual character and delivers it.
A content distribution method characterized by being equipped with.
11)
A computer program comprising a code group in which a computer executes each step in the content distribution method according to claim 10.
12)
A content distribution server that displays and distributes the photographed person in one scene together with a virtual character.
Content characterized by being configured to replace the image of a dummy object in a scene shot so that the photographed person and the dummy object fit into one scene with an image of a virtual character and deliver it. Delivery server.
13)
A transmission line for transmitting the signal delivered by the content distribution server according to 12).

本開示によれば、被撮影者と人工的(仮想的)なキャラクターであるアバターとが一緒に登場するシーンにおける不自然さを解消することができる。 According to the present disclosure, it is possible to eliminate the unnaturalness in a scene in which the photographed person and the avatar, which is an artificial (virtual) character, appear together.

本発明にかかるコンテンツ配信受信システムの構成を模式的に示した図である。It is a figure which showed typically the structure of the content distribution reception system which concerns on this invention. 図1のコンテンツ配信受信システムが有するコンテンツ配信サーバのブロック図である。It is a block diagram of the content distribution server which the content distribution reception system of FIG. 1 has. 図1のコンテンツ配信受信システムが有するアバター変更ユニットのブロック図である。It is a block diagram of the avatar change unit which the content distribution reception system of FIG. 1 has. 図1のコンテンツ配信受信システムが、被撮影者とアバターとを描画した画像を送信し表示する処理を示すフローチャートである。FIG. 5 is a flowchart showing a process in which the content distribution / reception system of FIG. 1 transmits and displays an image in which a photographed person and an avatar are drawn. 図1のコンテンツ配信受信システムが、被撮影者視聴用のディスプレイにアバターを描画する処理を示すフローチャートである。FIG. 5 is a flowchart showing a process in which the content distribution / reception system of FIG. 1 draws an avatar on a display for viewing by a photographed person. (A)図1のコンテンツ配信受信システムが有するシーン撮影用カメラが撮影した画像の模式図である。(B)図1のコンテンツ配信受信システムが有するアバター変更ユニットが生成した、アバターの画像を示す模式図である。(C)図1のコンテンツ配信受信システムが有するコンテンツ配信サーバが生成する、被撮影者とアバターとを一つの画面に収めたシーンの模式図である。(A) is a schematic view of an image taken by a scene shooting camera included in the content distribution / reception system of FIG. 1. (B) It is a schematic diagram which shows the image of the avatar generated by the avatar change unit which the content distribution reception system of FIG. 1 has. (C) It is a schematic diagram of the scene in which the photographed person and the avatar are stored on one screen generated by the content distribution server included in the content distribution reception system of FIG. 1. 従来技術にかかる放送における、シーンの模式図である。It is a schematic diagram of the scene in the broadcasting which concerns on the prior art. 従来技術にかかる放送における、シーンの模式図である。It is a schematic diagram of the scene in the broadcasting which concerns on the prior art.

以下、本開示に係る実施形態について説明する。なお、以下に説明する本実施形態は、それぞれ例示に過ぎず、本発明の趣旨を脱しない範囲で種々の変形が可能であり、これらもまた本発明が包含する。 Hereinafter, embodiments according to the present disclosure will be described. It should be noted that the embodiments described below are merely examples, and various modifications can be made without departing from the spirit of the present invention, which are also included in the present invention.

〔コンテンツ配信受信システム1の構成〕
図1は、本発明にかかるコンテンツ配信受信システム1の構成を模式的に示した図である。コンテンツ配信受信システム1は、現実の演者が撮影されるスタジオ、あるいは放送中継現場などである演者撮影現場2、アバターの動きなどをアバター操作者が操作するためにモーションキャプチャーシステムなどを備えたアバター操作スタジオ3、番組を放送するコンテンツ配信業者の配信環境4、放送番組を視聴するエンドユーザーであるコンテンツ閲覧者の閲覧環境5、にそれぞれ以下の構成が配置されている。
[Configuration of content distribution / reception system 1]
FIG. 1 is a diagram schematically showing a configuration of a content distribution / reception system 1 according to the present invention. The content distribution / reception system 1 is an avatar operation equipped with a motion capture system or the like for the avatar operator to operate the studio where the actual performer is photographed, the performer filming site 2 which is a broadcast relay site, or the movement of the avatar. The following configurations are arranged in the studio 3, the distribution environment 4 of the content distributor that broadcasts the program, and the viewing environment 5 of the content viewer who is the end user who watches the broadcast program.

なお、上記の「現実の演者」とは、仮想キャラクター(アバター)ではない実際の被撮影者を指しており、演技を行う演者に限らず、例えば街頭インタビュウにおける通りがかりのインタビュウイーなども含んでいる。 The above-mentioned "real performer" refers to an actual photographed person who is not a virtual character (avatar), and includes not only the performer who performs the acting but also a passing interview in a street interview, for example. ..

このように異なる場所に各構成が配置されていることは本発明の実施に必須なものではなく、各構成のうちいずれかが、または全てが同一の場所に配置されていても良い。 It is not essential for the practice of the present invention that the configurations are arranged in different places in this way, and any or all of the configurations may be arranged in the same place.

演者撮影現場2には、演者20が居て番組のために演技を行い、演者の近傍には、演者用表示スタンドユニット21が配置されている。この演者用表示スタンドユニット21には、演者20を撮影してアバター操作者30の視認に供するための演者撮影用カメラ21a、演者20の発話を拾って同じくアバター操作者30の聴取に供したり、あるいは番組の音声として用いるための演者発話用マイク21b、アバター30が発した発話音声あるいは放送ディレクター(図示しない)からの指令音声などを発話するための演者聴取用スピーカー21c、アバターの画像21eを演者20が視認し、この結果、あたかも演者20が人工的なアバターと相対しているような環境を提供する演者視認用ディスプレイ21d、これら演者用表示スタンドユニット21が備える各構成を支えるスタンド21fなどを備えている。 A performer 20 is present at the performer shooting site 2 to perform an act for a program, and a performer display stand unit 21 is arranged in the vicinity of the performer. The speaker display stand unit 21 includes a speaker shooting camera 21a for photographing the performer 20 and making it visible to the avatar operator 30, and picking up the utterances of the performer 20 and using them for listening to the avatar operator 30. Alternatively, the performer uses the performer's utterance microphone 21b for use as the voice of the program, the speaker for listening to the performer 21c for uttering the utterance voice emitted by the avatar 30, or the command voice from the broadcast director (not shown), and the image 21e of the avatar. The performer visual display 21d, which provides an environment in which the performer 20 visually recognizes and as if the performer 20 faces an artificial avatar, and the stand 21f that supports each configuration of these performer display stand units 21 are provided. I have.

また、演者撮影現場2にはシーン撮影用カメラ22が配置され、演者20と演者用表示スタンドユニット21とが一つの画面(シーン撮影用カメラ撮影ゾーン23)に収まるようにした撮影に用いられる。 Further, a scene shooting camera 22 is arranged at the performer shooting site 2, and is used for shooting so that the performer 20 and the performer display stand unit 21 fit on one screen (scene shooting camera shooting zone 23).

演者用表示スタンドユニット21とシーン撮影用カメラ22の各信号系統は、インターネット通信網60、61、62、66を経由してコンテンツ配信サーバ40とデータ接続している。 Each signal system of the performer display stand unit 21 and the scene shooting camera 22 is data-connected to the content distribution server 40 via the Internet communication networks 60, 61, 62, 66.

なお、インターネット回線60、61,62,66間の接続ノードについては説明や図示を省略する。本発明の実施にあたり、各箇所に説明を行う信号、データの伝送は種々の回線、通信網を用いることが可能でありインターネット回線60、61,62,66に限定されない。この点は以下の記載においても同様である。 The description and illustration of the connection nodes between the Internet lines 60, 61, 62, and 66 will be omitted. In carrying out the present invention, the transmission of signals and data described in each place can use various lines and communication networks, and is not limited to the Internet lines 60, 61, 62, 66. This point is the same in the following description.

アバター操作スタジオ3は、前述のとおりアバター操作者30がモーションキャプチャー技術を用いてアバターの動きなどを操作するための場であり、図1ではその一例として、光学マーカー31がアバター操作者30の体の各所に取り付けられ、モーションキャプチャー用カメラ32がこれら各光学マーカー31を撮影して、後に示すアバター変更ユニット34が三角測距の原理を用いて各光学マーカー31の3次元空間内位置座標を検出している。 As described above, the avatar operation studio 3 is a place for the avatar operator 30 to operate the movement of the avatar using the motion capture technology. As an example in FIG. 1, the optical marker 31 is the body of the avatar operator 30. The motion capture camera 32 captures each of these optical markers 31, and the avatar change unit 34, which will be described later, detects the position coordinates of each optical marker 31 in three-dimensional space using the principle of triangular distance measurement. is doing.

モーションキャプチャー技術として上記のような光学マーカーと、それに対応するカメラとの組み合わせにより実施するほかに、加速度センサーを用いてアバター操作者30の動きを検知する方式や、高周帯域電磁波をアバター操作者30に照射して反射して戻ってくる電磁波の解析結果からドップラー現象によりアバター操作者30の体の動きを検出する方式など様々な方式を用いることが可能である。 As a motion capture technology, in addition to the combination of the above optical markers and the corresponding camera, a method of detecting the movement of the avatar operator 30 using an acceleration sensor and a high-circumferential electromagnetic wave are applied to the avatar operator. It is possible to use various methods such as a method of detecting the movement of the body of the avatar operator 30 by the Doppler phenomenon from the analysis result of the electromagnetic wave reflected and returned by irradiating the 30.

アバター操作スタジオ3には、アバターの操作者用表示スタンドユニット33が配置されており、同ユニット33には、必要に応じて点滅をして現在オンエア中であることをアバターの操作者30に知らせるタリーランプ33a、アバターの操作者の発話音声を拾うためのアバターの操作者撮影用マイク33b、演者20あるいは番組ディレクター(図示しない)などの発話音声を発声するアバターの操作者聴取用スピーカー33c、演者の画像33eを表示して、遠方に居る演者20とあたかも目の前で会話をしているごとき環境を提供するアバターの操作者視認用ディスプレイ33d、アバターの操作者用表示スタンドユニット33の各構成を支えるスタンド33fをそれぞれ備えている。なお、タリーランプ33aの近傍あるいは他の位置にアバターの操作者30の顔の表情などを撮影するカメラ(図示しない)を備え、アバターのレンダリングにあたってアバターの操作者30の顔の表情などを利用するように構成してもよい。 A display stand unit 33 for the avatar operator is arranged in the avatar operation studio 3, and the unit 33 blinks as necessary to notify the avatar operator 30 that the avatar is currently on the air. Tally lamp 33a, avatar operator shooting microphone 33b for picking up the avatar operator's voice, avatar operator listening speaker 33c for uttering the voice of the performer 20 or the program director (not shown), performer Each configuration of the avatar operator visual display 33d and the avatar operator display stand unit 33 that displays the image 33e of the above and provides an environment as if talking with the performer 20 in the distance in front of the eyes. Each of the stands 33f is provided to support the above. A camera (not shown) that captures the facial expression of the avatar operator 30 is provided near or at another position of the tally lamp 33a, and the facial expression of the avatar operator 30 is used when rendering the avatar. It may be configured as follows.

モーションキャプチャー用カメラ32とアバターの操作者用表示スタンドユニット33、の各信号系統は、インターネット通信網63,64を介してアバター変更ユニット34とデータ接続をしている。アバター変更ユニット34の構成は別途説明を行う。アバター変更ユニット34はインターネット通信網60、65、66を介してコンテンツ配信サーバ40とデータ接続をしている。 Each signal system of the motion capture camera 32 and the avatar operator display stand unit 33 has a data connection with the avatar change unit 34 via the Internet communication networks 63 and 64. The configuration of the avatar change unit 34 will be described separately. The avatar change unit 34 has a data connection with the content distribution server 40 via the Internet communication networks 60, 65, 66.

なお、上記のアバター変更ユニット34の一部の、あるいはすべての構成をコンテンツ配信サーバ40内に含めるようにしてもよい。その場合、アバター変更ユニット34の構成や機能、処理として説明を行った箇所は、コンテンツ配信サーバ40の構成、機能、処理となる。 The content distribution server 40 may include a part or all of the above-mentioned avatar change unit 34. In that case, the part described as the configuration, function, and process of the avatar change unit 34 is the configuration, function, and process of the content distribution server 40.

またコンテンツ配信業者の配信環境4にはコンテンツ配信サーバ40が配置されており、その構成は別途説明を行う。 Further, a content distribution server 40 is arranged in the distribution environment 4 of the content distribution company, and its configuration will be described separately.

コンテンツ閲覧者の閲覧環境5には汎用のパーソナルコンピュータ50が設けられており、コンテンツ閲覧者(図示しない)はパーソナルコンピュータディスプレイ50aに描画された番組を楽しむことができる。後で説明するように番組の画面には演者の画像50bとアバターの画像50cとが一緒に描画されるように構成されており、この結果コンテンツ閲覧者は、現実の演者とアバターとが同じ画面に描画されることによって、リアルな現場にはあり得ない人工的なキャラクターがいることの意外さや面白さ、あるいは仮想的で人工的であるはずのアバターにリアル感を付加する面白さ、などを十分に楽しむことができる。 A general-purpose personal computer 50 is provided in the viewing environment 5 of the content viewer, and the content viewer (not shown) can enjoy the program drawn on the personal computer display 50a. As will be described later, the screen of the program is configured so that the image 50b of the performer and the image 50c of the avatar are drawn together, and as a result, the content viewer has the same screen as the actual performer and the avatar. By drawing on the avatar, it is surprising and interesting that there is an artificial character that can not be found in the real scene, or it is interesting to add a real feeling to the avatar that should be virtual and artificial. You can fully enjoy it.

〔アバター変更ユニット34の構成〕
アバター変更ユニット34は、図3のブロック図に示すように、ユニット34全体の統制制御を行うCPUである制御ユニット340、メモリ341、モーションキャプチャー技術によりアバター操作者30の動きをデータ化するモーショントラッカ343、メモリ341内のアバターデータメモリ341bに蓄積された、アバターの外観などのデータ(画像データ)とモーショントラッカ343が生成するアバター操作者30の動きのデータとを用いて現在のアバターの姿勢に応じたCG画像を生成するレンダリング部344、ユニット34内外の通信送受を行う通信インターフェース345などを備えており、これら各構成はデータバスライン342を介して相互にデータ接続をしている。
[Structure of avatar change unit 34]
As shown in the block diagram of FIG. 3, the avatar change unit 34 is a control unit 340, which is a CPU that controls and controls the entire unit 34, a memory 341, and a motion tracker that digitizes the movement of the avatar operator 30 by motion capture technology. 343, Avatar data in memory 341 Data such as the appearance of the avatar (image data) stored in the memory 341b and the movement data of the avatar operator 30 generated by the motion tracker 343 are used to obtain the current avatar posture. It is provided with a rendering unit 344 that generates a corresponding CG image, a communication interface 345 that performs communication transmission / reception inside and outside the unit 34, and the like, and each of these configurations is connected to each other via a data bus line 342.

またメモリ341が備えるプログラムメモリ341aは、本願明細書記載実施の形態に開示された動作を含む各動作を制御ユニット340その他が実行するための実行コード群を含んだ、アバター変更ユニット34が実行するべきコンピュータプログラムを読み出し可能に記憶しており、同じく一時メモリ341cはいわゆるキャッシュメモリとして使用される。 Further, the program memory 341a included in the memory 341 is executed by the avatar change unit 34, which includes an execution code group for the control unit 340 and others to execute each operation including the operation disclosed in the embodiment described in the present specification. The computer program to be stored is readable, and the temporary memory 341c is also used as a so-called cache memory.

〔コンテンツ配信サーバ40の構成〕
図2のブロック図に示すようにコンテンツ配信サーバ40は、サーバ40全体の統制制御を行うCPUである制御ユニット41、メモリ42、シーン撮影用カメラ22が撮影して画像に含まれている演者用表示スタンドユニット21の画像がどのエリアであるかを特定するために、メモリ42内のテンプレート画像メモリ42bに記憶されているこの演者用表示スタンドユニット21の画像をテンプレート(型紙)としてシーン撮影用カメラ22が撮影して画像に対してすり合わせ法(統計的相関マッチング)などの技術を用いてエリアの特定を行うテンプレート画像トラッカ44、アバター変更ユニット34から送出された現在のアバターの画像を上記の特定されたエリアに重畳し、あるいは置換して、演者20とアバターとが一緒に描画されている放送用コンテンツ画像を生成するコンテンツ画像生成部45、サーバ40内外間のデータ送受を行う通信インターフェース46、をそれぞれ備えており、これら各構成はデータバスライン43を介して相互にデータ接続をしている。
[Configuration of content distribution server 40]
As shown in the block diagram of FIG. 2, the content distribution server 40 is for a performer photographed by a control unit 41, a memory 42, and a scene shooting camera 22 which are CPUs that control and control the entire server 40. In order to identify which area the image of the display stand unit 21 is, the image of the display stand unit 21 for performers stored in the template image memory 42b in the memory 42 is used as a template (pattern) for the scene shooting camera. The above-mentioned identification of the image of the current avatar sent from the template image tracker 44 and the avatar change unit 34, which 22 takes a picture and identifies the area using a technique such as a matching method (statistical correlation matching) for the image. A content image generation unit 45 that generates a broadcast content image in which the performer 20 and the avatar are drawn together by superimposing or replacing the area, and a communication interface 46 that transmits / receives data between the inside and outside of the server 40. Each of these configurations is connected to each other via a data bus line 43.

またメモリ42が備えるプログラムメモリ42aは、本願明細書記載実施の形態に開示された動作を含む各動作を制御ユニット41その他が実行するための実行コード群を含んだ、サーバ40が実行するべきコンピュータプログラムを読み出し可能に記憶しており、同じく一時メモリ42cはいわゆるキャッシュメモリとして使用される。 Further, the program memory 42a included in the memory 42 is a computer to be executed by the server 40, which includes an execution code group for the control unit 41 and others to execute each operation including the operations disclosed in the embodiments described in the present specification. The program is readable and stored, and the temporary memory 42c is also used as a so-called cache memory.

またコンテンツ配信サーバ40は、後に説明する通り、被撮影者を仮想的キャラクター(アバター)とともに一つのシーン中に表示して配信するサーバであって、被撮影者とダミー物体とが一つのシーンに収まるよう撮影がなされたシーン中のダミー物体の画像を、仮想的キャラクターの画像へ置換をして配信するよう構成されている。また、コンテンツ配信サーバ40が配信を行った信号は、伝送路であるインターネット通信網60,66,67などが担持し、これら各伝送路を経由して伝送がなされる。 Further, as will be described later, the content distribution server 40 is a server that displays and distributes the photographed person together with the virtual character (avatar) in one scene, and the photographed person and the dummy object are combined into one scene. The image of the dummy object in the scene shot so as to fit is replaced with the image of the virtual character and distributed. Further, the signal distributed by the content distribution server 40 is carried by the Internet communication networks 60, 66, 67 and the like, which are transmission lines, and is transmitted via each of these transmission lines.

〔コンテンツ画像73の生成および表示処理〕
次に、コンテンツ(放送)に用いるべき、演者20とアバターとが一緒に描画されている画像73(以下、「コンテンツ画像」とも呼び、図6(C)の模式図、あるいは図1中のパーソナルコンピュータディスプレイ50a内にもその一例が示されている)が生成され、閲覧ユーザー(図示しない)が閲覧可能となるまでの処理を、図4のフローチャート、図6の模式図を援用して説明を行う。
[Generation and display processing of content image 73]
Next, an image 73 in which the performer 20 and the avatar are drawn together, which should be used for the content (broadcast) (hereinafter, also referred to as a “content image”, is a schematic diagram of FIG. 6 (C), or a personal computer in FIG. 1). An example thereof is also shown in the computer display 50a), and the process until the viewing user (not shown) can view the content is explained with reference to the flowchart of FIG. 4 and the schematic diagram of FIG. conduct.

まずアバター変更ユニット34の制御ユニット340は、メモリ341内のアバターデータメモリ341bに蓄積された、コンテンツ画像に描画をしたいアバターのデータ(仮想的キャラクターの外観を表す画像データなど)を読み出す(ステップS101)。次に制御ユニット340は、モーショントラッカ343を統制制御して先に説明をしたモーションキャプチャー技術によりアバター操作者30の動きを得てデータ化する(ステップS102)。 First, the control unit 340 of the avatar change unit 34 reads out the avatar data (image data representing the appearance of the virtual character, etc.) to be drawn in the content image stored in the avatar data memory 341b in the memory 341 (step S101). ). Next, the control unit 340 controls and controls the motion tracker 343, obtains the movement of the avatar operator 30 by the motion capture technique described above, and converts it into data (step S102).

次に制御ユニット340は、得られたモーションキャプチャーデータと、アバターのデータとを用いて、アバターの3D描画画像を生成するレンダリングをレンダリング部344に行わせる(ステップS103)。レンダリングに際してはどの位置から見たアバターの画像を生成するかが、重要であるので、レンダリング部344はあらかじめコンテンツ配信サーバ40からこの視点の位置の情報、具体的には図1における、演者撮影現場2中のシーン撮影用カメラ22の位置の情報であって、後に説明するように、アバターの画像と置換をすべき対象物である演者用表示スタンドユニット21の相対的な位置の情報が保存されている。この視点から見てアバターがどの方向を向いているようにレンダリングを行うかについて制約はないが、演者20とアバターとが向かい合ってインテビュウを行っているシーンである場合には、アバターを横から見た情景のレンダリングとすることは適格な選択である。 Next, the control unit 340 causes the rendering unit 344 to perform rendering to generate a 3D drawing image of the avatar using the obtained motion capture data and the avatar data (step S103). Since it is important from which position the image of the avatar is generated when rendering, the rendering unit 344 receives information on the position of this viewpoint from the content distribution server 40 in advance, specifically, the performer shooting site in FIG. Information on the position of the scene shooting camera 22 in 2, and as will be described later, information on the relative position of the performer display stand unit 21, which is an object to be replaced with the image of the avatar, is stored. ing. From this point of view, there are no restrictions on the direction in which the avatar is rendered, but if the scene is a scene in which the performer 20 and the avatar are facing each other and performing an interview, the avatar is viewed from the side. Rendering the scene is a good choice.

なお、上記に説明を行った態様とは一部異なる構成とした別態様とすることができ、一つの別態様ではアバター変更ユニット34はモーションキャプチャーにかかわる動作までのみを実施してその結果となるデータをコンテンツ配信サーバ40へ送信し、コンテンツ配信サーバ40では上記に説明をしたアバター画像のレンダリングを行うようにしてもよい。この場合、レンダリングにかかわる構成は、先の説明ではアバター変更ユニット34に含まれるとしたことに代えて、コンテンツ配信サーバ40に含まれることとする。 In addition, it is possible to make another aspect having a configuration partially different from the aspect described above, and in one alternative aspect, the avatar change unit 34 performs only the operation related to the motion capture, and the result is obtained. The data may be transmitted to the content distribution server 40, and the content distribution server 40 may render the avatar image described above. In this case, the configuration related to rendering is included in the content distribution server 40 instead of being included in the avatar change unit 34 in the above description.

さらに、先に説明した、アバター操作スタジオ3に配置された一部あるいはすべての構成をコンテンツ配信業者の配信環境4や他の場所に配置し、それぞれの機能を有するようにしてもよい。 Further, a part or all of the configurations arranged in the avatar operation studio 3 described above may be arranged in the distribution environment 4 of the content distributor or another place to have each function.

このような別態様における構成の相違点、処理の相違点は本明細書の各所説明箇所から容易に理解できるものであるので説明を省略する。 Since the differences in the configuration and the differences in the processing in such another aspect can be easily understood from the various parts of the present specification, the description thereof will be omitted.

レンダリングにより得られたアバターの画像データは、通信インターフェース345、インターネット通信網60、65、66を経由してコンテンツ配信サーバ40へ伝送される(ステップS104)。 The image data of the avatar obtained by rendering is transmitted to the content distribution server 40 via the communication interface 345 and the Internet communication networks 60, 65, 66 (step S104).

コンテンツ配信サーバ40では伝送されたアバター画像のデータを受信するとともに(ステップS204)、あらかじめ次の動作を実行する。 The content distribution server 40 receives the transmitted avatar image data (step S204) and executes the following operations in advance.

まず、後にアバターの画像へ置換がされるべき対象物の画像であって、シーン撮影用カメラ22が演者20とともに撮影した画像(図6(A)における演者用表示スタンドユニット21)がテンプレート(型紙)画像としてあらかじめコンテンツ配信サーバ40のテンプレート画像メモリ42bに記憶されており、制御ユニット41は、テンプレート画像トラッカ44に対してそのテンプレート画像の読み出しを命じる(ステップS201)。 First, an image of an object to be replaced with an avatar image later, and an image taken by the scene shooting camera 22 together with the performer 20 (the performer display stand unit 21 in FIG. 6A) is a template (pattern). ) The image is stored in the template image memory 42b of the content distribution server 40 in advance, and the control unit 41 orders the template image tracker 44 to read the template image (step S201).

また制御ユニット41の統制制御に応じて、シーン撮影用カメラ22が演者20とともに演者用表示スタンドユニット21を撮影した画像70(以下、「シーン撮影画像」ともいう)が、インターネット通信網60、62、66、通信インターフェース46経由で受信がなされる(ステップS202)。 Further, in response to the control control of the control unit 41, the image 70 (hereinafter, also referred to as “scene shooting image”) obtained by the scene shooting camera 22 and the performer 20 and the performer display stand unit 21 is captured by the Internet communication networks 60 and 62. , 66, reception is performed via the communication interface 46 (step S202).

次に、制御ユニット41の統制制御に応じて、コンテンツ画像生成部45が、受信されたシーン撮影画像70中におけるテンプレート画像すなわち演者用表示スタンドユニット21が描画された位置を特定する(ステップS203)。特定に際しては、シーン撮影画像70に対して少しずつ位置をずらしながらテンプレート画像との相関マッチングを行うすり合わせ法により、最も相関の高い位置を選択する、などの方法があり、他の方法でもよい。 Next, according to the control control of the control unit 41, the content image generation unit 45 specifies the position where the template image, that is, the performer display stand unit 21 is drawn in the received scene captured image 70 (step S203). .. In specifying, there is a method such as selecting the position having the highest correlation by a matching method that performs correlation matching with the template image while shifting the position little by little with respect to the scene captured image 70, and other methods may be used.

例えば、図示をしない操作者の操作に応じて、アバターの画像72を描画すべき画面中の位置が決定されるようにしてもよい。 For example, the position on the screen on which the image 72 of the avatar should be drawn may be determined according to the operation of an operator (not shown).

次にコンテンツ画像生成部45は、特定されたテンプレート画像すなわち演者用表示スタンドユニット21の位置において、このテンプレート画像すなわち演者用表示スタンドユニット21の画像を、ステップS204で伝送されたアバターの画像72で置換する(ステップS205)。置換により、画面中に演者20とアバターの画像72とが一緒に描画されたコンテンツ画像73が生成されるので、このコンテンツ画像73が通信インターフェース46、インターネット通信網60、66、67経由でパーソナルコンピュータ50へ伝送がなされる(ステップS206)。すなわち、インターネット通信網60、66、67は、コンテンツ配信サーバ40が生成した信号あるいは情報である、被撮影者である演者20と、ダミー物体とが一つのシーンに収まるよう撮影がなされたシーン中のダミー物体の画像を、仮想的キャラクター(アバター)の画像へ置換をして配信された信号あるいは情報を伝送し、あるいは担持(carry)し、この後説明をおこなう受信用端末であるパーソナルコンピュータ50などへ供給することとなる。 Next, the content image generation unit 45 transfers the template image, that is, the image of the performer display stand unit 21 at the position of the specified template image, that is, the performer display stand unit 21, with the avatar image 72 transmitted in step S204. Replace (step S205). By the replacement, a content image 73 in which the performer 20 and the avatar image 72 are drawn together on the screen is generated, so that the content image 73 is a personal computer via the communication interface 46 and the Internet communication networks 60, 66, 67. Transmission is made to 50 (step S206). That is, the Internet communication networks 60, 66, and 67 are in a scene in which the performer 20 who is the photographed person and the dummy object, which are signals or information generated by the content distribution server 40, are photographed so as to fit in one scene. The personal computer 50, which is a receiving terminal that replaces the image of the dummy object in the above with the image of the virtual character (avatar), transmits or carries the distributed signal or information, and will be described later. Will be supplied to.

なお、上記の態様のように、アバター画像に置き換わるべきダミー物体(例示では演者用表示スタンドユニット21)の画像をあらかじめテンプレートして保持しておき統計的処理によってそのダミー物体の描画位置をサーバ40が判断する態様以外にも、操作を行う人が手作業で、画面内におけるアバターの描画位置を指定する方法としてもよい点を先に説明した。 As in the above aspect, the image of the dummy object (in the example, the display stand unit 21 for the performer) to be replaced with the avatar image is stored as a template in advance, and the drawing position of the dummy object is set by the server 40 by statistical processing. In addition to the mode in which the avatar is judged, the method in which the operator may manually specify the drawing position of the avatar on the screen has been described above.

一方、閲覧ユーザー(図示しない)が用いるパーソナルコンピュータ50は、コンテンツ配信サーバ40が送信するコンテンツ画像73をパーソナルコンピュータディスプレイ50aに表示する(ステップS302)。 On the other hand, the personal computer 50 used by the browsing user (not shown) displays the content image 73 transmitted by the content distribution server 40 on the personal computer display 50a (step S302).

図4図示のフローチャートに示す通り、以上説明をした各処理は、終了操作を待つ判断ステップS105,S207、S303において終了操作が検知されない限り繰り返されるので、コンテンツ画像73は繰り返し更新がされることとなり、この結果、閲覧ユーザーは、演者20とアバターの画像73とが一緒の画面中に描画された動画を閲覧することが可能となる。この時、演者20は、演者用表示スタンドユニット21を見て、あたかも現実の対話者のごとくに話をしたり視線を合わせたりしているシーンが置換前のシーン撮影画像70であるので、置換後のコンテンツ画像73を視認する閲覧ユーザーは、まるで演者20がアバターと本当に相対して会話をしているような感覚を得ることができ、この結果、本実施形態によれば、現実の演者と人工的(仮想的)なキャラクターであるアバターとが一緒に登場するシーンにおける不自然さを解消することができる。 As shown in the flowchart of FIG. 4, each process described above is repeated unless the end operation is detected in the determination steps S105, S207, and S303 waiting for the end operation, so that the content image 73 is repeatedly updated. As a result, the viewing user can view the moving image drawn on the screen together with the performer 20 and the image 73 of the avatar. At this time, the performer 20 looks at the display stand unit 21 for the performer, and the scene in which the performer is talking or looking at the person as if he / she is a real interlocutor is the scene shot image 70 before the replacement. The browsing user who visually recognizes the later content image 73 can get the feeling that the performer 20 is really talking with the avatar, and as a result, according to the present embodiment, with the actual performer. It is possible to eliminate the unnaturalness in the scene where an artificial (virtual) character, an avatar, appears together.

あるいは、演者20が直接アバターの方向を向いていない態様の描画においても、演者20はあたかも演者視認用ディスプレイ21dの位置にアバターが存在するように会話や演技を行うことができ、その様な態様においても、現実の演者と人工的(仮想的)なキャラクターであるアバターとが一緒に登場するシーンにおける不自然さを解消することができる。 Alternatively, even in drawing in a mode in which the performer 20 does not directly face the avatar, the performer 20 can perform a conversation or act as if the avatar exists at the position of the performer visual display 21d, and such a mode. Even in, it is possible to eliminate the unnaturalness in the scene where the real performer and the artificial (virtual) character avatar appear together.

それゆえに、現実の演者とアバターとが同じ画面に描画するようにして、リアルな現場にはあり得ない人工的なキャラクターがいることの意外さや面白さ、あるいは仮想的で人工的であるはずのアバターにリアル感を付加する面白さ、などを視聴者である閲覧ユーザーは十分に楽しむことが可能となる。 Therefore, the real performer and the avatar should be drawn on the same screen, and it should be surprising and interesting that there is an artificial character that is impossible in the real scene, or it should be virtual and artificial. Browsing users who are viewers can fully enjoy the fun of adding a sense of reality to avatars.

〔演者視認用ディスプレイ21dにおけるアバターの画像21e表示の処理〕
以上は、閲覧ユーザー(図示しない)が閲覧を行う、パーソナルコンピュータディスプレイ50aの表示画面において、アバターの画像50cが描画される処理を中心に説明を行った。
[Processing of avatar image 21e display on performer visual display 21d]
The above description has focused on the process of drawing the avatar image 50c on the display screen of the personal computer display 50a, which is browsed by the browsing user (not shown).

次に、閲覧ユーザーが閲覧することを主たる目的とはせず、演者20が閲覧をする演者視認用ディスプレイ21dにおけるアバターの画像21e表示の処理について説明を行う。 Next, the process of displaying the image 21e of the avatar on the display 21d for viewing the performer, which the performer 20 browses, will be described without the main purpose of browsing by the browsing user.

生成されたコンテンツ画像73において、演者20がアバターとあたかも相対し、向かい合い、視線を合わせているように描画を行うことは、本発明の効果を奏する上で好ましい点であることを先に説明した。 It has been described above that in the generated content image 73, drawing as if the performer 20 faces, faces, and looks at the avatar is preferable in order to achieve the effect of the present invention. ..

そこで、演者20が相対している演者用表示スタンドユニット21が備える演者視認用ディスプレイ21dに、アバターが演者20の方を向いている概略正面像が描画されれば、演者20は本当にアバターと相対している感覚を持つことができ、この結果、閲覧ユーザーもまたコンテンツ画像73を閲覧した際にリアルな感覚を得ることができる。 Therefore, if a schematic front image in which the avatar faces the performer 20 is drawn on the performer visual display 21d provided in the performer display stand unit 21 facing the performer 20, the performer 20 is really relative to the avatar. As a result, the browsing user can also have a realistic feeling when viewing the content image 73.

そのために、図5のフローチャートに示すように、アバター変更ユニット34では、まずアバター変更ユニット34の制御ユニット340が、メモリ341内のアバターデータメモリ341bに蓄積された、コンテンツ画像に描画をしたいアバターのデータ(仮想的キャラクターの外観を表す画像データなど)を読み出す(ステップS401)。次に制御ユニット340は、モーショントラッカ343を統制制御して先に説明をしたモーションキャプチャー技術によりアバター操作者30の動きを得てデータ化する(ステップS402)。 Therefore, as shown in the flowchart of FIG. 5, in the avatar change unit 34, first, the control unit 340 of the avatar change unit 34 is the avatar that is stored in the avatar data memory 341b in the memory 341 and wants to be drawn on the content image. Data (image data representing the appearance of the virtual character, etc.) is read out (step S401). Next, the control unit 340 controls and controls the motion tracker 343, obtains the movement of the avatar operator 30 by the motion capture technique described above, and converts it into data (step S402).

次に制御ユニット340は、得られたモーションキャプチャーデータと、アバターのデータとを用いて、アバターの3D描画画像を生成するレンダリングをレンダリング部344に行わせる(ステップS403)。レンダリングに際してはどの位置から見たアバターの画像を生成するかが、重要であるので、レンダリング部34はあらかじめコンテンツ配信サーバ40からこの視点の位置の情報、具体的には図1における、演者撮影現場2中のシーン撮影用カメラ22の位置の情報であって、後に説明するように、アバターの画像と置換をすべき対象物である演者用表示スタンドユニット21の相対的な位置の情報が用いられる。この視点から見てアバターがどの方向を向いているようにレンダリングを行うかについて制約はないが、演者20とアバターとが向かい合ってインテビュウを行っているシーンである場合には、アバターを正面から見た情景のレンダリングとすることは適格な選択である。 Next, the control unit 340 causes the rendering unit 344 to perform rendering to generate a 3D drawing image of the avatar using the obtained motion capture data and the avatar data (step S403). Since it is important from which position the image of the avatar is generated when rendering, the rendering unit 34 receives information on the position of this viewpoint from the content distribution server 40 in advance, specifically, the performer shooting site in FIG. Information on the position of the scene shooting camera 22 in 2, and as will be described later, information on the relative position of the performer display stand unit 21 which is an object to be replaced with the image of the avatar is used. .. From this point of view, there are no restrictions on which direction the avatar is facing, but if the scene is a scene in which the performer 20 and the avatar are facing each other and performing an interview, the avatar is viewed from the front. Rendering the scene is a good choice.

レンダリングにより得られたアバターの画像データは、通信インターフェース345、インターネット通信網60、65、66を経由してコンテンツ配信サーバ40へ伝送される(ステップS404、S501)。 The image data of the avatar obtained by rendering is transmitted to the content distribution server 40 via the communication interface 345 and the Internet communication networks 60, 65, 66 (steps S404, S501).

コンテンツ配信サーバ40は伝送されたアバターの画像を、そのままかあるいは適切な背景をつけるなど加工を行い、インターネット通信網60、61、66経由で演者視認用ディスプレイ21dへ送出して描画をさせる(ステップS502)。 The content distribution server 40 processes the transmitted avatar image as it is or adds an appropriate background, and sends it to the performer visual display 21d via the Internet communication networks 60, 61, 66 for drawing (step). S502).

図5図示のフローチャートに示す通り、以上説明をした各処理は、終了操作を待つ判断ステップS405,S503において終了操作が検知されない限り繰り返されるので、演者視認用ディスプレイ21dに描画がなされるアバターの画像は繰り返し更新がされることとなり、この結果、演者20は、アバターの画像の動画を閲覧することが可能となる。 As shown in the flowchart of FIG. 5, each process described above is repeated unless the end operation is detected in the determination steps S405 and S503 waiting for the end operation. Therefore, the image of the avatar drawn on the performer visual display 21d. Will be updated repeatedly, and as a result, the performer 20 will be able to view the moving image of the avatar image.

この時、演者20は、演者用表示スタンドユニット21を見て、あたかも現実の対話者のごとくに話をしたり視線を合わせたりしているシーンが、先に説明をした置換前のシーン撮影画像70であるので、置換後のコンテンツ画像73を視認する閲覧ユーザーは、まるで演者20がアバターと本当に相対して会話をしているような感覚を得ることができ、この結果、本実施形態によれば、現実の演者と人工的(仮想的)なキャラクターであるアバターとが一緒に登場するシーンにおける不自然さを解消することができる。 At this time, the performer 20 looks at the display stand unit 21 for the performer, and the scene in which the performer talks or looks at the scene as if he / she is a real interlocutor is the scene shot image before the replacement explained above. Since it is 70, the browsing user who visually recognizes the content image 73 after the replacement can get a feeling as if the performer 20 is really talking with the avatar, and as a result, according to the present embodiment. For example, it is possible to eliminate the unnaturalness in a scene in which a real performer and an artificial (virtual) character, an avatar, appear together.

あるいは、演者20が直接アバターの方向を向いていない態様の描画においても、演者20はあたかも演者視認用ディスプレイ21dの位置にアバターが存在するように会話や演技を行うことができ、その様な態様においても、現実の演者と人工的(仮想的)なキャラクターであるアバターとが一緒に登場するシーンにおける不自然さを解消することができる。 Alternatively, even in drawing in a mode in which the performer 20 does not directly face the avatar, the performer 20 can perform a conversation or act as if the avatar exists at the position of the performer visual display 21d, and such a mode. Even in, it is possible to eliminate the unnaturalness in the scene where the real performer and the artificial (virtual) character avatar appear together.

それゆえに、現実の演者とアバターとが同じ画面に描画するようにして、リアルな現場にはあり得ない人工的なキャラクターがいることの意外さや面白さ、あるいは仮想的で人工的であるはずのアバターにリアル感を付加する面白さ、などを視聴者である閲覧ユーザーは十分に楽しむことが可能となる。 Therefore, the real performer and the avatar should be drawn on the same screen, and it should be surprising and interesting that there is an artificial character that is impossible in the real scene, or it should be virtual and artificial. Browsing users who are viewers can fully enjoy the fun of adding a sense of reality to avatars.

なお、演者視認用ディスプレイ21dには、上記実施態様のようにアバターの画像21e以外にも、被撮影者が読むために作成された指示コメント(いわゆる「カンニングペーパー」、「カンペ」)や、番組のディレクターなどスタッフの画像(図示しない)や音声、を表示したり付属のスピーカーで発声するようにしてもよい。 In addition to the avatar image 21e as in the above embodiment, the performer visual display 21d may include instructional comments (so-called “canning paper”, “campe”) created for the photographed person to read, and a program. Images (not shown) and voices of staff such as the director of the company may be displayed or uttered by the attached speaker.

〔ユーザー投稿情報の表示〕
以上に説明した実施形態のほかに、あるいはこの構成に加えて、次のような構成としてもよい。
[Display user posted information]
In addition to the above-described embodiment, or in addition to this configuration, the following configuration may be used.

インターネット通信網などを用いて生で放送を行うコンテンツなどを閲覧者(図示しない)が楽しむ方法として、コンテンツの感想や閲覧者のつぶやきなど(以下、「コメント」ともいう)を、閲覧者のパーソナルコンピュータ50で入力操作して送信し、入力したこれらコメントをリアルタイムに、他の閲覧者使用端末(図示しない)で表示を行えば、コメントを書き込んだ閲覧者は自分の発言を他の閲覧者へ知らせることができるし、他人が書いたコメントを読む閲覧者は、自分が該当するコンテンツを閲覧して楽しむほかに他の閲覧者の考えや感想も知ることができるので、あたかも一つの会場に会してコンサートやイベントを楽しむような、疑似的な(バーチャルな)同時参加の感覚や連帯感を得ることができる。 As a way for viewers (not shown) to enjoy content that is broadcast live using the Internet communication network, etc., the viewer's personal impressions and tweets of the viewer (hereinafter, also referred to as "comments") are personalized. If the input operation is performed by the computer 50 and transmitted, and these input comments are displayed in real time on a terminal used by another viewer (not shown), the viewer who wrote the comment can send his / her own remarks to other viewers. Viewers who read comments written by others can not only browse and enjoy the relevant content, but also know the thoughts and impressions of other viewers, so it is as if they were at one venue. You can get a sense of pseudo (virtual) simultaneous participation and a sense of solidarity, like enjoying a concert or event.

その際に、本システム1では、いずれかの閲覧者が投稿したコメントを、コンテンツ配信サーバ40を経由して演者視認用ディスプレイ21dや、アバターの操作者視認用ディスプレイ33dの少なくともいずれかにも表示されるように構成することができる。この結果、コメントを読んだ演者20あるいはアバターの操作者30は、上に述べた同時参加の感覚や連帯感を得て、よりリアルな演技や応答、アバターの操作が可能となる。 At that time, in this system 1, the comment posted by any of the viewers is displayed on at least one of the performer visual display 21d and the avatar operator visual display 33d via the content distribution server 40. Can be configured to be. As a result, the performer 20 or the avatar operator 30 who has read the comment can obtain the above-mentioned sense of simultaneous participation and a sense of solidarity, and can perform more realistic performances, responses, and operate the avatar.

〔コンテンツ配信受信システム1における音声の取り扱い〕
先に説明をしたように、本実施形態にかかるコンテンツ配信受信システム1は、あたかも演者20とアバターとが現実の空間内に一緒に存在しているかのようなコンテンツ画像73を生成することができる。よりリアル感を増すために、このようなコンテンツ画像73とともに、演者20の発話音声、およびアバターの発話音声を例えばアバター操作者30の発話で代替した音声、を放送に加えることは自然な発想であり、また重要な点である。そのために本システム1は、演者の発話を拾うための演者発話用マイク21bや、アバター操作者30の発話を拾うためのアバターの操作者撮影用マイク33bを有しており、また演者20の発話をアバター操作者30が聴取するためのアバターの操作者聴取用スピーカー33cや、アバター操作者30の発話を演者20が聴取するための演者聴取用スピーカー21cが備えられており、これらを用いた音声信号の伝送は、先に説明をした各動画像の伝送にかかわる実施態様から明らかであるので、繰り返しとなる説明は避けることとする。
[Handling of audio in the content distribution / reception system 1]
As described above, the content distribution / reception system 1 according to the present embodiment can generate a content image 73 as if the performer 20 and the avatar exist together in the real space. .. In order to increase the sense of realism, it is a natural idea to add the utterance voice of the performer 20 and the voice of the avatar, for example, the voice of the avatar operator 30 to the broadcast, together with the content image 73. Yes, and it's an important point. Therefore, the system 1 has a speaker utterance microphone 21b for picking up the utterance of the performer, an avatar operator shooting microphone 33b for picking up the utterance of the avatar operator 30, and the utterance of the performer 20. The avatar operator 30 is provided with an avatar operator listening speaker 33c for listening to the utterance, and a performer listening speaker 21c for the performer 20 to listen to the utterance of the avatar operator 30. Since the signal transmission is clear from the embodiments related to the transmission of each moving image described above, repeated explanations will be avoided.

なお、本実施形態は放送コンテンツに関するものであるので、この放送が生放送である場合については、演者20の発話音声や、アバターの発話音声を例えばアバター操作者30の発話で代替した音声は、この生放送を視聴する汎用のパーソナルコンピュータでも発音することができるので、先に説明をした各スピーカー21c、33cに代えて、汎用パーソナルコンピュータ付属するかまたは接続するスピーカーを利用してもよい。 Since this embodiment relates to broadcast content, in the case where this broadcast is a live broadcast, the voice of the performer 20 and the voice of the avatar replaced with the voice of the avatar operator 30, for example, are the voices of the performer 20. Since it can be produced by a general-purpose personal computer for viewing live broadcasting, a speaker attached to or connected to the general-purpose personal computer may be used instead of the speakers 21c and 33c described above.

同様に、演者20を演者撮影用カメラ21aで撮影した画像33eが、アバターの操作者視認用ディスプレイ33dに描画がされれば、アバター操作者30もまた、あたかも演者20が目の前で相対しているような感覚でアバターの操作が行えるので、発明の効果をより向上させることができる。 Similarly, if the image 33e of the performer 20 taken by the performer shooting camera 21a is drawn on the avatar operator viewing display 33d, the avatar operator 30 also faces the performer 20 in front of him. Since the avatar can be operated as if it were, the effect of the invention can be further improved.

〔変形例〕
以上説明をした本実施形態にかかるコンテンツ配信受信システム1は、以上に説明をした構成に限ることはなく種々の変形が可能であり、いずれも本発明が包含をする。
[Modification example]
The content distribution / reception system 1 according to the present embodiment described above is not limited to the configuration described above, and can be modified in various ways, all of which are included in the present invention.

例えば、演者視認用ディスプレイ21dを省略して、演者20はアバター操作者30の画像は視認しないながらもアバター操作者30の音声のみを聴取して対話を行うようにしてもよいし、その様なシステムでは構成がよりシンプルとなり、コスト低減や信頼性向上が実現する。 For example, the performer visual display 21d may be omitted, and the performer 20 may listen to only the voice of the avatar operator 30 and have a dialogue while not visually recognizing the image of the avatar operator 30. The system has a simpler configuration, which reduces costs and improves reliability.

あるいは、演者用表示スタンドユニット21を用いるのではなく、単なる置物やぬいぐるみ、すなわちダミーの物体を配置して、演者20が対話の動作を行い、先に説明をした置換と同じ処理によりダミー物体の表示部分をアバターの画像で置換して、コンテンツ画像73を生成して閲覧に供するようにしてもよい。この場合、演者20は、生放送であれば、この生放送の画像や音声によってアバターの動きや発話を認識できるので、同様に自然な感覚でアバターと演者20とが同じ画面に描画された放送を閲覧ユーザーが楽しむことができ、その様なシステムもまた構成がよりシンプルとなり、コスト低減や信頼性向上が実現する。このように、演者20が生放送の映像や音声を送出するパーソナルコンピュータ(図示しない)を自分も視聴しながら演じることとなり、パーソナルコンピュータはダミー物体(置物やぬいぐるみなど)の近傍に置かれていても、離れた場所に置かれていてもよく、このパーソナルコンピュータがシーン撮影用カメラ撮影ゾーン23に含まれるようにしても、含まれないようにしてもよい。さらに、このパーソナルコンピュータ自身を、アバターの画像に描画が置き換えられるダミー物体として用いてもよい。 Alternatively, instead of using the display stand unit 21 for the performer, a mere figurine or a stuffed animal, that is, a dummy object is arranged, the performer 20 performs a dialogue operation, and the dummy object is subjected to the same processing as the replacement described above. The display portion may be replaced with an avatar image to generate a content image 73 for viewing. In this case, if it is a live broadcast, the performer 20 can recognize the movement and speech of the avatar by the image and sound of the live broadcast, so that the avatar and the performer 20 can view the broadcast drawn on the same screen in the same natural way. It can be enjoyed by the user, and such a system also has a simpler configuration, which reduces costs and improves reliability. In this way, the performer 20 plays while watching a personal computer (not shown) that transmits live video and audio, and the personal computer is placed near a dummy object (such as a figurine or a stuffed animal). , It may be placed in a remote place, and this personal computer may or may not be included in the scene shooting camera shooting zone 23. Further, the personal computer itself may be used as a dummy object whose drawing is replaced by the image of the avatar.

(発明の効果の説明)
放送などコンテンツにおいて、現実の演者とアバターとが同じ画面に描画するようにして、リアルな現場にはあり得ない人工的なキャラクターがいることの意外さや面白さ、あるいは仮想的で人工的であるはずのアバターにリアル感を付加する面白さ、などを視聴者は十分に楽しむことができるとともに、現実の演者と人工的(仮想的)なキャラクターであるアバターとが一緒に登場するシーンにおける不自然さを解消することができる、コンテンツ配信システム、コンテンツ配信方法、コンピュータプログラム、コンテンツ配信用サーバ、および伝送路を本発明は提供する。
本発明は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものとする。
(Explanation of the effect of the invention)
In content such as broadcasting, the actual performer and avatar are drawn on the same screen, and it is surprising and interesting that there is an artificial character that is impossible in the real scene, or it is virtual and artificial. Viewers can fully enjoy the fun of adding a sense of realism to the supposed avatar, and at the same time, it is unnatural in a scene where a real performer and an artificial (virtual) character avatar appear together. The present invention provides a content distribution system, a content distribution method, a computer program, a content distribution server, and a transmission path that can solve the problem.
The present invention can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof shall be included in the scope of the invention described in the claims and the equivalent scope thereof, as well as in the scope and gist of the invention.

1 コンテンツ配信受信システム
2 演者撮影現場
3 アバター操作スタジオ
4 コンテンツ配信業者
5 コンテンツ閲覧者宅
20 演者
21 演者用表示スタンドユニット
21a 演者撮影用カメラ
21b 演者発話用マイク
21c 演者聴取用スピーカー
21d 演者視認用ディスプレイ
21e アバターの画像
21f スタンド
22 シーン撮影用カメラ
23 シーン撮影用カメラ撮影ゾーン
30 アバターの操作者
31 モーションキャプチャー用光学マーカー
32 モーションキャプチャー用カメラ
33 アバターの操作者用表示スタンドユニット
33a タリーランプ
33b アバターの操作者撮影用マイク
33c アバターの操作者聴取用スピーカー
33d アバターの操作者視認用ディスプレイ
33e 演者の画像
33f スタンド
34 アバター変更ユニット
340 制御ユニット
341 メモリ
341a プログラムメモリ
341b アバターデータメモリ
341c 一時メモリ
342 データバスライン
343 モーショントラッカ
344 レンダリング部
345 通信インターフェース
40 コンテンツ配信サーバ
41 制御ユニット
42 メモリ
42a プログラムメモリ
42b テンプレート画像メモリ
42c 一時メモリ
43 データバスライン
44 テンプレート画像トラッカ
45 コンテンツ画像生成部
46 通信インターフェース
50 パーソナルコンピュータ
50a パーソナルコンピュータディスプレイ
50b シーン中の演者の画像
50c シーン中のアバターの画像
60、61、62、63、64、65、66、67 インターネット通信網
1 Content distribution reception system 2 Performer shooting site 3 Avatar operation studio 4 Content distributor 5 Content viewer's house 20 Performer 21 Performer display Stand unit 21a Performer shooting camera 21b Performer speaking microphone 21c Performer listening speaker 21d Performer viewing display 21e Avatar image 21f Stand 22 Scene shooting camera 23 Scene shooting camera Shooting zone 30 Avatar operator 31 Motion capture optical marker 32 Motion capture camera 33 Avatar operator display Stand unit 33a Tally lamp 33b Avatar operation Person shooting microphone 33c Avatar operator listening speaker 33d Avatar operator visual display 33e Performer image 33f Stand 34 Avatar change unit 340 Control unit 341 Memory 341a Program memory 341b Avatar data memory 341c Temporary memory 342 Data bus line 343 Motion tracker 344 Rendering unit 345 Communication interface 40 Content distribution server 41 Control unit 42 Memory 42a Program memory 42b Template image memory 42c Temporary memory 43 Data bus line 44 Template image tracker 45 Content image generator 46 Communication interface 50 Personal computer 50a Personal computer display 50b Image of performer in scene 50c Image of avatar in scene 60, 61, 62, 63, 64, 65, 66, 67 Internet communication network

Claims (11)

被撮影者を、仮想的キャラクターとともに一つのシーン中に表示して配信する、コンテンツ配信システムであって、
前記被撮影者と、前記仮想的キャラクターの画像を表示するディスプレイを備えたダミー物体とが一つのシーンに収まるよう撮影を行うシーン撮影用カメラ部
前記撮影がなされたシーン中の前記ダミー物体の画像、前記仮想的キャラクターの画像を重畳た画像を生成する画像生成
を備え
前記画像生成部が生成する画像における、前記重畳がなされた前記仮想的キャラクターの画像は、前記ダミー物体が備えるディスプレイに表示された前記仮想的キャラクターの画像とは異なる態様であり、前記画像生成部が生成した画像を配信するコンテンツ配信システム。
It is a content distribution system that displays and distributes the photographed person in one scene together with a virtual character.
A scene shooting camera unit that shoots the photographed person and a dummy object having a display for displaying an image of the virtual character so as to fit in one scene.
An image generation unit that generates an image in which an image of the virtual character is superimposed on an image of the dummy object in the shot scene.
With
The superimposed image of the virtual character in the image generated by the image generation unit is different from the image of the virtual character displayed on the display included in the dummy object, and is different from the image of the virtual character displayed on the display of the dummy object. A content distribution system that distributes images generated by .
前記異なる態様は、異なる視点に基づく、請求項1に記載のコンテンツ配信システム。 The content distribution system according to claim 1 , wherein the different aspects are based on different viewpoints . 前記画像生成部が生成した画像を含んだコンテンツを通信路経由で放送する放送送信部と、
前記放送中のコンテンツの画面中に表示させるユーザー投稿情報を受け付ける受信部と、をさらに備え、
前記ユーザー投稿情報は、前記仮想的キャラクターの画像を表示するディスプレイにもまた表示がなされるよう構成された、請求項1または2に記載のコンテンツ配信システム。
A broadcast transmission unit that broadcasts content including an image generated by the image generation unit via a communication path, and
It is further provided with a receiving unit that receives user-posted information to be displayed on the screen of the content being broadcast.
The content distribution system according to claim 1 or 2, wherein the user-submitted information is also displayed on a display displaying an image of the virtual character .
被撮影者を、仮想的キャラクターとともに一つのシーン中に表示して配信する、コンテンツ配信システムであって、
前記被撮影者と、前記仮想的キャラクターの画像を表示するディスプレイを備えたダミー物体とが一つのシーンに収まるよう撮影を行うシーン撮影用カメラ部と、
前記撮影がなされたシーン中の前記ダミー物体の画像に、前記仮想的キャラクターの画像を重畳した画像を生成する画像生成部と、
を備え、
前記ダミー物体は、前記シーン撮影用カメラ部とは異なる位置から前記被撮影者を撮影するカメラ及び/または前記被撮影者の音声を拾うマイクロフォンを有し、前記画像生成部が生成した画像を配信するコンテンツ配信システム。
It is a content distribution system that displays and distributes the photographed person in one scene together with a virtual character.
A scene shooting camera unit that shoots the photographed person and a dummy object having a display for displaying an image of the virtual character so as to fit in one scene.
An image generation unit that generates an image in which an image of the virtual character is superimposed on an image of the dummy object in the shot scene.
With
The dummy object has a camera that shoots the photographed person from a position different from that of the scene shooting camera unit and / or a microphone that picks up the sound of the photographed person, and distributes an image generated by the image generating unit. Content distribution system.
前記仮想的キャラクターの外観表示態様を変更操作する操作部と、前記カメラおよび/または前記マイクロフォンが収集した情報を発話する前記仮想的キャラクターの外観表示態様操作用表示部と、をさらに有する、請求項4に記載のコンテンツ配信システム。 The claim further comprises an operation unit for changing the appearance display mode of the virtual character, and a display unit for operating the appearance display mode of the virtual character that utters information collected by the camera and / or the microphone. The content distribution system according to 4 . 前記操作部は、前記ディスプレイに表示される前記仮想的キャラクターの外観表示態様、および/または、前記画像生成部が生成した画像中の前記仮想的キャラクターの画像の外観表示態様を変更操作するよう構成された、請求項5に記載のコンテンツ配信システム。 The operation unit is configured to change the appearance display mode of the virtual character displayed on the display and / or the appearance display mode of the image of the virtual character in the image generated by the image generation unit. The content distribution system according to claim 5. 前記画像生成部が生成した画像を含んだコンテンツを通信路経由で放送する放送送信部と、
前記放送中のコンテンツの画面中に表示させるユーザー投稿情報を受け付ける受信部と、をさらに備え、
前記ユーザー投稿情報は、前記仮想的キャラクターの画像を表示する前記ディスプレイにもまた表示がなされるよう構成された、請求項4乃至6のいずれか1項に記載のコンテンツ配信システム。
A broadcast transmission unit that broadcasts content including an image generated by the image generation unit via a communication path, and
It is further provided with a receiving unit that receives user-posted information to be displayed on the screen of the content being broadcast.
The content distribution system according to any one of claims 4 to 6, wherein the user-posted information is also displayed on the display that displays an image of the virtual character .
前記画像生成部が生成した画像を含んだコンテンツを通信路経由で放送する放送送信部と、
前記放送中のコンテンツの画面中に表示させるユーザー投稿情報を受け付ける受信部とをさらに備え
前記ユーザー投稿情報は、前記仮想的キャラクターの外観表示態様操作用表示部にもまた表示がなされるよう構成された、請求項5または6に記載のコンテンツ配信システム。
A broadcast transmission unit that broadcasts content including an image generated by the image generation unit via a communication path, and
It is further provided with a receiving unit that receives user-posted information to be displayed on the screen of the content being broadcast .
The content distribution system according to claim 5 or 6, wherein the user-posted information is also displayed on a display unit for operating the appearance display mode of the virtual character.
被撮影者を、仮想的キャラクターとともに一つのシーン中に表示して配信する、コンテンツ配信方法であって、
シーン撮影用カメラ部が、前記被撮影者と、前記仮想的キャラクターの画像を表示するディスプレイを備えたダミー物体とが一つのシーンに収まるよう撮影を行うステップ、
画像生成部が、前記撮影がなされたシーン中の前記ダミー物体の画像に、前記仮想的キャラクターの画像を重畳した画像を生成するステップ、
を備え、
前記画像生成部が生成する画像における、前記重畳がなされた前記仮想的キャラクターの画像は、前記ダミー物体が備えるディスプレイに表示された前記仮想的キャラクターの画像とは異なる態様であり、前記画像生成部が生成した画像を配信するコンテンツ配信方法
It is a content distribution method that displays and distributes the photographed person in one scene together with a virtual character.
A step in which the camera unit for scene shooting takes a picture so that the person to be photographed and a dummy object having a display for displaying an image of the virtual character are contained in one scene.
A step in which the image generation unit generates an image in which the image of the virtual character is superimposed on the image of the dummy object in the scene in which the shooting was performed.
With
The superimposed image of the virtual character in the image generated by the image generation unit is different from the image of the virtual character displayed on the display included in the dummy object, and is different from the image of the virtual character displayed on the display of the dummy object. A content distribution method that distributes the images generated by .
前記異なる態様は、異なる視点に基づく、請求項9に記載のコンテンツ配信方法。 The content distribution method according to claim 9 , wherein the different aspects are based on different viewpoints . 請求項9または10に記載のコンテンツ配信方法における各ステップをコンピュータが実行するコード群を含んだコンピュータプログラム。
A computer program comprising a set of codes in which a computer executes each step in the content distribution method according to claim 9 or 10.
JP2020077735A 2020-04-24 2020-04-24 Content distribution systems, content distribution methods, and computer programs Active JP7102457B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020077735A JP7102457B2 (en) 2020-04-24 2020-04-24 Content distribution systems, content distribution methods, and computer programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020077735A JP7102457B2 (en) 2020-04-24 2020-04-24 Content distribution systems, content distribution methods, and computer programs

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018125403A Division JP6697512B2 (en) 2018-06-14 2018-06-14 Content distribution system, content distribution method, and computer program

Publications (3)

Publication Number Publication Date
JP2020123981A JP2020123981A (en) 2020-08-13
JP2020123981A5 JP2020123981A5 (en) 2021-07-26
JP7102457B2 true JP7102457B2 (en) 2022-07-19

Family

ID=71993119

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020077735A Active JP7102457B2 (en) 2020-04-24 2020-04-24 Content distribution systems, content distribution methods, and computer programs

Country Status (1)

Country Link
JP (1) JP7102457B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002271694A (en) 2001-03-13 2002-09-20 Canon Inc Image processing method, image processing unit, studio device, storage medium and program
JP2003323628A (en) 2002-05-02 2003-11-14 Nippon Hoso Kyokai <Nhk> Device and program for video identifying speaker and method of displaying video identifying speaker
JP2003324709A (en) 2002-05-07 2003-11-14 Nippon Hoso Kyokai <Nhk> Method, apparatus, and program for transmitting information for pseudo visit, and method, apparatus, and program for reproducing information for pseudo visit
JP2003346190A (en) 2002-05-29 2003-12-05 Canon Inc Image processor
JP2006067405A (en) 2004-08-30 2006-03-09 Sharp Corp Television broadcast transmitter, television broadcast receiver, and broadcast program participation system and method
JP2011055483A (en) 2009-08-06 2011-03-17 Bond:Kk Program image distribution system, program image distribution method, and program
JP2018074294A (en) 2016-10-26 2018-05-10 学校法人幾徳学園 Information processing system and information processing method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002271694A (en) 2001-03-13 2002-09-20 Canon Inc Image processing method, image processing unit, studio device, storage medium and program
JP2003323628A (en) 2002-05-02 2003-11-14 Nippon Hoso Kyokai <Nhk> Device and program for video identifying speaker and method of displaying video identifying speaker
JP2003324709A (en) 2002-05-07 2003-11-14 Nippon Hoso Kyokai <Nhk> Method, apparatus, and program for transmitting information for pseudo visit, and method, apparatus, and program for reproducing information for pseudo visit
JP2003346190A (en) 2002-05-29 2003-12-05 Canon Inc Image processor
JP2006067405A (en) 2004-08-30 2006-03-09 Sharp Corp Television broadcast transmitter, television broadcast receiver, and broadcast program participation system and method
JP2011055483A (en) 2009-08-06 2011-03-17 Bond:Kk Program image distribution system, program image distribution method, and program
JP2018074294A (en) 2016-10-26 2018-05-10 学校法人幾徳学園 Information processing system and information processing method

Also Published As

Publication number Publication date
JP2020123981A (en) 2020-08-13

Similar Documents

Publication Publication Date Title
JP6724110B2 (en) Avatar display system in virtual space, avatar display method in virtual space, computer program
US9792954B2 (en) Information processing apparatus and recording medium
US20210092466A1 (en) Information processing apparatus, information processing method, and program
JP7135141B2 (en) Information processing system, information processing method, and information processing program
JP4310916B2 (en) Video display device
JP6707111B2 (en) Three-dimensional content distribution system, three-dimensional content distribution method, computer program
JP7347597B2 (en) Video editing device, video editing method and program
KR101915786B1 (en) Service System and Method for Connect to Inserting Broadcasting Program Using an Avata
JP2014187559A (en) Virtual reality presentation system and virtual reality presentation method
WO2021246183A1 (en) Information processing device, information processing method, and program
JP2019087226A (en) Information processing device, information processing system, and method of outputting facial expression images
KR20150105058A (en) Mixed reality type virtual performance system using online
US20190287313A1 (en) Head-mountable apparatus and methods
JP2024019661A (en) Information processing device, information processing method, and information processing program
KR102200239B1 (en) Real-time computer graphics video broadcasting service system
JP2020102236A (en) Content distribution system, receiving device and program
JP6697512B2 (en) Content distribution system, content distribution method, and computer program
JP6454883B1 (en) Content distribution system, content distribution method, and content distribution program
KR20190031220A (en) System and method for providing virtual reality content
JP7102457B2 (en) Content distribution systems, content distribution methods, and computer programs
CN113632498A (en) Content distribution system, content distribution method, and content distribution program
JP2002271694A (en) Image processing method, image processing unit, studio device, storage medium and program
JP2011109371A (en) Server, terminal, program, and method for superimposing comment text on three-dimensional image for display
JP2006067405A (en) Television broadcast transmitter, television broadcast receiver, and broadcast program participation system and method
JP2020127211A (en) Three-dimensional content distribution system, three-dimensional content distribution method, and computer program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210614

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210614

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220706

R150 Certificate of patent or registration of utility model

Ref document number: 7102457

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150