JP6697512B2 - Content distribution system, content distribution method, and computer program - Google Patents

Content distribution system, content distribution method, and computer program Download PDF

Info

Publication number
JP6697512B2
JP6697512B2 JP2018125403A JP2018125403A JP6697512B2 JP 6697512 B2 JP6697512 B2 JP 6697512B2 JP 2018125403 A JP2018125403 A JP 2018125403A JP 2018125403 A JP2018125403 A JP 2018125403A JP 6697512 B2 JP6697512 B2 JP 6697512B2
Authority
JP
Japan
Prior art keywords
image
scene
virtual character
avatar
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018125403A
Other languages
Japanese (ja)
Other versions
JP2019220932A (en
Inventor
進之介 岩城
進之介 岩城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Virtual Cast Inc
Original Assignee
Virtual Cast Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Virtual Cast Inc filed Critical Virtual Cast Inc
Priority to JP2018125403A priority Critical patent/JP6697512B2/en
Publication of JP2019220932A publication Critical patent/JP2019220932A/en
Application granted granted Critical
Publication of JP6697512B2 publication Critical patent/JP6697512B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本開示は、現実の演者である被撮影者と仮想キャラクタ(アバター)とが参加する公開番組等のライブコンテンツを配信するコンテンツ配信システム、コンテンツ配信方法、およびコンピュータプログラムに関する。 The present disclosure, a content distribution system in which the person to be photographed, which is the reality of the performers and the virtual character (avatar) is to deliver live content, such as a public program to participate, a content distribution method, and relates to a computer program.

従来より、地上デジタル放送、BSデジタル放送、インターネット生放送など(以下ではこれらを包括して「放送」ともいう)では、複数の演者がシーンに登場する番組がしばしば放送されている。  Conventionally, in terrestrial digital broadcasting, BS digital broadcasting, Internet live broadcasting, etc. (hereinafter collectively referred to as "broadcast"), programs in which a plurality of performers appear in a scene are often broadcast.

例えば、従来技術にかかる放送番組の一シーンを模式的に示した図7(A)では、インタビュウを受けるインタビュウイー101が、インタビュウを行うインタビュアー102と近い位置で相対しており、インタビュウイー101がとインタビュアー102とが一つのシーンに収まるよう、図示しないカメラが彼らを撮影してインタビュウシーン100が生成され、これが放送に供されて視聴者が視聴する。カメラが彼ら二人により近づくか、あるいはカメラのレンズをより長焦点にズームアップすれば、図7(B)に見られるように同じインタビュウのバストショット103が得られる。  For example, in FIG. 7A, which schematically shows one scene of a broadcast program according to the related art, an interviewer 101 who receives an interview is located close to an interviewer 102 who interviews, and the interviewer 101 is And an interviewer 102 are included in one scene, a camera (not shown) photographs them to generate an interview scene 100, which is broadcast and viewed by a viewer. If the camera is closer to them or the lens of the camera is zoomed up to a longer focus, then the same interview bust shot 103 is obtained, as seen in FIG. 7B.

放送におけるこのようなインタビュウは、インタビュウイー101とインタビュアー102とが同じ場所にいない場合もあり、その場合には、従来技術にかかる放送番組の別な一シーンを模式的に示した図8(A)のように、撮影現場に居るインタビュウイー107を単独でカメラが撮影してインタビュウイー107のみが現れるシーンが撮影され、インタビュアーは例えば放送局のスタジオに居てインタビュウイー107と会話を行うので、このインタビュアーは放送シーン106には現れず、ただインタビュアーの発話音声のみが放送される。  In such an interview in broadcasting, the interviewer 101 and the interviewer 102 may not be in the same place. In that case, FIG. 8A schematically showing another scene of the broadcast program according to the related art. ) Like this, a scene is shot by the camera alone and the interviewee 107 appears at the shooting site, and the interviewer talks with the interviewee 107 in the studio of the broadcasting station, for example. This interviewer does not appear in the broadcast scene 106, and only the voice uttered by the interviewer is broadcast.

また、図8(B)に示すように、インタビュアー111は同じく、インタビュウイー110とは別な場所、例えば放送局のスタジオに居るものの、別なカメラにてインタビュアー111を撮影し、インタビュウイー110を撮影した主画面の内部に子画面109としてはめ込む、ピクチャーインピクチャーの手法でインタビュウシーン108が作成される場合もある。  Further, as shown in FIG. 8B, the interviewer 111 is also in a place different from the interviewee 110, for example, in the studio of the broadcasting station, but the interviewer 111 is photographed by another camera and the interviewer 110 is displayed. In some cases, the interview scene 108 is created by a picture-in-picture method, which is set as a child screen 109 inside the photographed main screen.

このように放送内において複数の演者が登場するシーンは、インタビュウに限らず、例えば記者やアナウンサが事件が起きた現場からレポートを行う際に、放送局スタジオにいる別のアナウンサと会話を行うシーン、歌番組や漫才などの芸能番組、ドラマ、など多数ありうる。  In this way, the scene where multiple performers appear in the broadcast is not limited to interviews, but for example, when a reporter or announcer reports from the scene where the incident occurred, a scene where a talker talks with another announcer in the broadcasting station studio. There can be many singing programs, entertainment shows such as Manzai, and dramas.

ところで、CG(コンピュータグラフィック)技術を用いて作成した仮想的なキャラクター(以下「アバター」ともいう)を、同じくCGで作成した仮想的な3次元空間内に描出して移動や動作を行わせるゲーム、放送、コンテンツが盛んに制作されている。  By the way, a game in which a virtual character (hereinafter also referred to as an "avatar") created by using CG (computer graphic) technology is drawn in a virtual three-dimensional space created by CG and is moved or moved. , Broadcasting and content are being actively produced.

例えば下記特許文献1には、仮想空間内におけるアバターの移動操作を行おうとする参加者が、現実の空間内における参加者の位置情報をGPS(global positioning system)技術を利用して取得し、これを仮想空間内の位置情報に変換してアバターの仮想空間内位置操作に用いようとする構成が開示されている。  For example, in Patent Document 1 below, a participant who intends to perform an operation of moving an avatar in a virtual space acquires position information of the participant in the actual space by using a GPS (global positioning system) technology, There is disclosed a configuration in which is converted into position information in the virtual space and used for position operation of the avatar in the virtual space.

特許第4637889号公報Japanese Patent No. 4637889

このように盛んに用いられるようになってきている仮想的キャラクター(アバター)を、ただ仮想的な空間内に描画するのではなく、現実の空間内に描画して、現実の演者である被撮影者(演技者、出演者、あるいはインタビュウを受ける通行人など)とアバターとが同じ画面に描画するようにして、リアルな現場にはあり得ない人工的なキャラクターがいることの意外さや面白さ、あるいは仮想的で人工的であるはずのアバターにリアル感を付加する面白さ、などを楽しめるようにした提案が最近なされている。  Virtual characters (avatars), which are becoming more and more widely used in this way, are drawn not only in a virtual space, but in a real space, and are used as the real performers. The actors (actors, performers, passers-by who are interviewed, etc.) and avatars draw on the same screen, which makes it surprising and interesting that there are artificial characters that cannot be found in a real scene. Alternatively, a proposal has recently been made to make it possible to enjoy the fun of adding a sense of reality to an avatar that is supposed to be virtual and artificial.

しかしながら、このように現実空間の画像と、人工的なアバターとを合成して一つのシーンに描画するようにした放送あるいはコンテンツでは従来、次のような本質的な課題が存在し未解決であった。  However, in a broadcast or content in which an image in the real space and an artificial avatar are combined and rendered in one scene in this way, the following essential problems have existed and are unsolved in the past. It was

先に説明したように、現実の演者複数を一つのシーンとして撮影した、例えば図7(A),図7(B)に示す各シーンにおいては、登場する二人の演者101、102、104、105は互いに相手を視認し、直接会話をしているので、当然シーン中の会話は自然で違和感がなく、視聴者から見て自然である。  As described above, a plurality of real performers are photographed as one scene. For example, in each scene shown in FIGS. 7A and 7B, two appearing performers 101, 102, 104, Since 105 visually recognize each other and have a direct conversation with each other, the conversation in the scene is naturally natural and comfortable, and is natural to the viewer.

しかしながら、現実空間にいる現実の演者が、人工的なアバターと共演し一つのシーンに収まる番組を想定したとすると、アバターは実際には現実の演者の目の前には存在しないので、現実の演者は会話を行う相手が目の前にはおらず、一人であたかも会話を行うような演技を強いられることとなり、現実の演者が視線を投げる方向も定めることができず、シーン全体が不自然となってしまう。  However, assuming that a real-life performer in the real space co-stars with an artificial avatar and fits into one scene, the avatar does not actually exist in front of the real-life performer. The performer does not have a conversation partner in front of him, and he is forced to perform an act as if he were talking alone, and the actual performer could not decide the direction to throw his eyes, and the whole scene was unnatural. turn into.

そこで、先に示した図8(B)のように、現実の演者のみをカメラが撮影し、アバターは、はめ込み画面(ピクチャーインピクチャー)に登場するようにすれば、実際には同じ場所に存在しない現実の演者とアバターとが無理に一つの画面に描画されていないので、現実の演者が目の前に会話を行う相手がいないにも関わらずあたかもいるかのように話しているといった演技をする必要がないため不自然さはなくなるが、人工的なアバターを現実の空間内に描画するものとは異なるシーンとなってしまう。  Therefore, as shown in FIG. 8B shown above, if the camera shoots only the actual performer and the avatar appears on the inset screen (picture in picture), the avatar actually exists at the same place. Does not force the real performer and the avatar to be drawn on the same screen, so the real performer acts as if he / she were talking to him even though there was no one to talk to in front of him. There is no need for unnaturalness because it is not necessary, but the scene is different from the one in which an artificial avatar is drawn in the real space.

従って、先に述べたような、現実の演者とアバターとを同じ画面に描画した場合に生じる、リアルな現場にはあり得ない人工的なキャラクターがいることの意外さや面白さ、あるいは仮想的で人工的であるはずのアバターにリアル感を付加する面白さ、などを視聴者は十分に楽しむことができない恐れがあった。  Therefore, as described above, it is surprising or interesting that there is an artificial character that can not be present in the real scene, which is caused when the real performer and the avatar are drawn on the same screen, or it is virtual. Viewers may not be able to fully enjoy the fun of adding realism to an avatar that should be artificial.

そこで、本開示では、現実の演者と人工的(仮想的)なキャラクターであるアバターとが一緒に登場するシーンにおける不自然さを解消するための、コンテンツ配信システム、コンテンツ配信方法、およびコンピュータプログラムを提供することを目的とする。 Therefore, in the present disclosure, for the reality of the performers and the artificial and Avatar is a (virtual) character is to eliminate the unnaturalness in a scene that appear together, the content distribution system, a content distribution method, and computer program The purpose is to provide.

上記の課題を解決するために、本発明は、下記の1)乃至11)に記載のコンテンツ配信システム、コンテンツ配信方法、コンピュータプログラムを提供する。
1)
被撮影者を、仮想的キャラクターとともに一つのシーン中に表示して配信する、コンテンツ配信システムであって、
被撮影者と、仮想的キャラクターの画像を表示するディスプレイを備えたダミー物体とが一つのシーンに収まるよう撮影を行うシーン撮影用カメラ部、
撮影がなされたシーン中のダミー物体の画像を、仮想的キャラクターの画像へ置換をして配信する画像置換部、
を備え、且つ、
画像置換部が配信する画像における、置換がなされた仮想的キャラクターの画像は、ダミー物体が備えるディスプレイに表示された仮想的キャラクターの画像とは異なる態様であることを特徴とする、コンテンツ配信システム。
2)
異なる態様は、異なる視点に基づくことを特徴とする、1)に記載のコンテンツ配信システム。
3)
画像置換部の配信画像を含んだコンテンツを通信路経由で放送する放送送信部と、放送中のコンテンツの画面中に表示させるユーザー投稿情報を受け付ける受信部とをさらに備え、且つ、ユーザー投稿情報は、仮想的キャラクターの画像を表示するディスプレイにもまた表示がなされるよう構成されたことを特徴とする、1)または2)に記載のコンテンツ配信システム。
4)
被撮影者を、仮想的キャラクターとともに一つのシーン中に表示して配信する、コンテンツ配信システムであって、
被撮影者と、仮想的キャラクターの画像を表示するディスプレイを備えたダミー物体とが一つのシーンに収まるよう撮影を行うシーン撮影用カメラ部、
撮影がなされたシーン中のダミー物体の画像を、仮想的キャラクターの画像へ置換をして配信する画像置換部、
を備え、且つ、
ダミー物体は、シーン撮影用カメラ部とは異なる位置から撮影者を撮影するカメラ及び/または被撮影者の音声を拾うマイクロフォンを有することを特徴とするコンテンツ配信システム。
5)
仮想的キャラクターの外観表示態様を変更操作する操作部と、カメラおよび/またはマイクロフォンが収集した情報を発話する仮想的キャラクターの外観表示態様操作用表示部と、をさらに有することを特徴とする、4)に記載のコンテンツ配信システム。
6)
操作部は、ディスプレイに表示される仮想的キャラクターの外観表示態様、および/または、画像置換部が配信する画像中の仮想的キャラクターの画像の外観表示態様を変更操作するよう構成されたことを特徴とする、5)に記載のコンテンツ配信システム。
7)
画像置換部の配信画像を含んだコンテンツを通信路経由で放送する放送送信部と、放送中のコンテンツの画面中に表示させるユーザー投稿情報を受け付ける受信部とをさらに備え、且つ、ユーザー投稿情報は、仮想的キャラクターの画像を表示するディスプレイにもまた表示がなされるよう構成されたことを特徴とする、4)乃至6)のいずれか1項に記載のコンテンツ配信システム。
8)
画像置換部の配信画像を含んだコンテンツを通信路経由で放送する放送送信部と、放送中のコンテンツの画面中に表示させるユーザー投稿情報を受け付ける受信部とをさらに備え、且つ、ユーザー投稿情報は、仮想的キャラクターの外観表示態様操作用表示部にもまた表示がなされるよう構成されたことを特徴とする、5)または6)に記載のコンテンツ配信システム。
9)
被撮影者を、仮想的キャラクターとともに一つのシーン中に表示して配信する、コンテンツ配信方法であって、
シーン撮影用カメラ部が、被撮影者と、仮想的キャラクターの画像を表示するディスプレイを備えたダミー物体とが一つのシーンに収まるよう撮影を行うステップ、
画像置換部が、撮影がなされたシーン中のダミー物体の画像を、仮想的キャラクターの画像へ置換をして配信するステップ、
を備え、且つ、
画像置換部が配信する画像における、置換がなされた仮想的キャラクターの画像は、ダミー物体が備えるディスプレイに表示された仮想的キャラクターの画像とは異なる態様であることを特徴とする、コンテンツ配信方法。
10)
異なる態様は、異なる視点に基づくことを特徴とする、9)に記載のコンテンツ配信方法。
11)
9)または10)に記載のコンテンツ配信方法における各ステップをコンピュータが実行するコード群を含んだことを特徴とする、コンピュータプログラム。
In order to solve the above problems, the present invention provides a content distribution system according, content distribution method, a computer program to 1) to 11) below.
1)
A content distribution system for displaying and distributing a photographed person in one scene together with a virtual character,
A scene shooting camera unit that shoots a subject and a dummy object having a display for displaying an image of a virtual character so that the dummy object fits in one scene,
An image replacement unit that replaces the image of the dummy object in the scene that was shot with the image of the virtual character and delivers it.
And
The content distribution system, wherein the image of the virtual character that has been replaced in the image distributed by the image replacement unit is in a different mode from the image of the virtual character displayed on the display included in the dummy object.
2)
The different aspect is based on different viewpoints, The content distribution system according to 1).
3)
The content further includes a broadcast transmitting unit that broadcasts the content including the distribution image of the image replacing unit via a communication path, and a receiving unit that receives user posted information to be displayed on the screen of the content being broadcast, and the user posted information is The content distribution system according to 1) or 2), characterized in that the display for displaying the image of the virtual character is also displayed.
4)
A content distribution system for displaying and distributing a photographed person in one scene together with a virtual character,
A scene shooting camera unit that shoots a subject and a dummy object having a display for displaying an image of a virtual character so that the dummy object fits in one scene,
An image replacement unit that replaces the image of the dummy object in the scene that was shot with the image of the virtual character and delivers it.
And
The content distribution system, wherein the dummy object has a camera for photographing the photographer from a position different from the position of the scene photographing camera unit and / or a microphone for picking up the voice of the photographed person.
5)
An operation unit for changing the appearance display mode of the virtual character, and a display unit for operating the appearance display mode of the virtual character that speaks information collected by the camera and / or the microphone. ) Content distribution system described in.
6)
The operation unit is configured to change the appearance display mode of the virtual character displayed on the display and / or the appearance display mode of the image of the virtual character in the image distributed by the image replacement unit. The content distribution system according to 5).
7)
The content further includes a broadcast transmitting unit that broadcasts the content including the distribution image of the image replacing unit via a communication path, and a receiving unit that receives user posted information to be displayed on the screen of the content being broadcast, and the user posted information is The content distribution system according to any one of 4) to 6), characterized in that the display is also displayed on a display for displaying an image of the virtual character.
8)
The content further includes a broadcast transmitting unit that broadcasts the content including the distribution image of the image replacing unit via a communication path, and a receiving unit that receives user posted information to be displayed on the screen of the content being broadcast, and the user posted information is The content distribution system according to 5) or 6), wherein the virtual character appearance display mode operation display section is also configured to display.
9)
A content distribution method for displaying and distributing a photographed person in one scene together with a virtual character,
The step of the scene photographing camera section performing photographing so that the person to be photographed and the dummy object having the display for displaying the image of the virtual character fit into one scene,
The image replacing unit replaces the image of the dummy object in the scene in which the image was taken with the image of the virtual character and delivers the image.
And
The content distribution method, wherein the image of the virtual character that has been replaced in the image distributed by the image replacement unit is in a different mode from the image of the virtual character displayed on the display included in the dummy object.
10)
The content distribution method according to 9), wherein different aspects are based on different viewpoints.
11)
A computer program including a code group for a computer to execute each step in the content distribution method according to 9) or 10).

本開示によれば、被撮影者と人工的(仮想的)なキャラクターであるアバターとが一緒に登場するシーンにおける不自然さを解消することができる。  According to the present disclosure, it is possible to eliminate unnaturalness in a scene in which a subject and an avatar, which is an artificial (virtual) character, appear together.

本発明にかかるコンテンツ配信受信システムの構成を模式的に示した図である。It is the figure which showed typically the structure of the content delivery receiving system concerning this invention. 図1のコンテンツ配信受信システムが有するコンテンツ配信サーバのブロック図である。FIG. 2 is a block diagram of a content distribution server included in the content distribution / reception system of FIG. 1. 図1のコンテンツ配信受信システムが有するアバター変更ユニットのブロック図である。FIG. 2 is a block diagram of an avatar changing unit included in the content delivery / reception system of FIG. 1. 図1のコンテンツ配信受信システムが、被撮影者とアバターとを描画した画像を送信し表示する処理を示すフローチャートである。3 is a flowchart showing a process in which the content delivery / reception system of FIG. 1 transmits and displays an image in which a photographed person and an avatar are drawn. 図1のコンテンツ配信受信システムが、被撮影者視聴用のディスプレイにアバターを描画する処理を示すフローチャートである。3 is a flowchart showing a process in which the content delivery / reception system of FIG. 1 draws an avatar on a display for viewing a person to be photographed. (A)図1のコンテンツ配信受信システムが有するシーン撮影用カメラが撮影した画像の模式図である。(B)図1のコンテンツ配信受信システムが有するアバター変更ユニットが生成した、アバターの画像を示す模式図である。(C)図1のコンテンツ配信受信システムが有するコンテンツ配信サーバが生成する、被撮影者とアバターとを一つの画面に収めたシーンの模式図である。FIG. 2A is a schematic diagram of an image captured by a scene capturing camera included in the content delivery / reception system of FIG. 1. FIG. 2B is a schematic diagram showing an avatar image generated by the avatar changing unit included in the content delivery / reception system of FIG. 1. (C) FIG. 2 is a schematic diagram of a scene generated by a content distribution server included in the content distribution / reception system of FIG. 1 in which a person to be photographed and an avatar are stored on one screen. 従来技術にかかる放送における、シーンの模式図である。It is a schematic diagram of the scene in the broadcasting concerning a prior art. 従来技術にかかる放送における、シーンの模式図である。It is a schematic diagram of the scene in the broadcasting concerning a prior art.

以下、本開示に係る実施形態について説明する。なお、以下に説明する本実施形態は、それぞれ例示に過ぎず、本発明の趣旨を脱しない範囲で種々の変形が可能であり、これらもまた本発明が包含する。  Hereinafter, embodiments according to the present disclosure will be described. The embodiments described below are merely examples, and various modifications can be made without departing from the spirit of the invention, and these are also included in the invention.

〔コンテンツ配信受信システム1の構成〕
図1は、本発明にかかるコンテンツ配信受信システム1の構成を模式的に示した図である。コンテンツ配信受信システム1は、現実の演者が撮影されるスタジオ、あるいは放送中継現場などである演者撮影現場2、アバターの動きなどをアバター操作者が操作するためにモーションキャプチャーシステムなどを備えたアバター操作スタジオ3、番組を放送するコンテンツ配信業者の配信環境4、放送番組を視聴するエンドユーザーであるコンテンツ閲覧者の閲覧環境5、にそれぞれ以下の構成が配置されている。
[Configuration of Content Delivery / Reception System 1]
FIG. 1 is a diagram schematically showing the configuration of a content delivery / reception system 1 according to the present invention. The content delivery / reception system 1 is an avatar operation provided with a motion capture system or the like for an avatar operator to operate a studio where a real performer is filmed, or a performer shooting site 2 which is a broadcast relay site, and the movement of an avatar. The following configurations are arranged in a studio 3, a distribution environment 4 of a content distributor that broadcasts a program, and a browsing environment 5 of a content viewer who is an end user who views a broadcast program.

なお、上記の「現実の演者」とは、仮想キャラクター(アバター)ではない実際の被撮影者を指しており、演技を行う演者に限らず、例えば街頭インタビュウにおける通りがかりのインタビュウイーなども含んでいる。  Note that the above-mentioned “actual actor” refers to an actual photographed person who is not a virtual character (avatar), and is not limited to performers who perform acting, but also includes, for example, a pass-by interview in a street interview. ..

このように異なる場所に各構成が配置されていることは本発明の実施に必須なものではなく、各構成のうちいずれかが、または全てが同一の場所に配置されていても良い。  It is not essential for implementing the present invention that the respective components are arranged at different places in this way, and any or all of the respective components may be arranged at the same place.

演者撮影現場2には、演者20が居て番組のために演技を行い、演者の近傍には、演者用表示スタンドユニット21が配置されている。この演者用表示スタンドユニット21には、演者20を撮影してアバター操作者30の視認に供するための演者撮影用カメラ21a、演者20の発話を拾って同じくアバター操作者30の聴取に供したり、あるいは番組の音声として用いるための演者発話用マイク21b、アバター30が発した発話音声あるいは放送ディレクター(図示しない)からの指令音声などを発話するための演者聴取用スピーカー21c、アバターの画像21eを演者20が視認し、この結果、あたかも演者20が人工的なアバターと相対しているような環境を提供する演者視認用ディスプレイ21d、これら演者用表示スタンドユニット21が備える各構成を支えるスタンド21fなどを備えている。  A performer 20 is present at the performer shooting site 2 to perform an action for a program, and a performer display stand unit 21 is arranged near the performer. In this performer display stand unit 21, a performer photographing camera 21a for photographing the performer 20 for use by the avatar operator 30 for visual recognition, picking up utterances of the performer 20 and making the avatar operator 30 also listen, Alternatively, a speaker 21c for use as a voice of the program, a speaker 21c for listening to the speaker for uttering a voice uttered by the avatar 30 or a command voice from a broadcast director (not shown), and an avatar image 21e. 20 is provided, and as a result, a performer visual display 21d that provides an environment in which the performer 20 is facing an artificial avatar, and a stand 21f that supports each component of the performer display stand unit 21 are provided. I have it.

また、演者撮影現場2にはシーン撮影用カメラ22が配置され、演者20と演者用表示スタンドユニット21とが一つの画面(シーン撮影用カメラ撮影ゾーン23)に収まるようにした撮影に用いられる。  Further, a scene photographing camera 22 is arranged at the performer photographing site 2 and is used for photographing so that the performer 20 and the performer display stand unit 21 are contained in one screen (scene photographing camera photographing zone 23).

演者用表示スタンドユニット21とシーン撮影用カメラ22の各信号系統は、インターネット通信網60、61、62、66を経由してコンテンツ配信サーバ40とデータ接続している。  Each signal system of the performer display stand unit 21 and the scene photographing camera 22 is data-connected to the content distribution server 40 via the Internet communication networks 60, 61, 62 and 66.

なお、インターネット回線60、61,62,66間の接続ノードについては説明や図示を省略する。本発明の実施にあたり、各箇所に説明を行う信号、データの伝送は種々の回線、通信網を用いることが可能でありインターネット回線60、61,62,66に限定されない。この点は以下の記載においても同様である。  The description and illustration of the connection nodes between the Internet lines 60, 61, 62, 66 are omitted. In carrying out the present invention, various lines and communication networks can be used for transmission of signals and data to be explained at various points, and the present invention is not limited to the Internet lines 60, 61, 62 and 66. This point is the same in the following description.

アバター操作スタジオ3は、前述のとおりアバター操作者30がモーションキャプチャー技術を用いてアバターの動きなどを操作するための場であり、図1ではその一例として、光学マーカー31がアバター操作者30の体の各所に取り付けられ、モーションキャプチャー用カメラ32がこれら各光学マーカー31を撮影して、後に示すアバター変更ユニット34が三角測距の原理を用いて各光学マーカー31の3次元空間内位置座標を検出している。  As described above, the avatar operation studio 3 is a place for the avatar operator 30 to operate the movement of the avatar by using the motion capture technology. In FIG. 1, the optical marker 31 is the body of the avatar operator 30 as an example. , And the motion capture camera 32 photographs each of the optical markers 31, and the avatar changing unit 34 described later detects the position coordinates of each optical marker 31 in the three-dimensional space using the principle of triangulation. is doing.

モーションキャプチャー技術として上記のような光学マーカーと、それに対応するカメラとの組み合わせにより実施するほかに、加速度センサーを用いてアバター操作者30の動きを検知する方式や、高周帯域電磁波をアバター操作者30に照射して反射して戻ってくる電磁波の解析結果からドップラー現象によりアバター操作者30の体の動きを検出する方式など様々な方式を用いることが可能である。  In addition to performing the above-mentioned optical marker as a motion capture technology and a camera corresponding thereto, a method of detecting the movement of the avatar operator 30 using an acceleration sensor and a method of detecting high frequency electromagnetic waves in the avatar operator are also used. It is possible to use various methods such as a method of detecting the movement of the body of the avatar operator 30 by the Doppler phenomenon based on the analysis result of the electromagnetic waves that irradiate 30 and are reflected and returned.

アバター操作スタジオ3には、アバターの操作者用表示スタンドユニット33が配置されており、同ユニット33には、必要に応じて点滅をして現在オンエア中であることをアバターの操作者30に知らせるタリーランプ33a、アバターの操作者の発話音声を拾うためのアバターの操作者撮影用マイク33b、演者20あるいは番組ディレクター(図示しない)などの発話音声を発声するアバターの操作者聴取用スピーカー33c、演者の画像33eを表示して、遠方に居る演者20とあたかも目の前で会話をしているごとき環境を提供するアバターの操作者視認用ディスプレイ33d、アバターの操作者用表示スタンドユニット33の各構成を支えるスタンド33fをそれぞれ備えている。なお、タリーランプ33aの近傍あるいは他の位置にアバターの操作者30の顔の表情などを撮影するカメラ(図示しない)を備え、アバターのレンダリングにあたってアバターの操作者30の顔の表情などを利用するように構成してもよい。  An avatar operator display stand unit 33 is arranged in the avatar operation studio 3, and the avatar operator 30 is informed that the avatar operator display stand unit 33 blinks as needed to indicate that the avatar operator is currently on air. A tally lamp 33a, an avatar operator photographing microphone 33b for picking up the utterance voice of the avatar operator, an avatar operator listening speaker 33c uttering the utterance voice of the performer 20 or a program director (not shown), a performer Each of the configuration of the avatar operator visual display 33d and the avatar operator display stand unit 33 for displaying the image 33e of FIG. Each of them is provided with a stand 33f for supporting. A camera (not shown) that captures the facial expression of the avatar operator 30 is provided near the tally lamp 33a or at another position, and the facial expression of the avatar operator 30 is used for rendering the avatar. It may be configured as follows.

モーションキャプチャー用カメラ32とアバターの操作者用表示スタンドユニット33、の各信号系統は、インターネット通信網63,64を介してアバター変更ユニット34とデータ接続をしている。アバター変更ユニット34の構成は別途説明を行う。アバター変更ユニット34はインターネット通信網60、65、66を介してコンテンツ配信サーバ40とデータ接続をしている。  The signal systems of the motion capture camera 32 and the avatar operator display stand unit 33 are in data connection with the avatar changing unit 34 via the Internet communication networks 63 and 64. The configuration of the avatar changing unit 34 will be described separately. The avatar changing unit 34 is in data connection with the content distribution server 40 via the Internet communication networks 60, 65, 66.

なお、上記のアバター変更ユニット34の一部の、あるいはすべての構成をコンテンツ配信サーバ40内に含めるようにしてもよい。その場合、アバター変更ユニット34の構成や機能、処理として説明を行った箇所は、コンテンツ配信サーバ40の構成、機能、処理となる。  Note that a part or all of the configuration of the avatar changing unit 34 may be included in the content distribution server 40. In that case, the parts described as the configuration, function, and processing of the avatar changing unit 34 are the configuration, function, and processing of the content distribution server 40.

またコンテンツ配信業者の配信環境4にはコンテンツ配信サーバ40が配置されており、その構成は別途説明を行う。  Further, a content distribution server 40 is arranged in the distribution environment 4 of the content distributor, and its configuration will be described separately.

コンテンツ閲覧者の閲覧環境5には汎用のパーソナルコンピュータ50が設けられており、コンテンツ閲覧者(図示しない)はパーソナルコンピュータディスプレイ50aに描画された番組を楽しむことができる。後で説明するように番組の画面には演者の画像50bとアバターの画像50cとが一緒に描画されるように構成されており、この結果コンテンツ閲覧者は、現実の演者とアバターとが同じ画面に描画されることによって、リアルな現場にはあり得ない人工的なキャラクターがいることの意外さや面白さ、あるいは仮想的で人工的であるはずのアバターにリアル感を付加する面白さ、などを十分に楽しむことができる。  A general-purpose personal computer 50 is provided in the browsing environment 5 of the content viewer, and the content viewer (not shown) can enjoy the program drawn on the personal computer display 50a. As will be described later, the image of the performer 50b and the image of the avatar 50c are configured to be drawn together on the screen of the program. As a result, the content viewer can see the same screen as the actual performer and the avatar. By being drawn in, the unexpectedness and fun of having an artificial character that can not be in a real scene, or the fun of adding a realistic feeling to an avatar that should be virtual and artificial, etc. You can fully enjoy it.

〔アバター変更ユニット34の構成〕
アバター変更ユニット34は、図3のブロック図に示すように、ユニット34全体の統制制御を行うCPUである制御ユニット340、メモリ341、モーションキャプチャー技術によりアバター操作者30の動きをデータ化するモーショントラッカ343、メモリ341内のアバターデータメモリ341bに蓄積された、アバターの外観などのデータ(画像データ)とモーショントラッカ343が生成するアバター操作者30の動きのデータとを用いて現在のアバターの姿勢に応じたCG画像を生成するレンダリング部344、ユニット34内外の通信送受を行う通信インターフェース345などを備えており、これら各構成はデータバスライン342を介して相互にデータ接続をしている。
[Configuration of avatar changing unit 34]
As shown in the block diagram of FIG. 3, the avatar changing unit 34 includes a control unit 340, which is a CPU that controls the entire unit 34, a memory 341, and a motion tracker that converts the movement of the avatar operator 30 into data by a motion capture technique. 343, avatar data in the memory 341 The current avatar posture is determined using data (image data) such as the appearance of the avatar and motion data of the avatar operator 30 generated by the motion tracker 343, which is stored in the memory 341b. It is provided with a rendering unit 344 for generating a CG image corresponding thereto, a communication interface 345 for transmitting / receiving communication between the inside and outside of the unit 34, etc., and these components are connected to each other via a data bus line 342.

またメモリ341が備えるプログラムメモリ341aは、本願明細書記載実施の形態に開示された動作を含む各動作を制御ユニット340その他が実行するための実行コード群を含んだ、アバター変更ユニット34が実行するべきコンピュータプログラムを読み出し可能に記憶しており、同じく一時メモリ341cはいわゆるキャッシュメモリとして使用される。  The program memory 341a included in the memory 341 is executed by the avatar changing unit 34 including an execution code group for the control unit 340 and the like to execute each operation including the operation disclosed in the embodiment described in the present specification. The computer program to be stored is readablely stored, and the temporary memory 341c is also used as a so-called cache memory.

〔コンテンツ配信サーバ40の構成〕
図2のブロック図に示すようにコンテンツ配信サーバ40は、サーバ40全体の統制制御を行うCPUである制御ユニット41、メモリ42、シーン撮影用カメラ22が撮影して画像に含まれている演者用表示スタンドユニット21の画像がどのエリアであるかを特定するために、メモリ42内のテンプレート画像メモリ42bに記憶されているこの演者用表示スタンドユニット21の画像をテンプレート(型紙)としてシーン撮影用カメラ22が撮影して画像に対してすり合わせ法(統計的相関マッチング)などの技術を用いてエリアの特定を行うテンプレート画像トラッカ44、アバター変更ユニット34から送出された現在のアバターの画像を上記の特定されたエリアに重畳し、あるいは置換して、演者20とアバターとが一緒に描画されている放送用コンテンツ画像を生成するコンテンツ画像生成部45、サーバ40内外間のデータ送受を行う通信インターフェース46、をそれぞれ備えており、これら各構成はデータバスライン43を介して相互にデータ接続をしている。
[Structure of Content Delivery Server 40]
As shown in the block diagram of FIG. 2, the content distribution server 40 is for a performer included in an image captured by a control unit 41, which is a CPU that controls the entire server 40, a memory 42, and a scene capturing camera 22. In order to specify which area the image of the display stand unit 21 is, a scene photographing camera using the image of the presenter display stand unit 21 stored in the template image memory 42b in the memory 42 as a template (template). The image of the present avatar sent from the template image tracker 44 and the avatar changing unit 34, which is photographed by 22 and identifies the area using a technique such as a fitting method (statistical correlation matching) on the image, is used to identify the area. A content image generation unit 45 for generating a broadcast content image in which the performer 20 and the avatar are drawn together by superimposing on or replacing the created area, a communication interface 46 for transmitting and receiving data between the inside and outside of the server 40, The respective components are connected to each other via a data bus line 43.

またメモリ42が備えるプログラムメモリ42aは、本願明細書記載実施の形態に開示された動作を含む各動作を制御ユニット41その他が実行するための実行コード群を含んだ、サーバ40が実行するべきコンピュータプログラムを読み出し可能に記憶しており、同じく一時メモリ42cはいわゆるキャッシュメモリとして使用される。  Further, the program memory 42a included in the memory 42 is a computer to be executed by the server 40 including an execution code group for the control unit 41 and the like to execute each operation including the operations disclosed in the embodiments described in the present specification. The program is readablely stored, and the temporary memory 42c is also used as a so-called cache memory.

またコンテンツ配信サーバ40は、後に説明する通り、被撮影者を仮想的キャラクター(アバター)とともに一つのシーン中に表示して配信するサーバであって、被撮影者とダミー物体とが一つのシーンに収まるよう撮影がなされたシーン中のダミー物体の画像を、仮想的キャラクターの画像へ置換をして配信するよう構成されている。また、コンテンツ配信サーバ40が配信を行った信号は、伝送路であるインターネット通信網60,66,67などが担持し、これら各伝送路を経由して伝送がなされる。  Further, as will be described later, the content distribution server 40 is a server that displays and distributes the photographed person together with a virtual character (avatar) in one scene, and the photographed person and the dummy object are included in one scene. It is configured to replace the image of the dummy object in the scene captured so as to fit it with the image of the virtual character and deliver the image. Further, the signals distributed by the content distribution server 40 are carried by the Internet communication networks 60, 66, 67, etc., which are transmission lines, and are transmitted via these respective transmission lines.

〔コンテンツ画像73の生成および表示処理〕
次に、コンテンツ(放送)に用いるべき、演者20とアバターとが一緒に描画されている画像73(以下、「コンテンツ画像」とも呼び、図6(C)の模式図、あるいは図1中のパーソナルコンピュータディスプレイ50a内にもその一例が示されている)が生成され、閲覧ユーザー(図示しない)が閲覧可能となるまでの処理を、図4のフローチャート、図6の模式図を援用して説明を行う。
[Generation and Display Process of Content Image 73]
Next, an image 73 in which the performer 20 and the avatar are drawn together, which should be used for the content (broadcast) (hereinafter also referred to as “content image”, is a schematic diagram of FIG. 6C or the personal image in FIG. 1). An example is also shown in the computer display 50a), and the process until the browsing user (not shown) can browse will be described with reference to the flowchart of FIG. 4 and the schematic diagram of FIG. To do.

まずアバター変更ユニット34の制御ユニット340は、メモリ341内のアバターデータメモリ341bに蓄積された、コンテンツ画像に描画をしたいアバターのデータ(仮想的キャラクターの外観を表す画像データなど)を読み出す(ステップS101)。次に制御ユニット340は、モーショントラッカ343を統制制御して先に説明をしたモーションキャプチャー技術によりアバター操作者30の動きを得てデータ化する(ステップS102)。  First, the control unit 340 of the avatar changing unit 34 reads out the data of the avatar to be drawn on the content image (image data representing the appearance of the virtual character) stored in the avatar data memory 341b in the memory 341 (step S101). ). Next, the control unit 340 controls the motion tracker 343 and obtains the movement of the avatar operator 30 by the motion capture technique described above, and converts it into data (step S102).

次に制御ユニット340は、得られたモーションキャプチャーデータと、アバターのデータとを用いて、アバターの3D描画画像を生成するレンダリングをレンダリング部344に行わせる(ステップS103)。レンダリングに際してはどの位置から見たアバターの画像を生成するかが、重要であるので、レンダリング部344はあらかじめコンテンツ配信サーバ40からこの視点の位置の情報、具体的には図1における、演者撮影現場2中のシーン撮影用カメラ22の位置の情報であって、後に説明するように、アバターの画像と置換をすべき対象物である演者用表示スタンドユニット21の相対的な位置の情報が保存されている。この視点から見てアバターがどの方向を向いているようにレンダリングを行うかについて制約はないが、演者20とアバターとが向かい合ってインテビュウを行っているシーンである場合には、アバターを横から見た情景のレンダリングとすることは適格な選択である。  Next, the control unit 340 causes the rendering unit 344 to perform rendering to generate a 3D drawn image of the avatar using the obtained motion capture data and the avatar data (step S103). In rendering, it is important from which position the avatar image viewed is generated. Therefore, the rendering unit 344 preliminarily informs the position of this viewpoint from the content distribution server 40, specifically, the performer shooting site in FIG. 2 is information on the position of the scene photographing camera 22, and information on the relative position of the performer display stand unit 21, which is an object to be replaced with the image of the avatar, is stored as described later. ing. There is no restriction as to which direction the avatar should be rendered from this point of view, but if the scene is where the performer 20 and the avatar are facing each other and the interview is performed, the avatar can be viewed from the side. Rendering a scenic scene is a good choice.

なお、上記に説明を行った態様とは一部異なる構成とした別態様とすることができ、一つの別態様ではアバター変更ユニット34はモーションキャプチャーにかかわる動作までのみを実施してその結果となるデータをコンテンツ配信サーバ40へ送信し、コンテンツ配信サーバ40では上記に説明をしたアバター画像のレンダリングを行うようにしてもよい。この場合、レンダリングにかかわる構成は、先の説明ではアバター変更ユニット34に含まれるとしたことに代えて、コンテンツ配信サーバ40に含まれることとする。  In addition, it is possible to adopt another mode in which the configuration described above is partially different from the mode described above. In one mode, the avatar changing unit 34 performs only the operation related to motion capture, and the result is obtained. The data may be transmitted to the content distribution server 40, and the content distribution server 40 may render the avatar image described above. In this case, the configuration related to rendering is included in the content distribution server 40 instead of being included in the avatar changing unit 34 in the above description.

さらに、先に説明した、アバター操作スタジオ3に配置された一部あるいはすべての構成をコンテンツ配信業者の配信環境4や他の場所に配置し、それぞれの機能を有するようにしてもよい。  Further, a part or all of the components arranged in the avatar operation studio 3 described above may be arranged in the distribution environment 4 of the content distributor or another place to have respective functions.

このような別態様における構成の相違点、処理の相違点は本明細書の各所説明箇所から容易に理解できるものであるので説明を省略する。  Since the difference in the configuration and the difference in the processing in such another aspect can be easily understood from the description parts of this specification, the description thereof will be omitted.

レンダリングにより得られたアバターの画像データは、通信インターフェース345、インターネット通信網60、65、66を経由してコンテンツ配信サーバ40へ伝送される(ステップS104)。  The image data of the avatar obtained by the rendering is transmitted to the content distribution server 40 via the communication interface 345 and the Internet communication networks 60, 65, 66 (step S104).

コンテンツ配信サーバ40では伝送されたアバター画像のデータを受信するとともに(ステップS204)、あらかじめ次の動作を実行する。  The content distribution server 40 receives the transmitted data of the avatar image (step S204) and executes the following operation in advance.

まず、後にアバターの画像へ置換がされるべき対象物の画像であって、シーン撮影用カメラ22が演者20とともに撮影した画像(図6(A)における演者用表示スタンドユニット21)がテンプレート(型紙)画像としてあらかじめコンテンツ配信サーバ40のテンプレート画像メモリ42bに記憶されており、制御ユニット41は、テンプレート画像トラッカ44に対してそのテンプレート画像の読み出しを命じる(ステップS201)。  First, an image of an object to be replaced later with an image of an avatar, which is an image captured by the scene capturing camera 22 together with the performer 20 (the performer display stand unit 21 in FIG. 6A) is a template (template). The image is stored in advance in the template image memory 42b of the content distribution server 40 as an image, and the control unit 41 commands the template image tracker 44 to read the template image (step S201).

また制御ユニット41の統制制御に応じて、シーン撮影用カメラ22が演者20とともに演者用表示スタンドユニット21を撮影した画像70(以下、「シーン撮影画像」ともいう)が、インターネット通信網60、62、66、通信インターフェース46経由で受信がなされる(ステップS202)。  Further, according to the control of the control unit 41, an image 70 (hereinafter also referred to as “scene shot image”) obtained by the scene shooting camera 22 shooting the performer display stand unit 21 together with the performer 20 is an internet communication network 60, 62. , 66, and is received via the communication interface 46 (step S202).

次に、制御ユニット41の統制制御に応じて、コンテンツ画像生成部45が、受信されたシーン撮影画像70中におけるテンプレート画像すなわち演者用表示スタンドユニット21が描画された位置を特定する(ステップS203)。特定に際しては、シーン撮影画像70に対して少しずつ位置をずらしながらテンプレート画像との相関マッチングを行うすり合わせ法により、最も相関の高い位置を選択する、などの方法があり、他の方法でもよい。  Next, in accordance with the control of the control unit 41, the content image generation unit 45 specifies the template image in the received scene shot image 70, that is, the position where the performer display stand unit 21 is drawn (step S203). .. At the time of identification, there is a method of selecting the position having the highest correlation by a rubbing method of performing correlation matching with the template image while shifting the position little by little with respect to the captured image 70, and other methods may be used.

例えば、図示をしない操作者の操作に応じて、アバターの画像72を描画すべき画面中の位置が決定されるようにしてもよい。  For example, the position on the screen where the image 72 of the avatar should be drawn may be determined according to an operation of an operator (not shown).

次にコンテンツ画像生成部45は、特定されたテンプレート画像すなわち演者用表示スタンドユニット21の位置において、このテンプレート画像すなわち演者用表示スタンドユニット21の画像を、ステップS204で伝送されたアバターの画像72で置換する(ステップS205)。置換により、画面中に演者20とアバターの画像72とが一緒に描画されたコンテンツ画像73が生成されるので、このコンテンツ画像73が通信インターフェース46、インターネット通信網60、66、67経由でパーソナルコンピュータ50へ伝送がなされる(ステップS206)。すなわち、インターネット通信網60、66、67は、コンテンツ配信サーバ40が生成した信号あるいは情報である、被撮影者である演者20と、ダミー物体とが一つのシーンに収まるよう撮影がなされたシーン中のダミー物体の画像を、仮想的キャラクター(アバター)の画像へ置換をして配信された信号あるいは情報を伝送し、あるいは担持(carry)し、この後説明をおこなう受信用端末であるパーソナルコンピュータ50などへ供給することとなる。  Next, the content image generation unit 45 uses the template image, that is, the image of the performer display stand unit 21 at the position of the identified template image, that is, the performer display stand unit 21, as the avatar image 72 transmitted in step S204. Replace (step S205). By the replacement, a content image 73 in which the performer 20 and the image 72 of the avatar are drawn together on the screen is generated, so that the content image 73 is sent to the personal computer via the communication interface 46 and the Internet communication networks 60, 66, 67. The data is transmitted to 50 (step S206). That is, the internet communication networks 60, 66 and 67 are the signals or the information generated by the content distribution server 40, and the performer 20 as the photographed person and the dummy object are included in one scene. The image of the dummy object is replaced with the image of the virtual character (avatar) to transmit or carry the delivered signal or information, and carry (carry), which is a reception terminal personal computer 50. Will be supplied to.

なお、上記の態様のように、アバター画像に置き換わるべきダミー物体(例示では演者用表示スタンドユニット21)の画像をあらかじめテンプレートして保持しておき統計的処理によってそのダミー物体の描画位置をサーバ40が判断する態様以外にも、操作を行う人が手作業で、画面内におけるアバターの描画位置を指定する方法としてもよい点を先に説明した。  As in the above-described aspect, an image of the dummy object (in the example, the display stand unit 21 for the performer) to be replaced with the avatar image is held as a template in advance, and the drawing position of the dummy object is determined by the statistical processing by the server 40. In addition to the mode in which the determination is made, it has been described above that the method may be such that the person who performs the operation manually specifies the drawing position of the avatar on the screen.

一方、閲覧ユーザー(図示しない)が用いるパーソナルコンピュータ50は、コンテンツ配信サーバ40が送信するコンテンツ画像73をパーソナルコンピュータディスプレイ50aに表示する(ステップS302)。  On the other hand, the personal computer 50 used by the browsing user (not shown) displays the content image 73 transmitted by the content distribution server 40 on the personal computer display 50a (step S302).

図4図示のフローチャートに示す通り、以上説明をした各処理は、終了操作を待つ判断ステップS105,S207、S303において終了操作が検知されない限り繰り返されるので、コンテンツ画像73は繰り返し更新がされることとなり、この結果、閲覧ユーザーは、演者20とアバターの画像73とが一緒の画面中に描画された動画を閲覧することが可能となる。この時、演者20は、演者用表示スタンドユニット21を見て、あたかも現実の対話者のごとくに話をしたり視線を合わせたりしているシーンが置換前のシーン撮影画像70であるので、置換後のコンテンツ画像73を視認する閲覧ユーザーは、まるで演者20がアバターと本当に相対して会話をしているような感覚を得ることができ、この結果、本実施形態によれば、現実の演者と人工的(仮想的)なキャラクターであるアバターとが一緒に登場するシーンにおける不自然さを解消することができる。  As shown in the flowchart of FIG. 4, the processes described above are repeated unless the end operation is detected in the determination steps S105, S207, and S303 that wait for the end operation, so that the content image 73 is repeatedly updated. As a result, the browsing user can browse the moving image in which the performer 20 and the image 73 of the avatar are drawn on the same screen. At this time, the performer 20 looks at the performer display stand unit 21, and the scene in which the actor is talking or gazes like a real interlocutor is the scene-captured image 70 before substitution. The browsing user who visually recognizes the subsequent content image 73 can have a feeling that the performer 20 is really talking with the avatar, and as a result, according to the present embodiment, it is possible to obtain a feeling that the performer 20 is a real performer. It is possible to eliminate unnaturalness in a scene in which an avatar, which is an artificial (virtual) character, appears together.

あるいは、演者20が直接アバターの方向を向いていない態様の描画においても、演者20はあたかも演者視認用ディスプレイ21dの位置にアバターが存在するように会話や演技を行うことができ、その様な態様においても、現実の演者と人工的(仮想的)なキャラクターであるアバターとが一緒に登場するシーンにおける不自然さを解消することができる。  Alternatively, even when the performer 20 does not directly face the avatar, the performer 20 can have a conversation or acting as if the avatar were present at the position of the performer visual display 21d. Also in, it is possible to eliminate the unnaturalness in the scene in which the real performer and the avatar, which is an artificial (virtual) character, appear together.

それゆえに、現実の演者とアバターとが同じ画面に描画するようにして、リアルな現場にはあり得ない人工的なキャラクターがいることの意外さや面白さ、あるいは仮想的で人工的であるはずのアバターにリアル感を付加する面白さ、などを視聴者である閲覧ユーザーは十分に楽しむことが可能となる。  Therefore, it is supposed that the real performer and the avatar draw on the same screen, and it is surprising or interesting that there is an artificial character that can not be in the real scene, or it should be virtual and artificial. Browsing users who are viewers can fully enjoy the fun of adding a sense of realism to the avatar.

〔演者視認用ディスプレイ21dにおけるアバターの画像21e表示の処理〕
以上は、閲覧ユーザー(図示しない)が閲覧を行う、パーソナルコンピュータディスプレイ50aの表示画面において、アバターの画像50cが描画される処理を中心に説明を行った。
[Processing of displaying avatar image 21e on performer visual display 21d]
In the above, the description has been centered on the process in which the image 50c of the avatar is drawn on the display screen of the personal computer display 50a that is browsed by the browsing user (not shown).

次に、閲覧ユーザーが閲覧することを主たる目的とはせず、演者20が閲覧をする演者視認用ディスプレイ21dにおけるアバターの画像21e表示の処理について説明を行う。  Next, the process of displaying the image 21e of the avatar on the performer visual display 21d that the performer 20 browses is explained without the main purpose being the browsing by the browsing user.

生成されたコンテンツ画像73において、演者20がアバターとあたかも相対し、向かい合い、視線を合わせているように描画を行うことは、本発明の効果を奏する上で好ましい点であることを先に説明した。  In the generated content image 73, it has been described above that it is preferable for the performer 20 to face the avatar, face the line, and draw the line of sight so as to achieve the effect of the present invention. ..

そこで、演者20が相対している演者用表示スタンドユニット21が備える演者視認用ディスプレイ21dに、アバターが演者20の方を向いている概略正面像が描画されれば、演者20は本当にアバターと相対している感覚を持つことができ、この結果、閲覧ユーザーもまたコンテンツ画像73を閲覧した際にリアルな感覚を得ることができる。  Therefore, if a schematic front image in which the avatar is facing the performer 20 is drawn on the performer visual display 21d included in the performer display stand unit 21 facing the performer 20, the performer 20 is really relative to the avatar. As a result, the browsing user can also obtain a realistic sensation when browsing the content image 73.

そのために、図5のフローチャートに示すように、アバター変更ユニット34では、まずアバター変更ユニット34の制御ユニット340が、メモリ341内のアバターデータメモリ341bに蓄積された、コンテンツ画像に描画をしたいアバターのデータ(仮想的キャラクターの外観を表す画像データなど)を読み出す(ステップS401)。次に制御ユニット340は、モーショントラッカ343を統制制御して先に説明をしたモーションキャプチャー技術によりアバター操作者30の動きを得てデータ化する(ステップS402)。  Therefore, as shown in the flowchart of FIG. 5, in the avatar changing unit 34, the control unit 340 of the avatar changing unit 34 first sets the avatar to be drawn on the content image stored in the avatar data memory 341b in the memory 341. Data (such as image data representing the appearance of the virtual character) is read (step S401). Next, the control unit 340 controls and controls the motion tracker 343 and obtains the movement of the avatar operator 30 by the motion capture technique described above, and converts it into data (step S402).

次に制御ユニット340は、得られたモーションキャプチャーデータと、アバターのデータとを用いて、アバターの3D描画画像を生成するレンダリングをレンダリング部344に行わせる(ステップS403)。レンダリングに際してはどの位置から見たアバターの画像を生成するかが、重要であるので、レンダリング部34はあらかじめコンテンツ配信サーバ40からこの視点の位置の情報、具体的には図1における、演者撮影現場2中のシーン撮影用カメラ22の位置の情報であって、後に説明するように、アバターの画像と置換をすべき対象物である演者用表示スタンドユニット21の相対的な位置の情報が用いられる。この視点から見てアバターがどの方向を向いているようにレンダリングを行うかについて制約はないが、演者20とアバターとが向かい合ってインテビュウを行っているシーンである場合には、アバターを正面から見た情景のレンダリングとすることは適格な選択である。  Next, the control unit 340 causes the rendering unit 344 to perform rendering to generate a 3D drawn image of the avatar using the obtained motion capture data and the avatar data (step S403). When rendering, it is important from which position the image of the avatar viewed is generated. Therefore, the rendering unit 34 preliminarily informs the position of this viewpoint from the content distribution server 40, specifically, the performer shooting site in FIG. The information of the position of the camera 22 for shooting scenes in 2 is used as the information of the relative position of the performer display stand unit 21 which is the object to be replaced with the image of the avatar, as described later. .. There is no restriction as to which direction the avatar should be rendered from this point of view, but if the scene is where the performer 20 and the avatar face each other in an interview, the avatar can be viewed from the front. Rendering a scenic scene is a good choice.

レンダリングにより得られたアバターの画像データは、通信インターフェース345、インターネット通信網60、65、66を経由してコンテンツ配信サーバ40へ伝送される(ステップS404、S501)。  The image data of the avatar obtained by the rendering is transmitted to the content distribution server 40 via the communication interface 345 and the Internet communication networks 60, 65, 66 (steps S404, S501).

コンテンツ配信サーバ40は伝送されたアバターの画像を、そのままかあるいは適切な背景をつけるなど加工を行い、インターネット通信網60、61、66経由で演者視認用ディスプレイ21dへ送出して描画をさせる(ステップS502)。  The content distribution server 40 processes the transmitted image of the avatar as it is or with an appropriate background, and sends it to the performer visual display 21d via the Internet communication networks 60, 61 and 66 for drawing (step). S502).

図5図示のフローチャートに示す通り、以上説明をした各処理は、終了操作を待つ判断ステップS405,S503において終了操作が検知されない限り繰り返されるので、演者視認用ディスプレイ21dに描画がなされるアバターの画像は繰り返し更新がされることとなり、この結果、演者20は、アバターの画像の動画を閲覧することが可能となる。  As shown in the flowchart of FIG. 5, each processing described above is repeated unless an end operation is detected in the determination steps S405 and S503 that wait for an end operation, so an image of the avatar drawn on the performer visual display 21d. Will be repeatedly updated, and as a result, the performer 20 will be able to view the moving image of the image of the avatar.

この時、演者20は、演者用表示スタンドユニット21を見て、あたかも現実の対話者のごとくに話をしたり視線を合わせたりしているシーンが、先に説明をした置換前のシーン撮影画像70であるので、置換後のコンテンツ画像73を視認する閲覧ユーザーは、まるで演者20がアバターと本当に相対して会話をしているような感覚を得ることができ、この結果、本実施形態によれば、現実の演者と人工的(仮想的)なキャラクターであるアバターとが一緒に登場するシーンにおける不自然さを解消することができる。  At this time, the performer 20 looks at the performer display stand unit 21 and sees the scene as if he were talking or watching his eyes as if he were a real interlocutor. Since it is 70, the browsing user who visually recognizes the content image 73 after the replacement can feel as if the performer 20 is really talking with the avatar, and as a result, according to the present embodiment. For example, it is possible to eliminate unnaturalness in a scene in which a real performer and an avatar, which is an artificial (virtual) character, appear together.

あるいは、演者20が直接アバターの方向を向いていない態様の描画においても、演者20はあたかも演者視認用ディスプレイ21dの位置にアバターが存在するように会話や演技を行うことができ、その様な態様においても、現実の演者と人工的(仮想的)なキャラクターであるアバターとが一緒に登場するシーンにおける不自然さを解消することができる。  Alternatively, even when the performer 20 does not directly face the avatar, the performer 20 can have a conversation or acting as if the avatar were present at the position of the performer visual display 21d. Also in, it is possible to eliminate the unnaturalness in the scene in which the real performer and the avatar, which is an artificial (virtual) character, appear together.

それゆえに、現実の演者とアバターとが同じ画面に描画するようにして、リアルな現場にはあり得ない人工的なキャラクターがいることの意外さや面白さ、あるいは仮想的で人工的であるはずのアバターにリアル感を付加する面白さ、などを視聴者である閲覧ユーザーは十分に楽しむことが可能となる。  Therefore, it is supposed that the real performer and the avatar draw on the same screen, and it is surprising or interesting that there is an artificial character that can not be in the real scene, or it should be virtual and artificial. Browsing users who are viewers can fully enjoy the fun of adding a sense of realism to the avatar.

なお、演者視認用ディスプレイ21dには、上記実施態様のようにアバターの画像21e以外にも、被撮影者が読むために作成された指示コメント(いわゆる「カンニングペーパー」、「カンペ」)や、番組のディレクターなどスタッフの画像(図示しない)や音声、を表示したり付属のスピーカーで発声するようにしてもよい。  In addition to the image 21e of the avatar as in the above-described embodiment, the performer visual display 21d displays instruction comments (so-called “cheat paper”, “campe”) created for the photographed person to read, and programs. An image (not shown) or sound of a staff member such as a director may be displayed, or the attached speaker may speak.

〔ユーザー投稿情報の表示〕
以上に説明した実施形態のほかに、あるいはこの構成に加えて、次のような構成としてもよい。
[Display of user posted information]
In addition to the embodiment described above or in addition to this configuration, the following configuration may be adopted.

インターネット通信網などを用いて生で放送を行うコンテンツなどを閲覧者(図示しない)が楽しむ方法として、コンテンツの感想や閲覧者のつぶやきなど(以下、「コメント」ともいう)を、閲覧者のパーソナルコンピュータ50で入力操作して送信し、入力したこれらコメントをリアルタイムに、他の閲覧者使用端末(図示しない)で表示を行えば、コメントを書き込んだ閲覧者は自分の発言を他の閲覧者へ知らせることができるし、他人が書いたコメントを読む閲覧者は、自分が該当するコンテンツを閲覧して楽しむほかに他の閲覧者の考えや感想も知ることができるので、あたかも一つの会場に会してコンサートやイベントを楽しむような、疑似的な(バーチャルな)同時参加の感覚や連帯感を得ることができる。  As a method for a viewer (not shown) to enjoy content that is broadcast live using an internet communication network, the impression of the content or the tweet of the viewer (hereinafter also referred to as “comment”) can be personalized by the viewer. By inputting and transmitting with the computer 50, and displaying these input comments in real time on a terminal (not shown) used by other viewers, the viewer who wrote the comment makes his / her own comment to other viewers. Viewers can be informed and read comments written by others, so that they can see and enjoy the relevant content as well as know the thoughts and impressions of other viewers. Then, you can get a feeling of solidarity (virtual) simultaneous participation and a sense of solidarity, such as enjoying a concert or event.

その際に、本システム1では、いずれかの閲覧者が投稿したコメントを、コンテンツ配信サーバ40を経由して演者視認用ディスプレイ21dや、アバターの操作者視認用ディスプレイ33dの少なくともいずれかにも表示されるように構成することができる。この結果、コメントを読んだ演者20あるいはアバターの操作者30は、上に述べた同時参加の感覚や連帯感を得て、よりリアルな演技や応答、アバターの操作が可能となる。  At this time, in the present system 1, the comment posted by any of the viewers is displayed on at least one of the display 21d for viewing the actor and the display 33d for viewing the operator of the avatar via the content distribution server 40. Can be configured to be. As a result, the performer 20 or the avatar operator 30 who has read the comment can obtain the above-described feeling of simultaneous participation and a sense of solidarity, and can perform more realistic acting and response, and operate the avatar.

〔コンテンツ配信受信システム1における音声の取り扱い〕
先に説明をしたように、本実施形態にかかるコンテンツ配信受信システム1は、あたかも演者20とアバターとが現実の空間内に一緒に存在しているかのようなコンテンツ画像73を生成することができる。よりリアル感を増すために、このようなコンテンツ画像73とともに、演者20の発話音声、およびアバターの発話音声を例えばアバター操作者30の発話で代替した音声、を放送に加えることは自然な発想であり、また重要な点である。そのために本システム1は、演者の発話を拾うための演者発話用マイク21bや、アバター操作者30の発話を拾うためのアバターの操作者撮影用マイク33bを有しており、また演者20の発話をアバター操作者30が聴取するためのアバターの操作者聴取用スピーカー33cや、アバター操作者30の発話を演者20が聴取するための演者聴取用スピーカー21cが備えられており、これらを用いた音声信号の伝送は、先に説明をした各動画像の伝送にかかわる実施態様から明らかであるので、繰り返しとなる説明は避けることとする。
[Handling of audio in the content delivery / reception system 1]
As described above, the content delivery / reception system 1 according to the present embodiment can generate the content image 73 as if the performer 20 and the avatar exist together in the real space. .. In order to increase the realism, it is a natural idea to add the content image 73 and the speech of the performer 20 and the speech of the avatar to the speech of the avatar operator 30, for example, together with the content image 73. Yes, and an important point. Therefore, the present system 1 includes a performer utterance microphone 21b for picking up the utterance of the performer, an avatar operator photographing microphone 33b for picking up the utterance of the avatar operator 30, and the utterance of the performer 20. An avatar operator's listening speaker 33c for the avatar operator 30 to listen to, and a performer listening speaker 21c for the speaker 20 to hear the utterance of the avatar operator 30 are provided. The transmission of signals is clear from the embodiments relating to the transmission of each moving image described above, so repeated explanations will be avoided.

なお、本実施形態は放送コンテンツに関するものであるので、この放送が生放送である場合については、演者20の発話音声や、アバターの発話音声を例えばアバター操作者30の発話で代替した音声は、この生放送を視聴する汎用のパーソナルコンピュータでも発音することができるので、先に説明をした各スピーカー21c、33cに代えて、汎用パーソナルコンピュータ付属するかまたは接続するスピーカーを利用してもよい。  Since the present embodiment relates to broadcast contents, when this broadcast is a live broadcast, a voice in which the voice of the performer 20 or the voice of the avatar is replaced by the voice of the avatar operator 30, for example, is Since a general-purpose personal computer that listens to a live broadcast can produce sound, a speaker attached to or connected to the general-purpose personal computer may be used instead of the speakers 21c and 33c described above.

同様に、演者20を演者撮影用カメラ21aで撮影した画像33eが、アバターの操作者視認用ディスプレイ33dに描画がされれば、アバター操作者30もまた、あたかも演者20が目の前で相対しているような感覚でアバターの操作が行えるので、発明の効果をより向上させることができる。  Similarly, if the image 33e obtained by shooting the performer 20 with the performer shooting camera 21a is drawn on the operator-visible display 33d of the avatar, the avatar operator 30 will also face the performer 20 in front of his / her eyes. Since the avatar can be operated as if he / she is operating, the effect of the invention can be further improved.

〔変形例〕
以上説明をした本実施形態にかかるコンテンツ配信受信システム1は、以上に説明をした構成に限ることはなく種々の変形が可能であり、いずれも本発明が包含をする。
[Modification]
The content delivery / reception system 1 according to the present embodiment described above is not limited to the configuration described above, and various modifications can be made, and the present invention includes all of them.

例えば、演者視認用ディスプレイ21dを省略して、演者20はアバター操作者30の画像は視認しないながらもアバター操作者30の音声のみを聴取して対話を行うようにしてもよいし、その様なシステムでは構成がよりシンプルとなり、コスト低減や信頼性向上が実現する。  For example, the performer viewing display 21d may be omitted, and the performer 20 may listen to only the voice of the avatar operator 30 and perform a dialogue while not visually recognizing the image of the avatar operator 30. The system has a simpler configuration, which reduces costs and improves reliability.

あるいは、演者用表示スタンドユニット21を用いるのではなく、単なる置物やぬいぐるみ、すなわちダミーの物体を配置して、演者20が対話の動作を行い、先に説明をした置換と同じ処理によりダミー物体の表示部分をアバターの画像で置換して、コンテンツ画像73を生成して閲覧に供するようにしてもよい。この場合、演者20は、生放送であれば、この生放送の画像や音声によってアバターの動きや発話を認識できるので、同様に自然な感覚でアバターと演者20とが同じ画面に描画された放送を閲覧ユーザーが楽しむことができ、その様なシステムもまた構成がよりシンプルとなり、コスト低減や信頼性向上が実現する。このように、演者20が生放送の映像や音声を送出するパーソナルコンピュータ(図示しない)を自分も視聴しながら演じることとなり、パーソナルコンピュータはダミー物体(置物やぬいぐるみなど)の近傍に置かれていても、離れた場所に置かれていてもよく、このパーソナルコンピュータがシーン撮影用カメラ撮影ゾーン23に含まれるようにしても、含まれないようにしてもよい。さらに、このパーソナルコンピュータ自身を、アバターの画像に描画が置き換えられるダミー物体として用いてもよい。  Alternatively, instead of using the display stand unit 21 for the performer, a mere figurine or a stuffed animal, that is, a dummy object is arranged, the performer 20 performs a dialogue operation, and the dummy object is processed by the same process as the replacement described above. The display portion may be replaced with the image of the avatar, and the content image 73 may be generated and used for browsing. In this case, the performer 20 can recognize the movement and utterance of the avatar by the image and sound of the live broadcast if it is a live broadcast, and thus the viewer can view the broadcast in which the avatar and the performer 20 are drawn on the same screen with a natural sense. Users will enjoy it, and such systems will also be simpler in configuration, reducing costs and improving reliability. In this way, the performer 20 performs while watching and listening to a personal computer (not shown) that outputs live broadcast video and audio, even if the personal computer is placed near a dummy object (a figurine, a stuffed animal, etc.). The personal computer may or may not be included in the scene shooting camera shooting zone 23. Further, the personal computer itself may be used as a dummy object whose drawing is replaced with the image of the avatar.

(発明の効果の説明)
放送などコンテンツにおいて、現実の演者とアバターとが同じ画面に描画するようにして、リアルな現場にはあり得ない人工的なキャラクターがいることの意外さや面白さ、あるいは仮想的で人工的であるはずのアバターにリアル感を付加する面白さ、などを視聴者は十分に楽しむことができるとともに、現実の演者と人工的(仮想的)なキャラクターであるアバターとが一緒に登場するシーンにおける不自然さを解消することができる、コンテンツ配信システム、コンテンツ配信方法、およびコンピュータプログラムを本発明は提供する。
本発明は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものとする。
以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1] 被撮影者を、仮想的キャラクターとともに一つのシーン中に表示して配信する、コンテンツ配信システムであって、
前記被撮影者とダミー物体とが一つのシーンに収まるよう撮影を行うシーン撮影用カメラ部、
前記撮影がなされたシーン中の前記ダミー物体の画像を、前記仮想的キャラクターの画像へ置換をして配信する画像置換部、
を備えたことを特徴とする、コンテンツ配信システム。
[C2] 前記ダミー物体は、前記仮想的キャラクターの画像を表示するディスプレイを備えることを特徴とする、[C1]に記載のコンテンツ配信システム。
[C3] 前記画像置換部が配信する画像における、置換がなされた前記仮想的キャラクターの画像は、前記ダミー物体が備えるディスプレイに表示された仮想的キャラクターの画像とは異なる態様であることを特徴とする、[C2]に記載のコンテンツ配信システム。
[C4] 前記異なる態様は、異なる視点に基づくことを特徴とする、[C3]に記載のコンテンツ配信システム。
[C5] 前記ダミー物体は、前記シーン撮影用カメラ部とは異なる位置から前記被撮影者を撮影するカメラ及び/または前記被撮影者の音声を拾うマイクロフォンを有することを特徴とする、[C1]乃至[C4]のいずれかに記載のコンテンツ配信システム。
[C6] 前記仮想的キャラクターの外観表示態様を変更操作する操作部と、前記カメラおよび/またはマイクロフォンが収集した情報を表示する前記仮想的キャラクターの外観表示態様操作用表示部と、をさらに有することを特徴とする、[C5]に記載のコンテンツ配信システム。
[C7] 前記操作部は、前記ディスプレイに表示される前記仮想的キャラクターの外観表示態様、および/または、前記画像置換部が配信する画像中の前記仮想的キャラクターの画像の外観表示態様を変更操作するよう構成されたことを特徴とする、[C6]に記載のコンテンツ配信システム。
[C8] 前記画像置換部の配信画像を含んだコンテンツを通信路経由で放送する放送送信部と、前記放送中のコンテンツの画面中に表示させるユーザー投稿情報を受け付ける受信部とをさらに備え、且つ、前記ユーザー投稿情報は、前記仮想的キャラクターの画像を表示するディスプレイにもまた表示がなされるよう構成されたことを特徴とする、[C2]乃至[C7]のいずれかに記載のコンテンツ配信システム。
[C9] 前記画像置換部の配信画像を含んだコンテンツを通信路経由で放送する放送送信部と、前記放送中のコンテンツの画面中に表示させるユーザー投稿情報を受け付ける受信部とをさらに備え、且つ、前記ユーザー投稿情報は、前記仮想的キャラクターの外観表示態様操作用表示部にもまた表示がなされるよう構成されたことを特徴とする、[C6]乃至[C8]のいずれかに記載のコンテンツ配信システム。
[C10] 被撮影者を、仮想的キャラクターとともに一つのシーン中に表示して配信する、コンテンツ配信方法であって、
シーン撮影用カメラ部が、前記被撮影者とダミー物体とが一つのシーンに収まるよう撮
影を行うステップ、
画像置換部が、前記撮影がなされたシーン中の前記ダミー物体の画像を、前記仮想的キャラクターの画像へ置換をして配信するステップ、
を備えたことを特徴とする、コンテンツ配信方法。
[C11] [C10]に記載のコンテンツ配信方法における各ステップをコンピュータが実行するコード群を含んだことを特徴とする、コンピュータプログラム。
[C12] 被撮影者を、仮想的キャラクターとともに一つのシーン中に表示して配信する、コンテンツ配信用サーバであって、
前記被撮影者とダミー物体とが一つのシーンに収まるよう撮影がなされたシーン中の前記ダミー物体の画像を、前記仮想的キャラクターの画像へ置換をして配信するよう構成されたことを特徴とする、コンテンツ配信用サーバ。
[C13] [C12]に記載のコンテンツ配信用サーバが前記配信を行った信号を伝送する伝送路。
(Explanation of effects of the invention)
In content such as broadcasting, it is surprising or interesting that there is an artificial character that can not be in a real scene, or it is virtual and artificial so that the real actor and the avatar draw on the same screen. The viewer can fully enjoy the fun of adding realism to the supposed avatar, and it is unnatural in the scene where the real performer and the artificial (virtual) character avatar appear together. can be eliminated is, content distribution system, a content distribution method, and the present invention a computer program is provided.
The present invention can be implemented in various other modes, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and modifications thereof are included in the scope of the invention and the scope of the invention, and are also included in the scope of the invention described in the claims and the scope of equivalents thereof.
The inventions described in the claims at the initial application of the present application will be additionally described below.
[C1] A content distribution system for displaying and distributing a photographed person in one scene together with a virtual character,
A scene photographing camera unit that photographs so that the person to be photographed and the dummy object are included in one scene,
An image replacement unit that replaces the image of the dummy object in the scene in which the shooting is performed with the image of the virtual character and delivers the image.
A content distribution system comprising:
[C2] The content distribution system according to [C1], wherein the dummy object includes a display that displays an image of the virtual character.
[C3] In the image distributed by the image replacement unit, the replaced virtual image of the virtual character is in a different mode from the virtual character image displayed on the display included in the dummy object. The content distribution system according to [C2].
[C4] The content distribution system according to [C3], wherein the different aspect is based on different viewpoints.
[C5] The dummy object has a camera for photographing the person to be photographed from a position different from the camera unit for photographing the scene and / or a microphone for picking up the voice of the person to be photographed, [C1] To the content distribution system according to any one of [C4].
[C6] An operation unit for changing the appearance display mode of the virtual character, and an appearance display mode operation display unit for displaying the information collected by the camera and / or the microphone. The content distribution system according to [C5].
[C7] The operation unit changes the appearance display mode of the virtual character displayed on the display and / or the appearance display mode of the image of the virtual character in the image distributed by the image replacement unit. The content distribution system according to [C6], which is configured to:
[C8] A broadcast transmission unit that broadcasts the content including the distribution image of the image replacement unit via a communication path, and a reception unit that receives user-posted information to be displayed on the screen of the content being broadcast, and The content distribution system according to any one of [C2] to [C7], wherein the user-posted information is also displayed on a display that displays an image of the virtual character. ..
[C9] A broadcast transmission unit that broadcasts the content including the distribution image of the image replacement unit via a communication path, and a reception unit that receives user-posted information to be displayed on the screen of the content being broadcast, and The content posted by [C6] to [C8], wherein the user-posted information is configured to be displayed also on the display unit for operating the appearance display mode of the virtual character. Delivery system.
[C10] A content distribution method of displaying and distributing a photographed person in a scene together with a virtual character,
The scene capturing camera unit captures the subject and the dummy object in a single scene.
The steps to do shadows,
An image replacement unit replacing the image of the dummy object in the scene in which the shooting is performed with the image of the virtual character and delivering the image.
A content distribution method comprising:
[C11] A computer program including a code group for a computer to execute each step in the content distribution method according to [C10].
[C12] A content distribution server for displaying and distributing a photographed person in one scene together with a virtual character,
The image of the dummy object in the scene photographed so that the person to be photographed and the dummy object are included in one scene is replaced with the image of the virtual character, and is delivered. A content distribution server.
[C13] A transmission path through which the content delivery server according to [C12] transmits the delivered signal.

1 コンテンツ配信受信システム
2 演者撮影現場
3 アバター操作スタジオ
4 コンテンツ配信業者
5 コンテンツ閲覧者宅
20 演者
21 演者用表示スタンドユニット
21a 演者撮影用カメラ
21b 演者発話用マイク
21c 演者聴取用スピーカー
21d 演者視認用ディスプレイ
21e アバターの画像
21f スタンド
22 シーン撮影用カメラ
23 シーン撮影用カメラ撮影ゾーン
30 アバターの操作者
31 モーションキャプチャー用光学マーカー
32 モーションキャプチャー用カメラ
33 アバターの操作者用表示スタンドユニット
33a タリーランプ
33b アバターの操作者撮影用マイク
33c アバターの操作者聴取用スピーカー
33d アバターの操作者視認用ディスプレイ
33e 演者の画像
33f スタンド
34 アバター変更ユニット
340 制御ユニット
341 メモリ
341a プログラムメモリ
341b アバターデータメモリ
341c 一時メモリ
342 データバスライン
343 モーショントラッカ
344 レンダリング部
345 通信インターフェース
40 コンテンツ配信サーバ
41 制御ユニット
42 メモリ
42a プログラムメモリ
42b テンプレート画像メモリ
42c 一時メモリ
43 データバスライン
44 テンプレート画像トラッカ
45 コンテンツ画像生成部
46 通信インターフェース
50 パーソナルコンピュータ
50a パーソナルコンピュータディスプレイ
50b シーン中の演者の画像
50c シーン中のアバターの画像
60、61、62、63、64、65、66、67 インターネット通信網
1 Content Delivery / Reception System 2 Performer Shooting Site 3 Avatar Operation Studio 4 Content Distributor 5 Content Viewer Home 20 Performer 21 Performer Display Stand Unit 21a Performer Shooting Camera 21b Performer Speech Microphone 21c Performer Listening Speaker 21d Performer Visual Display 21e Avatar image 21f Stand 22 Scene shooting camera 23 Scene shooting camera Shooting zone 30 Avatar operator 31 Optical capture marker 32 Motion capture camera 33 Avatar operator display stand unit 33a Tally lamp 33b Avatar operation Microphone 33c for photographing a person Avatar operator listening speaker 33d Avatar operator visual recognition display 33e Actor image 33f Stand 34 Avatar changing unit 340 Control unit 341 Memory 341a Program memory 341b Avatar data memory 341c Temporary memory 342 Data bus line 343 Motion tracker 344 Rendering unit 345 Communication interface 40 Content distribution server 41 Control unit 42 Memory 42a Program memory 42b Template image memory 42c Temporary memory 43 Data bus line 44 Template image tracker 45 Content image generating unit 46 Communication interface 50 Personal computer 50a Personal computer display 50b Image of performer in scene 50c Image of avatar in scene 60, 61, 62, 63, 64, 65, 66, 67 Internet communication network

Claims (11)

被撮影者を、仮想的キャラクターとともに一つのシーン中に表示して配信する、コンテンツ配信システムであって、
前記被撮影者と、前記仮想的キャラクターの画像を表示するディスプレイを備えたダミー物体とが一つのシーンに収まるよう撮影を行うシーン撮影用カメラ部、
前記撮影がなされたシーン中の前記ダミー物体の画像を、前記仮想的キャラクターの画像へ置換をして配信する画像置換部、
を備え、且つ、
前記画像置換部が配信する画像における、前記置換がなされた前記仮想的キャラクターの画像は、前記ダミー物体が備えるディスプレイに表示された仮想的キャラクターの画像とは異なる態様であることを特徴とする、コンテンツ配信システム。
A content distribution system for displaying and distributing a photographed person in one scene together with a virtual character,
A scene photographing camera unit that photographs so that the person to be photographed and a dummy object having a display for displaying an image of the virtual character fit into one scene,
An image replacement unit that replaces the image of the dummy object in the scene in which the shooting is performed with the image of the virtual character and delivers the image.
And
In the image delivered by the image replacement unit, the image of the virtual character that has been replaced is a mode different from the image of the virtual character displayed on the display included in the dummy object, Content distribution system.
前記異なる態様は、異なる視点に基づくことを特徴とする、請求項1に記載のコンテンツ配信システム。   The content distribution system according to claim 1, wherein the different aspects are based on different viewpoints. 前記画像置換部の配信画像を含んだコンテンツを通信路経由で放送する放送送信部と、
前記放送中のコンテンツの画面中に表示させるユーザー投稿情報を受け付ける受信部とをさらに備え、且つ、前記ユーザー投稿情報は、前記仮想的キャラクターの画像を表示するディスプレイにもまた表示がなされるよう構成されたことを特徴とする、請求項1または2に記載のコンテンツ配信システム。
A broadcast transmitting unit that broadcasts content including the distribution image of the image replacing unit via a communication path,
A receiver for receiving user-posted information to be displayed on the screen of the content being broadcast, and the user-posted information is also displayed on a display for displaying an image of the virtual character. The content delivery system according to claim 1 or 2, wherein the content delivery system is provided.
被撮影者を、仮想的キャラクターとともに一つのシーン中に表示して配信する、コンテンツ配信システムであって、
前記被撮影者と、前記仮想的キャラクターの画像を表示するディスプレイを備えたダミー物体とが一つのシーンに収まるよう撮影を行うシーン撮影用カメラ部、
前記撮影がなされたシーン中の前記ダミー物体の画像を、前記仮想的キャラクターの画像へ置換をして配信する画像置換部、
を備え、且つ、
前記ダミー物体は、前記シーン撮影用カメラ部とは異なる位置から前記被撮影者を撮影するカメラ及び/または前記被撮影者の音声を拾うマイクロフォンを有することを特徴とするコンテンツ配信システム。
A content distribution system for displaying and distributing a photographed person in one scene together with a virtual character,
A scene photographing camera unit that photographs so that the person to be photographed and a dummy object having a display for displaying an image of the virtual character fit into one scene,
An image replacement unit that replaces the image of the dummy object in the scene in which the shooting is performed with the image of the virtual character and delivers the image.
And
The content distribution system, wherein the dummy object has a camera for photographing the person to be photographed from a position different from the scene photographing camera unit and / or a microphone for picking up the voice of the person to be photographed.
前記仮想的キャラクターの外観表示態様を変更操作する操作部と、前記カメラおよび/または前記マイクロフォンが収集した情報を発話する前記仮想的キャラクターの外観表示態様操作用表示部と、をさらに有することを特徴とする、請求項4に記載のコンテンツ配信システム。   An operation unit for changing the appearance display mode of the virtual character, and a display unit for operating the appearance display mode of the virtual character that speaks information collected by the camera and / or the microphone. The content distribution system according to claim 4, wherein 前記操作部は、前記ディスプレイに表示される前記仮想的キャラクターの外観表示態様、および/または、前記画像置換部が配信する画像中の前記仮想的キャラクターの画像の外観表示態様を変更操作するよう構成されたことを特徴とする、請求項5に記載のコンテンツ配信システム。   The operation unit is configured to change the appearance display mode of the virtual character displayed on the display and / or the appearance display mode of the image of the virtual character in the image distributed by the image replacement unit. The content distribution system according to claim 5, wherein the content distribution system is performed. 前記画像置換部の配信画像を含んだコンテンツを通信路経由で放送する放送送信部と、
前記放送中のコンテンツの画面中に表示させるユーザー投稿情報を受け付ける受信部とをさらに備え、且つ、前記ユーザー投稿情報は、前記仮想的キャラクターの画像を表示するディスプレイにもまた表示がなされるよう構成されたことを特徴とする、請求項4乃至6のいずれか1項に記載のコンテンツ配信システム。
A broadcast transmitting unit that broadcasts content including the distribution image of the image replacing unit via a communication path,
A receiver for receiving user-posted information to be displayed on the screen of the content being broadcast, and the user-posted information is also displayed on a display for displaying an image of the virtual character. The content delivery system according to claim 4, wherein the content delivery system is provided.
前記画像置換部の配信画像を含んだコンテンツを通信路経由で放送する放送送信部と、
前記放送中のコンテンツの画面中に表示させるユーザー投稿情報を受け付ける受信部とをさらに備え、且つ、前記ユーザー投稿情報は、前記仮想的キャラクターの外観表示態様操作用表示部にもまた表示がなされるよう構成されたことを特徴とする、請求項5または6に記載のコンテンツ配信システム。
A broadcast transmitting unit that broadcasts content including the distribution image of the image replacing unit via a communication path,
A receiver for receiving user-posted information to be displayed on the screen of the content being broadcast is further provided, and the user-posted information is also displayed on the appearance display mode operation display unit of the virtual character. The content distribution system according to claim 5, wherein the content distribution system is configured as described above.
被撮影者を、仮想的キャラクターとともに一つのシーン中に表示して配信する、コンテンツ配信方法であって、
シーン撮影用カメラ部が、前記被撮影者と、前記仮想的キャラクターの画像を表示するディスプレイを備えたダミー物体とが一つのシーンに収まるよう撮影を行うステップ、
画像置換部が、前記撮影がなされたシーン中の前記ダミー物体の画像を、前記仮想的キ
ャラクターの画像へ置換をして配信するステップ、
を備え、且つ、
前記画像置換部が配信する画像における、前記置換がなされた前記仮想的キャラクターの画像は、前記ダミー物体が備えるディスプレイに表示された仮想的キャラクターの画像とは異なる態様であることを特徴とする、コンテンツ配信方法。
A content distribution method for displaying and distributing a photographed person in one scene together with a virtual character,
A step in which the scene photographing camera section performs photographing so that the person to be photographed and a dummy object having a display for displaying an image of the virtual character are contained in one scene;
An image replacement unit replacing the image of the dummy object in the scene in which the shooting is performed with the image of the virtual character and delivering the image.
And
In the image delivered by the image replacement unit, the image of the virtual character that has been replaced is a mode different from the image of the virtual character displayed on the display included in the dummy object, Content delivery method.
前記異なる態様は、異なる視点に基づくことを特徴とする、請求項9に記載のコンテンツ配信方法。   The content distribution method according to claim 9, wherein the different aspects are based on different viewpoints. 請求項9または10に記載のコンテンツ配信方法における各ステップをコンピュータが実行するコード群を含んだことを特徴とする、コンピュータプログラム。   A computer program comprising a code group for a computer to execute each step in the content distribution method according to claim 9.
JP2018125403A 2018-06-14 2018-06-14 Content distribution system, content distribution method, and computer program Active JP6697512B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018125403A JP6697512B2 (en) 2018-06-14 2018-06-14 Content distribution system, content distribution method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018125403A JP6697512B2 (en) 2018-06-14 2018-06-14 Content distribution system, content distribution method, and computer program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020077735A Division JP7102457B2 (en) 2020-04-24 2020-04-24 Content distribution systems, content distribution methods, and computer programs

Publications (2)

Publication Number Publication Date
JP2019220932A JP2019220932A (en) 2019-12-26
JP6697512B2 true JP6697512B2 (en) 2020-05-20

Family

ID=69097130

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018125403A Active JP6697512B2 (en) 2018-06-14 2018-06-14 Content distribution system, content distribution method, and computer program

Country Status (1)

Country Link
JP (1) JP6697512B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114245013A (en) * 2021-12-16 2022-03-25 上海索凯丽思多媒体科技有限公司 Virtual shooting system and shooting method

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05207748A (en) * 1992-01-28 1993-08-13 Matsushita Electric Works Ltd Inverter unit
JPH05207448A (en) * 1992-01-30 1993-08-13 Matsushita Electric Ind Co Ltd Video phone system
JP2534617B2 (en) * 1993-07-23 1996-09-18 株式会社エイ・ティ・アール通信システム研究所 Real-time recognition and synthesis method of human image
JP2002271694A (en) * 2001-03-13 2002-09-20 Canon Inc Image processing method, image processing unit, studio device, storage medium and program
JP2003324709A (en) * 2002-05-07 2003-11-14 Nippon Hoso Kyokai <Nhk> Method, apparatus, and program for transmitting information for pseudo visit, and method, apparatus, and program for reproducing information for pseudo visit
JP2003346190A (en) * 2002-05-29 2003-12-05 Canon Inc Image processor
JP2006067405A (en) * 2004-08-30 2006-03-09 Sharp Corp Television broadcast transmitter, television broadcast receiver, and broadcast program participation system and method
WO2009060880A1 (en) * 2007-11-08 2009-05-14 Nec Corporation Communication system, method, and program
JP2017163251A (en) * 2016-03-08 2017-09-14 大日本印刷株式会社 Communication system using tele-existence

Also Published As

Publication number Publication date
JP2019220932A (en) 2019-12-26

Similar Documents

Publication Publication Date Title
US9792954B2 (en) Information processing apparatus and recording medium
US9866795B2 (en) System and method for interactive animations for enhanced and personalized video communications
JP7135141B2 (en) Information processing system, information processing method, and information processing program
US10225608B2 (en) Generating a representation of a user&#39;s reaction to media content
WO2020210213A1 (en) Multiuser asymmetric immersive teleconferencing
WO2020090786A1 (en) Avatar display system in virtual space, avatar display method in virtual space, and computer program
EP1912175A1 (en) System and method for generating a video signal
JP2002150317A (en) Image display device
US20210092466A1 (en) Information processing apparatus, information processing method, and program
JP2010206307A (en) Information processor, information processing method, information processing program, and network conference system
KR101915786B1 (en) Service System and Method for Connect to Inserting Broadcasting Program Using an Avata
JP2014187559A (en) Virtual reality presentation system and virtual reality presentation method
JP2022133366A (en) Moving image editing device, moving image editing method, and program
JP2019087226A (en) Information processing device, information processing system, and method of outputting facial expression images
WO2011027475A1 (en) Teleconference device
CN114286021B (en) Rendering method, rendering device, server, storage medium, and program product
JP6697512B2 (en) Content distribution system, content distribution method, and computer program
JP6454883B1 (en) Content distribution system, content distribution method, and content distribution program
JP2020102782A (en) Content distribution system, distribution device, reception device, and program
KR102200239B1 (en) Real-time computer graphics video broadcasting service system
JP7102457B2 (en) Content distribution systems, content distribution methods, and computer programs
WO2021246183A1 (en) Information processing device, information processing method, and program
JP2011109371A (en) Server, terminal, program, and method for superimposing comment text on three-dimensional image for display
JP2002271694A (en) Image processing method, image processing unit, studio device, storage medium and program
JP2006067405A (en) Television broadcast transmitter, television broadcast receiver, and broadcast program participation system and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180725

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20181101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20200304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200424

R150 Certificate of patent or registration of utility model

Ref document number: 6697512

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250