JP2003296239A - Device and method for transmission, system and method for contents distribution, and program - Google Patents

Device and method for transmission, system and method for contents distribution, and program

Info

Publication number
JP2003296239A
JP2003296239A JP2002271334A JP2002271334A JP2003296239A JP 2003296239 A JP2003296239 A JP 2003296239A JP 2002271334 A JP2002271334 A JP 2002271334A JP 2002271334 A JP2002271334 A JP 2002271334A JP 2003296239 A JP2003296239 A JP 2003296239A
Authority
JP
Japan
Prior art keywords
content
distribution
viewing
application program
distributed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002271334A
Other languages
Japanese (ja)
Other versions
JP2003296239A5 (en
JP4232419B2 (en
Inventor
Junji Oi
純司 大井
Hiroshi Hasegawa
寛 長谷川
Yasushi Miyajima
靖 宮島
Keigo Ihara
圭吾 井原
Takanori Nishimura
孝則 西村
Junko Fukuda
純子 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002271334A priority Critical patent/JP4232419B2/en
Publication of JP2003296239A publication Critical patent/JP2003296239A/en
Publication of JP2003296239A5 publication Critical patent/JP2003296239A5/ja
Application granted granted Critical
Publication of JP4232419B2 publication Critical patent/JP4232419B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To efficiently send contents, provided by a viewer side, to a sender side and to perform live distribution by using the contents. <P>SOLUTION: The contents of a program as an object of live distribution from a user terminal 10 as a sender side and sender specification information for specifying this user terminal 10 on the Internet 11 are distributed to a client terminal 12 through a streaming distribution server 13. Contents provided from the side of the client terminal 12 are sent directly to the user terminal 10 according to the sender specification information and on the side of this user terminal 10, the live distribution is carried out by using the contents sent from the client terminal 12. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する分野】本発明は、複数の視聴装置とサー
バ装置とに接続されるネットワークを介し、所要のコン
テンツを配信する送信装置及び送信方法、更には発信側
となる送信装置により生成したコンテンツをサーバ装置
を介して視聴装置に配信するコンテンツ配信システム及
びコンテンツ配信方法に関する。また、このようなコン
テンツ配信システムを実現するプログラムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a transmitting apparatus and a transmitting method for delivering required content via a network connected to a plurality of viewing apparatuses and a server apparatus, and further content generated by a transmitting apparatus serving as a transmitting side. The present invention relates to a content distribution system and a content distribution method for distributing content to a viewing device via a server device. It also relates to a program that realizes such a content distribution system.

【0002】[0002]

【従来の技術】従来から、多数のコンピュータ装置が接
続されたコンピュータネットワークとして、いわゆるイ
ンターネット(The Internet)が広く普及している。イ
ンターネットは、TCP/IP(Transmission Control
Protocol / Internet Protocol)を代表とする各種の
プロトコル(相互接続手順)を利用して、コンピュータ
同士の間で様々な情報を自在に送受信することが可能と
されている。
2. Description of the Related Art The so-called Internet (The Internet) has been widely used as a computer network to which a large number of computer devices are connected. Internet is TCP / IP (Transmission Control)
It is possible to freely transmit and receive various information between computers by using various protocols (interconnection procedure) represented by Protocol / Internet Protocol).

【0003】このようなインターネットを利用して、例
えばデジタルビデオカメラ等の撮像装置により撮像した
動画像を、多数の視聴者に向けて配信する場合には、以
下に挙げるような手法がある。
In order to distribute a moving image picked up by an image pickup device such as a digital video camera to a large number of viewers using the Internet, there are the following methods.

【0004】すなわち、第1の手法としては、動画像が
含まれるファイルを発信者側のコンピュータ装置からサ
ーバ装置に転送(アップロード)しておき、他のコンピ
ュータ装置からサーバ装置に対して取得要求が行われた
場合に、この転送されたファイルを自由に取得(ダウン
ロード)可能な状態としておくことが挙げられる。これ
により、視聴者側では、インターネットに接続されたコ
ンピュータ装置を用いて、サーバ装置から動画像ファイ
ルをダウンロードし、このコンピュータ装置の表示画面
上で動画像を閲覧することができる。
That is, as a first method, a file including a moving image is transferred (uploaded) from a computer device on the sender side to a server device, and another computer device issues an acquisition request to the server device. When it is performed, the transferred file may be freely acquired (downloaded). As a result, the viewer can download a moving image file from the server device using a computer device connected to the Internet and browse the moving image on the display screen of this computer device.

【0005】第2の手法としては、動画像の発信者側が
自前でサーバ装置を用意し、このサーバ装置に動画像が
含まれるファイルをダウンロード自在な状態で保持して
おく。これにより、上述した第1の手法と同様に、この
サーバ装置から視聴者側のコンピュータ装置に対して動
画像を配信することができる。
As a second method, the sender of the moving image prepares a server device himself and holds the file including the moving image in the server device in a freely downloadable state. As a result, similarly to the first method described above, the moving image can be distributed from this server device to the viewer-side computer device.

【0006】また、このようにサーバ装置を発信者側が
自前で用意する場合には、予め編集を済ませた完成済み
の動画像ファイルを配信することができるだけでなく、
サーバ装置或いはサーバ装置に接続した発信者側のコン
ピュータ装置に撮像装置を接続しておくことにより、こ
の撮像装置により撮像した動画像をリアルタイムでライ
ブ配信することもできる。
When the sender side prepares the server device himself / herself in this way, not only can the completed moving image file edited in advance be delivered,
By connecting the imaging device to the server device or the computer device on the caller side connected to the server device, the moving image captured by the imaging device can be live-distributed in real time.

【0007】このようなライブ配信は、各種のストリー
ミング(Streaming)配信技術、すなわち、サーバ装置
に保持された動画データをコンピュータネットワークを
介してダウンロードしながら逐次再生する技術を利用し
て実現することができる。ストリーミング配信技術とし
ては、例えば、リアルネットワークス株式会社の「Real
System」(例えば、非特許文献1参照。)、アップル
コンピュータ株式会社の「QuickTime Streaming Serve
r」(例えば、非特許文献2参照。)、マイクロソフト
株式会社の「Windows Media テクノロジー」(例えば、
非特許文献3参照。)等を挙げることができる。
Such live distribution can be realized by using various streaming distribution techniques, that is, a technique of sequentially reproducing moving image data held in a server device while downloading it via a computer network. it can. As streaming distribution technology, for example, "Real Networks"
System "(for example, see Non-Patent Document 1)," QuickTime Streaming Serve "of Apple Computer Co., Ltd.
r "(for example, see Non-Patent Document 2)," Windows Media Technology "of Microsoft Corporation (for example,
See Non-Patent Document 3. ) Etc. can be mentioned.

【0008】[0008]

【非特許文献1】インターネット<URL:http://ww
w.jp.real.com/>
[Non-Patent Document 1] Internet <URL: http: // ww
w.jp.real.com/ >

【非特許文献2】インターネット<URL:http://ww
w.apple.co.jp/>
[Non-Patent Document 2] Internet <URL: http: // ww
w.apple.co.jp/>

【非特許文献3】インターネット<URL:http://ww
w.microsoft.com/japan/>
[Non-Patent Document 3] Internet <URL: http: // ww
w.microsoft.com/japan/ >

【0009】[0009]

【発明が解決しようとする課題】ところで、上述のよう
にして動画像などをネットワークを介して視聴者側にラ
イブ配信する場合には、動画像の発信者がひとつのライ
ブ配信につき一人に制限されており、発信者から離れた
場所にいる別の提供者からの動画像をライブ配信番組に
取り込んで各地を中継で結ぶといった形の配信を行うこ
とができなかった。
By the way, in the case where a moving image or the like is live-distributed to the viewer side through the network as described above, the number of senders of the moving image is limited to one per one live distribution. Therefore, it was not possible to perform a distribution in which a moving image from another provider located far from the sender was captured in a live distribution program and connected to each other by relay.

【0010】また例えば、ライブ配信を行う番組に視聴
者側からの意見や主張を反映させるためには、ライブ配
信を行うシステムとは別のシステムを用いることが必要
である。具体的には例えば、視聴者側の意見や主張を電
子メールやチャットなどを実現するアプリケーションソ
フトを用いて文字や静止画像の形式で取得し、取得した
文字や静止画像をライブ配信を行うシステムに読み込む
などする必要がある。或いはまた、電子メールやチャッ
トなどを実現するアプリケーションソフトを用いて、ラ
イブ配信を行うシステムと同時進行させた形で意見や主
張を交換する必要がある。
Further, for example, in order to reflect the opinions and claims from the viewer side in the program for live distribution, it is necessary to use a system different from the system for live distribution. Specifically, for example, in a system that acquires the opinions and assertions of the viewer side in the form of characters and still images using application software that realizes e-mail and chat, and distributes the acquired characters and still images live. It is necessary to read it. Alternatively, it is necessary to use the application software that realizes e-mail, chat, etc. to exchange opinions and assertions in the form of simultaneous progress with the system for live distribution.

【0011】しかしながら、上述のような手法により視
聴者側との間で意見や主張を交換してライブ配信を行う
場合には、関連性が希薄な複数のアプリケーションソフ
トを操作する必要があり、操作が煩雑なものとなるとい
った問題があった。また、ライブ配信される動画像とチ
ャットの内容との関連性が薄くなることを避けることが
できず、動画像の発信者側と視聴者側との間で意見や主
張の交換をスムーズに行うことが困難となってしまう。
さらには、ライブ配信された動画像を記録しておいて
も、この動画像だけではひとつの番組として成立しない
といった問題があった。
However, in the case of exchanging opinions and assertions with the viewer side and performing live distribution by the above-described method, it is necessary to operate a plurality of application software that are sparsely related, There was a problem that was complicated. In addition, it is unavoidable that the relationship between the live video and the content of the chat is weakened, and opinions and assertions can be exchanged smoothly between the video sender and the viewer. Becomes difficult.
Furthermore, even if the moving image distributed live is recorded, there is a problem that the moving image alone does not constitute one program.

【0012】そこで本発明は、上述した従来の実情に鑑
みてなされたものであり、視聴者側から提供された動画
像、静止画像、或いはテキスト等のコンテンツを、発信
者側で自在に利用することが可能な送信装置、送信方
法、コンテンツ配信システム、コンテンツ配信方法、及
びプログラムを提供することを目的とする。
Therefore, the present invention has been made in view of the above-mentioned conventional circumstances, and the content such as the moving image, the still image, or the text provided by the viewer side can be freely used by the sender side. It is an object of the present invention to provide a transmitting device, a transmitting method, a content distribution system, a content distribution method, and a program capable of performing the same.

【0013】[0013]

【課題を解決するための手段】本発明に係る送信装置
は、コンテンツを配信するサーバ装置と前記サーバ装置
から配信されるコンテンツを受信する複数の視聴装置と
にネットワークを介して接続された送信装置であって、
ネットワークを介して他の装置と通信を行う通信手段
と、前記サーバ装置を介して前記視聴装置に配信される
コンテンツを生成する制御手段とを具備している。前記
制御手段は、前記視聴装置に前記サーバ装置を介して配
信される第1コンテンツを取得する処理と、前記視聴装
置に前記サーバ装置を介して配信される第2コンテンツ
を、前記ネットワークに接続された他の装置から直接取
得する処理と、前記第1コンテンツと前記第2コンテン
ツとを用いて、前記サーバ装置に送信する送信コンテン
ツを生成する処理と、前記送信コンテンツを前記通信手
段を介して前記サーバ装置に送信する処理とを実行する
ように構成されている。
A transmitting device according to the present invention is a transmitting device connected via a network to a server device for delivering contents and a plurality of viewing devices for receiving contents delivered from the server device. And
The communication device includes communication means for communicating with another device via a network, and control means for generating content to be distributed to the viewing device via the server device. The control means connects the process of acquiring the first content distributed to the viewing device via the server device and the second content distributed to the viewing device via the server device to the network. A process of directly acquiring from another device, a process of generating a transmission content to be transmitted to the server device using the first content and the second content, and a process of transmitting the transmission content via the communication means. It is configured to execute a process of transmitting to the server device.

【0014】また、本発明に係る送信方法は、コンテン
ツを配信するサーバ装置を介して複数の視聴装置にコン
テンツを配信する送信方法であって、前記視聴装置に前
記サーバ装置を介して配信される第1コンテンツを取得
するステップと、前記視聴装置に前記サーバ装置を介し
て配信される第2コンテンツを、前記ネットワークに接
続された他の装置から取得するステップと、前記第1コ
ンテンツと前記第2コンテンツとを用いて、前記サーバ
装置に送信する送信コンテンツを生成するステップと、
前記送信コンテンツを前記サーバ装置に送信するステッ
プとを具備している。
Further, the transmission method according to the present invention is a transmission method for delivering contents to a plurality of viewing devices via a server device for delivering contents, and is delivered to the viewing devices via the server device. Acquiring first content, acquiring second content distributed to the viewing device via the server device from another device connected to the network, the first content and the second content Generating a transmission content to be transmitted to the server device using the content;
Transmitting the transmission content to the server device.

【0015】また、本発明に係るプログラムは、コンテ
ンツを配信するサーバ装置と前記サーバ装置から配信さ
れるコンテンツを受信する複数の視聴装置とにネットワ
ークを介して接続された装置にコンテンツの送信処理を
実行させるプログラムであって、前記サーバ装置を介し
て前記視聴装置に配信される第1コンテンツを取得する
制御を行う処理と、前記サーバ装置を介して前記視聴装
置に配信される第2コンテンツを、前記ネットワークに
接続された他の装置から取得する制御を行う処理と、前
記第1コンテンツと前記第2コンテンツとを用いて、前
記サーバ装置に送信する送信コンテンツを生成する制御
を行う処理と、前記送信コンテンツを前記サーバ装置に
送信する制御を行う処理とを有する。
Further, the program according to the present invention performs a content transmission process to a device connected via a network to a server device that distributes content and a plurality of viewing devices that receive the content distributed from the server device. A program to be executed, a process of controlling to obtain the first content distributed to the viewing device via the server device, and a second content distributed to the viewing device via the server device, A process of performing control for obtaining from another device connected to the network; a process of performing control for generating transmission content to be transmitted to the server device by using the first content and the second content; And a process of controlling transmission of transmission contents to the server device.

【0016】また、本発明に係るコンテンツ配信システ
ムは、複数の視聴装置とネットワークを介して接続され
たコンテンツ配信システムであって、前記複数の視聴装
置にコンテンツを配信する配信手段と、前記配信手段を
介して前記視聴装置に配信するコンテンツを生成する生
成手段とを具備する。前記生成手段は、前記視聴装置に
前記配信手段を介して配信される第1コンテンツを取得
する処理と、前記視聴装置に前記配信手段を介して配信
される第2コンテンツを、前記ネットワークに接続され
た他の装置から直接取得する処理と、前記第1コンテン
ツと前記第2コンテンツとを用いて、前記配信手段を介
して前記視聴装置に配信する配信コンテンツを生成する
処理とを実行する。また、前記配信手段は、前記生成手
段で生成された前記配信コンテンツを前記複数の視聴装
置に配信する処理を実行する。
A content distribution system according to the present invention is a content distribution system connected to a plurality of viewing devices via a network, and a distribution means for distributing content to the plurality of viewing devices, and the distribution means. And generating means for generating content to be distributed to the viewing device via the. The generation means is connected to the network for obtaining the first content distributed to the viewing device via the distribution means and the second content distributed to the viewing device via the distribution means. Further, a process of directly obtaining from another device and a process of using the first content and the second content to generate a distribution content to be distributed to the viewing device via the distribution means are executed. Further, the distribution unit executes a process of distributing the distribution content generated by the generation unit to the plurality of viewing devices.

【0017】また、本発明に係るコンテンツ配信方法
は、複数の視聴装置にコンテンツを配信する配信手段
と、前記配信手段を介して前記視聴装置に配信するコン
テンツを生成する生成手段とを有するコンテンツ配信シ
ステムで、コンテンツを配信するコンテンツ配信方法で
あって、前記視聴装置に前記配信手段を介して配信され
る第1コンテンツを取得するステップと、前記視聴装置
に前記配信手段を介して配信される第2コンテンツを、
前記ネットワークに接続された他の装置から直接取得す
るステップと、前記第1コンテンツと前記第2コンテン
ツとを用いて、前記配信手段を介して前記視聴装置に配
信する配信コンテンツを生成するステップと、前記生成
手段で生成された前記配信コンテンツを前記複数の視聴
装置に配信するステップとを有している。
Further, the content distribution method according to the present invention has a content distribution having a distribution means for distributing the content to a plurality of viewing devices and a generation means for generating the content to be distributed to the viewing devices via the distribution means. A content distribution method for distributing content in a system, the method comprising: acquiring first content distributed to the viewing device via the distribution means, and distributing to the viewing device via the distribution means. 2 contents,
Obtaining directly from another device connected to the network, and using the first content and the second content to generate distribution content to be distributed to the viewing device via the distribution means, Delivering the delivery content generated by the generating means to the plurality of viewing devices.

【0018】また、本発明に係るプログラムは、複数の
視聴装置にコンテンツを配信する配信手段と、前記配信
手段を介して前記視聴装置に配信するコンテンツを生成
する生成手段とを有するシステムに、コンテンツの配信
処理を実行させるプログラムであって、前記視聴装置に
前記配信手段を介して配信される第1コンテンツを取得
する処理と、前記視聴装置に前記配信手段を介して配信
される第2コンテンツを、前記ネットワークに接続され
た他の装置から直接取得する処理と、前記第1コンテン
ツと前記第2コンテンツとを用いて、前記配信手段を介
して前記視聴装置に配信する配信コンテンツを生成する
処理と、前記生成手段で生成された前記配信コンテンツ
を前記複数の視聴装置に配信する処理とを実行するよう
に構成されている。
Further, the program according to the present invention can be applied to a system having distribution means for distributing contents to a plurality of viewing devices, and generation means for generating contents to be distributed to the viewing devices via the distribution means. And a second content distributed to the viewing device via the distribution unit, the program acquiring the first content distributed to the viewing device via the distribution unit. , A process of directly obtaining from another device connected to the network, and a process of using the first content and the second content to generate a delivery content to be delivered to the viewing device via the delivery means. And a process of distributing the distribution content generated by the generation means to the plurality of viewing devices.

【0019】本発明の送信装置及び送信方法によれば、
発信するコンテンツに複数の視聴装置から送出されたコ
ンテンツを挿入し、このコンテンツを配信することがで
きる。したがって、視聴装置から提供された動画像、静
止画像、或いはテキスト等のコンテンツを、当該送信装
置で自在に利用してコンテンツの配信を行うことができ
る。このため、配信されたコンテンツの視聴側と発信側
との間で、意見や主張を極めてスムーズに交換すること
ができる。また、本発明のコンテンツ配信システム及び
コンテンツ配信方法では、他の装置から送信装置に対し
て、コンテンツを直接送出している。したがって、配信
されるコンテンツに挿入されるコンテンツの授受を極め
てスムーズに行うことができる。本発明のプログラムで
は、上述の如きコンテンツの授受を当該プログラムが処
理される装置において円滑に実行させることができる。
According to the transmitting device and the transmitting method of the present invention,
It is possible to insert the content transmitted from a plurality of viewing devices into the content to be transmitted and distribute this content. Therefore, the content such as the moving image, the still image, or the text provided from the viewing device can be freely used by the transmitting device to distribute the content. For this reason, opinions and claims can be exchanged extremely smoothly between the viewer and sender of the distributed content. Further, in the content distribution system and the content distribution method of the present invention, the content is directly transmitted from the other device to the transmission device. Therefore, the content inserted into the distributed content can be exchanged extremely smoothly. With the program of the present invention, it is possible to smoothly transfer the content as described above in the device in which the program is processed.

【0020】[0020]

【発明の実施の形態】以下、本発明の実施の形態につい
て、図面を参照しながら詳細に説明する。本発明は、コ
ンピュータネットワークに接続された複数のコンピュー
タ装置とサーバ装置とを利用して、送信装置の一例とな
るコンピュータ装置などにより生成したコンテンツを、
サーバ装置を介して視聴装置の例であるコンピュータ装
置などに配信する場合に適用して好適なものである。そ
こで、以下では先ず、このようにしてコンテンツの配信
を行う基本的なシステムの構成について概略的に説明す
る。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The present invention utilizes a plurality of computer devices and a server device connected to a computer network to generate content generated by a computer device, which is an example of a transmitting device,
It is suitable to be applied to the case of delivering to a computer device which is an example of a viewing device via a server device. Therefore, in the following, first, the configuration of a basic system for delivering contents in this manner will be schematically described.

【0021】(1)コンテンツ配信システムの基本構成 本例で説明するコンテンツ配信システム1は、例えば図
1に示すように、デジタルビデオカメラ(Digital Vide
o Camera:DVカメラ)が搭載又は接続されたパーソナ
ルコンピュータ装置などからなるユーザ端末10によっ
て撮影して得られた映像データや音声データ、又はユー
ザ端末10に備え付けられたキーボードなどの入力装置
から入力されたテキストデータ等のコンテンツを、イン
ターネット(The Internet)11などのコンピュータネ
ットワークを介して、複数のクライアント端末12a,
12b,12c,・・・に対してライブ配信を行うもの
である。
(1) Basic Configuration of Content Delivery System The content delivery system 1 described in this example is, for example, as shown in FIG. 1, a digital video camera (Digital Vide Camera).
(Camera: DV camera) Video data and audio data obtained by shooting by the user terminal 10 including a personal computer device equipped with or connected to a DV camera, or input from an input device such as a keyboard provided in the user terminal 10. Content such as text data is transmitted to a plurality of client terminals 12a, through a computer network such as the Internet 11.
Live distribution is performed for 12b, 12c, ....

【0022】ここで、ユーザ端末10やクライアント端
末12a,12b,12c,・・・は、パーソナルコン
ピュータ装置、PDA(Personal Digital Assistant
s)機器、通信機能が搭載された携帯電話などである。
また、配信するコンテンツは、ユーザ端末10に格納さ
れている予め編集が行われた映像データ、音声データ、
テキストデータなどであってもよい。
Here, the user terminal 10 and the client terminals 12a, 12b, 12c, ... Are personal computer devices and PDAs (Personal Digital Assistants).
s) Devices, such as mobile phones equipped with communication functions.
In addition, the content to be distributed includes video data, audio data, which is stored in the user terminal 10 and which has been edited in advance.
It may be text data or the like.

【0023】このコンテンツ配信システム1において、
ユーザ端末10は、複数のウィンドウを同時に表示画面
に表示する機能であるマルチウィンドウ機能が搭載され
るものである。特に、ユーザ端末10は、コンテンツの
配信を行う際に実行するアプリケーション・プログラム
の各機能毎に表示画面に表示される、主画面としてのウ
ィンドウと、ユーザによる各種設定を行うための設定画
面としてのウィンドウとをシームレスに移行させること
により、主画面と設定画面との関連を明確化し、わかり
やすいユーザ・インターフェースをユーザに対して提供
することができるものである。より具体的には、ユーザ
端末10は、表示画面上での各種機能の分担を表すため
に、各機能毎の主画面を表示画面上で縦方向に分割した
パネルウィンドウという概念を導入することにより、容
易な操作のもとでのパーソナルキャスティングサービス
の実現に寄与するものである。
In this content distribution system 1,
The user terminal 10 is equipped with a multi-window function that is a function of simultaneously displaying a plurality of windows on the display screen. In particular, the user terminal 10 has a window as a main screen that is displayed on the display screen for each function of an application program that is executed when content is distributed, and a setting screen for performing various settings by the user. By seamlessly migrating windows, the relationship between the main screen and the setting screen can be clarified, and an easy-to-understand user interface can be provided to the user. More specifically, the user terminal 10 introduces the concept of a panel window in which a main screen for each function is divided vertically on the display screen in order to represent the sharing of various functions on the display screen. , It contributes to the realization of a personal casting service under easy operation.

【0024】以下では、このようなユーザ端末10の詳
細な説明に先だって、コンテンツ配信システム1の基本
的な全体構成について説明する。
In the following, prior to a detailed description of such a user terminal 10, the basic overall configuration of the content distribution system 1 will be described.

【0025】コンテンツ配信システム1は、図1に示す
ように、コンテンツを配信するユーザ端末10と、この
ユーザ端末10によって配信されたコンテンツを受信し
て視聴する複数のクライアント端末12a,12b,1
2c,・・・と、後述するストリーミング配信サーバ1
3によるコンテンツの配信機能をユーザ端末10が使用
するための予約情報を管理するサーバ使用予約管理セン
タ14と、ユーザ端末10によって配信されたコンテン
ツを複数のクライアント端末12a,12b,12c,
・・・に対して配信するストリーミング配信サーバ13
とを備える。
As shown in FIG. 1, the content delivery system 1 includes a user terminal 10 for delivering content and a plurality of client terminals 12a, 12b, 1 for receiving and viewing the content delivered by the user terminal 10.
2c, ..., and a streaming distribution server 1 described later.
A server use reservation management center 14 that manages reservation information for the user terminal 10 to use the content distribution function according to No. 3, and the content distributed by the user terminal 10 to a plurality of client terminals 12a, 12b, 12c,
Streaming distribution server 13 that distributes to ...
With.

【0026】ユーザ端末10は、デジタルビデオカメラ
が搭載又は接続されており、このデジタルビデオカメラ
によって撮影された映像データや音声データを所定の符
号化フォーマットに基づいてリアルタイムに圧縮しなが
ら送信する。また、ユーザ端末10は、例えばハードデ
ィスク等の記録装置に記録されている編集済みの映像デ
ータや音声データを送信することもできる。
The user terminal 10 is equipped with or connected to a digital video camera, and transmits video data and audio data captured by the digital video camera while compressing them in real time based on a predetermined encoding format. The user terminal 10 can also transmit edited video data and audio data recorded in a recording device such as a hard disk.

【0027】具体的には、ユーザ端末10は、図示しな
いISP(Internet Service Provider)や、例えば電
話回線網15a、ケーブルテレビ網15b又はADSL
(Asymmetric Digital Subscriber Line)網15cから
なる公衆回線網15を介してインターネット11に接続
可能な環境とされている。このとき、ユーザ端末10
は、インターネット11に接続可能な環境であれば、有
線又は無線の別を問わない。例えば、ユーザ端末10
は、いわゆる簡易型携帯電話(Personal Handyphone Sy
stem;以下、PHSという。)等を介して、インターネ
ット11に接続する構成とされていてもよい。
Specifically, the user terminal 10 includes an ISP (Internet Service Provider) (not shown), a telephone line network 15a, a cable television network 15b or ADSL.
The environment is such that it can be connected to the Internet 11 via a public line network 15 composed of an (Asymmetric Digital Subscriber Line) network 15c. At this time, the user terminal 10
May be wired or wireless as long as it can connect to the Internet 11. For example, the user terminal 10
Is a so-called Personal Handyphone Sy
stem; hereinafter referred to as PHS. ), Etc., and may be configured to connect to the Internet 11.

【0028】ユーザ端末10は、コンテンツの送信に先
立って、サーバ使用予約管理センタ14に対して、コン
テンツの配信を予約する必要がある。ユーザ端末10
は、公衆回線網15及びインターネット11を介してサ
ーバ使用予約管理センタ14にアクセスし、ストリーミ
ング配信サーバ13によるコンテンツのストリーミング
配信機能の使用を希望する日時や視聴者の定員数、及び
視聴者パスワードといった所定の予約情報を登録するこ
とによって予約を行う。
The user terminal 10 needs to reserve the distribution of the content with respect to the server use reservation management center 14 before transmitting the content. User terminal 10
Accesses the server use reservation management center 14 via the public line network 15 and the Internet 11 to request the use of the streaming distribution function of the content by the streaming distribution server 13, the number of viewers, and the viewer password. A reservation is made by registering predetermined reservation information.

【0029】そして、ユーザ端末10は、予約が受け付
けられた後に、公衆回線網15及びインターネット11
を介してコンテンツをストリーミング配信サーバ13に
対して送信する。また、ユーザ端末10は、例えば、公
衆回線網15を介してサーバ接続専用ネットワーク16
のアクセスポートにPPP(Point to Point Protoco
l)接続を行うことにより、ストリーミング配信サーバ
13との伝送路を確立し、この伝送路を介してコンテン
ツをストリーミング配信サーバ13に対して送信するこ
ともできる。さらに、ユーザ端末10は、送信したコン
テンツを、必要に応じて、ハードディスク等の記録装置
に記録しておくこともできる。
Then, the user terminal 10 receives the reservation and then the public line network 15 and the Internet 11
The content is transmitted to the streaming distribution server 13 via. In addition, the user terminal 10 is, for example, via the public line network 15 a server connection dedicated network 16
PPP (Point to Point Protoco
l) By making a connection, a transmission path with the streaming distribution server 13 can be established, and contents can be transmitted to the streaming distribution server 13 via this transmission path. Furthermore, the user terminal 10 can also record the transmitted content in a recording device such as a hard disk, if necessary.

【0030】クライアント端末12a,12b,12
c,・・・は、それぞれ、パーソナルコンピュータや携
帯型情報端末等のインターネット11に接続可能な環境
とされた情報処理装置である。クライアント端末12
a,12b,12c,・・・は、それぞれ、視聴者パス
ワード等の所定の情報を入力することにより、コンテン
ツ配信システム1に視聴端末として参入することができ
るものである。クライアント端末12a,12b,12
c,・・・は、それぞれ、ユーザ端末10によって予約
登録されたコンテンツの配信開始日時になると、ストリ
ーミング配信サーバ13からインターネット11を介し
てコンテンツが配信され、配信されたコンテンツを受信
する。そして、クライアント端末12a,12b,12
c,・・・は、それぞれ、受信したコンテンツをリアル
タイムにデコードし、表示画面やスピーカ等を介して出
力する。
Client terminals 12a, 12b, 12
Reference numerals c, ... Represent information processing devices such as personal computers and portable information terminals, which are connected to the Internet 11. Client terminal 12
Each of a, 12b, 12c, ... Can enter the content distribution system 1 as a viewing terminal by inputting predetermined information such as a viewer password. Client terminals 12a, 12b, 12
When the distribution start date / time of the content reserved and registered by the user terminal 10 comes, the contents c, ... Are distributed from the streaming distribution server 13 via the Internet 11 and receive the distributed contents. Then, the client terminals 12a, 12b, 12
c, ... Decode the received contents in real time and output them via a display screen, a speaker, or the like.

【0031】サーバ使用予約管理センタ14は、ストリ
ーミング配信サーバ13によるコンテンツのストリーミ
ング配信機能をユーザ端末10が使用するための予約情
報を管理する。サーバ使用予約管理センタ14は、ユー
ザ端末10によって所定の予約情報が登録されると、こ
のユーザ端末10によるストリーミング配信サーバ13
の使用を予約する。また、サーバ使用予約管理センタ1
4は、専用回線17を介してストリーミング配信サーバ
13と接続されており、ユーザ端末10やクライアント
端末12a,12b,12c,・・・に対する認証処理
の際に、この専用回線17を介してストリーミング配信
サーバ13との間で相互に認証データの授受を行う。
The server use reservation management center 14 manages reservation information for the user terminal 10 to use the streaming distribution function of contents by the streaming distribution server 13. When the predetermined reservation information is registered by the user terminal 10, the server use reservation management center 14 receives the streaming distribution server 13 by the user terminal 10.
Book for use. In addition, the server use reservation management center 1
4 is connected to the streaming distribution server 13 via a dedicated line 17, and streaming distribution is performed via the dedicated line 17 during the authentication processing for the user terminal 10 and the client terminals 12a, 12b, 12c, .... The authentication data is exchanged with the server 13.

【0032】ストリーミング配信サーバ13は、ユーザ
端末10からインターネット11又はサーバ接続専用ネ
ットワーク16を介して送信されたコンテンツを受信
し、インターネット11を介して複数のクライアント端
末12a,12b,12c,・・・に対してストリーミ
ング配信する。このとき、ストリーミング配信サーバ1
3は、専用回線17を介してサーバ使用予約管理センタ
14と接続されており、ユーザ端末10やクライアント
端末12a,12b,12c,・・・に対する認証処理
の際に、この専用回線17を介してサーバ使用予約管理
センタ14との間で相互に認証データの授受を行う。ス
トリーミング配信サーバ13は、ユーザ端末10によっ
て予約登録されたコンテンツの配信開始日時になると、
ユーザ端末10からインターネット11又はサーバ接続
専用ネットワーク16を介して送信されたコンテンツを
受信して図示しないバッファに記憶しつつ、このコンテ
ンツをバッファから読み出し、配信要求のあったクライ
アント端末12a,12b,12c,・・・に対して配
信する。
The streaming distribution server 13 receives the content transmitted from the user terminal 10 via the Internet 11 or the server connection dedicated network 16, and receives a plurality of client terminals 12a, 12b, 12c, ... Stream to. At this time, the streaming distribution server 1
3 is connected to the server use reservation management center 14 via a dedicated line 17, and via the dedicated line 17 during the authentication processing for the user terminal 10 and the client terminals 12a, 12b, 12c, .... Authentication data is exchanged with the server use reservation management center 14. The streaming delivery server 13, when the delivery start date and time of the content reserved and registered by the user terminal 10 comes,
While receiving the content transmitted from the user terminal 10 via the Internet 11 or the server connection-dedicated network 16 and storing it in a buffer (not shown), the content is read from the buffer and the client terminals 12a, 12b, 12c that have made a distribution request. Deliver to ...

【0033】このようなコンテンツ配信システム1にお
いては、コンテンツの配信者となるユーザがユーザ端末
10を介してサーバ使用予約管理センタ14にアクセス
し、上述した予約情報を登録することによって、コンテ
ンツのライブ配信が予約される。
In the content distribution system 1 as described above, a user who is a content distributor accesses the server use reservation management center 14 via the user terminal 10 and registers the above-mentioned reservation information so that the content live. Delivery is scheduled.

【0034】具体的には、コンテンツ配信システム1に
おいては、ユーザ端末10における表示画面に当該コン
テンツ配信システム1のサービスを提供するウェブサイ
トのWWW(World Wide Web)ブラウジング用のウィン
ドウを表示させ、ユーザがユーザ端末10を介して当該
コンテンツ配信システム1にユーザ登録を行い、与えら
れたユーザID(IDentification)とパスワードとを入
力してログインする。これにより、ユーザ端末10にお
ける表示画面には、コンテンツの配信の予約を行うため
の所定のウィンドウが表示される。
Specifically, in the content distribution system 1, the WWW (World Wide Web) browsing window of the website providing the service of the content distribution system 1 is displayed on the display screen of the user terminal 10, and the user is allowed to browse the window. Performs user registration in the content distribution system 1 via the user terminal 10, logs in by inputting a given user ID (IDentification) and password. As a result, a predetermined window for making a reservation for content distribution is displayed on the display screen of the user terminal 10.

【0035】そして、ユーザ端末10における表示画面
に表示されたウィンドウを介してユーザが所定の予約情
報を入力し、クレジットカード番号などを入力すること
によって本人確認が成功すると、指定した日時でのコン
テンツのライブ配信が予約される。コンテンツ配信シス
テム1においては、ライブ配信の予約が受け付けられる
と、予約設定ファイルがサーバ使用予約管理センタ14
からユーザ端末10に対してダウンロードされる。この
予約設定ファイルには、設定した予約情報の他、ライブ
配信を行うストリーミング配信サーバ13のIP(Inte
rnet Protocol)アドレス及びポート、ユーザID、パ
スワード等が記載されているものである。
Then, when the user inputs predetermined reservation information through the window displayed on the display screen of the user terminal 10 and the personal identification is successful by inputting the credit card number or the like, the contents at the designated date and time are displayed. Is scheduled for live distribution. In the content distribution system 1, when a reservation for live distribution is accepted, the reservation setting file is stored in the server use reservation management center 14
Is downloaded to the user terminal 10. In this reservation setting file, in addition to the set reservation information, the IP (Inte
rnet Protocol) address and port, user ID, password, etc. are described.

【0036】コンテンツ配信システム1においては、ユ
ーザ端末10によって後述するライブ配信アプリケーシ
ョン・プログラムを実行してこれらの情報を自動的に読
み込むことにより、ユーザによる煩雑な設定作業を要さ
ずにライブ配信を行うことが可能となる。
In the content distribution system 1, the user terminal 10 executes a live distribution application program, which will be described later, to automatically read these pieces of information, so that live distribution can be carried out without requiring a complicated setting work by the user. It becomes possible to do.

【0037】続いて、コンテンツ配信システム1におい
ては、ユーザ端末10からサーバ使用予約管理センタ1
4に対して、予約したライブ配信を実際に行うか否かの
予約確認を配信開始日時の所定時間前、例えば3時間程
度前までに行う。具体的には、コンテンツ配信システム
1においては、ユーザ端末10が表示画面にサーバ使用
予約管理センタ14へのアクセスを行うためのWWWブ
ラウジング用のウィンドウを表示し、このウィンドウを
介してユーザが所定の情報を入力することにより、予約
確認が行われる。コンテンツ配信システム1において
は、これに応じて予約確定が行われる。なお、コンテン
ツ配信システム1において、ユーザは、コンテンツを視
聴してほしいクライアントに対して、視聴者パスワード
といったコンテンツを視聴するために必要な情報を配信
開始日時までに予め連絡しておく必要がある。
Next, in the content distribution system 1, the server use reservation management center 1 is operated from the user terminal 10.
For 4, the reservation confirmation as to whether or not to actually perform the reserved live distribution is performed before a predetermined time, for example, about 3 hours before the distribution start date and time. Specifically, in the content distribution system 1, the user terminal 10 displays a WWW browsing window for accessing the server use reservation management center 14 on the display screen, and the user selects a predetermined window through this window. Reservation confirmation is performed by inputting the information. In the content distribution system 1, the reservation is confirmed accordingly. In the content distribution system 1, the user needs to contact the client, who wants to view the content, with the information necessary for viewing the content, such as the viewer password, in advance by the distribution start date and time.

【0038】そして、コンテンツ配信システム1におい
て、ユーザ端末10は、配信開始日時の所定時間前、例
えば5分程度前までに、ストリーミング配信サーバ13
との接続を行い、配信開始日時になると、ユーザ端末1
0に搭載又は接続されたデジタルビデオカメラによる撮
影と同時に、映像データや音声データが所定の符号化フ
ォーマットに基づいてリアルタイムに圧縮されながら、
ストリーミング配信サーバ13に対して送信される。コ
ンテンツ配信システム1において、視聴者となるクライ
アントは、視聴者パスワード等の所定の情報を入力する
ことにより、クライアント端末12a,12b,12
c,・・・を介してコンテンツを受信し視聴することが
できる。
Then, in the content distribution system 1, the user terminal 10 sends the streaming distribution server 13 a predetermined time before the distribution start date and time, for example, about 5 minutes before.
When the delivery start date and time is reached, the user terminal 1
At the same time as shooting with a digital video camera mounted or connected to 0, while video data and audio data are compressed in real time based on a predetermined encoding format,
It is transmitted to the streaming distribution server 13. In the content distribution system 1, the client serving as the viewer inputs the predetermined information such as the viewer password, and thereby the client terminals 12a, 12b, 12
Content can be received and viewed via c, ....

【0039】このように、コンテンツ配信システム1
は、ユーザ端末10によって撮影して得られた映像デー
タや音声データ、ユーザ端末10に格納されている予め
編集済みの映像データや音声データ、或いは、ユーザ端
末10の入力装置を用いて入力されたテキストデータな
どからなるコンテンツを、インターネット11を介し
て、クライアント端末12a,12b,12c,・・・
に対してライブ配信する。すなわち、いわば個人ユーザ
が複数の視聴者に向けてコンテンツをライブ配信するパ
ーソナルキャスティングサービスを実現することができ
る。
In this way, the content distribution system 1
Is video data or audio data obtained by shooting with the user terminal 10, pre-edited video data or audio data stored in the user terminal 10, or input using the input device of the user terminal 10. Content such as text data is sent to the client terminals 12a, 12b, 12c, ...
To be delivered live. That is, so to speak, it is possible to realize a personal casting service in which an individual user delivers content live to a plurality of viewers.

【0040】なお、コンテンツ配信システム1において
は、ユーザ端末10によって上述したライブ配信の予約
及び設定を行った後、実際の配信を開始する前に、番組
に必要となるエフェクト類、及びユーザ端末10のハー
ドディスク等に記録されたアーカイブファイル類を予め
設定し、登録することができる。このとき、ユーザ端末
10は、所定のガイド機能を用いて各種設定を行うこと
ができる。また、コンテンツ配信システム1において
は、予約された時間以外では、ユーザ端末10によって
ハードディスク等の記録装置に対してライブ配信を行う
コンテンツの試し撮りを行うことができる。このとき、
ユーザ端末10は、実際の配信時と同様に、コンテンツ
に対して各種エフェクトを施したり、入力ソースとして
選択可能なデジタルビデオカメラによって撮影されて得
られた映像データや音声データとハードディスクに記録
されている映像データや音声データとの切り替え(スイ
ッチング)を行うことができる。
In the content distribution system 1, after the user terminal 10 makes the above-mentioned reservation and setting of the live distribution and before the actual distribution is started, the effects required for the program and the user terminal 10 are set. It is possible to preset and register archive files recorded on the hard disk of the. At this time, the user terminal 10 can perform various settings using a predetermined guide function. In addition, in the content distribution system 1, the user terminal 10 can take a trial shot of content to be live-distributed to a recording device such as a hard disk at times other than the reserved time. At this time,
As in the case of actual distribution, the user terminal 10 applies various effects to the content and records video data and audio data obtained by shooting with a digital video camera that can be selected as an input source on the hard disk. It is possible to switch (switch) with the existing video data and audio data.

【0041】そして、コンテンツ配信システム1におい
ては、ユーザ端末10とストリーミング配信サーバ13
との接続が確立されてコンテンツがライブ配信されてい
る状態で、ユーザ端末10によってエフェクト操作やフ
ァイル切り替え操作等を行うと、この操作に応じて、配
信されるストリームにもこれらの操作が反映され、最終
的にクライアント端末12a,12b,12c,・・・
における表示画面にも反映される。
In the content distribution system 1, the user terminal 10 and the streaming distribution server 13
When an effect operation or a file switching operation is performed by the user terminal 10 in a state in which the connection with is established and the content is delivered live, these operations are also reflected in the delivered stream according to this operation. Finally, the client terminals 12a, 12b, 12c, ...
It is also reflected in the display screen in.

【0042】コンテンツ配信システム1においては、配
信終了時間になると、自動的にコンテンツの配信が終了
し、クライアント端末12a,12b,12c,・・・
における表示画面上でも番組が終了する。コンテンツ配
信システム1においては、配信を終えたコンテンツに関
する情報がアルバム形式でユーザ端末10におけるハー
ドディスク等の記録装置に記録され、ユーザ端末10に
よって配信履歴の詳細や配信したコンテンツを再生して
閲覧することができる。
In the content distribution system 1, when the distribution end time comes, the distribution of the content automatically ends, and the client terminals 12a, 12b, 12c, ...
The program ends on the display screen in. In the content distribution system 1, information about the content that has been distributed is recorded in an album format on a recording device such as a hard disk in the user terminal 10, and details of the distribution history and the distributed content are reproduced and viewed by the user terminal 10. You can

【0043】(2)ユーザ端末の構成 つぎに、以下では、このようなコンテンツ配信システム
1を構成するユーザ端末10の構成について説明する。
なお、以下では、説明の便宜上、デジタルビデオカメラ
が搭載されたユーザ端末10について説明するものとす
る。ただし、ユーザ端末10は、外部機器として構成さ
れたデジタルビデオカメラが有線又は無線により接続さ
れていてもよいし、例えばユーザ端末10が接続された
LAN(Local Area Network)等のコンピュータネット
ワークに対して直接接続可能とされたデジタルビデオカ
メラを用いて、このデジタルビデオカメラにより撮像さ
れた画像データや音声データがコンピュータネットワー
クを介してユーザ端末10に取り込まれる構成とされて
いてもよい。
(2) Configuration of User Terminal Next, the configuration of the user terminal 10 that constitutes such a content distribution system 1 will be described below.
Note that, for convenience of description, the user terminal 10 equipped with a digital video camera will be described below. However, in the user terminal 10, a digital video camera configured as an external device may be connected by wire or wirelessly, or for example to a computer network such as a LAN (Local Area Network) to which the user terminal 10 is connected. A digital video camera that can be directly connected may be used, and the image data and the audio data captured by the digital video camera may be captured by the user terminal 10 via a computer network.

【0044】ユーザ端末10は、図2に示すように、各
種演算処理を実行するとともに各部を統括して制御する
CPU(Central Processing Unit)20と、このCP
U20のワークエリアとして機能するRAM(Random A
ccess Memory)21と、CPU20によって実行される
各種プログラムを含む情報を格納する読み取り専用のR
OM(Read Only Memory)22と、CPU20によって
実行されるオペレーティング・システム(Operating Sy
stem)やアプリケーション・プログラム等の各種プログ
ラムが記録され、配信するコンテンツなどの各種データ
等の記録再生が行われるHDD(Hard Disk Drive)2
3と、各種情報を表示する表示部24と、この表示部2
4とCPU20との間でのデータの授受を行うための表
示用インターフェース25と、ユーザによって各種情報
や指示操作を入力するための操作部26と、この操作部
26とCPU20との間でのデータの授受を行うための
操作用インターフェース27と、上述した公衆回線網1
5を介してインターネット11又はサーバ接続専用ネッ
トワーク16に接続された外部装置との間でデータの授
受を行うためのネットワークインターフェース28と、
被写体を撮影して映像データや音声データを得るデジタ
ルビデオカメラ29と、いわゆるMPEG2(Moving P
icture Experts Group phase 2)方式に基づく圧縮符号
化及び復号を行うMPEG2コーデック30とを備え
る。
As shown in FIG. 2, the user terminal 10 includes a CPU (Central Processing Unit) 20 for executing various arithmetic processes and controlling each section in an integrated manner, and a CP (Central Processing Unit) 20.
RAM (Random A) that functions as a work area for U20
ccess Memory) 21 and a read-only R that stores information including various programs executed by the CPU 20
An OM (Read Only Memory) 22 and an operating system (Operating System) executed by the CPU 20.
(hard disk drive) 2 in which various programs such as a stem) and application programs are recorded, and various data such as distributed contents are recorded and reproduced.
3, a display section 24 for displaying various information, and this display section 2
4, a display interface 25 for exchanging data between the CPU 4 and the CPU 20, an operation unit 26 for inputting various information and instruction operations by the user, and data between the operation unit 26 and the CPU 20. An operation interface 27 for exchanging data and the public line network 1 described above.
A network interface 28 for exchanging data with an external device connected to the Internet 11 or the server connection dedicated network 16 via 5.
A digital video camera 29 for photographing a subject to obtain video data and audio data, and a so-called MPEG2 (Moving P
and an MPEG2 codec 30 that performs compression encoding and decoding based on the icture Experts Group phase 2) method.

【0045】ユーザ端末10は、これらの各部のうち、
CPU20、RAM21、ROM22、HDD23、表
示用インターフェース25、操作用インターフェース2
7、ネットワークインターフェース28、デジタルビデ
オカメラ29、及びMPEG2コーデック30がバス3
1を介して接続されて構成される。
The user terminal 10 has the following units.
CPU 20, RAM 21, ROM 22, HDD 23, display interface 25, operation interface 2
7, the network interface 28, the digital video camera 29, and the MPEG2 codec 30 on the bus 3
It is configured to be connected via 1.

【0046】なお、ユーザ端末10におけるデジタルビ
デオカメラ29は、ユーザ端末10に搭載されずに、例
えば外部機器接続用の所定のインターフェースや、ネッ
トワークインターフェース28などを介してバス31に
接続されてもよい。また、ユーザ端末10は、必要に応
じて、例えば着脱自在とされる記録媒体に対する記録再
生を行うリムーバブル型の記録再生装置などがHDD2
3の他に搭載又は接続され、この記録再生装置に対する
各種データの記録再生が可能とされていてもよい。
The digital video camera 29 in the user terminal 10 may not be mounted in the user terminal 10 but may be connected to the bus 31 via, for example, a predetermined interface for connecting an external device or the network interface 28. . In addition, the user terminal 10 includes, for example, a removable recording / reproducing device that performs recording / reproducing on / from a removable recording medium, if necessary.
It may be mounted or connected in addition to No. 3, and can record / reproduce various data to / from this recording / reproducing apparatus.

【0047】CPU20は、バス31を介して、RAM
21、ROM22、HDD23、表示用インターフェー
ス25、操作用インターフェース27、ネットワークイ
ンターフェース28、デジタルビデオカメラ29、及び
MPEG2コーデック30と接続されている。CPU2
0は、各部を統括的に制御するとともに、HDD23等
に記録されているオペレーティング・システムや各種ア
プリケーション・プログラムを実行する。特に、CPU
20は、サーバ使用予約管理センタ14に対するコンテ
ンツの配信の予約や、ストリーミング配信サーバ13に
対するコンテンツの送信、さらには、送信したコンテン
ツのHDD23に対する記録に関する処理及び制御を行
う。
The CPU 20 is a RAM via the bus 31.
21, the ROM 22, the HDD 23, the display interface 25, the operation interface 27, the network interface 28, the digital video camera 29, and the MPEG2 codec 30. CPU2
Reference numeral 0 centrally controls each unit and executes an operating system and various application programs recorded in the HDD 23 and the like. Especially CPU
20 performs processing and control regarding reservation of content distribution to the server use reservation management center 14, transmission of content to the streaming distribution server 13, and recording of the transmitted content in the HDD 23.

【0048】RAM21は、CPU20が各種プログラ
ムを実行する際のワークエリアとして機能し、CPU2
0の制御のもとに、各種データを一時記憶する。
The RAM 21 functions as a work area when the CPU 20 executes various programs.
Under the control of 0, various data are temporarily stored.

【0049】ROM22は、ユーザ端末10の起動に必
要となる各種プログラムや設定情報などを格納してい
る。このROM22に格納されている各種プログラムや
設定情報は、ユーザ端末10の起動時に読み出され、C
PU20によって利用される。
The ROM 22 stores various programs and setting information necessary for starting the user terminal 10. Various programs and setting information stored in the ROM 22 are read when the user terminal 10 is started, and
Used by PU20.

【0050】HDD23は、CPU20の制御のもと
に、オペレーティング・システムやアプリケーション・
プログラム等の各種プログラムやデータ等の記録再生を
行う。また、HDD23には、送信したコンテンツが記
録される。また、HDD23は、予め編集済みのコンテ
ンツを記録しておくこともでき、CPU20の制御のも
とに、このコンテンツを配信時に読み出すことも可能と
されている。
Under the control of the CPU 20, the HDD 23 operates under the control of operating system and applications.
Recording and reproducing various programs such as programs and data. Further, the transmitted content is recorded in the HDD 23. The HDD 23 can also record the edited content in advance, and can read the content at the time of distribution under the control of the CPU 20.

【0051】表示部24は、例えばLCD(Liquid Cry
stal Display)からなり、CPU20の制御のもとに、
HDD23に記録されているデータ等の各種情報を表示
画面に表示する。特に、表示部24は、CPU20の制
御のもとに、サーバ使用予約管理センタ14及びストリ
ーミング配信サーバ13へのアクセスを行うためのWW
Wブラウジング用のウィンドウや、送信するコンテンツ
に対する加工処理を含む各種処理を行うための各種アプ
リケーション・プログラムを実行するための所定のウィ
ンドウといった所定のグラフィカル・ユーザ・インター
フェースを表示画面に表示する。
The display unit 24 is, for example, an LCD (Liquid Cry).
stal display), and under the control of the CPU 20,
Various information such as data recorded in the HDD 23 is displayed on the display screen. In particular, the display unit 24 is a WW for accessing the server use reservation management center 14 and the streaming distribution server 13 under the control of the CPU 20.
A predetermined graphical user interface such as a window for W browsing and a predetermined window for executing various application programs for performing various processing including processing for content to be transmitted is displayed on the display screen.

【0052】表示用インターフェース25は、CPU2
0と表示部24との間でのデータの授受を行う。すなわ
ち、表示用インターフェース25は、CPU20からバ
ス31を介して供給された各種情報を表示部24に供給
する。
The display interface 25 is the CPU 2
Data is exchanged between 0 and the display unit 24. That is, the display interface 25 supplies various information supplied from the CPU 20 via the bus 31 to the display unit 24.

【0053】操作部26は、例えば、キーボード、マウ
ス等のポインティングデバイス、或いはいわゆるジョグ
ダイヤル等回転操作式スイッチなどによるユーザ・イン
ターフェースを用いたユーザによる操作を受け付け、操
作内容を示す制御信号を操作用インターフェース27を
介してCPU20に供給する。
The operation unit 26 accepts an operation by a user using a user interface such as a pointing device such as a keyboard and a mouse, or a so-called rotary operation switch such as a so-called jog dial, and outputs a control signal indicating the operation content to the operation interface. It is supplied to the CPU 20 via 27.

【0054】操作用インターフェース27は、CPU2
0と操作部26との間でのデータの授受を行う。すなわ
ち、操作用インターフェース27は、操作部26から供
給された制御信号をバス31を介してCPU20に供給
する。
The operation interface 27 is the CPU 2
Data is exchanged between 0 and the operation unit 26. That is, the operation interface 27 supplies the control signal supplied from the operation unit 26 to the CPU 20 via the bus 31.

【0055】ネットワークインターフェース28は、C
PU20の制御のもとに、外部との通信を行うインター
フェースとして機能する。すなわち、ネットワークイン
ターフェース28は、公衆回線網15を介してインター
ネット11又はサーバ接続専用ネットワーク16に接続
された外部装置とユーザ端末10との間でデータの授受
を行うために設けられるものである。特に、ネットワー
クインターフェース28は、CPU20の制御のもと
に、コンテンツを外部へと送信するとともに、上述した
予約情報や予約ID等の各種情報の送受信を行う。
The network interface 28 is C
It functions as an interface for communicating with the outside under the control of the PU 20. That is, the network interface 28 is provided for exchanging data between the user terminal 10 and an external device connected to the Internet 11 or the server connection dedicated network 16 via the public line network 15. In particular, the network interface 28 transmits the content to the outside under the control of the CPU 20 and also transmits and receives various information such as the reservation information and the reservation ID described above.

【0056】デジタルビデオカメラ29は、被写体を撮
影するための所定の光学系や、CCD(Charge Coupled
Devices)等の光電変換用のデバイス等からなる。デジ
タルビデオカメラ29によって撮影されて得られた映像
データや音声データは、CPU20の制御のもとに、バ
ス31を介してMPEG2コーデック30に供給され
る。
The digital video camera 29 includes a predetermined optical system for photographing an object and a CCD (Charge Coupled).
Devices) and other devices for photoelectric conversion. The video data and audio data captured by the digital video camera 29 are supplied to the MPEG2 codec 30 via the bus 31 under the control of the CPU 20.

【0057】MPEG2コーデック30は、バス31を
介してデジタルビデオカメラ29から供給された映像デ
ータや音声データを、CPU20の制御のもとに、MP
EG2方式に基づく圧縮符号化を行う。このとき、MP
EG2コーデック30は、CPU20の制御のもとに、
映像データや音声データをリアルタイムに圧縮符号化す
る。また、MPEG2コーデック30は、MPEG2方
式に基づいて圧縮符号化されたデータを復号することも
できる。
The MPEG2 codec 30 uses the video data and audio data supplied from the digital video camera 29 via the bus 31 under the control of the CPU 20 as an MP.
The compression encoding based on the EG2 method is performed. At this time, MP
The EG2 codec 30 is under the control of the CPU 20.
Video and audio data are compressed and encoded in real time. The MPEG2 codec 30 can also decode data that is compression-encoded based on the MPEG2 system.

【0058】(3)ライブ配信アプリケーション・プロ
グラム つぎに以下では、上述したようなユーザ端末10により
実行されるライブ配信アプリケーション・プログラムに
ついて説明する。ライブ配信アプリケーション・プログ
ラムは、それぞれ個別の機能を実現する複数のモジュー
ルを組み合わせ自在とされた一連のプログラム群によっ
て構成されており、例えばユーザ端末10のHDD23
に記録されている。ユーザ端末10は、このライブ配信
アプリケーション・プログラムをCPU20によって実
行することにより、コンテンツのライブ配信を行う。な
お、ライブ配信アプリケーション・プログラムは、例え
ばいわゆるコンパクトディスク(Compact Disc)等の所
定の記録媒体やインターネット等の伝送媒体によっても
提供され得るものである。
(3) Live Distribution Application Program Next, a live distribution application program executed by the user terminal 10 as described above will be described. The live distribution application program is composed of a series of program groups in which a plurality of modules each realizing an individual function can be freely combined, and for example, the HDD 23 of the user terminal 10.
It is recorded in. The user terminal 10 performs live distribution of the content by executing the live distribution application program by the CPU 20. The live distribution application program can be provided by a predetermined recording medium such as a so-called compact disc or a transmission medium such as the Internet.

【0059】このライブ配信アプリケーション・プログ
ラムを実行することにより、ユーザ端末10の表示部2
4には、例えば図3に示すようなウィンドウが表示され
る。
By executing this live distribution application program, the display unit 2 of the user terminal 10
In 4, a window as shown in FIG. 3, for example, is displayed.

【0060】このウィンドウは、図3に示すように、ラ
イブ配信アプリケーション・プログラムの基幹をなすメ
インモジュールが作成するメインウィンドウ50上に、
メインモジュールによって作成されたガイダンスバー5
1及びステータスバー52と、各機能モジュールがそれ
ぞれ作成する複数のパネルウィンドウ53a,53b,
53c,53d,53eとが配置された構成とされてい
る。
As shown in FIG. 3, this window is displayed on the main window 50 created by the main module which is the backbone of the live distribution application program.
Guidance bar 5 created by the main module
1 and a status bar 52, and a plurality of panel windows 53a, 53b created by each functional module,
53c, 53d, 53e are arranged.

【0061】メインウィンドウ50は、横長の短冊状の
ガイダンスバー51が上部に配置されるとともに、横長
の短冊状のステータスバー52が下部に配置され、これ
らガイダンスバー51とステータスバー52とに上下を
挟まれるような形態で、各機能に対応して縦方向に分割
された複数のパネルウィンドウ53a,53b,53
c,53d,53eが並設されて表示部24に表示され
る。ここで、各パネルウィンドウ53a,53b,53
c,53d,53eは、それぞれ、独立した1つのウィ
ンドウとして実装されるものである。
In the main window 50, a horizontally long strip-shaped guidance bar 51 is arranged at the upper part, and a horizontally long strip-shaped status bar 52 is arranged at the lower part, and the guidance bar 51 and the status bar 52 are vertically arranged. A plurality of panel windows 53a, 53b, 53 vertically divided in a sandwiched manner corresponding to each function.
c, 53d, and 53e are arranged in parallel and displayed on the display unit 24. Here, each panel window 53a, 53b, 53
c, 53d, and 53e are each implemented as one independent window.

【0062】なお、図3においては、パネルウィンドウ
として、音声に関する操作を行うためのサウンドパネル
ウィンドウ53a、入力ソースとして選択可能なデジタ
ルビデオカメラ29によって撮影して得られた映像デー
タに関する操作を行うためのカメラ入力パネルウィンド
ウ53b、ライブ配信しているコンテンツに関する操作
を行うためのメインモニタパネルウィンドウ53c、入
力ソースとして選択可能なHDD23に記録されている
映像データに関する操作を行うためのファイル入力パネ
ルウィンドウ53d、及び配信するコンテンツに対して
施すエフェクトに関する操作を行うためのエフェクトパ
ネルウィンドウ53eが表示されている様子を示してい
る。
In FIG. 3, a panel window is a sound panel window 53a for performing an operation relating to sound, and an operation relating to image data obtained by photographing with the digital video camera 29 selectable as an input source is performed. Camera input panel window 53b, a main monitor panel window 53c for performing an operation related to the content being live-distributed, and a file input panel window 53d for performing an operation related to video data recorded in the HDD 23 selectable as an input source. , And an effect panel window 53e for performing an operation related to an effect to be applied to content to be distributed is shown.

【0063】ガイダンスバー51は、各種の操作を指示
入力するための複数のボタンを実装する。ユーザは、ガ
イダンスバー51に表示されたボタンをマウスでクリッ
ク操作することなどによって、ライブ配信アプリケーシ
ョン・プログラムに対する各種の操作を行うことができ
る。
The guidance bar 51 has a plurality of buttons for inputting various operations. The user can perform various operations on the live distribution application program by clicking a button displayed on the guidance bar 51 with a mouse.

【0064】ステータスバー52は、例えば上述したP
HSを用いてインターネット11に接続した場合におけ
る電波状態、上述したPPP接続を行った場合における
接続状態、ユーザ端末10に搭載されたバッテリーの残
量状態、或いはHDD23の残り容量状態等を表示する
領域を実装する。
The status bar 52 is, for example, the above-mentioned P
An area for displaying the radio wave state when connecting to the Internet 11 using the HS, the connection state when performing the above-mentioned PPP connection, the remaining capacity state of the battery mounted in the user terminal 10, the remaining capacity state of the HDD 23, and the like. Implement.

【0065】サウンドパネルウィンドウ53aは、ライ
ブ配信を行っている際にバッググラウンドミュージック
として流すべく登録されたwavファイル等の音声・音
楽データのリストを示すための複数のアイコン53a
1、これらのアイコンを選択するボタン53a2、及び
選択したアイコンに対応する音声・音楽データを再生又
は停止するためのボタン53a3等を実装する。なお、
このサウンドパネルウィンドウ53aにおいては、他の
音声・音楽データを自在にリストに追加したり、或いは
リストに登録された音声・音楽データを削除することが
可能とされている。
The sound panel window 53a has a plurality of icons 53a for showing a list of voice / music data such as wav files registered to be played as background music during live distribution.
1, a button 53a2 for selecting these icons, and a button 53a3 for playing or stopping voice / music data corresponding to the selected icon are mounted. In addition,
In the sound panel window 53a, other voice / music data can be freely added to the list or the voice / music data registered in the list can be deleted.

【0066】カメラ入力パネルウィンドウ53bは、入
力ソースとして選択可能なデジタルビデオカメラ29に
よって撮影して得られた映像データをプレビューするた
めのプレビュー画像を表示するプレビュー領域53b
1、入力ソースをデジタルビデオカメラ29によって撮
影して得られた映像データに設定するためのボタン53
b2、デジタルビデオカメラ29によって撮影して得ら
れた音声データを、入力ソースとして選択可能なHDD
23に記録されている映像データに対して合成する、い
わゆるアフレコを施すためのボタン53b3、及びデジ
タルビデオカメラ29の設定用アプリケーション・プロ
グラムを起動するためのボタン53b4等を実装する。
The camera input panel window 53b displays a preview area 53b for displaying a preview image for previewing video data obtained by shooting with the digital video camera 29 selectable as an input source.
1. Button 53 for setting the input source to the video data obtained by shooting with digital video camera 29
b2, an HDD capable of selecting audio data obtained by shooting with the digital video camera 29 as an input source
A button 53b3 for performing so-called post-recording, which is combined with the video data recorded in 23, a button 53b4 for activating a setting application program of the digital video camera 29, and the like are mounted.

【0067】メインモニタパネルウィンドウ53cは、
ライブ配信するコンテンツをプレビューするためのプレ
ビュー領域53c1、試し撮りや実際の配信を開始する
ためのボタン53c2、コンテンツの再生や配信を一時
停止するためのボタン53c3、音声データに対してミ
ュート処理を施すためのボタン53c4、及び配信経過
時間や残り時間等を表示する時間表示領域53c5等を
実装する。
The main monitor panel window 53c is
A preview area 53c1 for previewing content to be delivered live, a button 53c2 for starting trial shooting or actual delivery, a button 53c3 for temporarily stopping playback or delivery of content, and mute processing for audio data A button 53c4 for, and a time display area 53c5 for displaying the elapsed time of distribution, the remaining time, and the like are mounted.

【0068】ファイル入力パネルウィンドウ53dは、
入力ソースとして選択可能なHDD23に記録されてい
る映像データのリストを示すためのサムネイル画像を表
示するサムネイル領域53d1、映像データをプレビュ
ーするためのプレビュー画像を表示するプレビュー領域
53d2、リストとしてのサムネイル画像を選択するた
めのボタン53d3、及び選択したサムネイル画像に対
応する映像データを再生又は停止するためのボタン53
d4等を実装する。
The file input panel window 53d is
A thumbnail area 53d1 for displaying a thumbnail image showing a list of video data recorded in the HDD 23 selectable as an input source, a preview area 53d2 for displaying a preview image for previewing the video data, and a thumbnail image as a list. Button 53d3 for selecting, and button 53 for reproducing or stopping the video data corresponding to the selected thumbnail image.
Implement d4 etc.

【0069】エフェクトパネルウィンドウ53eは、ラ
イブ配信しているコンテンツに対して施す各種エフェク
ト素材のリストを示すためのサムネイル画像を表示する
サムネイル領域53e1、これらのサムネイル画像を選
択するボタン53e2、及び選択したサムネイル画像に
対応するエフェクトを実行又は解除するためのボタン5
3e3、映像データにエフェクトとしてリアルタイムに
テロップ表示される文字列を入力するボックス53e4
等を実装する。なお、このエフェクトパネルウィンドウ
53eにおいては、他のエフェクト素材をリストに追加
したり、リストに登録されたエフェクト素材を削除する
ことも可能とされている。
The effect panel window 53e has a thumbnail area 53e1 for displaying a thumbnail image for showing a list of various effect materials to be applied to the contents being live-distributed, a button 53e2 for selecting these thumbnail images, and the selected button. Button 5 for executing or canceling the effect corresponding to the thumbnail image
3e3, a box 53e4 for inputting a character string to be displayed as a telop in real time as an effect on video data
Etc. are implemented. In the effect panel window 53e, it is possible to add another effect material to the list or delete the effect material registered in the list.

【0070】このように、ユーザ端末10は、各種機能
の分担を表すために、各機能に対応するパネルウィンド
ウ53a,53b,53c,53d,53eを縦方向に
分割して表示部24に表示する。これにより、ユーザ
は、機能毎の操作と必要なボタン類との対応を直感的且
つ容易に図ることができる。例えば、ユーザは、エフェ
クトに関する処理を行う場合には、エフェクトパネルウ
ィンドウ53eのみに着目すればよい。
In this way, the user terminal 10 divides the panel windows 53a, 53b, 53c, 53d, 53e corresponding to the respective functions in the vertical direction and displays them on the display unit 24 in order to represent the sharing of the various functions. . This allows the user to intuitively and easily carry out the operation for each function and the necessary buttons. For example, the user may pay attention only to the effect panel window 53e when performing the process related to the effect.

【0071】ユーザ端末10は、上述したライブ配信ア
プリケーション・プログラムを用いて、映像データ、音
声データ、或いはテキストデータなどを自在に組み合わ
せて、配信するコンテンツを作成することができる。そ
して、作成されたコンテンツは、インターネット11又
はサーバ接続専用ネットワーク16を介してストリーミ
ング配信サーバ13に送出され、このストリーミング配
信サーバ13からクライアント端末12a,12b,1
2cに対して配信される。
The user terminal 10 can create contents to be distributed by freely combining video data, audio data, text data, etc. using the above-mentioned live distribution application program. Then, the created content is sent to the streaming distribution server 13 via the Internet 11 or the server connection-dedicated network 16, and the streaming distribution server 13 sends the client terminals 12a, 12b, 1 to the contents.
2c is delivered.

【0072】(4)視聴側からコンテンツを取得するコ
ンテンツ配信システム つぎに以下では、上述したコンテンツ配信システム1の
基本構成に基づいて、ユーザ端末10が視聴側であるク
ライアント端末からコンテンツを直接取得し、この取得
したコンテンツを利用してライブ配信を行う場合につい
て、図4を参照しながら説明する。
(4) Content Distribution System for Acquiring Content from Viewing Side Next, based on the basic configuration of the content distribution system 1 described above, the user terminal 10 directly acquires content from the client terminal on the viewing side. A case where live distribution is performed using the acquired content will be described with reference to FIG.

【0073】なお、図4においては、デジタルビデオカ
メラ(DVカメラ)29がユーザ端末10に対して外部
装置として構成され、このDVカメラ29がユーザ端末
10に接続された場合について図示している。
FIG. 4 shows a case where the digital video camera (DV camera) 29 is configured as an external device with respect to the user terminal 10 and the DV camera 29 is connected to the user terminal 10.

【0074】コンテンツ配信システム1では、上述した
ように、ユーザ端末10によりライブ配信を行うに際し
て、ユーザ端末10上で実行されたライブ配信アプリケ
ーション・プログラムにより作成されたコンテンツが、
図4中矢印A1で示すように、このユーザ端末10から
ストリーミング配信サーバ13に対してインターネット
11を介して送出される。そして、ストリーミング配信
サーバ13からは、図中矢印A2に示すように、複数の
クライアント端末12に対してコンテンツが配信され
る。
In the content distribution system 1, as described above, when performing live distribution by the user terminal 10, the content created by the live distribution application program executed on the user terminal 10 is
As shown by an arrow A1 in FIG. 4, this user terminal 10 sends it to the streaming distribution server 13 via the Internet 11. Then, the content is distributed from the streaming distribution server 13 to the plurality of client terminals 12 as indicated by an arrow A2 in the figure.

【0075】ここで、ユーザ端末10には、上述したラ
イブ配信アプリケーション・プログラムの他に、クライ
アント端末から送出されたコンテンツを取得して利用す
るためのコミュニケーション用アプリケーション・プロ
グラムが実行される。
Here, in addition to the above-mentioned live distribution application program, the user terminal 10 executes a communication application program for acquiring and using the content transmitted from the client terminal.

【0076】このコミュニケーション用アプリケーショ
ン・プログラムは、ライブ配信アプリケーション・プロ
グラムと同様に、例えばユーザ端末10のHDD23に
記録されている。ユーザ端末10は、このコミュニケー
ション用アプリケーション・プログラムをCPU20に
よって実行することにより、クライアント端末から送出
されたコンテンツを取得して利用することができる。な
お、コミュニケーション用アプリケーション・プログラ
ムは、例えばいわゆるコンパクトディスク(Compact Di
sc)等の所定の記録媒体やインターネット等の伝送媒体
によっても提供され得るものである。
This communication application program is recorded in the HDD 23 of the user terminal 10, for example, similarly to the live distribution application program. The user terminal 10 can acquire and use the content transmitted from the client terminal by executing this communication application program by the CPU 20. An application program for communication is, for example, a so-called compact disc (Compact Disk).
It can also be provided by a predetermined recording medium such as sc) or a transmission medium such as the Internet.

【0077】また、コミュニケーション用アプリケーシ
ョン・プログラムは、後述するように、上述したライブ
配信アプリケーション・プログラムと密接に連携して動
作するものである。なお、コミュニケーション用アプリ
ケーション・プログラムは、ライブ配信アプリケーショ
ン・プログラムとは独立して、単独でも実行可能とされ
ていてもよい。
The communication application program operates in close cooperation with the above-mentioned live distribution application program, as will be described later. It should be noted that the communication application program may be executed independently or independently of the live distribution application program.

【0078】一方、コンテンツ配信システム1におい
て、クライアント端末12は、ストリーミング配信サー
バ13から配信されるコンテンツの視聴専用として用い
られるものと、ライブ配信を行うユーザ端末10に対し
てコンテンツを送出することが可能とされたものとに大
別することができる。
On the other hand, in the content distribution system 1, the client terminal 12 can send out the content to be used exclusively for viewing the content distributed from the streaming distribution server 13 and to the user terminal 10 performing live distribution. It can be broadly divided into what was made possible.

【0079】視聴専用に用いられるクライアント端末1
2は、例えばWebブラウザ等のように、配信されたコ
ンテンツを視聴するためのアプリケーション・プログラ
ムが少なくとも実行可能とされていればよい。
Client terminal 1 used exclusively for viewing
2, it is sufficient that at least an application program for viewing the distributed content can be executed, such as a Web browser.

【0080】また、コンテンツの送出が可能とされたク
ライアント端末12は、図4に示すように、ユーザ端末
10と同様にしてDVカメラ29が搭載又は接続自在と
されている。また、このクライアント端末12では、配
信されたコンテンツを視聴するためのアプリケーション
・プログラム(例えばWebブラウザ)の他に、ユーザ
端末10に対してコンテンツを送出するためのコミュニ
ケーション用アプリケーション・プログラムが少なくと
も実行可能とされている。
Further, as shown in FIG. 4, the client terminal 12 capable of transmitting contents has the DV camera 29 mounted or connectable similarly to the user terminal 10. The client terminal 12 can execute at least an application program for viewing the distributed content (for example, a Web browser) and a communication application program for transmitting the content to the user terminal 10. It is said that.

【0081】そして、コンテンツの送出が可能とされた
クライアント端末12において、DVカメラ29によっ
て撮影された映像データや音声データ、或いは、このク
ライアント端末12の入力機器により入力されたテキス
トデータなどのコンテンツは、図4中矢印A3に示すよ
うに、ストリーミング配信サーバ13を介さずに、イン
ターネット11を介して直接ユーザ端末10に送出され
る。
In the client terminal 12 capable of transmitting contents, contents such as video data and audio data photographed by the DV camera 29 or text data inputted by the input device of the client terminal 12 are stored. As shown by an arrow A3 in FIG. 4, the data is directly transmitted to the user terminal 10 via the Internet 11 without passing through the streaming distribution server 13.

【0082】コンテンツ配信システム1において、クラ
イアント端末12からユーザ端末10に対してコンテン
ツを直接送出するに際しては、以下で説明するような手
法によって実現される。
In the content distribution system 1, when the content is directly sent from the client terminal 12 to the user terminal 10, it is realized by the method described below.

【0083】すなわち、ユーザ端末10からは、ライブ
配信するコンテンツとともに、このユーザ端末10をイ
ンターネット11上で特定するための発信者特定情報が
ストリーミング配信サーバ13に送出される。そして、
ストリーミング配信サーバ13からは、コンテンツと発
信者特定情報とが各クライアント端末12に対して送出
される。
That is, from the user terminal 10, the sender identification information for identifying the user terminal 10 on the Internet 11 is sent to the streaming delivery server 13 together with the content to be live delivered. And
From the streaming distribution server 13, the content and the sender identification information are sent to each client terminal 12.

【0084】この発信者特定情報としては、例えばユー
ザ端末10に割り当てられているネットワーク上でユニ
ークな情報、例えばIPアドレスや、このユーザ端末1
0においてコミュニケーション用アプリケーション・プ
ログラムがクライアント端末12からコンテンツを受信
するために使用するポート番号などを含むものである。
As the sender identification information, for example, information unique to the user terminal 10 on the network, such as an IP address, or the user terminal 1 is used.
0, the communication application program includes a port number and the like used for receiving contents from the client terminal 12.

【0085】そして、コンテンツをユーザ端末10に対
して送出するクライアント端末12は、ストリーミング
配信サーバ13からコンテンツとともに配信された発信
者特定情報に基づいて、インターネット11上でユーザ
端末10を特定し、このユーザ端末10とネットワーク
上でコンテンツを送受信するための接続(セッション)
を確立する。クライアント端末12は、ユーザ端末10
に対してストリーミング配信サーバ13を介さずに、い
わゆるピア・ツー・ピア(Peer To Peer)で、直接コン
テンツを送出する。すなわち、クライアント端末12
は、ネットワーク上で、特定のサーバ宛てにコンテンツ
を送信するのではなく、ユーザ端末10宛てにコンテン
ツを送信する。
Then, the client terminal 12 which sends the content to the user terminal 10 specifies the user terminal 10 on the Internet 11 based on the caller specifying information distributed from the streaming distribution server 13 together with the content. Connection (session) for transmitting / receiving contents to / from the user terminal 10 on the network
Establish. The client terminal 12 is the user terminal 10
The content is directly transmitted to the client via so-called peer-to-peer without going through the streaming distribution server 13. That is, the client terminal 12
Does not send the content to a specific server on the network, but sends the content to the user terminal 10.

【0086】コンテンツ配信システム1においては、上
述のようにして、クライアント端末12が発信者特定情
報に基づいて、ストリーミング配信サーバ13等の特定
のサーバ装置を介することなく、ユーザ端末10に対し
て直接コンテンツを送出していることから、サーバ装置
における負荷を考慮することなく、クライアント端末1
2とユーザ端末10との間で極めてスムーズにコンテン
ツの授受を行うことが可能とされている。
In the content distribution system 1, as described above, the client terminal 12 directly communicates with the user terminal 10 based on the sender identification information without passing through a specific server device such as the streaming distribution server 13. Since the content is transmitted, the client terminal 1 can be operated without considering the load on the server device.
It is possible to exchange contents very smoothly between the user terminal 2 and the user terminal 10.

【0087】(5)クライアント端末及びユーザ端末間
でのコンテンツ授受の実際ここで、上述したようにして
クライアント端末12から送出されたコンテンツをユー
ザ端末10が取得し、このコンテンツを利用してライブ
配信を行う場合について具体的に説明する。
(5) Actual Transmission / Reception of Content Between Client Terminal and User Terminal Here, the user terminal 10 acquires the content transmitted from the client terminal 12 as described above, and uses this content for live distribution. The case of performing will be specifically described.

【0088】ユーザ端末10において、先に説明したラ
イブ配信アプリケーション・プログラムを実行中に、ク
ライアント端末12から送出されたコンテンツを利用す
る場合には、図3に示したメインウィンドウ50のガイ
ダンスバー51に表示されたコミュニケーション用アプ
リケーション・プログラムの起動用ボタン51aを選択
する。
When the contents sent from the client terminal 12 are used while the above-described live distribution application program is being executed on the user terminal 10, the guidance bar 51 of the main window 50 shown in FIG. 3 is used. The button 51a for starting the displayed communication application program is selected.

【0089】これにより、ユーザ端末10では、ライブ
配信アプリケーション・プログラムと連係動作するコミ
ュニケーション用アプリケーション・プログラムが起動
し、図5に示すように、ライブ配信アプリケーション・
プログラムのメインウィンドウ50の下部に、コミュニ
ケーション用アプリケーション・プログラムにより作成
されたコミュニケーション用ウィンドウ70が表示され
る。
As a result, in the user terminal 10, a communication application program that operates in cooperation with the live distribution application program is activated, and as shown in FIG.
A communication window 70 created by the communication application program is displayed below the main window 50 of the program.

【0090】なお、メインウィンドウ50のガイダンス
バー51に表示されるコミュニケーション用アプリケー
ション・プログラムの起動用ボタン51aは、クライア
ント端末12側からコンテンツの送出が行われている場
合にのみ選択可能な状態となり、クライアント端末12
側からコンテンツの送出が行われていない場合には、選
択不能な状態で表示されるとしてもよい。
The button 51a for starting the communication application program displayed on the guidance bar 51 of the main window 50 can be selected only when the content is being sent from the client terminal 12 side. Client terminal 12
When the content is not sent from the side, it may be displayed in a non-selectable state.

【0091】このコミュニケーション用ウィンドウ70
は、図5に示すように、各クライアント端末12のDV
カメラ29によって撮像され、ユーザ端末10に送出さ
れた画像をそれぞれ表示するプレビュー領域71が配置
されている。このプレビュー領域71に表示される画像
は、クライアント端末12のDVカメラ29によって撮
像されてユーザ端末10に対して送出された映像であ
り、動画像であってもよいし、静止画像であってもよ
い。
This communication window 70
Is the DV of each client terminal 12 as shown in FIG.
A preview area 71 is arranged to display images picked up by the camera 29 and sent to the user terminal 10. The image displayed in the preview area 71 is a video image captured by the DV camera 29 of the client terminal 12 and transmitted to the user terminal 10, and may be a moving image or a still image. Good.

【0092】なお、このプレビュー領域71に表示する
画像としては、例えば、各クライアント端末12の操作
者の顔などをDVカメラ29によって撮像した画像が用
いられる。また、クライアント端末12からは、DVカ
メラ29によって撮像した映像をユーザ端末10に対し
て送出することに限定されるものではなく、例えば、予
めDVカメラ29によって撮影して記録しておいた映像
データ、各種の画像作成アプリケーション・プログラム
によって作成した画像データ、或いは、後述するクライ
アント端末12側で実行されるコミュニケーション用ア
プリケーション・プログラムに予め用意された画像デー
タなどであってもよい。
As the image displayed in the preview area 71, for example, an image of the face of the operator of each client terminal 12 taken by the DV camera 29 is used. Further, the client terminal 12 is not limited to sending the video imaged by the DV camera 29 to the user terminal 10. For example, video data previously captured by the DV camera 29 and recorded. It may be image data created by various image creating application programs, or image data prepared in advance in a communication application program executed on the client terminal 12 side described later.

【0093】また、コミュニケーション用ウィンドウ7
0は、プレビュー領域71の下部に、このプレビュー領
域71に表示された各画像(すなわちクライアント端末
12から送出された画像)をライブ配信する映像に挿入
することを選択するための挿入開始ボタン72と、ライ
ブ配信する映像にクライアント端末12から送出された
画像を挿入することを停止する挿入停止ボタン73と、
コミュニケーション用アプリケーション・プログラムに
関するヘルプ情報を参照するためのヘルプ参照ボタン7
4と、コミュニケーション用アプリケーション・プログ
ラムを終了するための終了ボタン75とが配置されてい
る。
Also, the communication window 7
At the bottom of the preview area 71, 0 is an insertion start button 72 for selecting to insert each image displayed in the preview area 71 (that is, the image transmitted from the client terminal 12) into the video to be delivered live. An insertion stop button 73 for stopping the insertion of the image sent from the client terminal 12 into the video to be delivered live,
Help reference button 7 for referring to the help information about the communication application program
4 and an end button 75 for ending the communication application program.

【0094】ここで、図5に示す状態においては、ライ
ブ配信アプリケーション・プログラムのメインウィンド
ウ50におけるカメラ入力パネルウィンドウ53bのプ
レビュー領域53b1に、ユーザ端末10のDVカメラ
29によって撮影されている画像が表示されており、こ
の画像がライブ配信されることを選択されて、メインモ
ニタパネルウィンドウ53cのプレビュー領域53c1
にも表示されている。したがって、図5に示す状態にお
いては、このプレビュー領域53c1に表示された映像
が、ユーザ端末10からストリーミング配信サーバ13
に送出され、ライブ配信されている。
Here, in the state shown in FIG. 5, the image captured by the DV camera 29 of the user terminal 10 is displayed in the preview area 53b1 of the camera input panel window 53b in the main window 50 of the live distribution application program. The image is selected for live distribution, and the preview area 53c1 of the main monitor panel window 53c is selected.
Is also displayed. Therefore, in the state shown in FIG. 5, the video displayed in the preview area 53c1 is transmitted from the user terminal 10 to the streaming distribution server 13.
It has been sent to and is being delivered live.

【0095】なお、このときプレビュー領域53c1に
表示される映像としては、例えば、ユーザ端末10のD
Vカメラ29によって撮影されたユーザ端末10の操作
者、すなわち、ライブ配信される番組の発信者の顔など
の映像である。
The image displayed in the preview area 53c1 at this time is, for example, D of the user terminal 10.
This is an image of the face of the operator of the user terminal 10, that is, the face of the sender of the program that is live-distributed, taken by the V-camera 29.

【0096】このとき、コンテンツ配信システム1にお
いて、各クライアント端末12では、Webブラウザが
起動されており、図6に示すように、このWebブラウ
ザによって作成されたウィンドウ80が表示画面上に表
示されている。そして、クライアント端末12における
Webブラウザは、ストリーミング配信サーバ13から
配信されるコンテンツを受信しており、このストリーミ
ング配信サーバ13から取得したHTML(Hyper Text
Mark-up Language)ファイルに基づいて、所定の内容
をウィンドウ80内に表示している。
At this time, in the content distribution system 1, the Web browser is activated in each client terminal 12, and the window 80 created by this Web browser is displayed on the display screen as shown in FIG. There is. Then, the Web browser in the client terminal 12 receives the content distributed from the streaming distribution server 13, and the HTML (Hyper Text) acquired from the streaming distribution server 13.
Predetermined contents are displayed in the window 80 based on the Mark-up Language) file.

【0097】ここで、Webブラウザには、ストリーミ
ング配信サーバ13から配信される動画像や静止画像、
及び音声データなどのコンテンツを表示/再生すること
が可能な所定のプラグイン・プログラムが実装されてお
り、このプラグイン・プログラムによって作成されたコ
ンテンツ表示領域81が、Webブラウザによって作成
されたウィンドウ80内の所定の位置に表示される。
Here, a moving image or a still image distributed from the streaming distribution server 13 is displayed on the Web browser.
And a predetermined plug-in program capable of displaying / reproducing content such as audio data is installed, and the content display area 81 created by this plug-in program is a window 80 created by a Web browser. It is displayed at a predetermined position inside.

【0098】このように、配信されたコンテンツがWe
bブラウザのウィンドウ80内に表示される構成とされ
ていることによって、ライブ配信される番組を視聴する
ために専用のアプリケーション・プログラムを用意する
ことが不要となる。また、Webブラウザのウィンドウ
80内にコンテンツが表示されることによって、配信さ
れるコンテンツに関連する情報などを容易に表示するこ
とができるともに、ストリーミング配信サーバ13から
様々な情報をクライアント端末12側に提供することが
でき、多彩且つ柔軟なコンテンツの配信を行うことがで
きる。
As described above, the delivered content is We
b Since it is configured to be displayed in the window 80 of the browser, it is not necessary to prepare a dedicated application program for viewing a live distributed program. Further, by displaying the content in the window 80 of the Web browser, it is possible to easily display information related to the content to be distributed, and various information from the streaming distribution server 13 to the client terminal 12 side. It can be provided, and various and flexible contents can be distributed.

【0099】また、Webブラウザのウィンドウ80内
にコンテンツが表示される構成とすることにより、クラ
イアント端末12で動作するオペレーション・システム
などに依存した環境に左右されることなく、確実且つ良
好なコンテンツの視聴を可能とすることができる。
Further, since the content is displayed in the window 80 of the Web browser, reliable and good content can be provided without being influenced by the environment dependent on the operation system operating on the client terminal 12. Viewing can be enabled.

【0100】そして、このコンテンツ表示領域81に、
ユーザ端末10から送出された内容が表示・再生され
る。これにより、クライアント端末12におけるコンテ
ンツ表示領域81には、ユーザ端末10によって送出さ
れたコンテンツ、すなわち、ユーザ端末10におけるメ
インモニタパネルウィンドウ53cのプレビュー領域5
3c1に表示され、ライブ配信されたコンテンツが表示
される。
Then, in the content display area 81,
The content transmitted from the user terminal 10 is displayed / reproduced. As a result, in the content display area 81 of the client terminal 12, the content transmitted by the user terminal 10, that is, the preview area 5 of the main monitor panel window 53c of the user terminal 10 is displayed.
3c1 is displayed, and the content delivered live is displayed.

【0101】なお、Webブラウザのウィンドウ80内
には、上述したプラグイン・プログラムによって作成さ
れたコンテンツ表示領域81の他に、このコンテンツ表
示領域81内に表示する番組の内容や発信者に関する情
報などがテキストや画像などによって表示されていても
よい。クライアント端末12は、このような番組の内容
や発信者に関する情報などを、ストリーミング配信サー
バ13からHTMLファイルとして取得することができ
る。
In the window 80 of the Web browser, in addition to the content display area 81 created by the above-mentioned plug-in program, the contents of the program displayed in the content display area 81, information about the sender, and the like. May be displayed by text or an image. The client terminal 12 can acquire the content of such a program, information about the sender, and the like from the streaming distribution server 13 as an HTML file.

【0102】また、Webブラウザのウィンドウ80内
には、コンテンツ表示領域81の下部に、ストリーミン
グ配信サーバ13から配信されている番組に参加するた
めの参加ボタン82が表示されている。この参加ボタン
82が選択されることにより、クライアント端末12側
では、Webブラウザとは別に、コミュニケーション用
アプリケーション・プログラムが起動する。
Further, in the window 80 of the Web browser, a participation button 82 for participating in the program distributed from the streaming distribution server 13 is displayed below the content display area 81. By selecting the participation button 82, on the client terminal 12 side, a communication application program is activated separately from the Web browser.

【0103】このクライアント端末12側で起動するコ
ミュニケーション用アプリケーション・プログラムは、
ユーザ端末10側で起動するコミュニケーション用アプ
リケーション・プログラムとの間で直接各種データの授
受を行うことが可能とされたものである。また、クライ
アント端末12側で起動するコミュニケーション用アプ
リケーション・プログラムは、ユーザ端末10側で起動
するコミュニケーション用アプリケーション・プログラ
ムに対応した別個のプログラムとして構成されていても
よいし、ユーザ端末10側で起動するコミュニケーショ
ン用アプリケーション・プログラムと同等のプログラム
とされていてもよい。クライアント端末12とユーザ端
末10とで実行されるコミュニケーション用アプリケー
ション・プログラムを共用する場合には、このコミュニ
ケーション用アプリケーション・プログラムは、予めユ
ーザが指定することにより、或いは自動的に状況を判断
することにより、起動形態を適宜変更することが可能な
ものとされる。
The communication application program activated on the client terminal 12 side is
Various data can be directly exchanged with the communication application program activated on the user terminal 10 side. The communication application program activated on the client terminal 12 side may be configured as a separate program corresponding to the communication application program activated on the user terminal 10 side, or activated on the user terminal 10 side. It may be a program equivalent to the communication application program. When the communication application program executed by the client terminal 12 and the user terminal 10 is shared, the communication application program is designated by the user in advance, or the situation is automatically judged. The startup mode can be changed appropriately.

【0104】ここで、クライアント端末12側でコミュ
ニケーション用アプリケーション・プログラムが起動す
ると、図7に示すように、このコミュニケーション用ア
プリケーション・プログラムによって作成されたコミュ
ニケーション用ウィンドウ90がクライアント端末12
の表示画面上に表示される。なお、このコミュニケーシ
ョン用ウィンドウ90は、Webブラウザのウィンドウ
80と同時に表示画面上に表示されてもよいし、相互に
切り替えて表示されるとしてもよい。
When the communication application program is activated on the client terminal 12 side, the communication window 90 created by this communication application program is displayed on the client terminal 12 as shown in FIG.
Is displayed on the display screen of. The communication window 90 may be displayed on the display screen at the same time as the window 80 of the Web browser, or may be switched and displayed.

【0105】コミュニケーション用ウィンドウ90は、
図7に示すように、クライアント端末12に搭載又は接
続されたDVカメラ29によって撮像された画像を表示
する自画像表示領域91を備え、この自画像表示領域9
1の周囲に、各種の指示操作を選択するための複数のボ
タン92a〜92gが配置されている。そして、これら
複数のボタン92a〜92gのさらに外周には、他のク
ライアント端末12から送出された画像を表示する画像
表示領域93が複数配置されている。
The communication window 90 is
As shown in FIG. 7, a self-portrait display area 91 for displaying an image captured by the DV camera 29 mounted or connected to the client terminal 12 is provided.
Around 1 is arranged a plurality of buttons 92a to 92g for selecting various instructing operations. Further, a plurality of image display areas 93 for displaying images sent from other client terminals 12 are arranged on the outer periphery of the plurality of buttons 92a to 92g.

【0106】自画像表示領域91は、このコミュニケー
ション用アプリケーション・プログラムを実行するクラ
イアント端末12に搭載又は接続されたDVカメラ29
によって撮像された画像を表示する領域であり、通常
は、このクライアント端末12の操作者の顔などを撮像
した画像を表示している。
The self-portrait display area 91 is a DV camera 29 mounted or connected to the client terminal 12 that executes this communication application program.
This is an area for displaying an image captured by, and normally displays an image in which the face of the operator of the client terminal 12 is captured.

【0107】また、複数のボタン92a〜92gは、そ
れぞれ以下のような機能を有している。
The plurality of buttons 92a to 92g each have the following functions.

【0108】Webブラウザ起動ボタン92aは、We
bブラウザを起動するためのボタンである。このWeb
ブラウザ起動ボタン92aが選択されることによって、
外部のWebブラウザ・プログラムを呼び出して起動し
たり、或いは、このコミュニケーション用アプリケーシ
ョン・プログラムに内蔵されたWebブラウザを起動す
るなどの動作が行われる。
The Web browser start button 92a is the We
b This is a button for starting the browser. This Web
By selecting the browser start button 92a,
Operations such as calling and starting an external Web browser program or starting a Web browser built in this communication application program are performed.

【0109】感情ボタン92bは、自画像表示領域91
に表示された画像に対して、各種の感情を表す効果を付
与するためのボタンである。この感情ボタン92bが選
択されることによって、例えば「泣く」「笑う」「怒
る」などの各種の感情を、アニメーションや効果音など
による効果を自画像表示領域91に表示された画像に付
与することにより表現することができる。
The emotion button 92b is used for the self-portrait display area 91.
This is a button for adding effects expressing various emotions to the image displayed on. By selecting this emotion button 92b, various emotions such as “crying”, “laughing”, and “angry” can be added to the image displayed in the self-portrait display area 91 by effects such as animation and sound effects. Can be expressed.

【0110】アクションボタン92cは、画像表示領域
93に表示された他のクライアント端末12から送出さ
れた画像に対して各種のアクションを表す効果を付与す
るためのボタンである。このアクションボタン92cが
選択されることによって、例えば「たたく」「なでる」
「つねる」などの各種のアクションを、アニメーション
や効果音などによる効果を画像表示領域93のうちのい
ずれかに付与することによって表現することができる。
The action button 92c is a button for giving an effect representing various actions to an image sent from another client terminal 12 displayed in the image display area 93. When this action button 92c is selected, for example, "striking" or "stroking"
Various actions such as “twitch” can be expressed by adding an effect such as animation or sound effect to any of the image display areas 93.

【0111】ヘルプボタン92dは、コミュニケーショ
ン用アプリケーション・プログラムに関するヘルプ情報
を参照するためのボタンである。このヘルプボタン92
dが選択されることによって、ヘルプ情報を表示するウ
ィンドウが開き、各種の操作説明や設定方法などを確認
することができる。
The help button 92d is a button for referring to help information regarding the communication application program. This help button 92
By selecting d, a window displaying help information is opened, and various operation explanations and setting methods can be confirmed.

【0112】戻るボタン92eは、このコミュニケーシ
ョン用アプリケーション・プログラムを終了するか、或
いはひとつ前のメニュー表示段階に戻るためのボタンで
ある。この戻るボタン92eが選択されることによっ
て、コミュニケーション用アプリケーション・プログラ
ムを終了させたり、或いはひとつ前のメニュー表示段
階、すなわち、階層構造とされたメニュー表示における
ひとつ前の表示段階に戻ることができる。
The return button 92e is a button for ending this communication application program or returning to the previous menu display stage. When the return button 92e is selected, the communication application program can be terminated, or the menu display stage immediately before, that is, the display stage immediately before in the hierarchical menu display can be returned.

【0113】画像音声ボタン92fは、自画像表示領域
91に表示する画像を選択するためのボタンである。こ
の画像音声ボタン92fが選択されることによって、自
画像表示領域91に表示する画像を、予めコミュニケー
ション用アプリケーション・プログラムに登録された顔
画像の中から選択し直したり、或いは、クライアント端
末12に接続されたDVカメラ29によって撮影される
動画像を自画像として選択して自画像表示領域91に表
示するように設定することができる。また、DVカメラ
29によって撮影される動画像を自画像として選択した
場合には、このDVカメラ29から入力される音声の出
力レベルなどを設定することができる。
The image / audio button 92f is a button for selecting an image to be displayed in the self-image display area 91. When the image / audio button 92f is selected, the image to be displayed in the self-portrait display area 91 is selected again from the face images registered in the communication application program in advance, or is connected to the client terminal 12. The moving image captured by the DV camera 29 can be selected as the self-portrait and set to be displayed in the self-portrait display area 91. Further, when the moving image captured by the DV camera 29 is selected as the self-portrait, the output level of the sound input from the DV camera 29 can be set.

【0114】チャットログボタン92gは、後述するよ
うにしてこのコミュニケーション用アプリケーション・
プログラムにより入力したテキストデータを、ユーザ端
末10や他のクライアント端末12との間で授受する、
いわゆるチャット機能を用いた場合におけるログデータ
を表示するボタンである。
The chat log button 92g is used for this application for communication as will be described later.
Text data input by the program is transmitted and received between the user terminal 10 and another client terminal 12,
It is a button for displaying log data when a so-called chat function is used.

【0115】ここで、クライアント端末12上で、図6
に示したWebブラウザによって作成されたウィンドウ
80上に表示された参加ボタン82が選択され、コミュ
ニケーション用アプリケーション・プログラムが起動し
て、コミュニケーション用ウィンドウ90が表示される
と、このコミュニケーション用アプリケーション・プロ
グラムが、ストリーミング配信サーバ13から送出され
た発信者特定情報に基づいてユーザ端末10との間で直
接各種データの授受を行うことによって、自画像表示領
域91に表示された動画像又は静止画像をユーザ端末1
0に対して送出する。
Here, on the client terminal 12, FIG.
When the participation button 82 displayed on the window 80 created by the Web browser shown in FIG. 6 is selected and the communication application program is activated and the communication window 90 is displayed, the communication application program is displayed. By directly exchanging various data with the user terminal 10 based on the sender identification information transmitted from the streaming distribution server 13, the moving image or the still image displayed in the self-portrait display area 91 is displayed on the user terminal 1
Send to 0.

【0116】これにより、ユーザ端末10の表示部24
に表示されたコミュニケーション用ウィンドウ70にお
けるプレビュー領域71には、上述のようにして各クラ
イアント端末12から送出された動画像又は静止画像が
図5に示すように表示されることとなる。
Thus, the display unit 24 of the user terminal 10
In the preview area 71 in the communication window 70 displayed in Fig. 5, the moving image or still image sent from each client terminal 12 as described above is displayed as shown in Fig. 5.

【0117】ここで、プレビュー領域71には、図5に
示すように、各クライアント端末12から提供されたコ
ンテンツが一覧表示されていることから、ユーザ端末1
0を操作するユーザは、どの参加者がライブ配信する番
組に参加可能であるかを容易に視認することができ、番
組に参加させる参加者を直感的に選択操作することがで
きる。
Here, in the preview area 71, as shown in FIG. 5, contents provided from each client terminal 12 are displayed in a list, so that the user terminal 1
The user who operates 0 can easily visually recognize which participant can participate in the program to be live-distributed, and can intuitively select the participant who participates in the program.

【0118】このとき、ユーザ端末10において、コミ
ュニケーション用ウィンドウ70の挿入開始ボタン72
が選択され、プレビュー領域71に並んで表示された複
数の顔画像のうちのひとつが選択されると、図8に示す
ように、選択された顔画像がメインモニタパネルウィン
ドウ53cのプレビュー領域53c1に表示されている
画像の所定の位置に挿入される。
At this time, the insertion start button 72 of the communication window 70 is displayed on the user terminal 10.
Is selected and one of the plurality of face images displayed side by side in the preview area 71 is selected, the selected face image is displayed in the preview area 53c1 of the main monitor panel window 53c as shown in FIG. It is inserted at a predetermined position in the displayed image.

【0119】なお、図8においては、コミュニケーショ
ン用ウィンドウ70のプレビュー領域71に、図7に示
したクライアント端末12側のコミュニケーション用ウ
ィンドウ90の自画像表示領域91の表示内容が顔画像
71aとして反映された状態を示しており、この顔画像
71aが選択されて、メインモニタパネルウィンドウ5
3cのプレビュー領域53c1内に顔画像100として
挿入された状態を示している。
In FIG. 8, the display content of the self-portrait display area 91 of the communication window 90 on the client terminal 12 side shown in FIG. 7 is reflected as the face image 71a in the preview area 71 of the communication window 70. The state is shown, and this face image 71a is selected, and the main monitor panel window 5 is displayed.
3C shows a state in which the face image 100 is inserted in the preview area 53c1 of 3c.

【0120】このようにして、ユーザ端末10によっ
て、クライアント端末12から送出された顔画像100
が元の配信画像に挿入されると、この顔画像100が挿
入された動画像が、ストリーミング配信サーバ13に送
出され、この動画像が各クライアント端末12に対して
ライブ配信される。すなわち、クライアント端末12側
では、配信された番組を閲覧するWebブラウザのウィ
ンドウ80におけるコンテンツ表示領域81内に、図9
に示すように、図8に示したメインモニタパネルウィン
ドウ53cのプレビュー領域53c1に表示された内容
に相当する動画像が表示されることとなる。
In this way, the face image 100 sent from the client terminal 12 by the user terminal 10 is displayed.
Is inserted in the original distribution image, the moving image in which the face image 100 is inserted is sent to the streaming distribution server 13, and this moving image is live-distributed to each client terminal 12. That is, on the client terminal 12 side, in the content display area 81 in the window 80 of the Web browser for browsing the distributed program,
As shown in, the moving image corresponding to the content displayed in the preview area 53c1 of the main monitor panel window 53c shown in FIG. 8 is displayed.

【0121】また、クライアント端末12で実行される
コミュニケーション用アプリケーション・プログラムに
おいて、自画像表示領域91に例えばマウスカーソルを
移動させると、図10に示すように、この自画像表示領
域91に相当する位置に、テキスト入力ボックス91a
が表示される。
Further, in the communication application program executed on the client terminal 12, when the mouse cursor is moved to the self-portrait display area 91, as shown in FIG. 10, the self-portrait display area 91 is moved to a position corresponding to the self-portrait display area 91. Text input box 91a
Is displayed.

【0122】ここで、ユーザ端末10側でライブ配信さ
れる動画像に挿入される顔画像が選択されたクライアン
ト端末12において、このテキスト入力ボックス91a
内に、例えば「こんにちは!」などのテキストデータ
が、クライアント端末12に備えられたキーボード等の
入力機器により入力された場合について説明する。
Here, in the client terminal 12 in which the face image to be inserted in the moving image live-distributed on the user terminal 10 side is selected, the text input box 91a is displayed.
Within, for example, text data such as "Hello!" Is, description will be given of a case that has been input by the input device such as a keyboard, which is provided to the client terminal 12.

【0123】この場合には、クライアント端末12で実
行されるコミュニケーション用アプリケーション・プロ
グラムは、ストリーミング配信サーバ13から配信され
た発信者特定情報に基づいてインターネット11上でユ
ーザ端末10を特定し、テキスト入力ボックス91aに
入力されたテキストデータを、このユーザ端末10に対
して直接送出する。
In this case, the communication application program executed on the client terminal 12 specifies the user terminal 10 on the Internet 11 based on the sender specifying information distributed from the streaming distribution server 13, and inputs the text. The text data input in the box 91a is directly sent to the user terminal 10.

【0124】これにより、ユーザ端末10においては、
図11に示すように、メインモニタパネルウィンドウ5
3cのプレビュー領域53c1に表示された画像に、上
述のようにしてクライアント端末12から送出された
「こんにちは!」なるテキストデータが挿入されて表示
されることとなる。
As a result, in the user terminal 10,
As shown in FIG. 11, the main monitor panel window 5
The image displayed on the 3c of the preview area 53c1, so that the to be "Hi!" Sent from the client terminal 12 becomes text data as described above is displayed is inserted.

【0125】そして、ユーザ端末10からは、メインモ
ニタパネルウィンドウ53cのプレビュー領域53c1
に表示された画像、すなわちクライアント端末12から
送出された顔画像100と「こんにちは!」なるテキス
トデータとが挿入された動画像がストリーミング配信サ
ーバ13に対して送出され、この動画像がストリーミン
グ配信サーバ13によって各クライアント端末12に対
してライブ配信される。
From the user terminal 10, the preview area 53c1 of the main monitor panel window 53c is displayed.
The image displayed on the, that is, the face image 100 sent from the client terminal 12, "Hello!" As text data and the moving image that has been inserted is sent to the streaming server 13, streaming server this video image 13 is delivered to each client terminal 12 live.

【0126】これにより、各クライアント端末12にお
けるWebブラウザのウィンドウ80のコンテンツ表示
領域81には、図12に示すように、顔画像100と
「こんにちは!」なるテキストデータとが挿入された動
画像が表示されることとなる。
[0126] As a result, the content display area 81 of the Web browser window 80 in each client terminal 12, as shown in FIG. 12, the face image 100 "Hello!" Is a moving image and text data has been inserted Will be displayed.

【0127】以上のように構成されてなるコンテンツ配
信システム1では、ライブ配信される番組の視聴側であ
るクライアント端末12から、発信側であるユーザ端末
10に対して、発信者特定情報に基づいて画像やテキス
トなどのコンテンツが直接送出することができる。ま
た、クライアント端末12から送出されたコンテンツ
を、ユーザ端末10側で自在に利用してライブ配信する
番組に反映させることができる。
In the content distribution system 1 configured as described above, the client terminal 12 on the viewer side of the program to be live-distributed to the user terminal 10 on the sender side is based on the sender identification information. Content such as images and text can be sent directly. Further, the content transmitted from the client terminal 12 can be freely used on the user terminal 10 side and reflected in the program to be live-distributed.

【0128】したがって、コンテンツ配信システム1に
よれば、いわゆる視聴者参加型の番組をインターネット
を利用して、極めて簡便且つ良好な操作性をもって実現
することができる。このため、例えば、視聴者に対して
各種の質問やクイズの出題などを行い、これに対する視
聴者からの回答をテキストによりテロップ表示するなど
して、多彩且つ柔軟な番組を手軽にライブ配信すること
ができる。また、例えば、発信側であるユーザ端末10
から離れた場所にいる視聴者によって撮影された画像
や、入力されたテキストデータなどを、ユーザ端末10
側でライブ配信する動画像に自在に合成することができ
るため、各地を中継で結ぶような番組をインターネット
を利用して実現することができる。
Therefore, according to the content distribution system 1, a so-called viewer participation type program can be realized using the Internet with extremely simple and good operability. For this reason, for example, various questions and quiz questions can be asked to the viewer, and the response from the viewer can be displayed as a telop in text, so that a variety of flexible programs can be easily delivered live. You can Also, for example, the user terminal 10 on the calling side
An image captured by a viewer who is away from the user, input text data, and the like are displayed on the user terminal 10.
Since it can be freely combined with the moving image that is live-distributed on the side, it is possible to realize a program that connects various places by relay using the Internet.

【0129】(6)コミュニケーション用アプリケーシ
ョン・プログラムにおける処理 つぎに以下では、上述したコミュニケーション用アプリ
ケーション・プログラムによってユーザ端末10側で実
行される一連の処理について、フローチャートを参照し
ながら順を追って説明する。
(6) Processing in Communication Application Program Next, a series of processing executed on the user terminal 10 side by the communication application program described above will be described step by step with reference to a flowchart.

【0130】なお、コミュニケーション用アプリケーシ
ョン・プログラムは、例えば、ユーザ端末10側でライ
ブ配信アプリケーション・プログラムによって起動され
た場合と、クライアント端末12側でWebブラウザに
よって起動された場合とで異なる状態で起動し、各々の
場合において異なる機能が実行可能とされていてもよ
い。ただし、以下では、図5、図8、及び図11に示し
たように、ライブ配信アプリケーション・プログラムに
よって起動された状態におけるコミュニケーション用ア
プリケーション・プログラムによる一連の処理について
説明する。また、以下で説明する一連の処理は、コミュ
ニケーション用アプリケーション・プログラムに記述さ
れた処理手続きの流れに従って、ユーザ端末10のCP
U20が各種の演算処理を行ったり、各部の動作を制御
することによって実現される。
The communication application program is activated in a different state depending on whether it is activated by the live distribution application program on the user terminal 10 side or by the Web browser on the client terminal 12 side, for example. , In each case, different functions may be executable. However, in the following, as shown in FIG. 5, FIG. 8, and FIG. 11, a series of processing by the communication application program in a state of being activated by the live distribution application program will be described. In addition, a series of processes described below is performed by the CP of the user terminal 10 according to the flow of the processing procedure described in the communication application program.
It is realized by the U20 performing various arithmetic processes and controlling the operation of each unit.

【0131】コミュニケーション用アプリケーション・
プログラムがライブ配信アプリケーション・プログラム
によって起動されると、図13に示すフローチャート中
においてステップS10に示すように、セッション確立
準備を行う。このステップS10においては、ライブ配
信アプリケーション・プログラムとの間で各種データの
授受を行うことにより、クライアント端末12から送出
された顔画像などのコンテンツを取得する準備を行う。
なお、このステップS10における処理についての詳細
は後述する。
Application for communication
When the program is started by the live distribution application program, session establishment preparation is performed as shown in step S10 in the flowchart shown in FIG. In this step S10, various kinds of data are exchanged with the live distribution application program to prepare for acquiring contents such as a face image sent from the client terminal 12.
The details of the processing in step S10 will be described later.

【0132】次に、ステップS11において、クライア
ント端末12で起動されたコミュニケーション用アプリ
ケーション・プログラムからの接続要求を受け取ったか
否かを判定する。すなわち、このステップS11におい
ては、クライアント端末12から顔画像100のような
コンテンツが送信されたか否かを判定する。この判定の
結果、接続要求を受け取った場合には処理をステップS
12に進め、受け取っていない場合には処理をステップ
S13に進める。
Next, in step S11, it is determined whether or not a connection request from the communication application program activated by the client terminal 12 has been received. That is, in step S11, it is determined whether the content such as the face image 100 is transmitted from the client terminal 12. If the result of this determination is that a connection request has been received, processing is performed in step S.
If not, the process proceeds to step S13.

【0133】ステップS12においては、クライアント
端末12側から送出された顔画像100などのようなコ
ンテンツを、コミュニケーション用ウィンドウ70のプ
レビュー領域71に追加する処理を行う。これにより、
ユーザ端末10から送出する番組に新たな参加者が参加
する準備が整うこととなる。なお、このステップS12
における処理についての詳細は後述する。
In step S12, the content such as the face image 100 sent from the client terminal 12 is added to the preview area 71 of the communication window 70. This allows
The new participant is ready to participate in the program transmitted from the user terminal 10. Note that this step S12
Details of the processing in step 1 will be described later.

【0134】ステップS13においては、コミュニケー
ション用ウィンドウ70に配置された挿入開始ボタン7
2が選択され、番組への新たな参加者を出演させること
が選択されたか否かを判定する。この判定の結果、挿入
開始ボタン72が選択された場合には処理をステップS
14に進め、選択されていない場合には処理をステップ
S15に進める。
In step S13, the insertion start button 7 arranged in the communication window 70 is inserted.
2 is selected to determine if a new participant in the program has been selected to appear. If the result of this determination is that the insert start button 72 has been selected, the processing will proceed to step S.
If not selected, the process proceeds to step S15.

【0135】ステップS14においては、各クライアン
ト端末12からそれぞれ送出され、コミュニケーション
用ウィンドウ70のプレビュー領域71に配置されたコ
ンテンツのうちのいずれを出演者としてライブ配信する
コンテンツに挿入するかを選択する処理を行う。なお、
このステップS14における処理についての詳細は後述
する。
In step S14, a process for selecting which of the contents transmitted from each client terminal 12 and arranged in the preview area 71 of the communication window 70 to be inserted as live performers in the contents to be live-distributed I do. In addition,
Details of the processing in step S14 will be described later.

【0136】ステップS15においては、コミュニケー
ション用ウィンドウ70に配置された挿入停止ボタン7
3が選択され、ステップS14にて挿入されたコンテン
ツの挿入中止が選択されたか否かを判定する。すなわ
ち、ライブ配信する番組にクライアント端末12からの
出演者が挿入されている場合に、この出演を中止するか
否かを判定する。この判定の結果、挿入停止ボタン73
が選択されている場合には処理をステップS16に進
め、選択されていない場合には処理をステップS17に
進める。
In step S15, the insertion stop button 7 arranged on the communication window 70 is inserted.
3 is selected, and it is determined in step S14 whether insertion stop of the inserted content is selected. That is, when the performer from the client terminal 12 is inserted in the program to be live-distributed, it is determined whether or not to stop the appearance. As a result of this determination, the insertion stop button 73
If is selected, the process proceeds to step S16, and if not selected, the process proceeds to step S17.

【0137】ステップS16においては、ライブ配信ア
プリケーション・プログラムに対して、ライブ配信する
番組に挿入されている出演者の出演停止を要求するメッ
セージを送信し、クライアント端末12からのコンテン
ツの挿入処理を中止することをこのライブ配信アプリケ
ーション・プログラムに対して要求する。これにより、
ライブ配信アプリケーション・プログラムによって、ユ
ーザ端末10から送出される番組に対するクライアント
端末12からのコンテンツの挿入が中止されることとな
る。
In step S16, a message requesting the appearance stop of the performer inserted in the program to be live-distributed is transmitted to the live-distribution application program, and the insertion processing of the content from the client terminal 12 is stopped. To the live distribution application program. This allows
The live distribution application program stops the insertion of the content from the client terminal 12 into the program transmitted from the user terminal 10.

【0138】ステップS17においては、ライブ配信す
る番組に挿入されているコンテンツの送出元であるクラ
イアント端末12から、画像データやテキストデータな
どの新たなコンテンツが送出され、これを受信したか否
かを判定する。この判定の結果、出演中のクライアント
端末12から新たなコンテンツを受信した場合には処理
をステップS18に進め、受信していない場合には処理
をステップS19に進める。
In step S17, it is determined whether or not new content such as image data or text data has been transmitted from the client terminal 12 which is the transmission source of the content inserted in the program to be live-distributed. judge. As a result of this determination, if new content is received from the appearing client terminal 12, the process proceeds to step S18; otherwise, the process proceeds to step S19.

【0139】ステップS18においては、出演中のクラ
イアント端末12から新たに受信した画像データやテキ
ストデータ等のコンテンツを、ライブ配信アプリケーシ
ョン・プログラムに送信する。これにより、ライブ配信
アプリケーション・プログラムによって、この新たなコ
ンテンツがライブ配信される番組に挿入して表示される
こととなる。
In step S18, the contents such as image data and text data newly received from the client terminal 12 that is currently appearing are transmitted to the live distribution application program. As a result, the new content is inserted and displayed in the program to be delivered live by the live delivery application program.

【0140】ステップS19においては、出演中のクラ
イアント端末12から取得したテキストデータや画像デ
ータ等のコンテンツを、ライブ配信アプリケーション・
プログラムに対して送信して受け渡しを行い、ライブ配
信する番組に挿入するコンテンツの更新処理を行う。
In step S19, the contents such as the text data and the image data acquired from the appearing client terminal 12 are transferred to the live distribution application.
The program is transmitted and handed over to update the content to be inserted into the program to be delivered live.

【0141】次に、ステップS20においては、ユーザ
端末10を操作する発信者であるユーザによって、コミ
ュニケーション用アプリケーション・プログラムを終了
することが要求されたか否かを判定する。このような要
求は、例えば、コミュニケーション用ウィンドウ70に
配置された終了ボタンが選択されたり、或いは例えばキ
ーボード等によって構成される操作部26によりコミュ
ニケーション用アプリケーション・プログラムの終了を
要求する入力がなされることによって行われる。そし
て、この判定の結果、終了することが要求された場合に
は、コミュニケーション用アプリケーション・プログラ
ムの終了処理を行い、コミュニケーション用ウィンドウ
70を閉じて、図3に示した画面状態となる。また、終
了することが要求されていない場合には、処理をステッ
プS11に戻し、上述した一連の処理を継続する。
Next, in step S20, it is determined whether or not the user who is the sender operating the user terminal 10 has requested to terminate the communication application program. For such a request, for example, an end button arranged in the communication window 70 is selected, or an input for requesting the end of the communication application program is made by the operation unit 26 including, for example, a keyboard. Done by Then, as a result of this determination, when it is requested to end, the end processing of the communication application program is performed, the communication window 70 is closed, and the screen state shown in FIG. 3 is obtained. If it is not requested to end, the process is returned to step S11, and the series of processes described above is continued.

【0142】つぎに、上述したステップS10における
セッション確立準備について、図14を参照しながら説
明する。
Next, the session establishment preparation in step S10 described above will be described with reference to FIG.

【0143】このステップS10における処理が開始さ
れると、図14においてステップS30に示すように、
ライブ配信アプリケーション・プログラムから、ユーザ
端末10自身のIPアドレスを取得する。このIPアド
レスは、ユーザ端末10をインターネット11上で特定
する情報であり、一般的には例えば「134.55.22.33」と
いった4組の数字によって表されるものである。
When the processing in step S10 is started, as shown in step S30 in FIG.
The IP address of the user terminal 10 itself is acquired from the live distribution application program. This IP address is information for identifying the user terminal 10 on the Internet 11, and is generally represented by four sets of numbers such as “134.55.22.33”.

【0144】次に、ステップS31においては、クライ
アント端末12がユーザ端末10で実行されるコミュニ
ケーション用アプリケーション・プログラムに対して接
続するために必要となる接続用データ、すなわち発信者
特定情報を生成し、この発信者特定情報をライブ配信ア
プリケーション・プログラムに対して受け渡す。
Next, in step S31, the connection data necessary for the client terminal 12 to connect to the communication application program executed on the user terminal 10, that is, the sender identification information is generated, This sender identification information is passed to the live distribution application program.

【0145】この発信者特定情報は、例えば図15に示
すように、ユーザ端末10で実行されるコミュニケーシ
ョン用アプリケーション・プログラムに対してアクセス
を行う際に認証などを行うためのアクセスキー、このコ
ミュニケーション用アプリケーション・プログラムが利
用するユーザ端末10のネットワークインターフェース
28のポート番号、このコミュニケーション用アプリケ
ーション・プログラムに対する接続時に利用されるIP
アドレスの数、及びこのコミュニケーション用アプリケ
ーション・プログラムに対する接続時に利用される一連
のIPアドレスなどによって構成される。
This sender identification information is, for example, as shown in FIG. 15, an access key for authenticating when a communication application program executed on the user terminal 10 is accessed. Port number of the network interface 28 of the user terminal 10 used by the application program, IP used when connecting to this communication application program
It is composed of the number of addresses and a series of IP addresses used when connecting to this communication application program.

【0146】次に、ステップS32において、コミュニ
ケーション用アプリケーション・プログラムは、クライ
アント端末12との間での接続状態の確保を実現するサ
ーバ処理を開始する。これにより、クライアント端末1
2から送出されるコンテンツをユーザ端末10側で取得
したり、ユーザ端末10とクライアント端末12との間
で各種のデータを授受することが可能な状態となる。
Next, in step S32, the communication application program starts the server process for realizing the securement of the connection state with the client terminal 12. Thereby, the client terminal 1
The user terminal 10 side can acquire the content transmitted from the terminal 2, and various data can be exchanged between the user terminal 10 and the client terminal 12.

【0147】そして、ステップS10における一連のセ
ッション確立準備が上述の如く処理された後に、ステッ
プS11に処理を戻す。
Then, after the series of session establishment preparations in step S10 have been processed as described above, the process is returned to step S11.

【0148】つぎに、上述したステップS12における
参加者の追加処理について、図16を参照しながら説明
する。
Next, the participant addition processing in step S12 described above will be described with reference to FIG.

【0149】このステップS12における参加者の追加
処理が開始されると、図16に示すステップS40にお
いて、クライアント端末12から送出されたデータに含
まれるアクセスキーを、図15に示した発信者特定情報
に含まれるアクセスキーと比較し、これが当該コミュニ
ケーション用アプリケーション・プログラムによって作
成されたアクセスキーと一致するか否かを判定する。こ
れにより、クライアント端末12から送出されたコンテ
ンツが、当該コミュニケーション用アプリケーション・
プログラムで利用される目的で送出されたものであるか
否かを判定することができる。そして、この判定の結
果、アクセスキーが一致した場合には処理をステップS
41に進め、一致しない場合にはステップS12におけ
る参加者の追加処理を中止して処理をステップS13に
進める。
When the participant addition processing in step S12 is started, the access key included in the data sent from the client terminal 12 is used as the sender identification information shown in FIG. 15 in step S40 shown in FIG. Is compared with the access key included in the communication key, and it is determined whether or not this matches the access key created by the communication application program. As a result, the content transmitted from the client terminal 12 is transmitted to the communication application / application.
It is possible to determine whether or not it was sent for the purpose of being used by the program. Then, as a result of this determination, if the access keys match, the processing is performed in step S
41. If they do not match, the participant addition process in step S12 is stopped and the process proceeds to step S13.

【0150】ステップS41においては、クライアント
端末12から送出されたコンテンツを参加者リストに追
加登録する。この参加者リストは、コミュニケーション
用ウィンドウ70のプレビュー領域71に一覧表示する
顔画像などのコンテンツに対応したものである。
In step S41, the content sent from the client terminal 12 is additionally registered in the participant list. This participant list corresponds to contents such as face images displayed in a list in the preview area 71 of the communication window 70.

【0151】次に、ステップS42においては、クライ
アント端末12側から、顔画像100や登録名などのコ
ンテンツを取得する。次に、ステップS43において
は、ステップS42で取得した顔画像100及び登録名
を、プレビュー領域71に表示する。すなわち、コミュ
ニケーション用ウィンドウ70のプレビュー領域71に
は、参加者リストに基づいて、この参加者リストに登録
されたコンテンツの内容が表示されることとなる。
Next, in step S42, contents such as the face image 100 and the registered name are acquired from the client terminal 12 side. Next, in step S43, the face image 100 and the registered name acquired in step S42 are displayed in the preview area 71. That is, the preview area 71 of the communication window 70 displays the content of the content registered in the participant list based on the participant list.

【0152】そして、ステップS12における一連の参
加者追加処理が上述の如く処理された後に、ステップS
13に処理を戻す。
Then, after the series of participant addition processing in step S12 is processed as described above,
The process is returned to 13.

【0153】つぎに、上述したステップS14における
出演者の選択処理について、図17を参照しながら説明
する。
Next, the performer selection process in step S14 will be described with reference to FIG.

【0154】このステップS14における出演者の選択
処理が開始されると、図17においてステップS50に
示すように、コミュニケーション用ウィンドウ70のプ
レビュー領域71に配置された複数の顔画像などのコン
テンツを選択するモードに移行する。
When the performer selecting process in step S14 is started, as shown in step S50 in FIG. 17, contents such as a plurality of face images arranged in the preview area 71 of the communication window 70 are selected. Switch to mode.

【0155】次に、ステップS51において、プレビュ
ー領域71に配置された複数の顔画像などのコンテンツ
のうち、いずれかのコンテンツが選択されか否かを判定
する。このとき、コンテンツの選択は、例えば、ユーザ
端末10の操作部26を構成するマウス等によって、複
数の顔画像のうちのいずれかをクリック操作することな
どによって行われる。そして、この判定の結果、いずれ
かのコンテンツが選択された場合には処理をステップS
52に進め、いずれのコンテンツも選択されていない場
合には処理をステップS55に進める。
Next, in step S51, it is determined whether any one of the contents such as a plurality of face images arranged in the preview area 71 is selected. At this time, the selection of the content is performed, for example, by clicking any one of the plurality of face images with a mouse or the like that constitutes the operation unit 26 of the user terminal 10. Then, as a result of this determination, if any content is selected, the processing is performed in step S
If no content is selected, the process proceeds to step S55.

【0156】ステップS52においては、ステップS5
1で選択されたコンテンツを、ライブ配信する番組に挿
入して出演させることを記憶する。次に、ステップS5
3において、このコンテンツの送出元であるクライアン
ト端末12から、コンテンツの中身を取得する。次に、
ステップS54において、ステップS53で取得したコ
ンテンツに関する情報をライブ配信アプリケーション・
プログラムに受け渡し、これによりライブ配信アプリケ
ーション・プログラム側でクライアント端末12から送
出されたコンテンツがライブ配信される番組に挿入され
る。このステップS54が完了すると、処理がステップ
S56に進められる。
In step S52, step S5
It is stored that the content selected in 1 is inserted into a program to be live-distributed and the program is made to appear. Next, step S5
In 3, the content contents are acquired from the client terminal 12 which is the transmission source of this content. next,
In step S54, the information about the content acquired in step S53 is sent to the live distribution application.
The content is delivered to the program, whereby the content delivered from the client terminal 12 on the live delivery application program side is inserted into the program delivered live. When this step S54 is completed, the process proceeds to step S56.

【0157】ステップS55においては、例えば操作部
26を構成するマウスなどによって、プレビュー領域7
1に配置された顔画像などのコンテンツ以外の場所がク
リック操作されたか否かを判定する。この判定の結果、
コンテンツ以外の場所がクリック操作された場合には処
理をステップS56に進め、クリック操作が行われてい
ない場合には、処理をステップS51に戻して、このス
テップS51以降の処理を継続する。すなわち、このス
テップS55においては、顔画像などのコンテンツを選
択するモードを解除するか否かを判定している。
In step S55, the preview area 7 is displayed by, for example, the mouse forming the operation unit 26.
It is determined whether or not a place other than the content such as the face image arranged in 1 is clicked. As a result of this judgment,
When the place other than the content is clicked, the process proceeds to step S56, and when the click operation is not performed, the process returns to step S51 and the processes after step S51 are continued. That is, in step S55, it is determined whether or not to cancel the mode for selecting the content such as the face image.

【0158】ステップS56においては、顔画像などの
コンテンツを選択するモードを解除し、処理をステップ
S15に戻す。
In step S56, the mode for selecting content such as a face image is canceled, and the process returns to step S15.

【0159】つぎに、上述したステップS19における
ライブ配信アプリケーション・プログラムに対するコン
テンツの受け渡し処理について、図18を参照しながら
説明する。
Next, the content transfer processing for the live distribution application program in step S19 described above will be described with reference to FIG.

【0160】このステップS19におけるライブ配信ア
プリケーション・プログラムに対するコンテンツの受け
渡し処理が開始されると、図18においてステップS6
0に示すように、ライブ配信アプリケーション・プログ
ラムによって、挿入するテキストデータや画像データ等
のコンテンツのサイズに関する問い合わせが行われたか
否かを判定する。このとき問い合わされるサイズとして
は、例えば、挿入するコンテンツの縦方向及び横方向の
ピクセル数などである。そして、この判定の結果、問い
合わせが行われた場合には処理をステップS61に進
め、行われていない場合には処理をステップS62に進
める。
When the content transfer processing for the live distribution application program in step S19 is started, step S6 in FIG.
As shown in 0, it is determined whether or not an inquiry about the size of content such as text data or image data to be inserted is made by the live distribution application program. The size inquired at this time is, for example, the number of pixels in the vertical and horizontal directions of the content to be inserted. Then, as a result of this determination, if the inquiry is made, the process proceeds to step S61, and if not, the process proceeds to step S62.

【0161】ステップS61においては、ライブ配信ア
プリケーション・プログラムによって問い合わされた、
挿入するコンテンツのサイズを算出して、これをライブ
配信アプリケーション・プログラムに対して受け渡す。
これにより、ライブ配信アプリケーション・プログラム
は、ライブ配信する番組に挿入するコンテンツのサイズ
を、このコンテンツを実際に受け取る前に知ることがで
き、各種の事前処理を行うことができる。
In step S61, an inquiry is made by the live distribution application program,
The size of the content to be inserted is calculated and passed to the live distribution application program.
As a result, the live distribution application program can know the size of the content to be inserted into the program to be live-distributed before actually receiving the content, and can perform various kinds of preprocessing.

【0162】ステップS62においては、ライブ配信ア
プリケーション・プログラムによって、このライブ配信
アプリケーション・プログラムとコミュニケーション用
アプリケーション・プログラムとの間で共有するメモリ
(共有メモリ)に関する情報の授受が行われたか否かを
判定する。この共有メモリに関する情報としては、例え
ば、ユーザ端末10に備えられるRAM21における開
始アドレスや、このRAM21内に共有メモリとして確
保するブロック数などである。そして、この判定の結
果、共有メモリに関する情報の授受が行われた場合に
は、処理をステップS63に進め、授受が行われていな
い場合には、ステップS19以降のライブ配信アプリケ
ーション・プログラムに対するコンテンツの受け渡し処
理を中止して、処理をステップS20に進める。
In step S62, it is determined whether or not the information regarding the memory (shared memory) shared by the live distribution application program and the communication application program has been exchanged by the live distribution application program. To do. The information about the shared memory includes, for example, a start address in the RAM 21 provided in the user terminal 10 and the number of blocks secured in the RAM 21 as the shared memory. Then, as a result of this determination, if the information regarding the shared memory is exchanged, the process proceeds to step S63, and if the exchange is not performed, the contents of the content for the live distribution application program in step S19 and thereafter are transferred. The delivery process is stopped and the process proceeds to step S20.

【0163】ステップS63においては、クライアント
端末12から送出された顔画像などのコンテンツを取得
する。次に、ステップS64において、ステップS63
で取得した顔画像等の画像データやテキストデータなど
のコンテンツの内容を、共有メモリに格納する。次に、
ステップS65においては、共有メモリとしてRAM2
1に確保されたメモリ領域を解放(クローズ)し、処理
をステップS20に戻す。
In step S63, the content such as the face image sent from the client terminal 12 is acquired. Next, in step S64, step S63
The contents of the content such as the image data such as the face image and the text data obtained in step 3 are stored in the shared memory. next,
In step S65, RAM2 is used as a shared memory.
The memory area secured in 1 is released (closed), and the process returns to step S20.

【0164】ユーザ端末10においては、上述したよう
にして、コミュニケーション用アプリケーション・プロ
グラムによる一連の処理が実行される。これにより、ユ
ーザ端末10は、以上のような一連の処理をコミュニケ
ーション用アプリケーション・プログラムによって実行
することにより、クライアント端末12から送出された
コンテンツを受け取って、ライブ配信アプリケーション
・プログラムに受け渡すことができる。
In the user terminal 10, a series of processing is executed by the communication application program as described above. Accordingly, the user terminal 10 can receive the content sent from the client terminal 12 and pass it to the live distribution application program by executing the series of processes described above by the communication application program. .

【0165】(7)ライブ配信アプリケーション・プロ
グラムにおける処理 つぎに以下では、上述したライブ配信アプリケーション
・プログラムによってユーザ端末10側で実行される一
連の処理のうち、クライアント端末12から送出された
コンテンツを挿入する場合の処理について、図19に示
すフローチャートを参照しながら順を追って説明する。
なお、以下で説明する一連の処理は、ライブ配信アプリ
ケーション・プログラムに記述された処理手続きの流れ
に従って、ユーザ端末10のCPU20が各種の演算処
理を行ったり、各部の動作を制御することによって実現
される。
(7) Processing in Live Distribution Application Program Next, of the series of processing executed on the user terminal 10 side by the above-described live distribution application program, the content transmitted from the client terminal 12 is inserted. The processing in the case of performing will be described step by step with reference to the flowchart shown in FIG.
The series of processes described below is realized by the CPU 20 of the user terminal 10 performing various arithmetic processes and controlling the operation of each unit in accordance with the flow of the processing procedure described in the live distribution application program. It

【0166】ライブ配信アプリケーション・プログラム
がユーザ端末10上で起動された状態で、クライアント
端末12から送出されたコンテンツを挿入する場合に
は、先ず、図19に示すステップS70において、コミ
ュニケーション用アプリケーション・プログラムから画
像データやテキストデータ等のコンテンツが送信された
か否かを判定する。このステップS70は、コミュニケ
ーション用アプリケーション・プログラムにおけるステ
ップS18での処理に対応したものである。そして、こ
の判定の結果、コミュニケーション用アプリケーション
・プログラムから挿入するコンテンツが送信された場合
には処理をステップS71に進め、送信されていない場
合には処理をステップS76に進める。
In the case where the content delivered from the client terminal 12 is inserted with the live distribution application program activated on the user terminal 10, first, in step S70 shown in FIG. 19, the communication application program is executed. It is determined whether content such as image data or text data has been transmitted from. This step S70 corresponds to the processing in step S18 in the communication application program. Then, as a result of this determination, if the content to be inserted from the communication application program is transmitted, the process proceeds to step S71, and if not, the process proceeds to step S76.

【0167】ステップS71においては、コミュニケー
ション用アプリケーション・プログラムに対して、挿入
するテキストデータや画像データ等のコンテンツのサイ
ズに関する問い合わせを行う。このステップS71にお
ける処理は、コミュニケーション用アプリケーション・
プログラムにおけるステップS60での処理に対応した
ものである。そして、挿入するコンテンツのサイズをコ
ミュニケーション用アプリケーション・プログラムから
取得した後に、処理をステップS72に進める。
In step S71, an inquiry is made to the communication application program regarding the size of contents such as text data and image data to be inserted. The process in step S71 is performed by the communication application.
This corresponds to the processing in step S60 in the program. Then, after acquiring the size of the content to be inserted from the communication application program, the process proceeds to step S72.

【0168】ステップS72においては、ステップS7
2において取得したコンテンツのサイズに基づいて、こ
のコンテンツを格納するに十分な容量の共有メモリをR
AM21内に確保する。
In step S72, step S7
Based on the size of the content acquired in step 2, the shared memory having a sufficient capacity to store this content is R
Secure in AM21.

【0169】次に、ステップS73において、確保した
共有メモリに関する情報を、コミュニケーション用アプ
リケーション・プログラムに対して受け渡す。このステ
ップS73における処理は、コミュニケーション用アプ
リケーション・プログラムにおけるステップS62での
処理に対応したものである。
Next, in step S73, the information regarding the secured shared memory is transferred to the communication application program. The process in step S73 corresponds to the process in step S62 in the communication application program.

【0170】次に、コミュニケーション用アプリケーシ
ョン・プログラムによって共有メモリ内にクライアント
端末12から送出されたコンテンツの内容が格納された
後に、ステップS74において、このコンテンツを共有
メモリから読み出して、ライブ配信する番組のコンテン
ツに合成するなどして挿入する。次に、ステップS75
において、共有メモリとしてRAM21に確保されたメ
モリ領域を解放し、処理をステップS76に進める。
Next, after the content of the content transmitted from the client terminal 12 is stored in the shared memory by the communication application program, in step S74, this content is read from the shared memory and the program to be live-distributed is read. Insert it by combining it with the content. Next, step S75.
At, the memory area secured in the RAM 21 as the shared memory is released, and the process proceeds to step S76.

【0171】ステップS76においては、コミュニケー
ション用アプリケーション・プログラムから、ライブ配
信する番組に挿入されている出演者の出演停止を要求す
るメッセージが送信されたか否かを判定する。このステ
ップS76における処理は、コミュニケーション用アプ
リケーション・プログラムにおけるステップS16での
処理に対応したものである。そして、この判定の結果、
出演停止を要求するメッセージが送信された場合には処
理をステップS77に進め、送信されていない場合に
は、送出されたコンテンツを挿入する場合の処理を一時
終了して、他の処理を継続する。
[0171] In step S76, it is determined whether or not a message requesting the appearance stop of the performer inserted in the program to be live-distributed is transmitted from the communication application program. The process in step S76 corresponds to the process in step S16 in the communication application program. And as a result of this determination,
If the message requesting the appearance stop is transmitted, the process proceeds to step S77. If not transmitted, the process for inserting the transmitted content is temporarily terminated and other processes are continued. .

【0172】なお、図19に示す一連の処理は、ライブ
配信アプリケーション・プログラムにおける各種の処理
のうち、送出されたコンテンツを挿入する場合の処理に
ついてのみ示すものであり、ステップS70以降の処理
は、他の各種の処理が実行される間に所定の時間か間隔
で繰り返し行われるものである。
Note that the series of processing shown in FIG. 19 shows only the processing for inserting the transmitted content among the various processing in the live distribution application program, and the processing after step S70 is as follows. It is repeatedly performed at a predetermined time or at intervals while various other processes are executed.

【0173】ステップS77においては、コミュニケー
ション用アプリケーション・プログラムから受け渡され
たコンテンツを挿入する処理を停止し、ユーザ端末10
内に予め格納されたコンテンツ、或いはユーザ端末10
に搭載又は接続されたDVカメラ29によって撮像され
たコンテンツによってライブ配信を行う。
In step S77, the process of inserting the content delivered from the communication application program is stopped, and the user terminal 10
Content stored in advance in the user terminal 10
Live distribution is performed by the content imaged by the DV camera 29 mounted or connected to.

【0174】(8)複数のコンテンツを挿入する場合の
画面例 以上の説明においては、ユーザ端末10側でコミュニケ
ーション用ウィンドウ70のプレビュー領域71に一覧
表示された複数の顔画像のうちのひとつが選択され、こ
の顔画像が挿入された動画像が各クライアント端末12
に対してライブ配信される場合を例示した。
(8) Screen example when inserting a plurality of contents In the above description, one of the plurality of face images listed in the preview area 71 of the communication window 70 on the user terminal 10 side is selected. The moving image in which the face image is inserted is displayed on each client terminal 12
The case where it is delivered live is illustrated.

【0175】しかしながら、コンテンツ配信システム1
においては、複数のクライアント端末12から送信され
た顔画像などのコンテンツをユーザ端末10側で取得
し、ユーザ端末10側でライブ配信するコンテンツを生
成するに際して、これら複数のコンテンツを挿入すると
してもよい。
However, the content distribution system 1
In the above, the plurality of contents may be inserted when the user terminal 10 side acquires contents such as face images transmitted from the plurality of client terminals 12 and generates the content to be live-distributed on the user terminal 10 side. .

【0176】そこで、以下では、複数のコンテンツを元
の配信画像に挿入してライブ配信を行う場合について説
明する。本例では、例えば図5に示した状態において、
コミュニケーション用ウィンドウ70のプレビュー領域
71に表示された複数の顔画像のうちの3つが選択され
た場合について、図20を参照して説明する。
Therefore, a case where a plurality of contents are inserted in the original distribution image and live distribution is performed will be described below. In this example, for example, in the state shown in FIG.
A case where three of the plurality of face images displayed in the preview area 71 of the communication window 70 are selected will be described with reference to FIG.

【0177】このように複数の顔画像を選択するに際し
ては、プレビュー領域71に一覧表示された複数の顔画
像が、例えばユーザ端末10のユーザによってマウスで
個別にクリック操作することされることにより実現され
る。また、例えば、先に説明した挿入開始ボタン72と
同様な「全員参加」ボタンなどを例えばプレビュー領域
71に表示しておき、この「全員参加」ボタンがユーザ
により選択された場合に、現在セッションが確立されて
いる各ユーザに対応した全ての顔画像をライブ配信する
画像に挿入するとしてもよい。
When selecting a plurality of face images in this way, the plurality of face images displayed in the preview area 71 are individually clicked by the user of the user terminal 10, for example. To be done. Further, for example, a “participate in all” button similar to the insert start button 72 described above is displayed in the preview area 71, for example, and when this “all in attendance” button is selected by the user, the current session is All face images corresponding to the established users may be inserted into the image to be delivered live.

【0178】このようにして複数の顔画像が選択される
と、図20に示すように、選択された顔画像がメインモ
ニタパネルウィンドウ53cのプレビュー領域53c1
に表示されている画像の所定の位置に挿入される。な
お、図20においては、3つの顔画像100a,100
b,100cが選択され、プレビュー領域53c1に挿
入された場合について図示する。
When a plurality of face images are selected in this way, as shown in FIG. 20, the selected face images are displayed in the preview area 53c1 of the main monitor panel window 53c.
It is inserted at a predetermined position of the image displayed on. Note that in FIG. 20, three face images 100a, 100
The case where b and 100c are selected and inserted in the preview area 53c1 will be illustrated.

【0179】そして、各クライアント端末12から送出
された3つの顔画像100a,100b,100cが元
の配信画像に挿入されると、挿入後の配信画像がストリ
ーミング配信サーバ13に送出され、各クライアント端
末12に対してライブ配信される。これにより、各クラ
イアント端末12側では、3つの顔画像100a,10
0b,100cが挿入された配信画像が閲覧されること
となる。
Then, when the three face images 100a, 100b, 100c sent from each client terminal 12 are inserted into the original delivery image, the inserted delivery image is sent to the streaming delivery server 13, and each client terminal is sent. It will be delivered live to 12. As a result, on each client terminal 12 side, the three face images 100a, 10a
The distribution image in which 0b and 100c are inserted is browsed.

【0180】上述のように、コンテンツ配信システム1
は、複数のクライアント端末12からそれぞれ取得した
コンテンツ(顔画像100a,100b,100c)を
配信画像に挿入してライブ配信することができることか
ら、例えば複数の人々を番組に参加させて討論や会議を
行うなどすることができ、より多彩で柔軟な内容を有す
るライブ配信を行うことができる。以下では、このよう
にして討論や会議を行う場合について、具体的な例を挙
げて説明する。
As described above, the content distribution system 1
Can insert content (face images 100a, 100b, 100c) respectively acquired from a plurality of client terminals 12 into a distribution image and perform live distribution, so that, for example, a plurality of people can participate in a program for a discussion or a meeting. For example, live distribution with more versatile and flexible content can be performed. In the following, a case where the discussion and the meeting are held in this way will be described with a specific example.

【0181】まず、クライアント端末12側で動作する
コミュニケーション用アプリケーション・プログラムに
おいて、ユーザ端末10に送出する顔画像に種々のマー
ク(記号や図形等の画像)を合成して送信する機能が備
わっている場合について説明する。この場合には、クラ
イアント端末12側のコミュニケーション用アプリケー
ション・プログラムにより表示されるコミュニケーショ
ン用ウィンドウ90は、例えば図21に示すような状態
となる。図21に示すコミュニケーション用ウィンドウ
90は、図7に示したものと同様なものであるが、モジ
ュール構造とされたコミュニケーション用アプリケーシ
ョン・プログラムにおいてマーク合成機能を実現する機
能モジュールが動作している状態を示している。
First, the communication application program operating on the client terminal 12 side is provided with a function of synthesizing various marks (images such as symbols and figures) on the face image to be transmitted to the user terminal 10 and transmitting it. The case will be described. In this case, the communication window 90 displayed by the communication application program on the client terminal 12 side is in a state as shown in FIG. 21, for example. The communication window 90 shown in FIG. 21 is the same as that shown in FIG. 7, but shows a state in which a functional module that realizes the mark synthesizing function is operating in a communication application program having a module structure. Shows.

【0182】このとき、図21に示すように、自画像表
示領域91の周囲には、図7に示した複数のボタン92
a〜92gの代わりに、ボタン94a〜94fが配置さ
れる。これらボタン94a〜94fは、それぞれ以下の
機能に対応している。
At this time, as shown in FIG. 21, a plurality of buttons 92 shown in FIG. 7 are provided around the self-portrait display area 91.
Buttons 94a to 94f are arranged instead of a to 92g. These buttons 94a to 94f correspond to the following functions, respectively.

【0183】まるボタン94a、ばつボタン94b、さ
んかくボタン94c、及びしかくボタン94dは、それ
ぞれ、「まる」マーク、「ばつ」マーク、「さんかく」
マーク、及び「しかく」マークを自画像表示領域91に
表示された顔画像に合成する機能に対応しており、これ
らのボタンがユーザによって選択された場合には、選択
されたボタンに対応するマークが顔画像に合成される。
また、このようにしてマークが合成された顔画像は、ユ
ーザ端末10に送出される。また、ヘルプボタン94e
及び戻るボタン94fは、それぞれ図7に示したヘルプ
ボタン92d及び戻るボタン92eに相当する機能を有
している。
The circle button 94a, the cross button 94b, the cross button 94c, and the cross button 94d are respectively a "maru" mark, a "cross" mark, and a "cross".
It corresponds to the function of synthesizing a mark and a "shikaku" mark with the face image displayed in the self-portrait display area 91. When these buttons are selected by the user, the mark corresponding to the selected button is displayed. It is combined with the face image.
Further, the face image in which the marks are combined in this way is sent to the user terminal 10. Also, the help button 94e
The return button 94f and the return button 94f have functions corresponding to the help button 92d and the return button 92e shown in FIG. 7, respectively.

【0184】このとき、例えば、クライアント端末12
側で図21に示すコミュニケーション用ウィンドウ90
内のまるボタン94aが選択された場合には、このクラ
イアント端末12から送出される顔画像に「まる」マー
クが合成されてユーザ端末10に送出される。このよう
にして送出された顔画像は、ユーザ端末10側のコミュ
ニケーション用アプリケーション・プログラムで取得さ
れ、図22に示すように、コミュニケーション用ウィン
ドウ70のプレビュー領域71内に「まる」マークが合
成された状態で表示される。
At this time, for example, the client terminal 12
The communication window 90 shown in FIG.
When the "maru" button 94a is selected, the "maru" mark is combined with the face image sent from the client terminal 12 and sent to the user terminal 10. The face image sent in this way is acquired by the communication application program on the user terminal 10 side, and as shown in FIG. 22, a “maru” mark is combined in the preview area 71 of the communication window 70. The status is displayed.

【0185】また、ライブ配信用アプリケーション・プ
ログラムが挿入する顔画像をコミュニケーション用アプ
リケーション・プログラムから取得していることから、
メインモニタパネルウィンドウ53cのプレビュー領域
53c1においても、「まる」マークが合成された顔画
像100aが元画像に挿入されて表示されることとな
る。なお、このようにしてマークが合成された顔画像を
含むプレビュー領域53c1内の画像は、先の説明と同
様にして各クライアント端末12に配信される。
Since the face image inserted by the live distribution application program is obtained from the communication application program,
Also in the preview area 53c1 of the main monitor panel window 53c, the face image 100a combined with the "maru" mark is inserted and displayed in the original image. The image in the preview area 53c1 including the face image in which the mark is combined in this way is distributed to each client terminal 12 in the same manner as described above.

【0186】コンテンツ配信システム1においては、上
述のように種々のマークを各顔画像に合成してライブ配
信することが可能とされていることから、例えば発信者
から出題された問題に対して、複数の参加者がそれぞれ
「まる」や「ばつ」等のマークを指定して回答するなど
して、クイズ大会や会議、或いは討論などを行うことが
でき、より柔軟で多彩な視聴者参加型の番組を容易に作
成して配信することができる。
In the content distribution system 1, since it is possible to combine various marks with each face image and perform live distribution as described above, for example, in response to the question given by the sender, More than one participant can specify a mark such as "Maru" or "Batsu" to answer, and hold a quiz competition, a conference, or a debate. Programs can be easily created and distributed.

【0187】つぎに、複数の顔画像が元画像に挿入され
た状態で、クライアント端末12から送出されたテキス
トデータをユーザ端末10側で受け取った場合について
説明する。以下の説明は、先に図10乃至図12を参照
しながら説明した場合に対応するものである。
Next, a case will be described in which the text data sent from the client terminal 12 is received by the user terminal 10 with a plurality of face images inserted in the original image. The following description corresponds to the case described above with reference to FIGS. 10 to 12.

【0188】この場合には、図10を参照して説明した
ようにして所定のクライアント端末12で実行されるコ
ミュニケーション用アプリケーション・プログラム上で
テキストデータ(例えば「こんにちは!」というテキス
ト)が入力されると、このクライアント端末12側のコ
ミュニケーション用アプリケーション・プログラムから
ユーザ端末10側のコミュニケーション用アプリケーシ
ョン・プログラムに対してテキストデータが送出され
る。
[0188] In this case, the text data with reference to the manner described in on the communication application program to be executed at a predetermined client terminal 12 (for example, the text "Hello!") Is input to Figure 10 Then, the text data is sent from the communication application program on the client terminal 12 side to the communication application program on the user terminal 10 side.

【0189】すると、ユーザ端末10側のコミュニケー
ション用アプリケーション・プログラムは、図23に示
すように、コミュニケーション用ウィンドウ70内で当
該クライアント端末12に対応した顔画像に相当する位
置(又は当該顔画像に隣接した位置)に、取得したテキ
ストデータの内容(「こんにちは!」)を表示する。
Then, as shown in FIG. 23, the communication application program on the user terminal 10 side displays a position in the communication window 70 corresponding to the face image corresponding to the client terminal 12 (or adjacent to the face image). to the position), to display the contents of the acquired text data ( "Hello!").

【0190】また、ライブ配信用アプリケーション・プ
ログラムは、このテキストデータをコミュニケーション
用アプリケーション・プログラムから取得して、図23
に示すように、プレビュー領域53c1に「こんにちは
!」なるテキストデータを挿入して表示する。
Also, the live distribution application program acquires this text data from the communication application program, and
As shown in, is displayed in the preview area 53c1 "Hello!" Formed by inserting the text data.

【0191】このとき、ライブ配信用アプリケーション
・プログラムは、挿入するテキストデータの送出元に対
応したユーザの顔画像(本例では顔画像100b)に対
して、拡大表示するなどの所定の効果を付与することが
望ましい。これにより、ライブ配信される画像に挿入さ
れたテキストデータが、複数挿入された顔画像100
a,100b,100cのうち、どの顔画像に対応する
ユーザにより発せられたものであるかを容易に識別する
ことができる。なお、このとき顔画像に付与する効果と
しては、拡大表示することに特に限定されるものではな
く、いずれのユーザからテキストデータが発せられたも
のかを容易に識別することが可能であれば十分である。
このような効果としては、例えば、当該顔画像を変形さ
せたり、所定のアニメーション効果を付与したり、或い
は色調を変化させるなどの効果などを挙げることができ
る。
At this time, the live distribution application program imparts a predetermined effect such as enlarged display to the face image (face image 100b in this example) of the user corresponding to the transmission source of the text data to be inserted. It is desirable to do. As a result, the face image 100 in which a plurality of the text data inserted in the image delivered live is inserted
It is possible to easily identify which of the face images of a, 100b, and 100c is generated by the user. The effect given to the face image at this time is not particularly limited to the enlarged display, and it is sufficient if it is possible to easily identify from which user the text data is issued. Is.
As such an effect, for example, an effect of deforming the face image, imparting a predetermined animation effect, or changing a color tone can be cited.

【0192】(9)複数のコンテンツを挿入する場合の
処理 つぎに、上述のようにして複数のコンテンツを挿入して
ライブ配信を行う場合に、コミュニケーション用アプリ
ケーション・プログラムによってユーザ端末10側で実
行される一連の処理について、フローチャートを参照し
ながら順を追って説明する。
(9) Processing when inserting a plurality of contents Next, when inserting a plurality of contents and performing live distribution as described above, the communication application program executes the user terminal 10 side. A series of processes will be described step by step with reference to the flowchart.

【0193】ここで、コンテンツ配信システム1におい
て発信側となるユーザ端末10において、ライブ配信を
行うためにRAM21内に確保されるメモリ領域の内容
について、図24を参照して説明する。このメモリ領域
の内容は、図24に示すように、コミュニケーション用
アプリケーション・プログラムにおいてワークエリアと
して使用されるメモリ領域200と、ライブ配信用アプ
リケーション・プログラムにおいてワークエリアとして
使用されるメモリ領域201と、これらコミュニケーシ
ョン用アプリケーション・プログラム及びライブ配信用
アプリケーション・プログラムの双方で共用されるメモ
リ領域202に区別される。
Here, the contents of the memory area secured in the RAM 21 for live distribution in the user terminal 10 on the transmission side in the content distribution system 1 will be described with reference to FIG. As shown in FIG. 24, the contents of this memory area include a memory area 200 used as a work area in the communication application program, a memory area 201 used as a work area in the live distribution application program, and The memory area 202 is shared by both the communication application program and the live distribution application program.

【0194】メモリ領域200は、コミュニケーション
用アプリケーション・プログラムにおいてセッションが
確立されたクライアント側のユーザ(参加者)に関する
情報を記憶する参加者リストと、クライアント端末12
から取得してライブ配信用アプリケーション・プログラ
ムに渡すテキストデータ及び画像データをそれぞれ準備
するための文字準備用メモリ領域及び画像準備用メモリ
領域とにより構成される。このうち、参加者リストは、
図中「参加者0」、「参加者1」、「参加者2」、・・
・として表すように、必要とされる情報が各参加者毎に
まとめて保持されている。
The memory area 200 includes a participant list for storing information on the user (participant) on the client side with which a session has been established in the communication application program, and the client terminal 12.
It is composed of a character preparation memory area and an image preparation memory area for respectively preparing the text data and the image data which are acquired from the program and passed to the live distribution application program. Of these, the participant list is
"Participant 0", "Participant 1", "Participant 2", ...
・ As indicated by, the required information is stored collectively for each participant.

【0195】参加者リスト内で各参加者に関する情報
は、例えば、各参加者を識別するための参加者ID、当
該参加者の名前、当該参加者に対応する顔画像、この顔
画像が変化したか否かを示す顔画像変化フラグ、当該参
加者から送出されたテキストデータ(文字)、この文字
が変化したか否かを示す文字変化フラグ、当該参加者か
ら送出されたマーク、このマークが変化したか否かを示
すマーク変化フラグなどにより構成されている。
Information about each participant in the participant list includes, for example, a participant ID for identifying each participant, the name of the participant, a face image corresponding to the participant, and the face image changed. A face image change flag indicating whether or not, text data (character) sent from the participant, a character change flag indicating whether or not this character has changed, a mark sent from the participant, this mark changes It is configured by a mark change flag or the like indicating whether or not the mark is changed.

【0196】ユーザ端末10のRAM21内に以上のよ
うなメモリ領域が確保された状態で、コミュニケーショ
ン用アプリケーション・プログラムがライブ配信アプリ
ケーション・プログラムによって起動されると、図25
に示すフローチャート中においてステップS100に示
すように、セッション確立準備を行う。このステップS
100においては、ライブ配信アプリケーション・プロ
グラムとの間で各種データの授受を行うことにより、ク
ライアント端末12から送出された顔画像などのコンテ
ンツを取得する準備を行う。なお、このステップS10
0における処理の内容は、図14に示したステップS3
0〜S32における処理と同等であるので、本例での説
明を省略する。
When the communication application program is started by the live distribution application program in the state where the above memory area is secured in the RAM 21 of the user terminal 10, FIG.
As shown in step S100 in the flowchart shown in FIG. This step S
At 100, various data is exchanged with the live distribution application program to prepare for acquiring content such as a face image sent from the client terminal 12. Note that this step S10
The content of the processing in 0 is the same as step S3 shown in FIG.
Since the processing is the same as the processing in 0 to S32, the description in this example is omitted.

【0197】次に、ステップS101において、クライ
アント端末12で起動されたコミュニケーション用アプ
リケーション・プログラムからの接続要求を受け取った
か否かを判定する。すなわち、このステップS101に
おいては、クライアント端末12から顔画像100のよ
うなコンテンツが送信されたか否かを判定する。この判
定の結果、接続要求を受け取った場合には処理をステッ
プS102に進め、受け取っていない場合には処理をス
テップS103に進める。
Next, in step S101, it is determined whether or not a connection request from the communication application program activated by the client terminal 12 has been received. That is, in step S101, it is determined whether the content such as the face image 100 is transmitted from the client terminal 12. As a result of this determination, if the connection request is received, the process proceeds to step S102, and if not, the process proceeds to step S103.

【0198】ステップS102においては、クライアン
ト端末12側から送出された顔画像100などのような
コンテンツを、コミュニケーション用ウィンドウ70の
プレビュー領域71に追加する処理を行う。これによ
り、ユーザ端末10から送出する番組に新たな参加者が
参加する準備が整うこととなる。なお、このステップS
102における処理の内容は、図16に示したステップ
S40〜S43における処理と同等であるので、本例で
の説明を省略する。
In step S102, the content such as the face image 100 sent from the client terminal 12 side is added to the preview area 71 of the communication window 70. As a result, new participants are ready to participate in the program sent from the user terminal 10. This step S
Since the content of the process in 102 is the same as the process in steps S40 to S43 shown in FIG. 16, the description in this example is omitted.

【0199】ステップS103においては、例えば、コ
ミュニケーション用ウィンドウ70に配置された「全員
参加」ボタンが選択されるなどして、コミュニケーショ
ン用アプリケーション・プログラムでセッションが確立
された全てのユーザをライブ配信用アプリケーション・
プログラムにより配信する番組にさせることが要求され
たか否かを判定する。この判定の結果、全員の参加が要
求されている場合には処理をステップS104に進め、
要求されていない場合には処理をステップS105に進
める。
In step S103, for example, when the "participate in all" button arranged in the communication window 70 is selected, all the users whose sessions are established by the communication application program are sent to the live distribution application.・
It is determined whether the program has requested that the program be distributed. If the result of this determination is that all are required to participate, the process proceeds to step S104,
If not requested, the process proceeds to step S105.

【0200】ステップS104においては、各クライア
ント端末12のユーザ(参加者)をライブ配信用アプリ
ケーション・プログラムにより配信される番組に参加
(出演)させる準備を行う。なお、このステップS10
4における処理についての詳細は後述する。
In step S104, preparations are made for the user (participant) of each client terminal 12 to participate (appear) in the program distributed by the live distribution application program. Note that this step S10
Details of the processing in 4 will be described later.

【0201】ステップS105においては、コミュニケ
ーション用ウィンドウ70に配置された挿入停止ボタン
73がユーザにより選択されるなどして、ステップS1
04にて開始された参加者の番組への出演を中止するこ
とが要求されたか否かを判定する。この判定の結果、出
演の中止が要求されている場合には処理をステップS1
06に進め、要求されていない場合には処理をステップ
S107に進める。
At step S105, the insertion stop button 73 arranged on the communication window 70 is selected by the user, and so on.
It is determined whether it has been requested to stop the participant's appearance in the program started at 04. As a result of this determination, if the cancellation of the appearance is requested, the processing is performed in step S1.
If not requested, the process proceeds to step S107.

【0202】ステップS106においては、ステップS
104にて開始された参加者の番組への出演を中止する
処理を行う。なお、このステップS106における処理
についての詳細は後述する。
In step S106, step S
Processing for stopping the appearance of the participant in the program started at 104 is performed. The details of the process in step S106 will be described later.

【0203】ステップS107においては、クライアン
ト端末12から送出されたコンテンツ(すなわち、顔画
像、テキスト、マーク等)に変化が認められるか否かを
判定する。この判定の結果、変化が認められる場合には
処理をステップS108に進め、認められない場合には
処理をステップS109に進める。
In step S107, it is determined whether or not the content (that is, face image, text, mark, etc.) sent from the client terminal 12 is allowed to change. As a result of this determination, if a change is recognized, the process proceeds to step S108, and if not, the process proceeds to step S109.

【0204】ステップS108においては、図24に示
した顔画像変化フラグ、文字変化フラグ、或いはマーク
変化フラグ等の各変化フラグを変更する処理を行う。こ
のステップS108における処理により、ライブ配信用
アプリケーション・プログラムに挿入されるコンテンツ
の内容が更新されることとなるが、詳細については後述
する。
In step S108, a process of changing each change flag such as the face image change flag, the character change flag, or the mark change flag shown in FIG. 24 is performed. By the processing in step S108, the content of the content inserted into the live distribution application program will be updated, which will be described in detail later.

【0205】ステップS109においては、画像更新タ
イマーに関する処理を行う。このステップS109にお
ける処理により、各クライアント端末12から取得した
コンテンツ(すなわち、顔画像、テキスト、マーク等)
を所定の時間間隔でライブ配信用アプリケーション・プ
ログラムに対して渡すことが可能となり、ユーザ端末1
0での処理負荷が不必要に高まってしまうことを防止す
ることができる。なお、このステップS109における
処理についての詳細は後述する。
In step S109, processing relating to the image update timer is performed. By the processing in this step S109, the content acquired from each client terminal 12 (that is, face image, text, mark, etc.)
Can be passed to the application program for live distribution at a predetermined time interval, and the user terminal 1
It is possible to prevent the processing load at 0 from unnecessarily increasing. The details of the processing in step S109 will be described later.

【0206】ステップS110においては、各クライア
ント端末12から取得したコンテンツをライブ配信用ア
プリケーション・プログラムに対して実際に渡す処理を
行う。なお、このステップS110における処理につい
ての詳細は後述する。
In step S110, a process of actually delivering the content acquired from each client terminal 12 to the live distribution application program is performed. The details of the process in step S110 will be described later.

【0207】ステップS111においては、ユーザ端末
10を操作する発信者であるユーザによって、コミュニ
ケーション用アプリケーション・プログラムを終了する
ことが要求されたか否かを判定する。この判定の結果、
終了することが要求された場合には、コミュニケーショ
ン用ウィンドウ70を閉じる処理を行うなどして、コミ
ュニケーション用アプリケーション・プログラムの終了
処理を行う。また、終了することが要求されていない場
合には、処理をステップS101に戻し、上述した一連
の処理を繰り返す。
[0207] In step S111, it is determined whether or not the user who is the sender operating the user terminal 10 has requested to terminate the communication application program. As a result of this judgment,
When it is requested to end, the communication window 70 is closed and the communication application program is ended. If it is not requested to end, the process is returned to step S101, and the series of processes described above is repeated.

【0208】つぎに、上述したステップS104におけ
る出演開始処理について、図26を参照しながら説明す
る。
Next, the appearance start processing in step S104 described above will be described with reference to FIG.

【0209】ステップS104における処理が開始され
ると、図26に示すステップS120において、顔画像
変化フラグ、文字変化フラグ、或いはマーク変化フラグ
等の各変化フラグを初期状態に設定(クリア)する。次
に、ステップS121において、ライブ配信用アプリケ
ーション・プログラムに対して、挿入する画像を更新す
べきことを示す画像更新メッセージを送出する。次に、
ステップS122において、画像更新タイマーを開始
(スタート)させる。この画像更新タイマーは、クライ
アント端末12から取得したコンテンツを所定の時間間
隔でライブ配信用アプリケーション・プログラムに対し
て渡すためのタイマーであり、例えば所定の時間間隔で
カウント値が増加する変数などによって実現することが
できる。なお、このステップS122における処理が完
了すると、ステップS105に処理が進められる。
When the process in step S104 is started, each change flag such as a face image change flag, a character change flag, or a mark change flag is set (cleared) to an initial state in step S120 shown in FIG. Next, in step S121, an image update message indicating that the image to be inserted should be updated is sent to the application program for live distribution. next,
In step S122, the image update timer is started. The image update timer is a timer for passing the content acquired from the client terminal 12 to the application program for live distribution at a predetermined time interval, and is realized by, for example, a variable whose count value increases at a predetermined time interval. can do. When the process in step S122 is completed, the process proceeds to step S105.

【0210】つぎに、上述したステップS106におけ
る出演中止処理について、図27を参照しながら説明す
る。
Next, the appearance canceling process in step S106 described above will be described with reference to FIG.

【0211】ステップS106における処理が開始され
ると、図27に示すステップS130において、画像更
新タイマーを停止させる。次に、ステップS131にお
いて、顔画像変化フラグ、文字変化フラグ、或いはマー
ク変化フラグ等の各変化フラグをクリアする。次に、ス
テップS132において、ライブ配信用アプリケーショ
ン・プログラムに対して、コンテンツの挿入を中止する
ことを要求するメッセージを出力する。このステップS
132における処理が完了した後に、ステップS107
に処理を進める。
When the processing in step S106 is started, the image update timer is stopped in step S130 shown in FIG. Next, in step S131, each change flag such as a face image change flag, a character change flag, or a mark change flag is cleared. Next, in step S132, a message requesting the insertion of the content to be stopped is output to the application program for live distribution. This step S
After the processing in 132 is completed, step S107
Proceed to.

【0212】つぎに、上述したステップS108におけ
る変化フラグ処理について、図28を参照しながら説明
する。
Next, the change flag process in step S108 will be described with reference to FIG.

【0213】ステップS108における処理が開始され
ると、図28に示すステップS140において、参加者
リストを参照することにより、各参加者の顔画像、文
字、或いはマークが変化したか否かを判断し、変化して
いる参加者の参加者IDを取得する。以降の処理におい
ては、ここで取得した参加者IDを「参加者IDx」と
表すこととする。
When the process in step S108 is started, it is determined in step S140 shown in FIG. 28 whether or not the face image, character, or mark of each participant has changed by referring to the participant list. , Get the participant ID of the changing participant. In the subsequent processing, the participant ID acquired here will be represented as “participant IDx”.

【0214】次に、ステップS141においては、顔画
像が変化しているか否かを判定し、変化している場合に
は処理をステップS142に進め、変化していない場合
には処理をステップS143に進める。
Next, in step S141, it is determined whether or not the face image has changed. If the face image has changed, the process proceeds to step S142. If not, the process proceeds to step S143. Proceed.

【0215】ステップS142においては、参加者リス
ト中で参加者IDxに対応する顔画像変化フラグを立て
る処理を行う。なお、以降の説明において「フラグを立
てる」とは、当該フラグの値を「0」から「1」に変更
することを表すこととする。このステップS142にお
ける処理の後に、ステップS143に処理を進める。
[0215] In step S142, the face image change flag corresponding to the participant IDx in the participant list is set. In the following description, "to set a flag" means to change the value of the flag from "0" to "1". After the processing in step S142, the processing proceeds to step S143.

【0216】ステップS143においては、文字が変化
しているか否かを判定し、変化している場合には処理を
ステップS144に進め、変化していない場合には処理
をステップS147に進める。
In step S143, it is determined whether or not the character has changed. If the character has changed, the process proceeds to step S144, and if not, the process proceeds to step S147.

【0217】ステップS144においては、参加者リス
ト中で参加者IDxに対応する文字変化フラグを立てる
処理を行う。次に、ステップS145において、当該参
加者からテキストデータ(文字)が取得されていること
通知するとともに、この文字を配信画像に合成すること
を要求する文字更新メッセージをライブ配信用アプリケ
ーション・プログラムに対して送出する。次に、ステッ
プS146において、ライブ配信用アプリケーション・
プログラムに対して画像更新メッセージを送出する。こ
のステップS146における処理が完了した後に、ステ
ップS147に処理を進める。
In step S144, the character change flag corresponding to the participant IDx in the participant list is set. Next, in step S145, the live update application program is notified of a text update message requesting that text data (text) has been acquired from the participant and requesting that the text be combined with the distribution image. To send. Next, in step S146, the application for live distribution ...
Send an image update message to the program. After the process in step S146 is completed, the process proceeds to step S147.

【0218】ステップS147においては、マークが変
化しているか否かを判定し、変化している場合には処理
をステップS148に進め、変化していない場合には変
化フラグ処理を完了して処理をステップS109に進め
る。
In step S147, it is determined whether or not the mark has changed. If the mark has changed, the process proceeds to step S148. If not, the change flag process is completed and the process is executed. Proceed to step S109.

【0219】ステップS148においては、参加者リス
ト中で参加者IDxに対応するマーク変化フラグを立て
る処理を行う。次に、ステップS149において、参加
者リスト中で参加者IDxに対応する顔画像変化フラグ
を立てる処理を行う。このステップS149における処
理が完了した後に、変化フラグ処理を完了して処理をス
テップS109に進める。
In step S148, the mark change flag corresponding to the participant IDx in the participant list is set. Next, in step S149, the face image change flag corresponding to the participant IDx in the participant list is set. After the process in step S149 is completed, the change flag process is completed and the process proceeds to step S109.

【0220】つぎに、上述したステップS109におけ
る画像更新タイマー処理について、図29を参照しなが
ら説明する。
Next, the image update timer processing in step S109 described above will be described with reference to FIG.

【0221】ステップS109における処理が開始され
ると、図29に示すステップS150において、画像更
新タイマーがスタートしているか否かを判定する。この
結果、スタートしていない場合には、ライブ配信用アプ
リケーション・プログラムに挿入する画像を更新しない
ものとして、当該画像更新タイマー処理を完了し、処理
をステップS110に進める。また、画像更新タイマー
がスタートしている場合には、処理をステップS151
に進める。
When the process in step S109 is started, it is determined in step S150 shown in FIG. 29 whether or not the image update timer is started. As a result, if the image has not been started, the image to be inserted into the live distribution application program is not updated, the image update timer process is completed, and the process proceeds to step S110. If the image update timer has started, the process proceeds to step S151.
Proceed to.

【0222】ステップS151においては、画像更新タ
イマーの値を参照することにより、前回行われた画像更
新タイマー処理から所定の時間(本例では1秒)が経過
しているか否かを判定する。この結果、経過していない
場合には、ライブ配信用アプリケーション・プログラム
に挿入する画像の更新をしないものとして、当該画像更
新タイマー処理を完了し、処理をステップS110に進
める。また、所定の時間が経過している場合には、処理
をステップS152に進める。
In step S151, by referring to the value of the image update timer, it is determined whether or not a predetermined time (1 second in this example) has elapsed since the image update timer process performed last time. As a result, if it has not elapsed, it is determined that the image to be inserted into the live distribution application program is not updated, the image update timer process is completed, and the process proceeds to step S110. If the predetermined time has elapsed, the process proceeds to step S152.

【0223】ステップS152においては、参加者リス
トを参照することにより、顔画像変化フラグが立ってい
る参加者が存在するか否かを判定する。この結果、存在
する場合には処理をステップS153に進め、存在しな
い場合には処理をステップS155に進める。
[0223] In step S152, it is determined by referring to the participant list whether or not there is a participant for whom the face image change flag is set. As a result, if it exists, the process proceeds to step S153, and if it does not exist, the process proceeds to step S155.

【0224】ステップS153においては、ライブ配信
用アプリケーション・プログラムに対して、画像更新メ
ッセージを送出する。次に、ステップS154におい
て、参加者リスト中の顔画像変化フラグをクリアする。
このステップS154における処理が完了した後に、処
理をステップS155に進める。
In step S153, an image update message is sent to the live distribution application program. Next, in step S154, the face image change flag in the participant list is cleared.
After the processing in step S154 is completed, the process proceeds to step S155.

【0225】ステップS155においては、文字変化フ
ラグが立ってから所定の時間(本例では10秒)が経過
したか否かを判定する。この結果、経過している場合に
は処理をステップS156に進め、経過していない場合
には処理をステップS110に進める。このステップS
155における処理を行うことによって、ライブ配信さ
れる元画像に文字を挿入する場合に、この文字を所定の
時間(10秒)だけ表示させることが可能となる。
In step S155, it is determined whether or not a predetermined time (10 seconds in this example) has elapsed since the character change flag was raised. As a result, if it has elapsed, the process proceeds to step S156, and if not, the process proceeds to step S110. This step S
By performing the processing in 155, when a character is inserted into the original image to be live-distributed, this character can be displayed for a predetermined time (10 seconds).

【0226】ステップS156においては、ライブ配信
用アプリケーション・プログラムに対して画像更新メッ
セージを送出する。次に、ステップS157において、
参加者リスト中の文字変化フラグをクリアする。このス
テップS157における処理が完了した後に、処理をス
テップS110に進める。
In step S156, an image update message is sent to the live distribution application program. Next, in step S157,
Clear the character change flag in the participant list. After the process in step S157 is completed, the process proceeds to step S110.

【0227】つぎに、上述したステップS110におけ
る処理について、図30を参照しながら説明する。
Next, the processing in step S110 described above will be described with reference to FIG.

【0228】ステップS110における処理が開始され
ると、図30に示すステップS160において、ライブ
配信用アプリケーション・プログラムから配信画像に挿
入すべきテキスト(文字)のサイズ(文字数)、又は配
信画像に挿入すべき画像のサイズ(例えば縦横のピクセ
ル数)に関しての問い合わせが行われているか否かを判
定する。この結果、問い合わせが行われている場合には
処理をステップS161に進め、問い合わせが行われて
いない場合には処理をステップS163に進める。
When the processing in step S110 is started, in step S160 shown in FIG. 30, the size (the number of characters) of the text (characters) to be inserted into the distribution image from the application program for live distribution or the insertion into the distribution image is performed. It is determined whether or not an inquiry has been made regarding the size of the image to be processed (for example, the number of vertical and horizontal pixels). As a result, if an inquiry has been made, the process proceeds to step S161, and if no inquiry has been made, the process proceeds to step S163.

【0229】ステップS161においては、ライブ配信
用アプリケーション・プログラムに対して渡す文字又は
画像を準備する処理を行う。この処理が完了した後に、
処理をステップS162に進める。なお、このステップ
S161における処理についての詳細は後述する。
In step S161, a process of preparing a character or an image to be passed to the live distribution application program is performed. After this process is complete,
The process proceeds to step S162. The details of the processing in step S161 will be described later.

【0230】ステップS162においては、ライブ配信
用アプリケーション・プログラムに対して、後の処理で
渡すこととなる文字の文字数、又は画像のサイズを通知
する。これにより、ライブ配信用アプリケーション・プ
ログラムは、予め文字数や画像のサイズを知ることがで
きる。このステップS162における処理が完了した後
に、処理をステップS163に進める。
[0230] In step S162, the live distribution application program is notified of the number of characters to be passed in the subsequent processing or the size of the image. As a result, the live distribution application program can know the number of characters and the size of the image in advance. After the process in step S162 is completed, the process proceeds to step S163.

【0231】ステップS163においては、アドレス情
報(共有メモリのアドレス等を示す情報)をライブ配信
用アプリケーション・プログラムから取得するなどし
て、コミュニケーション用アプリケーション・プログラ
ムとライブ配信用アプリケーション・プログラムとの間
で文字や画像等のコンテンツを受け渡す際に利用される
共有メモリのアドレスが設定されているか否かを判定す
る。この結果、アドレスが設定されている場合には処理
をステップS164に進め、アドレスが設定されていな
い場合にはコンテンツの受け渡し処理を中止して、処理
をステップS111に進める。
In step S163, the address information (information indicating the address of the shared memory, etc.) is obtained from the live distribution application program, so that the communication application program and the live distribution application program can communicate with each other. It is determined whether or not the address of the shared memory used when delivering contents such as characters and images is set. As a result, if the address is set, the process proceeds to step S164, and if the address is not set, the content transfer process is stopped and the process proceeds to step S111.

【0232】ステップS164においては、設定された
アドレスに基づいて、共有メモリをアクセス可能な状態
とする(オープンする)。次に、ステップS165にお
いて、コミュニケーション用アプリケーション・プログ
ラムからライブ配信用アプリケーション・プログラムに
対して渡す文字又は画像を、文字準備用メモリ又は画像
準備用メモリから共有メモリに転送(コピー)する。次
に、ステップS166において、ステップS164でオ
ープンした共有メモリに対するアクセスを停止する(ク
ローズする)。
[0232] In step S164, the shared memory is made accessible (open) based on the set address. Next, in step S165, the character or image to be transferred from the communication application program to the live distribution application program is transferred (copied) from the character preparation memory or the image preparation memory to the shared memory. Next, in step S166, access to the shared memory opened in step S164 is stopped (closed).

【0233】このようにして、ライブ配信用アプリケー
ション・プログラムに対して渡す文字や画像等のコンテ
ンツを共有メモリにコピーすることにより、ライブ配信
用アプリケーション・プログラムは、この共有メモリを
参照することによって、コミュニケーション用アプリケ
ーション・プログラムから取得すべきコンテンツを取得
することが可能となる。なお、コミュニケーション用ア
プリケーション・プログラムは、ステップS164にお
ける処理が完了した後に、処理をステップS111に進
める。
In this way, by copying the contents such as characters and images to be passed to the live distribution application program to the shared memory, the live distribution application program refers to this shared memory, It is possible to acquire the content that should be acquired from the communication application program. The communication application program advances the process to step S111 after the process in step S164 is completed.

【0234】つぎに、上述したステップS161におけ
る処理について、図31を参照しながら説明する。
Next, the processing in step S161 described above will be described with reference to FIG.

【0235】ステップS161における処理が開始され
ると、図31に示すステップS170において、ライブ
配信用アプリケーション・プログラムに対して文字の受
け渡しに関する準備が整っているか否かを判定する。こ
の結果、準備が整っている場合には処理をステップS1
71に進め、準備が整っていない場合、又は文字を渡す
必要がない場合には処理をステップS172に進める。
When the processing in step S161 is started, it is determined in step S170 shown in FIG. 31 whether or not the preparation for the delivery of characters to the live distribution application program is ready. As a result, if the preparation is completed, the processing is performed in step S1.
The process proceeds to 71, and when the preparation is not completed or when it is not necessary to pass the character, the process proceeds to step S172.

【0236】ステップS171においては、ライブ配信
用アプリケーション・プログラムに対して渡すテキスト
(文字)を文字準備用メモリにコピーする。このステッ
プS171における処理の後に、処理をステップS16
2に進める。
In step S171, the text (characters) to be passed to the live distribution application program is copied to the character preparation memory. After the processing in step S171, the processing is performed in step S16.
Proceed to 2.

【0237】ステップS172においては、配信画像に
出演する参加者の各々に対して以降の一連の処理を行う
ために用いる変数iの値を「0」に設定する。次に、ス
テップS173において、参加者リストを参照すること
により第i番目の参加者(以下、単に参加者iと称す
る。)に対応した顔画像を取得し、この顔画像を画像準
備用メモリに格納する。
In step S172, the value of the variable i used for performing the subsequent series of processing for each of the participants appearing in the distribution image is set to "0". Next, in step S173, a face image corresponding to the i-th participant (hereinafter, simply referred to as participant i) is acquired by referring to the participant list, and this face image is stored in the image preparation memory. Store.

【0238】次に、ステップS174において、参加者
リストを参照することにより、参加者iに対応した文字
変化フラグが立っているか否かを判定する。この結果、
文字変化フラグが立っている場合には処理をステップS
175に進め、文字変化フラグが立っていない場合には
処理をステップS176に進める。
Next, in step S174, it is determined by referring to the participant list whether or not the character change flag corresponding to the participant i is set. As a result,
If the character change flag is set, the process proceeds to step S.
If the character change flag is not set, the process proceeds to step S176.

【0239】ステップS175においては、画像準備用
メモリに格納された参加者iの顔画像を拡大する処理を
行う。このステップS175における処理により、図2
3に示したように、挿入する文字の送信元となる参加者
の画像が拡大表示されることとなる。なお、このステッ
プS175における処理の後に、処理をステップS17
6に進める。
In step S175, the face image of the participant i stored in the image preparation memory is enlarged. As a result of the processing in step S175 shown in FIG.
As shown in FIG. 3, the image of the participant who is the transmission source of the character to be inserted is enlarged and displayed. After the process in step S175, the process is performed in step S17.
Proceed to 6.

【0240】ステップS176においては、参加者リス
トを参照することにより、参加者iに対応したマーク変
化フラグが立っているか否かを判定する。この結果、マ
ーク変化フラグが立っている場合には処理をステップS
177に進め、マーク変化フラグが立っていない場合に
は処理をステップS178に進める。
In step S176, it is determined whether or not the mark change flag corresponding to the participant i is set by referring to the participant list. As a result, if the mark change flag is set, the process proceeds to step S.
If the mark change flag is not set, the process proceeds to step S178.

【0241】ステップS177においては、画像準備用
メモリに格納された参加者iの顔画像に対して所定のマ
ークを描画する処理を行う。このステップS177にお
ける処理の後に、処理をステップS178に進める。
In step S177, a process of drawing a predetermined mark on the face image of the participant i stored in the image preparation memory is performed. After the processing in step S177, the process proceeds to step S178.

【0242】ステップS178においては、変数iの現
在の値に「1」を加える処理を行う。次に、ステップS
179において、変数iの値が配信番組に出演する参加
者の数未満であるか否か、すなわち全ての参加者に対し
てステップS173以降の処理が完了しているか否かを
判定し、完了していない場合には処理をステップS17
3に戻して、次の参加者についてもステップS173以
降の処理を行う。また、全ての参加者に対する処理が完
了している場合には、処理をステップS162に進め
る。
In step S178, a process of adding "1" to the current value of variable i is performed. Next, step S
In 179, it is determined whether or not the value of the variable i is less than the number of participants who appear in the distributed program, that is, whether or not the processing from step S173 is completed for all the participants. If not, the process proceeds to step S17.
Returning to step 3, the process from step S173 is also performed for the next participant. If the processing has been completed for all participants, the process proceeds to step S162.

【0243】コンテンツ配信システム1においては、コ
ミュニケーション用アプリケーション・プログラムが上
述した処理を行うことにより、コミュニケーション用ア
プリケーション・プログラムで複数のクライアント端末
12から取得したコンテンツをライブ配信用アプリケー
ション・プログラムに対して受け渡すことができる。こ
れにより、ライブ配信用アプリケーション・プログラム
側で複数のコンテンツを配信画像に挿入することができ
る。
In the content distribution system 1, the communication application program performs the above-described processing to receive the content acquired from the plurality of client terminals 12 by the communication application program with respect to the live distribution application program. Can be passed. As a result, a plurality of contents can be inserted in the distribution image on the live distribution application program side.

【0244】なお、上述の説明においては、参加者全員
についての画像を画像準備用メモリを利用してコミュニ
ケーション用アプリケーション・プログラム側で合成し
た後に、ライブ配信用アプリケーション・プログラム側
に渡している。したがって、ライブ配信用アプリケーシ
ョン・プログラム側では、予め合成された参加者全員分
の画像を元画像に対して合成する処理と、コミュニケー
ション用アプリケーション・プログラムから取得した
「おはよう!」などのテキスト(文字)を元画像に対し
て合成する処理との2つの画像合成処理が行われる。
In the above description, the images of all the participants are combined on the communication application program side using the image preparation memory and then passed to the live distribution application program side. Therefore, on the side of the application program for live distribution, the process of synthesizing the images of all the participants that have been synthesized in advance with the original image, and the text (characters) such as “Good morning!” Acquired from the application program for communication. Two image synthesizing processes, that is, a process of synthesizing with the original image are performed.

【0245】ただし、コンテンツ配信システム1におい
ては、コミュニケーション用アプリケーション・プログ
ラムとライブ配信用アプリケーション・プログラムとの
どちらでどの程度までの合成処理を行うかは任意である
ことは述べるまでもない。
However, it goes without saying that in the content distribution system 1, it is optional which of the communication application program and the live distribution application program performs the combining process.

【0246】(10)まとめ 以上で説明したように、コンテンツ配信システム1にお
いては、ライブ配信アプリケーション・プログラムとコ
ミュニケーション用アプリケーション・プログラムとが
密接に連携することによって、クライアント端末12か
ら送出されたコンテンツが、ユーザ端末10からライブ
配信されるコンテンツに挿入されることとなる。なお、
上述した一連の処理は、ライブ配信アプリケーション・
プログラムとコミュニケーション用アプリケーション・
プログラムとが連携して実行されることにより実現する
ことに限定されるものではなく、例えば単一のアプリケ
ーション・プログラムにより実現されていてもよい。
(10) Summary As described above, in the content distribution system 1, the content distributed from the client terminal 12 can be transmitted by the close cooperation between the live distribution application program and the communication application program. , Will be inserted into the content delivered live from the user terminal 10. In addition,
The above-mentioned series of processing is performed by the live distribution application
Programs and communication applications ·
The present invention is not limited to being realized by being executed in cooperation with a program, and may be realized by a single application program, for example.

【0247】また、上述のコンテンツ配信システム1に
おいては、コンテンツの配信側のシステムを、クライア
ント端末12から送出されたコンテンツを受信し、ライ
ブ配信されるコンテンツを生成するユーザ端末10と、
ユーザ端末10で生成したライブ配信されるコンテンツ
をクライアント端末12に配信するストリーミング配信
サーバ13とで構成するようにしたが、ユーザ端末10
に複数のクライアント端末12a,12b,12c,・
・・に対してライブ配信されるコンテンツを配信するサ
ーバ機能を備えるように構成してもよい。この場合にお
いても、クライアント端末12から提供された動画像、
静止画像、或いはテキスト等のコンテンツを、発信側で
あるユーザ端末10で自在に利用してコンテンツの配信
を行うことができる。このため、配信されたコンテンツ
の視聴側との間で、意見や主張を極めてスムーズに交換
することができる。
In the content distribution system 1 described above, the system on the content distribution side includes the user terminal 10 that receives the content transmitted from the client terminal 12 and generates the content to be distributed live.
Although the live distribution content generated by the user terminal 10 is configured with the streaming distribution server 13 that distributes the content to the client terminal 12, the user terminal 10
A plurality of client terminals 12a, 12b, 12c ,.
.. may be configured to have a server function for delivering content that is delivered live to. Even in this case, the moving image provided from the client terminal 12,
Content such as a still image or text can be freely used by the user terminal 10 on the transmission side to distribute the content. Therefore, opinions and claims can be exchanged very smoothly with the viewer of the delivered content.

【0248】また、上述したコミュニケーション用アプ
リケーション・プログラム又はライブ配信用アプリケー
ション・プログラムにより実行される処理に相当する手
続きを所望の電子機器で実行処理させるソフトウェアプ
ログラムを各種の記録媒体に格納して提供するとしても
よい。
Further, a software program that causes a desired electronic device to execute a procedure corresponding to the processing executed by the communication application program or the live distribution application program described above is provided by being stored in various recording media. May be

【0249】[0249]

【発明の効果】また、本発明によれば、送信装置によっ
て、発信するコンテンツに視聴装置から送出されたコン
テンツを挿入し、このコンテンツを配信することができ
る。したがって、視聴装置から提供された動画像、静止
画像、或いはテキスト等のコンテンツを、送信装置で自
在に利用してコンテンツの配信を行うことができる。こ
のため、配信されたコンテンツの視聴側と発信側との間
で、意見や主張を極めてスムーズに交換することができ
る。更に本発明では、他の装置から送信装置に対して、
コンテンツを直接送出している。したがって、配信され
るコンテンツに挿入されるコンテンツの授受を極めてス
ムーズに行うことができる。
Further, according to the present invention, the content transmitted from the viewing device can be inserted into the content to be transmitted by the transmitting device, and this content can be distributed. Therefore, the content such as the moving image, the still image, or the text provided from the viewing device can be freely used by the transmitting device to distribute the content. For this reason, opinions and claims can be exchanged extremely smoothly between the viewer and sender of the distributed content. Further, in the present invention, from another device to the transmitting device,
The content is sent directly. Therefore, the content inserted into the distributed content can be exchanged extremely smoothly.

【0250】したがって、本発明によれば、発信者から
離れた場所にいる別の提供者からの動画像をライブ配信
番組に取り込んで各地を中継で結ぶといった形でのコン
テンツの配信を容易に行うことができる。
Therefore, according to the present invention, it is possible to easily distribute the content in such a manner that a moving image from another provider located far from the sender is captured in the live distribution program and relayed to each place. be able to.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施の形態として示すコンテンツ配信
システムの全体的な基本構成を示す概略図である。
FIG. 1 is a schematic diagram showing an overall basic configuration of a content distribution system shown as an embodiment of the present invention.

【図2】同コンテンツ配信システムに用いられるユーザ
端末の構成を示す機能ブロック図である。
FIG. 2 is a functional block diagram showing a configuration of a user terminal used in the content distribution system.

【図3】同コンテンツ配信システムにおいてユーザ端末
側で実行されるライブ配信アプリケーション・プログラ
ムによって表示されるメインウィンドウを示す模式図で
ある。
FIG. 3 is a schematic diagram showing a main window displayed by a live distribution application program executed on the user terminal side in the content distribution system.

【図4】同コンテンツ配信システムにおけるユーザ端末
とクライアント端末との接続関係を示す模式図である。
FIG. 4 is a schematic diagram showing a connection relationship between a user terminal and a client terminal in the content distribution system.

【図5】同コンテンツ配信システムにおいてユーザ端末
側で実行されるライブ配信アプリケーション・プログラ
ムからコミュニケーション用アプリケーション・プログ
ラムが起動された状態における表示画面を示す模式図で
ある。
FIG. 5 is a schematic view showing a display screen in a state where a communication distribution application program is activated from a live distribution application program executed on the user terminal side in the content distribution system.

【図6】同コンテンツ配信システムにより配信されたコ
ンテンツを視聴するクライアント端末側における表示画
面の例を示す模式図である。
FIG. 6 is a schematic diagram showing an example of a display screen on the client terminal side for viewing content distributed by the content distribution system.

【図7】同コンテンツ配信システムにおいてクライアン
ト端末側で実行されるコミュニケーション用アプリケー
ション・プログラムにより作成されるコミュニケーショ
ン用ウィンドウの例を示す模式図である。
FIG. 7 is a schematic diagram showing an example of a communication window created by a communication application program executed on the client terminal side in the content distribution system.

【図8】同コンテンツ配信システムにおいてクライアン
ト端末側から送出されたコンテンツがユーザ端末側で挿
入される場合の表示画面の例を示す模式図である。
FIG. 8 is a schematic diagram showing an example of a display screen when content transmitted from the client terminal side is inserted at the user terminal side in the content distribution system.

【図9】同コンテンツ配信システムにおいてユーザ端末
側でコンテンツの挿入が行われたコンテンツを視聴する
クライアント端末側における表示画面の例を示す模式図
である。
FIG. 9 is a schematic diagram showing an example of a display screen on the client terminal side for viewing the content in which the content has been inserted on the user terminal side in the content distribution system.

【図10】同コンテンツ配信システムにおいてクライア
ント端末側のコミュニケーション用アプリケーション・
プログラムによりテキストデータの入力が行われた状態
における表示画面の例を示す模式図である。
FIG. 10 is a communication application on the client terminal side in the content distribution system.
It is a schematic diagram which shows the example of a display screen in the state where the text data was input by the program.

【図11】同コンテンツ配信システムにおいてクライア
ント端末側で入力されたテキストデータがユーザ端末側
で取得され、利用される場合における表示画面の例を示
す模式図である。
FIG. 11 is a schematic diagram showing an example of a display screen when the text data input on the client terminal side in the content distribution system is acquired and used on the user terminal side.

【図12】同コンテンツ配信システムにおいてテキスト
データが挿入されたコンテンツがクライアント端末側で
視聴される場合における表示画面の例を示す模式図であ
る。
FIG. 12 is a schematic diagram showing an example of a display screen when the content in which the text data is inserted is viewed on the client terminal side in the content distribution system.

【図13】同コンテンツ配信システムにおいてユーザ端
末側で実行されるコミュニケーション用アプリケーショ
ン・プログラムによる実行手順の一例を示すフローチャ
ートである。
FIG. 13 is a flowchart showing an example of an execution procedure by a communication application program executed on the user terminal side in the content distribution system.

【図14】同コンテンツ配信システムにおいてコミュニ
ケーション用アプリケーション・プログラムによりセッ
ション確立準備を行う場合の実行手順の一例を示すフロ
ーチャートである。
FIG. 14 is a flowchart showing an example of an execution procedure when the communication application program prepares to establish a session in the content distribution system.

【図15】同コンテンツ配信システムにおいてコミュニ
ケーション用アプリケーション・プログラムで用いられ
る発信者特定情報(接続用データ)の一例を示す模式図
である。
FIG. 15 is a schematic diagram showing an example of sender identification information (connection data) used in a communication application program in the content distribution system.

【図16】同コンテンツ配信システムにおいてコミュニ
ケーション用アプリケーション・プログラムにより参加
者追加処理を行う場合の実行手順の一例を示すフローチ
ャートである。
FIG. 16 is a flowchart showing an example of an execution procedure when a participant addition process is performed by a communication application program in the content distribution system.

【図17】同コンテンツ配信システムにおいてコミュニ
ケーション用アプリケーション・プログラムにより出演
者選択処理を行う場合における実行手順の一例を示すフ
ローチャートである。
FIG. 17 is a flowchart showing an example of an execution procedure when performing a performer selection process by a communication application program in the content distribution system.

【図18】同コンテンツ配信システムにおいてコミュニ
ケーション用アプリケーション・プログラムによりライ
ブ配信アプリケーション・プログラムに対する文字や画
像などの受け渡し処理を行う場合における実行手順の一
例を示すフローチャートである。
FIG. 18 is a flowchart showing an example of an execution procedure in the case where a communication application program performs a delivery process of characters, images, and the like to the live distribution application program in the content distribution system.

【図19】同コンテンツ配信システムにおいてライブ配
信アプリケーション・プログラムによりコンテンツの挿
入を行う場合における実行手順の一例を示すフローチャ
ートである。
FIG. 19 is a flowchart showing an example of an execution procedure when content is inserted by a live distribution application program in the content distribution system.

【図20】同コンテンツ配信システムにおいて複数のコ
ンテンツを挿入する場合における表示画面の例を示す模
式図である。
FIG. 20 is a schematic diagram showing an example of a display screen when a plurality of contents are inserted in the same content distribution system.

【図21】同コンテンツ配信システムにて複数のコンテ
ンツを挿入する場合において、クライアント端末側の表
示画面に表示されるコミュニケーション用ウィンドウの
例を示す模式図である。
FIG. 21 is a schematic diagram showing an example of a communication window displayed on the display screen of the client terminal when a plurality of contents are inserted in the content distribution system.

【図22】同コンテンツ配信システムにて複数のコンテ
ンツを挿入する場合において、クライアント端末側で顔
画像にマークを合成することが要求された場合における
表示画面の例を示す模式図である。
FIG. 22 is a schematic diagram showing an example of a display screen when a client terminal side is requested to combine a mark with a face image when inserting a plurality of contents in the same content distribution system.

【図23】同コンテンツ配信システムにて複数のコンテ
ンツを挿入する場合において、特定の参加者から入力さ
れた文字を元画像に合成して配信する場合における表示
画面の例を示す模式図である。
FIG. 23 is a schematic diagram showing an example of a display screen in the case where a plurality of contents are inserted in the same content distribution system and characters input by a specific participant are combined with an original image and distributed.

【図24】同コンテンツ配信システムにて複数のコンテ
ンツを挿入する場合において、ユーザ端末のRAM内に
確保されるメモリ領域の内容を示す模式図である。
FIG. 24 is a schematic diagram showing the contents of a memory area secured in the RAM of the user terminal when inserting a plurality of contents in the same content distribution system.

【図25】同コンテンツ配信システムにて複数のコンテ
ンツを挿入する場合において、ライブ配信用アプリケー
ション・プログラム側で行われる処理の一例を示すフロ
ーチャートである。
FIG. 25 is a flowchart showing an example of processing performed on the live distribution application program side when a plurality of contents are inserted in the content distribution system.

【図26】同コンテンツ配信システムにて複数のコンテ
ンツを挿入する場合において、ライブ配信用アプリケー
ション・プログラム側で行われる処理のうち、出演開始
処理について示すフローチャートである。
FIG. 26 is a flowchart showing appearance start processing of the processing performed on the live distribution application program side when a plurality of contents are inserted in the content distribution system.

【図27】同コンテンツ配信システムにて複数のコンテ
ンツを挿入する場合において、ライブ配信用アプリケー
ション・プログラム側で行われる処理のうち、出演中止
処理について示すフローチャートである。
FIG. 27 is a flowchart showing appearance canceling processing among the processing performed on the live distribution application program side when a plurality of contents are inserted in the same content distribution system.

【図28】同コンテンツ配信システムにて複数のコンテ
ンツを挿入する場合において、ライブ配信用アプリケー
ション・プログラム側で行われる処理のうち、変化フラ
グ処理について示すフローチャートである。
FIG. 28 is a flowchart showing change flag processing of the processing performed on the live distribution application program side when a plurality of contents are inserted in the content distribution system.

【図29】同コンテンツ配信システムにて複数のコンテ
ンツを挿入する場合において、ライブ配信用アプリケー
ション・プログラム側で行われる処理のうち、画像更新
タイマー処理について示すフローチャートである。
FIG. 29 is a flowchart showing an image update timer process of the processes performed on the live distribution application program side when a plurality of contents are inserted in the content distribution system.

【図30】同コンテンツ配信システムにて複数のコンテ
ンツを挿入する場合において、ライブ配信用アプリケー
ション・プログラム側で行われる処理のうち、ライブ配
信用アプリケーション・プログラムに対してコンテンツ
を受け渡す処理について示すフローチャートである。
FIG. 30 is a flowchart showing a process of handing over contents to the live distribution application program among the processes performed on the side of the live distribution application program when inserting a plurality of contents in the content distribution system. Is.

【図31】同コンテンツ配信システムにて複数のコンテ
ンツを挿入する場合において、ライブ配信用アプリケー
ション・プログラム側で行われる処理のうち、ライブ配
信用アプリケーション・プログラムに対して受け渡すコ
ンテンツを準備する処理について示すフローチャートで
ある。
FIG. 31 is a diagram showing a process of preparing content to be delivered to the live distribution application program, among the processes performed by the live distribution application program when inserting a plurality of contents in the content distribution system. It is a flowchart shown.

【符号の説明】[Explanation of symbols]

1 コンテンツ配信システム、10 ユーザ端末、11
インターネット、12 クライアント端末、13 ス
トリーミング配信サーバ、14 サーバ使用予約管理セ
ンタ、15 公衆回線網、16 サーバ接続専用ネット
ワーク、29DVカメラ
1 content distribution system, 10 user terminals, 11
Internet, 12 client terminals, 13 streaming distribution server, 14 server use reservation management center, 15 public line network, 16 server connection dedicated network, 29 DV camera

フロントページの続き (72)発明者 宮島 靖 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 井原 圭吾 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 西村 孝則 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 福田 純子 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5C064 AA02 AC04 AC13 AD08 AD14 BA07 BB10 BC07 BC18 BC23 BD02 BD03 BD08 Continued front page    (72) Inventor Yasushi Miyajima             6-735 Kita-Shinagawa, Shinagawa-ku, Tokyo Soni             -Inside the corporation (72) Inventor Keigo Ihara             6-735 Kita-Shinagawa, Shinagawa-ku, Tokyo Soni             -Inside the corporation (72) Inventor Takanori Nishimura             6-735 Kita-Shinagawa, Shinagawa-ku, Tokyo Soni             -Inside the corporation (72) Inventor Junko Fukuda             6-735 Kita-Shinagawa, Shinagawa-ku, Tokyo Soni             -Inside the corporation F-term (reference) 5C064 AA02 AC04 AC13 AD08 AD14                       BA07 BB10 BC07 BC18 BC23                       BD02 BD03 BD08

Claims (18)

【特許請求の範囲】[Claims] 【請求項1】 コンテンツを配信するサーバ装置と前記
サーバ装置から配信されるコンテンツを受信する複数の
視聴装置とにネットワークを介して接続された送信装置
であって、 前記ネットワークを介して他の装置と通信を行う通信手
段と、 前記サーバ装置を介して前記視聴装置に配信されるコン
テンツを生成する制御手段と、を具備し、 前記制御手段は、 前記視聴装置に前記サーバ装置を介して配信される第1
コンテンツを取得する処理と、 前記視聴装置に前記サーバ装置を介して配信される第2
コンテンツを、前記ネットワークに接続された他の装置
から直接取得する処理と、 前記第1コンテンツと前記第2コンテンツとを用いて、
前記サーバ装置に送信する送信コンテンツを生成する処
理と、 前記送信コンテンツを前記通信手段を介して前記サーバ
装置に送信する処理とを実行することを特徴とする送信
装置。
1. A transmission device connected via a network to a server device for distributing contents and a plurality of viewing devices for receiving contents distributed from the server device, the device being another device via the network. Communication means for communicating with the viewing device, and control means for generating content delivered to the viewing device via the server device, wherein the control means is delivered to the viewing device via the server device. First
A process of acquiring content and a second process of delivering the content to the viewing device via the server device
A process of directly acquiring the content from another device connected to the network, and using the first content and the second content,
A transmitting device, which executes a process of generating a transmission content to be transmitted to the server device and a process of transmitting the transmission content to the server device via the communication means.
【請求項2】 前記制御手段は、前記通信手段を介し
て、前記ネットワークに接続された前記サーバ装置から
配信されるコンテンツを受信する前記視聴装置から前記
第2コンテンツを取得する処理を実行することを特徴と
する請求項1記載の送信装置。
2. The control means executes a process of acquiring the second content from the viewing device that receives content distributed from the server device connected to the network, via the communication means. The transmitter according to claim 1, wherein
【請求項3】 前記制御手段は、前記送信装置をネット
ワーク上で特定するための発信者特定情報を前記サーバ
装置に送信し、 前記サーバ装置から前記発信者特定情報を取得した他の
装置からの接続要求に基づいて、前記他の装置と接続を
確立し、前記接続が確立した他の装置から前記第2コン
テンツを受信する処理を実行することを特徴とする請求
項1記載の送信装置。
3. The control means transmits caller identification information for specifying the transmission device on a network to the server device, and from another device that has acquired the caller identification information from the server device. The transmission device according to claim 1, wherein a connection is established with the other device based on a connection request, and a process of receiving the second content from the other device with which the connection is established is executed.
【請求項4】 前記第1コンテンツ及び第2コンテンツ
は、動画像、静止画像、音声情報、又は文字情報である
ことを特徴とする請求項1記載の送信装置。
4. The transmission device according to claim 1, wherein the first content and the second content are moving images, still images, audio information, or character information.
【請求項5】 前記送信装置は、動画像又は静止画像を
撮像する画像撮像装置に接続されており、前記制御手段
は、前記画像撮像装置から前記第1コンテンツを取得す
る処理を行うことを特徴とする請求項1記載の送信装
置。
5. The transmission device is connected to an image capturing device that captures a moving image or a still image, and the control unit performs a process of acquiring the first content from the image capturing device. The transmitting device according to claim 1.
【請求項6】 前記送信装置は、動画像又は静止画像を
撮像する画像撮像手段を具備し、前記制御手段は、前記
画像撮像手段から前記第1コンテンツを取得する処理を
行うことを特徴とする請求項1記載の送信装置。
6. The transmission device comprises image capturing means for capturing a moving image or a still image, and the control means performs a process of acquiring the first content from the image capturing means. The transmission device according to claim 1.
【請求項7】 前記制御手段は、前記他の装置に接続さ
れた画像撮像装置により撮像された動画像又は静止画像
を前記第2コンテンツとして受信する処理を行うことを
特徴とする請求項1記載の送信装置。
7. The control means performs a process of receiving a moving image or a still image captured by an image capturing device connected to the other device as the second content. Transmitter.
【請求項8】 前記制御手段は、前記視聴装置に接続さ
れた画像撮像装置により撮像された動画像又は静止画像
を前記第2コンテンツとして受信する処理を行うことを
特徴とする請求項2記載の送信装置。
8. The control unit performs a process of receiving, as the second content, a moving image or a still image captured by an image capturing device connected to the viewing device. Transmitter.
【請求項9】 前記制御手段は、動画像又は静止画像を
前記第1コンテンツとして取得し、前記第1コンテンツ
で動画像又は静止画像の所定の領域内に、前記他の装置
から送出された前記第2コンテンツを挿入する処理を行
うことを特徴とする請求項1記載の送信装置。
9. The control means obtains a moving image or a still image as the first content, and the first content sends the moving image or the still image within a predetermined area of the moving image or the still image from the other device. The transmitting device according to claim 1, wherein a process of inserting the second content is performed.
【請求項10】 前記制御手段は、複数の他の装置それ
ぞれからコンテンツを取得し、前記複数の他の装置それ
ぞれから受信したコンテンツのうち選択されたコンテン
ツを前記第2コンテンツとして、前記送信コンテンツを
生成する処理を行うことを特徴とする請求項1記載の送
信装置。
10. The control unit obtains contents from each of a plurality of other devices, and selects the content selected from among the contents received from each of the plurality of other devices as the second content. The transmitting device according to claim 1, wherein the transmitting device performs a generating process.
【請求項11】 コンテンツを配信するサーバ装置を介
して複数の視聴装置にコンテンツを配信する送信方法で
あって、 前記視聴装置に前記サーバ装置を介して配信される第1
コンテンツを取得するステップと、 前記視聴装置に前記サーバ装置を介して配信される第2
コンテンツを、前記ネットワークに接続された他の装置
から取得するステップと、 前記第1コンテンツと前記第2コンテンツとを用いて、
前記サーバ装置に送信する送信コンテンツを生成するス
テップと、 前記送信コンテンツを前記サーバ装置に送信するステッ
プとを具備することを特徴とする送信方法。
11. A transmission method for delivering content to a plurality of viewing devices via a server device for delivering content, wherein the first delivery method is delivered to the viewing device via the server device.
A step of acquiring content, and a second step of being delivered to the viewing device via the server device
Acquiring content from another device connected to the network, using the first content and the second content,
A transmission method comprising: a step of generating transmission contents to be transmitted to the server device; and a step of transmitting the transmission contents to the server device.
【請求項12】 コンテンツを配信するサーバ装置と前
記サーバ装置から配信されるコンテンツを受信する複数
の視聴装置とにネットワークを介して接続された装置に
コンテンツの送信処理を実行させるプログラムであっ
て、 前記サーバ装置を介して前記視聴装置に配信される第1
コンテンツを取得する制御を行う処理と、 前記サーバ装置を介して前記視聴装置に配信される第2
コンテンツを、前記ネットワークに接続された他の装置
から取得する制御を行う処理と、 前記第1コンテンツと前記第2コンテンツとを用いて、
前記サーバ装置に送信する送信コンテンツを生成する制
御を行う処理と、 前記送信コンテンツを前記サーバ装置に送信する制御を
行う処理とを具備することを特徴とするプログラム。
12. A program for causing a device connected via a network to a server device for distributing content and a plurality of viewing devices for receiving the content distributed from the server device to execute a content transmission process. First distributed to the viewing device via the server device
A process of controlling to acquire the content, and a second process of delivering the content to the viewing device via the server device.
Using a process of controlling acquisition of content from another device connected to the network, and using the first content and the second content,
A program comprising: a process of controlling generation of a transmission content to be transmitted to the server device, and a process of performing control of transmitting the transmission content to the server device.
【請求項13】 複数の視聴装置とネットワークを介し
て接続されたコンテンツ配信システムであって、 前記複数の視聴装置にコンテンツを配信する配信手段
と、 前記配信手段を介して前記視聴装置に配信するコンテン
ツを生成する生成手段とを具備し、 前記生成手段は、 前記視聴装置に前記配信手段を介して配信される第1コ
ンテンツを取得する処理と、 前記視聴装置に前記配信手段を介して配信される第2コ
ンテンツを、前記ネットワークに接続された他の装置か
ら直接取得する処理と、 前記第1コンテンツと前記第2コンテンツとを用いて、
前記配信手段を介して前記視聴装置に配信する配信コン
テンツを生成する処理とを実行し、前記配信手段は、 前記生成手段で生成された前記配信コンテンツを前記複
数の視聴装置に配信する処理を実行することを特徴とす
るコンテンツ配信システム。
13. A content distribution system connected to a plurality of viewing devices via a network, wherein the distribution means distributes content to the plurality of viewing devices, and distributes to the viewing devices via the distribution means. A generation unit configured to generate content, wherein the generation unit acquires the first content distributed to the viewing device via the distribution unit, and is distributed to the viewing device via the distribution unit. A second content that is directly obtained from another device connected to the network, using the first content and the second content,
And a process of generating distribution content to be distributed to the viewing device via the distribution unit, the distribution unit executing a process of distributing the distribution content generated by the generation unit to the plurality of viewing devices. A content distribution system characterized by:
【請求項14】 前記生成手段と前記配信手段とは、前
記ネットワークを介して接続されており、 前記生成手段は、前記ネットワークを介して前記配信コ
ンテンツを前記配信手段に送信する処理を実行すること
を特徴とする請求項13記載のコンテンツ配信システ
ム。
14. The generation unit and the distribution unit are connected via the network, and the generation unit executes a process of transmitting the distribution content to the distribution unit via the network. 14. The content distribution system according to claim 13, wherein:
【請求項15】 前記生成手段は、前記配信手段から配
信されるコンテンツを受信する前記視聴装置から前記第
2コンテンツを取得する処理を実行することを特徴とす
る請求項13記載のコンテンツ配信システム。
15. The content distribution system according to claim 13, wherein the generation unit executes a process of acquiring the second content from the viewing device that receives the content distributed by the distribution unit.
【請求項16】 前記生成手段は、 前記配信手段を介して、前記配信コンテンツのネットワ
ーク上で発信者を特定するための発信者特定情報を配信
し、 前記配信手段から前記発信者特定情報を取得した他の装
置からの接続要求に基づいて、前記他の装置と接続を確
立し、 前記接続が確立した他の装置から前記第2コンテンツを
受信する処理を実行することを特徴とする請求項13記
載のコンテンツ配信システム。
16. The generation means distributes, through the distribution means, sender identification information for specifying a sender on the network of the distribution content, and acquires the sender identification information from the distribution means. The process of establishing a connection with the other device based on a connection request from the other device that has established the connection, and executing the process of receiving the second content from the other device with which the connection has been established. Content distribution system described.
【請求項17】 複数の視聴装置にコンテンツを配信す
る配信手段と、前記配信手段を介して前記視聴装置に配
信するコンテンツを生成する生成手段とを有するコンテ
ンツ配信システムで、コンテンツを配信するコンテンツ
配信方法であって、 前記視聴装置に前記配信手段を介して配信される第1コ
ンテンツを取得するステップと、 前記視聴装置に前記配信手段を介して配信される第2コ
ンテンツを、前記ネットワークに接続された他の装置か
ら直接取得するステップと、 前記第1コンテンツと前記第2コンテンツとを用いて、
前記配信手段を介して前記視聴装置に配信する配信コン
テンツを生成するステップと、 前記生成手段で生成された前記配信コンテンツを前記複
数の視聴装置に配信するステップとを具備することを特
徴とするコンテンツ配信方法。
17. A content distribution system having a distribution means for distributing contents to a plurality of viewing devices, and a generation means for generating contents to be distributed to the viewing devices via the distribution means. A method of acquiring first content distributed to the viewing device via the distribution means, and connecting a second content distributed to the viewing device via the distribution means to the network. And a step of directly acquiring from another device, using the first content and the second content,
Content comprising: a step of generating distribution content to be distributed to the viewing device via the distribution means; and a step of distributing the distribution content generated by the generation means to the plurality of viewing devices. Delivery method.
【請求項18】 複数の視聴装置にコンテンツを配信す
る配信手段と、前記配信手段を介して前記視聴装置に配
信するコンテンツを生成する生成手段とを有するシステ
ムに、コンテンツの配信処理を実行させるプログラムで
あって、 前記視聴装置に前記配信手段を介して配信される第1コ
ンテンツを取得する処理と、 前記視聴装置に前記配信手段を介して配信される第2コ
ンテンツを、前記ネットワークに接続された他の装置か
ら直接取得する処理と、 前記第1コンテンツと前記第2コンテンツとを用いて、
前記配信手段を介して前記視聴装置に配信する配信コン
テンツを生成する処理と、 前記生成手段で生成された前記配信コンテンツを前記複
数の視聴装置に配信する処理とを具備することを特徴と
するプログラム。
18. A program for causing a system having distribution means for distributing contents to a plurality of viewing devices and generating means for generating contents to be distributed to the viewing devices via the distribution means to execute a distribution process of contents. And a process of acquiring the first content distributed to the viewing device via the distribution means, and the second content distributed to the viewing device via the distribution means to the network. Using the process of directly obtaining from another device and the first content and the second content,
A program comprising: a process of generating distribution content to be distributed to the viewing device via the distribution unit; and a process of distributing the distribution content generated by the generation unit to the plurality of viewing devices. .
JP2002271334A 2001-09-18 2002-09-18 TRANSMISSION DEVICE, TRANSMISSION METHOD, CONTENT DISTRIBUTION DEVICE, CONTENT DISTRIBUTION METHOD, AND PROGRAM Expired - Fee Related JP4232419B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002271334A JP4232419B2 (en) 2001-09-18 2002-09-18 TRANSMISSION DEVICE, TRANSMISSION METHOD, CONTENT DISTRIBUTION DEVICE, CONTENT DISTRIBUTION METHOD, AND PROGRAM

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2001284192 2001-09-18
JP2001-284192 2001-09-18
JP2002023376 2002-01-31
JP2002-23376 2002-01-31
JP2002271334A JP4232419B2 (en) 2001-09-18 2002-09-18 TRANSMISSION DEVICE, TRANSMISSION METHOD, CONTENT DISTRIBUTION DEVICE, CONTENT DISTRIBUTION METHOD, AND PROGRAM

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2008149328A Division JP4609737B2 (en) 2001-09-18 2008-06-06 Transmission device and method, content distribution device and method, and program

Publications (3)

Publication Number Publication Date
JP2003296239A true JP2003296239A (en) 2003-10-17
JP2003296239A5 JP2003296239A5 (en) 2005-11-04
JP4232419B2 JP4232419B2 (en) 2009-03-04

Family

ID=29407473

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002271334A Expired - Fee Related JP4232419B2 (en) 2001-09-18 2002-09-18 TRANSMISSION DEVICE, TRANSMISSION METHOD, CONTENT DISTRIBUTION DEVICE, CONTENT DISTRIBUTION METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP4232419B2 (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004015750A (en) * 2002-06-11 2004-01-15 Ntt Comware Corp Live distribution server and live distribution method
JP2005191968A (en) * 2003-12-25 2005-07-14 National Institute Of Advanced Industrial & Technology Two-way broadcasting system enabling viewing audience to produce and transmit program
JP2005286409A (en) * 2004-03-26 2005-10-13 National Institute Of Advanced Industrial & Technology Archive system for audience participation two-way program
JP2006050370A (en) * 2004-08-06 2006-02-16 Sony Corp Information processing apparatus and method, recording medium, and program
JP2006345263A (en) * 2005-06-09 2006-12-21 Nippon Hoso Kyokai <Nhk> Program work management server, program terminal, program for program work management, and program for program work
US8819167B2 (en) 2009-07-20 2014-08-26 Samsung Electronics Co., Ltd. Apparatus and method for requesting and transferring contents
JP2015525496A (en) * 2012-05-16 2015-09-03 ヨッティーオ,インコーポレイテッドYottio,Inc. Real-time composite broadcasting system and method having a mechanism for adjusting a plurality of media feeds
KR20170024065A (en) * 2014-06-30 2017-03-06 더 비디오 콜 센터, 엘엘씨 Video call center
JP2017118417A (en) * 2015-12-25 2017-06-29 株式会社フェイス Compiling one ugc program from multiple video streams generated by multiple people photographing the same live event with their information terminal at their viewpoint and performing live distribution
JP6198983B1 (en) * 2017-04-26 2017-09-20 株式会社 ディー・エヌ・エー System, method, and program for distributing video
JP2017229085A (en) * 2017-08-22 2017-12-28 株式会社 ディー・エヌ・エー System, method and program for distributing video
JPWO2017068928A1 (en) * 2015-10-21 2018-08-30 ソニー株式会社 Information processing apparatus, control method therefor, and computer program
US10575030B2 (en) 2016-06-22 2020-02-25 DeNA Co., Ltd. System, method, and program for distributing video
JP2020039014A (en) * 2018-08-31 2020-03-12 株式会社コロプラ Program, information processing device, and method
JP2020188514A (en) * 2020-08-06 2020-11-19 株式会社 ディー・エヌ・エー System, method and program for distributing video
JP7449519B2 (en) 2021-12-30 2024-03-14 17Live株式会社 Systems, methods, and computer-readable media for video processing

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004015750A (en) * 2002-06-11 2004-01-15 Ntt Comware Corp Live distribution server and live distribution method
JP2005191968A (en) * 2003-12-25 2005-07-14 National Institute Of Advanced Industrial & Technology Two-way broadcasting system enabling viewing audience to produce and transmit program
US7609287B2 (en) 2003-12-25 2009-10-27 Brother Kogyo Kabushiki Kaisha Two-way broadcasting system allowing a viewer to produce and send a program
JP2005286409A (en) * 2004-03-26 2005-10-13 National Institute Of Advanced Industrial & Technology Archive system for audience participation two-way program
JP4655190B2 (en) * 2004-08-06 2011-03-23 ソニー株式会社 Information processing apparatus and method, recording medium, and program
JP2006050370A (en) * 2004-08-06 2006-02-16 Sony Corp Information processing apparatus and method, recording medium, and program
JP2006345263A (en) * 2005-06-09 2006-12-21 Nippon Hoso Kyokai <Nhk> Program work management server, program terminal, program for program work management, and program for program work
US8819167B2 (en) 2009-07-20 2014-08-26 Samsung Electronics Co., Ltd. Apparatus and method for requesting and transferring contents
US9712480B2 (en) 2009-07-20 2017-07-18 Samsung Electronics Co., Ltd. Apparatus and method for requesting and transferring contents
JP2015525496A (en) * 2012-05-16 2015-09-03 ヨッティーオ,インコーポレイテッドYottio,Inc. Real-time composite broadcasting system and method having a mechanism for adjusting a plurality of media feeds
KR20170024065A (en) * 2014-06-30 2017-03-06 더 비디오 콜 센터, 엘엘씨 Video call center
JP2017529024A (en) * 2014-06-30 2017-09-28 ザ ビデオ コール センター,エルエルシー Video call center
KR102430657B1 (en) * 2014-06-30 2022-08-08 더 비디오 콜 센터, 엘엘씨 Video call center
US10986206B2 (en) 2015-10-21 2021-04-20 Sony Corporation Information processing apparatus, control method thereof, and computer readable medium for visual information sharing
JPWO2017068928A1 (en) * 2015-10-21 2018-08-30 ソニー株式会社 Information processing apparatus, control method therefor, and computer program
JP2017118417A (en) * 2015-12-25 2017-06-29 株式会社フェイス Compiling one ugc program from multiple video streams generated by multiple people photographing the same live event with their information terminal at their viewpoint and performing live distribution
US10575030B2 (en) 2016-06-22 2020-02-25 DeNA Co., Ltd. System, method, and program for distributing video
JP6198983B1 (en) * 2017-04-26 2017-09-20 株式会社 ディー・エヌ・エー System, method, and program for distributing video
JP2017229062A (en) * 2017-04-26 2017-12-28 株式会社 ディー・エヌ・エー System, method and program for distributing video
JP2017229085A (en) * 2017-08-22 2017-12-28 株式会社 ディー・エヌ・エー System, method and program for distributing video
JP2020039014A (en) * 2018-08-31 2020-03-12 株式会社コロプラ Program, information processing device, and method
JP2020188514A (en) * 2020-08-06 2020-11-19 株式会社 ディー・エヌ・エー System, method and program for distributing video
JP7012792B2 (en) 2020-08-06 2022-01-28 株式会社 ディー・エヌ・エー Systems, methods, and programs for delivering videos
JP7449519B2 (en) 2021-12-30 2024-03-14 17Live株式会社 Systems, methods, and computer-readable media for video processing

Also Published As

Publication number Publication date
JP4232419B2 (en) 2009-03-04

Similar Documents

Publication Publication Date Title
JP4609737B2 (en) Transmission device and method, content distribution device and method, and program
US20190362099A1 (en) Information processing system, service providing apparatus and method, information processing apparatus and method, recording medium, and program
US8325213B2 (en) Video communication system and method
JP4232419B2 (en) TRANSMISSION DEVICE, TRANSMISSION METHOD, CONTENT DISTRIBUTION DEVICE, CONTENT DISTRIBUTION METHOD, AND PROGRAM
JP4581201B2 (en) Reservation management method, reservation management apparatus, and program storage medium
JP4974405B2 (en) Server use method, server use reservation management apparatus, and program storage medium
JP2002073541A (en) Contents distributing method and contents supply system
JP2002074123A (en) Server user reservation method, reservation managing device and program storage medium
JP2002074125A (en) Contents distribution notification method, reservation management device and program storage medium
JP2002073542A (en) Method for use reservation of server, reservation managing device and program storage medium
JP2002077868A (en) Contents delivery reservation method, contents delivery method, reservation control device, and program storage medium
JP6719166B2 (en) Live broadcasting system
JP2003030105A (en) System, device, method, and program for contents evaluation, and contents evaluating program storage medium
US20070165800A1 (en) Connection control apparatus, method, and program
US7716594B2 (en) Information processing apparatus, information processing method, recording medium, and program
JP2003091472A (en) Contents distribution system and method and contents transmission program
US7739610B2 (en) Information processing apparatus, information processing method, recording medium, and program
JP7161715B1 (en) Method and server for handling streaming data
US7721215B2 (en) Information processing apparatus, information processing method, recording medium, and program
JP7243323B2 (en) Communication terminal, communication system, display control method and program
JP2006237682A (en) Moving image distribution system, management server capable of recording moving image data, and moving image data recording program
JP4713176B2 (en) Video message delivery system, server device, and video message delivery method
JP2003030552A (en) Procedure situation notification system, device, method, program and program storage medium, and procedure implementation device, method, program and program storage medium
JP2003228452A (en) Communication system, communication method, communication program and information processing device
JP2003006073A (en) Network access system, and network access method using the system

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050530

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050816

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050816

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081201

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111219

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4232419

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111219

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121219

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121219

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131219

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees