JP2008210417A - 送信装置及び方法、コンテンツ配信装置及び方法、並びにプログラム - Google Patents

送信装置及び方法、コンテンツ配信装置及び方法、並びにプログラム Download PDF

Info

Publication number
JP2008210417A
JP2008210417A JP2008149328A JP2008149328A JP2008210417A JP 2008210417 A JP2008210417 A JP 2008210417A JP 2008149328 A JP2008149328 A JP 2008149328A JP 2008149328 A JP2008149328 A JP 2008149328A JP 2008210417 A JP2008210417 A JP 2008210417A
Authority
JP
Japan
Prior art keywords
content
distribution
distributed
viewing
application program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008149328A
Other languages
English (en)
Other versions
JP4609737B2 (ja
Inventor
Junji Oi
純司 大井
Hiroshi Hasegawa
寛 長谷川
Yasushi Miyajima
靖 宮島
Keigo Ihara
圭吾 井原
Takanori Nishimura
孝則 西村
Junko Fukuda
純子 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008149328A priority Critical patent/JP4609737B2/ja
Publication of JP2008210417A publication Critical patent/JP2008210417A/ja
Application granted granted Critical
Publication of JP4609737B2 publication Critical patent/JP4609737B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1822Conducting the conference, e.g. admission, detection, selection or grouping of participants, correlating users to one or more conference sessions, prioritising transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2381Adapting the multiplex stream to a specific network, e.g. an Internet Protocol [IP] network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4782Web browsing, e.g. WebTV
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6125Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Information Transfer Between Computers (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】視聴者側から提供されたコンテンツを効率的に発信者側に送出し、このコンテンツを利用してライブ配信を行う。
【解決手段】 発信者側となるユーザ端末10からライブ配信する番組のコンテンツと、このユーザ端末10をインターネット11上で特定するための発信者特定情報とをストリーミング配信サーバ13を介してクライアント端末12に配信する。クライアント端末12側から提供するコンテンツを、発信者特定情報に基づいて直接ユーザ端末10に送出し、このユーザ端末10側で、クライアント端末12から送出されたコンテンツを利用してライブ配信を行う。
【選択図】図4

Description

本発明は、送信装置及び方法、コンテンツ配信装置及び方法、並びにプログラムに関し、特に、視聴者側から提供された動画像、静止画像、或いはテキスト等のコンテンツを、発信者側で自在に利用することが可能になった送信装置及び方法、コンテンツ配信装置及び方法、並びにプログラムに関する。
従来から、多数のコンピュータ装置が接続されたコンピュータネットワークとして、いわゆるインターネット(The Internet)が広く普及している。インターネットは、TCP/IP(Transmission ControlProtocol / Internet Protocol)を代表とする各種のプロトコル(相互接続手順)を利用して、コンピュータ同士の間で様々な情報を自在に送受信することが可能とされている。
このようなインターネットを利用して、例えばデジタルビデオカメラ等の撮像装置により撮像した動画像を、多数の視聴者に向けて配信する場合には、以下に挙げるような手法がある。
すなわち、第1の手法としては、動画像が含まれるファイルを発信者側のコンピュータ装置からサーバ装置に転送(アップロード)しておき、他のコンピュータ装置からサーバ装置に対して取得要求が行われた場合に、この転送されたファイルを自由に取得(ダウンロード)可能な状態としておくことが挙げられる。これにより、視聴者側では、インターネットに接続されたコンピュータ装置を用いて、サーバ装置から動画像ファイルをダウンロードし、このコンピュータ装置の表示画面上で動画像を閲覧することができる。
第2の手法としては、動画像の発信者側が自前でサーバ装置を用意し、このサーバ装置に動画像が含まれるファイルをダウンロード自在な状態で保持しておく。これにより、上述した第1の手法と同様に、このサーバ装置から視聴者側のコンピュータ装置に対して動画像を配信することができる。
また、このようにサーバ装置を発信者側が自前で用意する場合には、予め編集を済ませた完成済みの動画像ファイルを配信することができるだけでなく、サーバ装置或いはサーバ装置に接続した発信者側のコンピュータ装置に撮像装置を接続しておくことにより、この撮像装置により撮像した動画像をリアルタイムでライブ配信することもできる。
このようなライブ配信は、各種のストリーミング(Streaming)配信技術、すなわち、サーバ装置に保持された動画データをコンピュータネットワークを介してダウンロードしながら逐次再生する技術を利用して実現することができる。ストリーミング配信技術としては、例えば、リアルネットワークス株式会社の「RealSystem」(例えば、非特許文献1参照。)、アップルコンピュータ株式会社の「QuickTime Streaming Server」(例えば、非特許文献2参照。)、マイクロソフト株式会社の「Windows Media テクノロジー」(例えば、非特許文献3参照。)等を挙げることができる。
インターネット<URL:http://www.jp.real.com/> インターネット<URL:http://www.apple.co.jp/> インターネット<URL:http://www.microsoft.com/japan/>
ところで、上述のようにして動画像などをネットワークを介して視聴者側にライブ配信する場合には、動画像の発信者がひとつのライブ配信につき一人に制限されており、発信者から離れた場所にいる別の提供者からの動画像をライブ配信番組に取り込んで各地を中継で結ぶといった形の配信を行うことができなかった。
また例えば、ライブ配信を行う番組に視聴者側からの意見や主張を反映させるためには、ライブ配信を行うシステムとは別のシステムを用いることが必要である。具体的には例えば、視聴者側の意見や主張を電子メールやチャットなどを実現するアプリケーションソフトを用いて文字や静止画像の形式で取得し、取得した文字や静止画像をライブ配信を行うシステムに読み込むなどする必要がある。或いはまた、電子メールやチャットなどを実現するアプリケーションソフトを用いて、ライブ配信を行うシステムと同時進行させた形で意見や主張を交換する必要がある。
しかしながら、上述のような手法により視聴者側との間で意見や主張を交換してライブ配信を行う場合には、関連性が希薄な複数のアプリケーションソフトを操作する必要があり、操作が煩雑なものとなるといった問題があった。また、ライブ配信される動画像とチャットの内容との関連性が薄くなることを避けることができず、動画像の発信者側と視聴者側との間で意見や主張の交換をスムーズに行うことが困難となってしまう。さらには、ライブ配信された動画像を記録しておいても、この動画像だけではひとつの番組として成立しないといった問題があった。
本発明は、このような状況に鑑みてなされたものであり、視聴者側から提供された動画像、静止画像、或いはテキスト等のコンテンツを、発信者側で自在に利用することを可能にするものである。
本発明の第1の側面の送信装置は、コンテンツを配信するサーバ装置と前記サーバ装置から配信されるコンテンツを受信する複数の視聴装置とにネットワークを介して接続された送信装置であって、前記ネットワークを介して他の装置と通信を行う通信手段と、前記サーバ装置を介して前記視聴装置に配信されるコンテンツを生成する制御手段と、を具備し、前記制御手段は、前記視聴装置に前記サーバ装置を介して配信される第1コンテンツを、前記送信装置に備える装置および前記送信装置に接続される装置のうち少なくとも1の装置から取得する処理と、前記視聴装置に前記サーバ装置を介して配信される第2コンテンツを、前記サーバ装置から配信されるコンテンツを受信する前記視聴装置から、前記通信手段を介して取得する処理と、前記第1コンテンツと前記第2コンテンツとを用いて、前記サーバ装置に送信する送信コンテンツを生成する処理と、前記送信コンテンツを前記通信手段を介して前記サーバ装置に送信する処理とを実行する。
前記制御手段には、前記送信装置をネットワーク上で特定するための発信者特定情報を前記サーバ装置に送信し、前記サーバ装置から前記発信者特定情報を取得した他の装置からの接続要求に基づいて、前記他の装置と接続を確立し、前記接続が確立した他の装置から前記第2コンテンツを受信する処理を実行させる。
前記第1コンテンツ及び第2コンテンツは、動画像、静止画像、音声情報、又は文字情報である。
前記送信装置は、動画像又は静止画像を撮像する画像撮像装置に接続されており、前記制御手段には、前記画像撮像装置から前記第1コンテンツを取得する処理を行わせることができる。
前記第1コンテンツを取得する前記装置は、動画像又は静止画像を撮像する画像撮像手段である。
前記制御手段には、前記他の装置に接続された画像撮像装置により撮像された動画像又は静止画像を前記第2コンテンツとして受信する処理を行わせることができる。
前記制御手段には、前記視聴装置に接続された画像撮像装置により撮像された動画像又は静止画像を前記第2コンテンツとして受信する処理を行わせることができる。
前記制御手段には、動画像又は静止画像を前記第1コンテンツとして取得し、前記第1コンテンツで動画像又は静止画像の所定の領域内に、前記他の装置から送出された前記第2コンテンツを挿入する処理を行わせることができる。
前記制御手段には、複数の他の装置それぞれからコンテンツを取得し、前記複数の他の装置それぞれから受信したコンテンツのうち選択されたコンテンツを前記第2コンテンツとして、前記送信コンテンツを生成する処理を行わせることができる。
本発明の第1の側面の送信方法は、コンテンツを配信するサーバ装置を介して複数の視聴装置にコンテンツを配信する送信装置が、前記視聴装置に前記サーバ装置を介して配信される第1コンテンツを、前記送信装置に備える装置および前記送信装置に接続される装置のうち少なくとも1の装置から取得し、前記視聴装置に前記サーバ装置を介して配信される第2コンテンツを、前記サーバ装置から配信されるコンテンツを受信する前記視聴装置から取得し、前記第1コンテンツと前記第2コンテンツとを用いて、前記サーバ装置に送信する送信コンテンツを生成し、前記送信コンテンツを前記サーバ装置に送信するステップを含む。
本発明の第1の側面のプログラムは、コンテンツを配信するサーバ装置と前記サーバ装置から配信されるコンテンツを受信する複数の視聴装置とにネットワークを介して接続された装置にコンテンツの送信処理を実行させるプログラムであって、前記サーバ装置を介して前記視聴装置に配信される第1コンテンツを、前記送信装置に備える装置および前記送信装置に接続される装置のうち少なくとも1の装置から取得する制御を行う処理と、前記サーバ装置を介して前記視聴装置に配信される第2コンテンツを、前記サーバ装置から配信されるコンテンツを受信する前記視聴装置から取得する制御を行う処理と、前記第1コンテンツと前記第2コンテンツとを用いて、前記サーバ装置に送信する送信コンテンツを生成する制御を行う処理と、前記送信コンテンツを前記サーバ装置に送信する制御を行う処理とを実行させる。
本発明の第2の側面のコンテンツ配信装置は、複数の視聴装置とネットワークを介して接続されたコンテンツ配信装置であって、前記複数の視聴装置にコンテンツを配信する配信手段と、前記配信手段を介して前記視聴装置に配信するコンテンツを生成する生成手段とを具備し、前記生成手段は、前記視聴装置に前記配信手段を介して配信される第1コンテンツを、前記コンテンツ配信装置に備える装置および前記コンテンツ配信装置に接続される装置のうち少なくとも1の装置から取得する処理と、前記視聴装置に前記配信手段を介して配信される第2コンテンツを、前記配信手段から配信されるコンテンツを受信する前記視聴装置から取得する処理と、前記第1コンテンツと前記第2コンテンツとを用いて、前記配信手段を介して前記視聴装置に配信する配信コンテンツを生成する処理とを実行し、前記配信手段は、前記生成手段で生成された前記配信コンテンツを前記複数の視聴装置に配信する処理を実行する。
前記生成手段と前記配信手段とは、前記ネットワークを介して接続されており、前記生成手段には、前記ネットワークを介して前記配信コンテンツを前記配信手段に送信する処理を実行させることができる。
前記生成手段には、前記配信手段を介して、前記配信コンテンツのネットワーク上で発信者を特定するための発信者特定情報を配信し、前記配信手段から前記発信者特定情報を取得した他の装置からの接続要求に基づいて、前記他の装置と接続を確立し、前記接続が確立した他の装置から前記第2コンテンツを受信する処理を実行させることができる。
本発明の第2の側面のコンテンツ配信方法は、複数の視聴装置にコンテンツを配信する配信手段と、前記配信手段を介して前記視聴装置に配信するコンテンツを生成する生成手段とを有するコンテンツ配信装置が、前記視聴装置に前記配信手段を介して配信される第1コンテンツを、前記コンテンツ配信装置に備える装置および前記コンテンツ配信装置に接続される装置のうち少なくとも1の装置から取得し、前記視聴装置に前記配信手段を介して配信される第2コンテンツを、前記配信手段から配信されるコンテンツを受信する前記視聴装置から取得し、前記第1コンテンツと前記第2コンテンツとを用いて、前記配信手段を介して前記視聴装置に配信する配信コンテンツを生成し、前記生成手段で生成された前記配信コンテンツを前記複数の視聴装置に配信するステップを含む。
本発明の第2の側面のプログラムは、複数の視聴装置にコンテンツを配信する配信手段と、前記配信手段を介して前記視聴装置に配信するコンテンツを生成する生成手段とを有するコンテンツ配信装置に、コンテンツの配信処理を実行させるプログラムであって、前記視聴装置に前記配信手段を介して配信される第1コンテンツを、前記コンテンツ配信装置に備える装置および前記コンテンツ配信装置に接続される装置のうち少なくとも1の装置から取得する処理と、前記視聴装置に前記配信手段を介して配信される第2コンテンツを、前記配信手段から配信されるコンテンツを受信する前記視聴装置から取得する処理と、前記第1コンテンツと前記第2コンテンツとを用いて、前記配信手段を介して前記視聴装置に配信する配信コンテンツを生成する処理と、前記生成手段で生成された前記配信コンテンツを前記複数の視聴装置に配信する処理とを実行させる。
本発明の第1の側面においては、コンテンツを配信するサーバ装置と前記サーバ装置から配信されるコンテンツを受信する複数の視聴装置とにネットワークを介して接続された送信装置において、前記ネットワークを介して他の装置と通信が行われ、前記サーバ装置を介して前記視聴装置に配信されるコンテンツが生成され、前記コンテンツの生成において、前記視聴装置に前記サーバ装置を介して配信される第1コンテンツを、前記送信装置に備える装置および前記送信装置に接続される装置のうち少なくとも1の装置から取得する処理と、前記視聴装置に前記サーバ装置を介して配信される第2コンテンツを、前記サーバ装置から配信されるコンテンツを受信する前記視聴装置から、前記通信手段を介して取得する処理と、前記第1コンテンツと前記第2コンテンツとを用いて、前記サーバ装置に送信する送信コンテンツを生成する処理と、前記送信コンテンツを前記通信手段を介して前記サーバ装置に送信する処理とが実行される。
本発明の第2の側面においては、複数の視聴装置とネットワークを介して接続されたコンテンツ配信装置において、前記複数の視聴装置にコンテンツが配信され、前記視聴装置に配信するコンテンツが生成され、前記コンテンツの生成において、前記視聴装置に配信される第1コンテンツを、前記コンテンツ配信装置に備える装置および前記コンテンツ配信装置に接続される装置のうち少なくとも1の装置から取得する処理と、前記視聴装置に前記配信手段を介して配信される第2コンテンツを、前記配信手段から配信されるコンテンツを受信する前記視聴装置から取得する処理と、前記第1コンテンツと前記第2コンテンツとを用いて、前記配信手段を介して前記視聴装置に配信する配信コンテンツを生成する処理とが実行され、生成された前記配信コンテンツを前記複数の視聴装置に配信する処理が実行される。
本発明によれば、発信するコンテンツに視聴装置から送出されたコンテンツを挿入し、このコンテンツを配信することができる。したがって、視聴装置から提供された動画像、静止画像、或いはテキスト等のコンテンツを、送信装置で自在に利用してコンテンツの配信を行うことができる。このため、配信されたコンテンツの視聴側と発信側との間で、意見や主張を極めてスムーズに交換することができる。
以下、本発明の実施の形態について、図面を参照しながら詳細に説明する。本発明は、コンピュータネットワークに接続された複数のコンピュータ装置とサーバ装置とを利用して、送信装置の一例となるコンピュータ装置などにより生成したコンテンツを、サーバ装置を介して視聴装置の例であるコンピュータ装置などに配信する場合に適用して好適なものである。そこで、以下では先ず、このようにしてコンテンツの配信を行う基本的なシステムの構成について概略的に説明する。
(1)コンテンツ配信システムの基本構成本例で説明するコンテンツ配信システム1は、例えば図1に示すように、デジタルビデオカメラ(Digital Video Camera:DVカメラ)が搭載又は接続されたパーソナルコンピュータ装置などからなるユーザ端末10によって撮影して得られた映像データや音声データ、又はユーザ端末10に備え付けられたキーボードなどの入力装置から入力されたテキストデータ等のコンテンツを、インターネット(The Internet)11などのコンピュータネットワークを介して、複数のクライアント端末12a,12b,12c,・・・に対してライブ配信を行うものである。
ここで、ユーザ端末10やクライアント端末12a,12b,12c,・・・は、パーソナルコンピュータ装置、PDA(Personal Digital Assistants)機器、通信機能が搭載された携帯電話などである。また、配信するコンテンツは、ユーザ端末10に格納されている予め編集が行われた映像データ、音声データ、テキストデータなどであってもよい。
このコンテンツ配信システム1において、ユーザ端末10は、複数のウィンドウを同時に表示画面に表示する機能であるマルチウィンドウ機能が搭載されるものである。特に、ユーザ端末10は、コンテンツの配信を行う際に実行するアプリケーション・プログラムの各機能毎に表示画面に表示される、主画面としてのウィンドウと、ユーザによる各種設定を行うための設定画面としてのウィンドウとをシームレスに移行させることにより、主画面と設定画面との関連を明確化し、わかりやすいユーザ・インターフェースをユーザに対して提供することができるものである。より具体的には、ユーザ端末10は、表示画面上での各種機能の分担を表すために、各機能毎の主画面を表示画面上で縦方向に分割したパネルウィンドウという概念を導入することにより、容易な操作のもとでのパーソナルキャスティングサービスの実現に寄与するものである。
以下では、このようなユーザ端末10の詳細な説明に先だって、コンテンツ配信システム1の基本的な全体構成について説明する。
コンテンツ配信システム1は、図1に示すように、コンテンツを配信するユーザ端末10と、このユーザ端末10によって配信されたコンテンツを受信して視聴する複数のクライアント端末12a,12b,12c,・・・と、後述するストリーミング配信サーバ13によるコンテンツの配信機能をユーザ端末10が使用するための予約情報を管理するサーバ使用予約管理センタ14と、ユーザ端末10によって配信されたコンテンツを複数のクライアント端末12a,12b,12c,・・・に対して配信するストリーミング配信サーバ13とを備える。
ユーザ端末10は、デジタルビデオカメラが搭載又は接続されており、このデジタルビデオカメラによって撮影された映像データや音声データを所定の符号化フォーマットに基づいてリアルタイムに圧縮しながら送信する。また、ユーザ端末10は、例えばハードディスク等の記録装置に記録されている編集済みの映像データや音声データを送信することもできる。
具体的には、ユーザ端末10は、図示しないISP(Internet Service Provider)や、例えば電話回線網15a、ケーブルテレビ網15b又はADSL(Asymmetric Digital Subscriber Line)網15cからなる公衆回線網15を介してインターネット11に接続可能な環境とされている。このとき、ユーザ端末10は、インターネット11に接続可能な環境であれば、有線又は無線の別を問わない。例えば、ユーザ端末10は、いわゆる簡易型携帯電話(Personal Handyphone System;以下、PHSという。)等を介して、インターネット11に接続する構成とされていてもよい。
ユーザ端末10は、コンテンツの送信に先立って、サーバ使用予約管理センタ14に対して、コンテンツの配信を予約する必要がある。ユーザ端末10は、公衆回線網15及びインターネット11を介してサーバ使用予約管理センタ14にアクセスし、ストリーミング配信サーバ13によるコンテンツのストリーミング配信機能の使用を希望する日時や視聴者の定員数、及び視聴者パスワードといった所定の予約情報を登録することによって予約を行う。
そして、ユーザ端末10は、予約が受け付けられた後に、公衆回線網15及びインターネット11を介してコンテンツをストリーミング配信サーバ13に対して送信する。また、ユーザ端末10は、例えば、公衆回線網15を介してサーバ接続専用ネットワーク16のアクセスポートにPPP(Point to Point Protocol)接続を行うことにより、ストリーミング配信サーバ13との伝送路を確立し、この伝送路を介してコンテンツをストリーミング配信サーバ13に対して送信することもできる。さらに、ユーザ端末10は、送信したコンテンツを、必要に応じて、ハードディスク等の記録装置に記録しておくこともできる。
クライアント端末12a,12b,12c,・・・は、それぞれ、パーソナルコンピュータや携帯型情報端末等のインターネット11に接続可能な環境とされた情報処理装置である。クライアント端末12a,12b,12c,・・・は、それぞれ、視聴者パスワード等の所定の情報を入力することにより、コンテンツ配信システム1に視聴端末として参入することができるものである。クライアント端末12a,12b,12c,・・・は、それぞれ、ユーザ端末10によって予約登録されたコンテンツの配信開始日時になると、ストリーミング配信サーバ13からインターネット11を介してコンテンツが配信され、配信されたコンテンツを受信する。そして、クライアント端末12a,12b,12c,・・・は、それぞれ、受信したコンテンツをリアルタイムにデコードし、表示画面やスピーカ等を介して出力する。
サーバ使用予約管理センタ14は、ストリーミング配信サーバ13によるコンテンツのストリーミング配信機能をユーザ端末10が使用するための予約情報を管理する。サーバ使用予約管理センタ14は、ユーザ端末10によって所定の予約情報が登録されると、このユーザ端末10によるストリーミング配信サーバ13の使用を予約する。また、サーバ使用予約管理センタ14は、専用回線17を介してストリーミング配信サーバ13と接続されており、ユーザ端末10やクライアント端末12a,12b,12c,・・・に対する認証処理の際に、この専用回線17を介してストリーミング配信サーバ13との間で相互に認証データの授受を行う。
ストリーミング配信サーバ13は、ユーザ端末10からインターネット11又はサーバ接続専用ネットワーク16を介して送信されたコンテンツを受信し、インターネット11を介して複数のクライアント端末12a,12b,12c,・・・に対してストリーミング配信する。このとき、ストリーミング配信サーバ13は、専用回線17を介してサーバ使用予約管理センタ14と接続されており、ユーザ端末10やクライアント端末12a,12b,12c,・・・に対する認証処理の際に、この専用回線17を介してサーバ使用予約管理センタ14との間で相互に認証データの授受を行う。ストリーミング配信サーバ13は、ユーザ端末10によって予約登録されたコンテンツの配信開始日時になると、ユーザ端末10からインターネット11又はサーバ接続専用ネットワーク16を介して送信されたコンテンツを受信して図示しないバッファに記憶しつつ、このコンテンツをバッファから読み出し、配信要求のあったクライアント端末12a,12b,12c,・・・に対して配信する。
このようなコンテンツ配信システム1においては、コンテンツの配信者となるユーザがユーザ端末10を介してサーバ使用予約管理センタ14にアクセスし、上述した予約情報を登録することによって、コンテンツのライブ配信が予約される。
具体的には、コンテンツ配信システム1においては、ユーザ端末10における表示画面に当該コンテンツ配信システム1のサービスを提供するウェブサイトのWWW(World Wide Web)ブラウジング用のウィンドウを表示させ、ユーザがユーザ端末10を介して当該コンテンツ配信システム1にユーザ登録を行い、与えられたユーザID(IDentification)とパスワードとを入力してログインする。これにより、ユーザ端末10における表示画面には、コンテンツの配信の予約を行うための所定のウィンドウが表示される。
そして、ユーザ端末10における表示画面に表示されたウィンドウを介してユーザが所定の予約情報を入力し、クレジットカード番号などを入力することによって本人確認が成功すると、指定した日時でのコンテンツのライブ配信が予約される。コンテンツ配信システム1においては、ライブ配信の予約が受け付けられると、予約設定ファイルがサーバ使用予約管理センタ14からユーザ端末10に対してダウンロードされる。この予約設定ファイルには、設定した予約情報の他、ライブ配信を行うストリーミング配信サーバ13のIP(Internet Protocol)アドレス及びポート、ユーザID、パスワード等が記載されているものである。
コンテンツ配信システム1においては、ユーザ端末10によって後述するライブ配信アプリケーション・プログラムを実行してこれらの情報を自動的に読み込むことにより、ユーザによる煩雑な設定作業を要さずにライブ配信を行うことが可能となる。
続いて、コンテンツ配信システム1においては、ユーザ端末10からサーバ使用予約管理センタ14に対して、予約したライブ配信を実際に行うか否かの予約確認を配信開始日時の所定時間前、例えば3時間程度前までに行う。具体的には、コンテンツ配信システム1においては、ユーザ端末10が表示画面にサーバ使用予約管理センタ14へのアクセスを行うためのWWWブラウジング用のウィンドウを表示し、このウィンドウを介してユーザが所定の情報を入力することにより、予約確認が行われる。コンテンツ配信システム1においては、これに応じて予約確定が行われる。なお、コンテンツ配信システム1において、ユーザは、コンテンツを視聴してほしいクライアントに対して、視聴者パスワードといったコンテンツを視聴するために必要な情報を配信開始日時までに予め連絡しておく必要がある。
そして、コンテンツ配信システム1において、ユーザ端末10は、配信開始日時の所定時間前、例えば5分程度前までに、ストリーミング配信サーバ13との接続を行い、配信開始日時になると、ユーザ端末10に搭載又は接続されたデジタルビデオカメラによる撮影と同時に、映像データや音声データが所定の符号化フォーマットに基づいてリアルタイムに圧縮されながら、ストリーミング配信サーバ13に対して送信される。コンテンツ配信システム1において、視聴者となるクライアントは、視聴者パスワード等の所定の情報を入力することにより、クライアント端末12a,12b,12c,・・・を介してコンテンツを受信し視聴することができる。
このように、コンテンツ配信システム1は、ユーザ端末10によって撮影して得られた映像データや音声データ、ユーザ端末10に格納されている予め編集済みの映像データや音声データ、或いは、ユーザ端末10の入力装置を用いて入力されたテキストデータなどからなるコンテンツを、インターネット11を介して、クライアント端末12a,12b,12c,・・・に対してライブ配信する。すなわち、いわば個人ユーザが複数の視聴者に向けてコンテンツをライブ配信するパーソナルキャスティングサービスを実現することができる。
なお、コンテンツ配信システム1においては、ユーザ端末10によって上述したライブ配信の予約及び設定を行った後、実際の配信を開始する前に、番組に必要となるエフェクト類、及びユーザ端末10のハードディスク等に記録されたアーカイブファイル類を予め設定し、登録することができる。このとき、ユーザ端末10は、所定のガイド機能を用いて各種設定を行うことができる。また、コンテンツ配信システム1においては、予約された時間以外では、ユーザ端末10によってハードディスク等の記録装置に対してライブ配信を行うコンテンツの試し撮りを行うことができる。このとき、ユーザ端末10は、実際の配信時と同様に、コンテンツに対して各種エフェクトを施したり、入力ソースとして選択可能なデジタルビデオカメラによって撮影されて得られた映像データや音声データとハードディスクに記録されている映像データや音声データとの切り替え(スイッチング)を行うことができる。
そして、コンテンツ配信システム1においては、ユーザ端末10とストリーミング配信サーバ13との接続が確立されてコンテンツがライブ配信されている状態で、ユーザ端末10によってエフェクト操作やファイル切り替え操作等を行うと、この操作に応じて、配信されるストリームにもこれらの操作が反映され、最終的にクライアント端末12a,12b,12c,・・・における表示画面にも反映される。
コンテンツ配信システム1においては、配信終了時間になると、自動的にコンテンツの配信が終了し、クライアント端末12a,12b,12c,・・・における表示画面上でも番組が終了する。コンテンツ配信システム1においては、配信を終えたコンテンツに関する情報がアルバム形式でユーザ端末10におけるハードディスク等の記録装置に記録され、ユーザ端末10によって配信履歴の詳細や配信したコンテンツを再生して閲覧することができる。
(2)ユーザ端末の構成つぎに、以下では、このようなコンテンツ配信システム1を構成するユーザ端末10の構成について説明する。なお、以下では、説明の便宜上、デジタルビデオカメラが搭載されたユーザ端末10について説明するものとする。ただし、ユーザ端末10は、外部機器として構成されたデジタルビデオカメラが有線又は無線により接続されていてもよいし、例えばユーザ端末10が接続されたLAN(Local Area Network)等のコンピュータネットワークに対して直接接続可能とされたデジタルビデオカメラを用いて、このデジタルビデオカメラにより撮像された画像データや音声データがコンピュータネットワークを介してユーザ端末10に取り込まれる構成とされていてもよい。
ユーザ端末10は、図2に示すように、各種演算処理を実行するとともに各部を統括して制御するCPU(Central Processing Unit)20と、このCPU20のワークエリアとして機能するRAM(Random Access Memory)21と、CPU20によって実行される各種プログラムを含む情報を格納する読み取り専用のROM(Read Only Memory)22と、CPU20によって実行されるオペレーティング・システム(Operating System)やアプリケーション・プログラム等の各種プログラムが記録され、配信するコンテンツなどの各種データ等の記録再生が行われるHDD(Hard Disk Drive)23と、各種情報を表示する表示部24と、この表示部24とCPU20との間でのデータの授受を行うための表示用インターフェース25と、ユーザによって各種情報や指示操作を入力するための操作部26と、この操作部26とCPU20との間でのデータの授受を行うための操作用インターフェース27と、上述した公衆回線網15を介してインターネット11又はサーバ接続専用ネットワーク16に接続された外部装置との間でデータの授受を行うためのネットワークインターフェース28と、被写体を撮影して映像データや音声データを得るデジタルビデオカメラ29と、いわゆるMPEG2(Moving Picture Experts Group phase 2)方式に基づく圧縮符号化及び復号を行うMPEG2コーデック30とを備える。
ユーザ端末10は、これらの各部のうち、CPU20、RAM21、ROM22、HDD23、表示用インターフェース25、操作用インターフェース27、ネットワークインターフェース28、デジタルビデオカメラ29、及びMPEG2コーデック30がバス31を介して接続されて構成される。
なお、ユーザ端末10におけるデジタルビデオカメラ29は、ユーザ端末10に搭載されずに、例えば外部機器接続用の所定のインターフェースや、ネットワークインターフェース28などを介してバス31に接続されてもよい。また、ユーザ端末10は、必要に応じて、例えば着脱自在とされる記録媒体に対する記録再生を行うリムーバブル型の記録再生装置などがHDD23の他に搭載又は接続され、この記録再生装置に対する各種データの記録再生が可能とされていてもよい。
CPU20は、バス31を介して、RAM21、ROM22、HDD23、表示用インターフェース25、操作用インターフェース27、ネットワークインターフェース28、デジタルビデオカメラ29、及びMPEG2コーデック30と接続されている。CPU20は、各部を統括的に制御するとともに、HDD23等に記録されているオペレーティング・システムや各種アプリケーション・プログラムを実行する。特に、CPU20は、サーバ使用予約管理センタ14に対するコンテンツの配信の予約や、ストリーミング配信サーバ13に対するコンテンツの送信、さらには、送信したコンテンツのHDD23に対する記録に関する処理及び制御を行う。
RAM21は、CPU20が各種プログラムを実行する際のワークエリアとして機能し、CPU20の制御のもとに、各種データを一時記憶する。
ROM22は、ユーザ端末10の起動に必要となる各種プログラムや設定情報などを格納している。このROM22に格納されている各種プログラムや設定情報は、ユーザ端末10の起動時に読み出され、CPU20によって利用される。
HDD23は、CPU20の制御のもとに、オペレーティング・システムやアプリケーション・プログラム等の各種プログラムやデータ等の記録再生を行う。また、HDD23には、送信したコンテンツが記録される。また、HDD23は、予め編集済みのコンテンツを記録しておくこともでき、CPU20の制御のもとに、このコンテンツを配信時に読み出すことも可能とされている。
表示部24は、例えばLCD(Liquid Crystal Display)からなり、CPU20の制御のもとに、HDD23に記録されているデータ等の各種情報を表示画面に表示する。特に、表示部24は、CPU20の制御のもとに、サーバ使用予約管理センタ14及びストリーミング配信サーバ13へのアクセスを行うためのWWWブラウジング用のウィンドウや、送信するコンテンツに対する加工処理を含む各種処理を行うための各種アプリケーション・プログラムを実行するための所定のウィンドウといった所定のグラフィカル・ユーザ・インターフェースを表示画面に表示する。
表示用インターフェース25は、CPU20と表示部24との間でのデータの授受を行う。すなわち、表示用インターフェース25は、CPU20からバス31を介して供給された各種情報を表示部24に供給する。
操作部26は、例えば、キーボード、マウス等のポインティングデバイス、或いはいわゆるジョグダイヤル等回転操作式スイッチなどによるユーザ・インターフェースを用いたユーザによる操作を受け付け、操作内容を示す制御信号を操作用インターフェース27を介してCPU20に供給する。
操作用インターフェース27は、CPU20と操作部26との間でのデータの授受を行う。すなわち、操作用インターフェース27は、操作部26から供給された制御信号をバス31を介してCPU20に供給する。
ネットワークインターフェース28は、CPU20の制御のもとに、外部との通信を行うインターフェースとして機能する。すなわち、ネットワークインターフェース28は、公衆回線網15を介してインターネット11又はサーバ接続専用ネットワーク16に接続された外部装置とユーザ端末10との間でデータの授受を行うために設けられるものである。特に、ネットワークインターフェース28は、CPU20の制御のもとに、コンテンツを外部へと送信するとともに、上述した予約情報や予約ID等の各種情報の送受信を行う。
デジタルビデオカメラ29は、被写体を撮影するための所定の光学系や、CCD(Charge CoupledDevices)等の光電変換用のデバイス等からなる。デジタルビデオカメラ29によって撮影されて得られた映像データや音声データは、CPU20の制御のもとに、バス31を介してMPEG2コーデック30に供給される。
MPEG2コーデック30は、バス31を介してデジタルビデオカメラ29から供給された映像データや音声データを、CPU20の制御のもとに、MPEG2方式に基づく圧縮符号化を行う。このとき、MPEG2コーデック30は、CPU20の制御のもとに、映像データや音声データをリアルタイムに圧縮符号化する。また、MPEG2コーデック30は、MPEG2方式に基づいて圧縮符号化されたデータを復号することもできる。
(3)ライブ配信アプリケーション・プログラムつぎに以下では、上述したようなユーザ端末10により実行されるライブ配信アプリケーション・プログラムについて説明する。ライブ配信アプリケーション・プログラムは、それぞれ個別の機能を実現する複数のモジュールを組み合わせ自在とされた一連のプログラム群によって構成されており、例えばユーザ端末10のHDD23に記録されている。ユーザ端末10は、このライブ配信アプリケーション・プログラムをCPU20によって実行することにより、コンテンツのライブ配信を行う。なお、ライブ配信アプリケーション・プログラムは、例えばいわゆるコンパクトディスク(Compact Disc)等の所定の記録媒体やインターネット等の伝送媒体によっても提供され得るものである。
このライブ配信アプリケーション・プログラムを実行することにより、ユーザ端末10の表示部24には、例えば図3に示すようなウィンドウが表示される。
このウィンドウは、図3に示すように、ライブ配信アプリケーション・プログラムの基幹をなすメインモジュールが作成するメインウィンドウ50上に、メインモジュールによって作成されたガイダンスバー51及びステータスバー52と、各機能モジュールがそれぞれ作成する複数のパネルウィンドウ53a,53b,53c,53d,53eとが配置された構成とされている。
メインウィンドウ50は、横長の短冊状のガイダンスバー51が上部に配置されるとともに、横長の短冊状のステータスバー52が下部に配置され、これらガイダンスバー51とステータスバー52とに上下を挟まれるような形態で、各機能に対応して縦方向に分割された複数のパネルウィンドウ53a,53b,53c,53d,53eが並設されて表示部24に表示される。ここで、各パネルウィンドウ53a,53b,53c,53d,53eは、それぞれ、独立した1つのウィンドウとして実装されるものである。
なお、図3においては、パネルウィンドウとして、音声に関する操作を行うためのサウンドパネルウィンドウ53a、入力ソースとして選択可能なデジタルビデオカメラ29によって撮影して得られた映像データに関する操作を行うためのカメラ入力パネルウィンドウ53b、ライブ配信しているコンテンツに関する操作を行うためのメインモニタパネルウィンドウ53c、入力ソースとして選択可能なHDD23に記録されている映像データに関する操作を行うためのファイル入力パネルウィンドウ53d、及び配信するコンテンツに対して施すエフェクトに関する操作を行うためのエフェクトパネルウィンドウ53eが表示されている様子を示している。
ガイダンスバー51は、各種の操作を指示入力するための複数のボタンを実装する。ユーザは、ガイダンスバー51に表示されたボタンをマウスでクリック操作することなどによって、ライブ配信アプリケーション・プログラムに対する各種の操作を行うことができる。
ステータスバー52は、例えば上述したPHSを用いてインターネット11に接続した場合における電波状態、上述したPPP接続を行った場合における接続状態、ユーザ端末10に搭載されたバッテリーの残量状態、或いはHDD23の残り容量状態等を表示する領域を実装する。
サウンドパネルウィンドウ53aは、ライブ配信を行っている際にバッググラウンドミュージックとして流すべく登録されたwavファイル等の音声・音楽データのリストを示すための複数のアイコン53a1、これらのアイコンを選択するボタン53a2、及び選択したアイコンに対応する音声・音楽データを再生又は停止するためのボタン53a3等を実装する。なお、このサウンドパネルウィンドウ53aにおいては、他の音声・音楽データを自在にリストに追加したり、或いはリストに登録された音声・音楽データを削除することが可能とされている。
カメラ入力パネルウィンドウ53bは、入力ソースとして選択可能なデジタルビデオカメラ29によって撮影して得られた映像データをプレビューするためのプレビュー画像を表示するプレビュー領域53b1、入力ソースをデジタルビデオカメラ29によって撮影して得られた映像データに設定するためのボタン53b2、デジタルビデオカメラ29によって撮影して得られた音声データを、入力ソースとして選択可能なHDD23に記録されている映像データに対して合成する、いわゆるアフレコを施すためのボタン53b3、及びデジタルビデオカメラ29の設定用アプリケーション・プログラムを起動するためのボタン53b4等を実装する。
メインモニタパネルウィンドウ53cは、ライブ配信するコンテンツをプレビューするためのプレビュー領域53c1、試し撮りや実際の配信を開始するためのボタン53c2、コンテンツの再生や配信を一時停止するためのボタン53c3、音声データに対してミュート処理を施すためのボタン53c4、及び配信経過時間や残り時間等を表示する時間表示領域53c5等を実装する。
ファイル入力パネルウィンドウ53dは、入力ソースとして選択可能なHDD23に記録されている映像データのリストを示すためのサムネイル画像を表示するサムネイル領域53d1、映像データをプレビューするためのプレビュー画像を表示するプレビュー領域53d2、リストとしてのサムネイル画像を選択するためのボタン53d3、及び選択したサムネイル画像に対応する映像データを再生又は停止するためのボタン53d4等を実装する。
エフェクトパネルウィンドウ53eは、ライブ配信しているコンテンツに対して施す各種エフェクト素材のリストを示すためのサムネイル画像を表示するサムネイル領域53e1、これらのサムネイル画像を選択するボタン53e2、及び選択したサムネイル画像に対応するエフェクトを実行又は解除するためのボタン53e3、映像データにエフェクトとしてリアルタイムにテロップ表示される文字列を入力するボックス53e4等を実装する。なお、このエフェクトパネルウィンドウ53eにおいては、他のエフェクト素材をリストに追加したり、リストに登録されたエフェクト素材を削除することも可能とされている。
このように、ユーザ端末10は、各種機能の分担を表すために、各機能に対応するパネルウィンドウ53a,53b,53c,53d,53eを縦方向に分割して表示部24に表示する。これにより、ユーザは、機能毎の操作と必要なボタン類との対応を直感的且つ容易に図ることができる。例えば、ユーザは、エフェクトに関する処理を行う場合には、エフェクトパネルウィンドウ53eのみに着目すればよい。
ユーザ端末10は、上述したライブ配信アプリケーション・プログラムを用いて、映像データ、音声データ、或いはテキストデータなどを自在に組み合わせて、配信するコンテンツを作成することができる。そして、作成されたコンテンツは、インターネット11又はサーバ接続専用ネットワーク16を介してストリーミング配信サーバ13に送出され、このストリーミング配信サーバ13からクライアント端末12a,12b,12cに対して配信される。
(4)視聴側からコンテンツを取得するコンテンツ配信システムつぎに以下では、上述したコンテンツ配信システム1の基本構成に基づいて、ユーザ端末10が視聴側であるクライアント端末からコンテンツを直接取得し、この取得したコンテンツを利用してライブ配信を行う場合について、図4を参照しながら説明する。
なお、図4においては、デジタルビデオカメラ(DVカメラ)29がユーザ端末10に対して外部装置として構成され、このDVカメラ29がユーザ端末10に接続された場合について図示している。
コンテンツ配信システム1では、上述したように、ユーザ端末10によりライブ配信を行うに際して、ユーザ端末10上で実行されたライブ配信アプリケーション・プログラムにより作成されたコンテンツが、図4中矢印A1で示すように、このユーザ端末10からストリーミング配信サーバ13に対してインターネット11を介して送出される。そして、ストリーミング配信サーバ13からは、図中矢印A2に示すように、複数のクライアント端末12に対してコンテンツが配信される。
ここで、ユーザ端末10には、上述したライブ配信アプリケーション・プログラムの他に、クライアント端末から送出されたコンテンツを取得して利用するためのコミュニケーション用アプリケーション・プログラムが実行される。
このコミュニケーション用アプリケーション・プログラムは、ライブ配信アプリケーション・プログラムと同様に、例えばユーザ端末10のHDD23に記録されている。ユーザ端末10は、このコミュニケーション用アプリケーション・プログラムをCPU20によって実行することにより、クライアント端末から送出されたコンテンツを取得して利用することができる。なお、コミュニケーション用アプリケーション・プログラムは、例えばいわゆるコンパクトディスク(Compact Disc)等の所定の記録媒体やインターネット等の伝送媒体によっても提供され得るものである。
また、コミュニケーション用アプリケーション・プログラムは、後述するように、上述したライブ配信アプリケーション・プログラムと密接に連携して動作するものである。なお、コミュニケーション用アプリケーション・プログラムは、ライブ配信アプリケーション・プログラムとは独立して、単独でも実行可能とされていてもよい。
一方、コンテンツ配信システム1において、クライアント端末12は、ストリーミング配信サーバ13から配信されるコンテンツの視聴専用として用いられるものと、ライブ配信を行うユーザ端末10に対してコンテンツを送出することが可能とされたものとに大別することができる。
視聴専用に用いられるクライアント端末12は、例えばWebブラウザ等のように、配信されたコンテンツを視聴するためのアプリケーション・プログラムが少なくとも実行可能とされていればよい。
また、コンテンツの送出が可能とされたクライアント端末12は、図4に示すように、ユーザ端末10と同様にしてDVカメラ29が搭載又は接続自在とされている。また、このクライアント端末12では、配信されたコンテンツを視聴するためのアプリケーション・プログラム(例えばWebブラウザ)の他に、ユーザ端末10に対してコンテンツを送出するためのコミュニケーション用アプリケーション・プログラムが少なくとも実行可能とされている。
そして、コンテンツの送出が可能とされたクライアント端末12において、DVカメラ29によって撮影された映像データや音声データ、或いは、このクライアント端末12の入力機器により入力されたテキストデータなどのコンテンツは、図4中矢印A3に示すように、ストリーミング配信サーバ13を介さずに、インターネット11を介して直接ユーザ端末10に送出される。
コンテンツ配信システム1において、クライアント端末12からユーザ端末10に対してコンテンツを直接送出するに際しては、以下で説明するような手法によって実現される。
すなわち、ユーザ端末10からは、ライブ配信するコンテンツとともに、このユーザ端末10をインターネット11上で特定するための発信者特定情報がストリーミング配信サーバ13に送出される。そして、ストリーミング配信サーバ13からは、コンテンツと発信者特定情報とが各クライアント端末12に対して送出される。
この発信者特定情報としては、例えばユーザ端末10に割り当てられているネットワーク上でユニークな情報、例えばIPアドレスや、このユーザ端末10においてコミュニケーション用アプリケーション・プログラムがクライアント端末12からコンテンツを受信するために使用するポート番号などを含むものである。
そして、コンテンツをユーザ端末10に対して送出するクライアント端末12は、ストリーミング配信サーバ13からコンテンツとともに配信された発信者特定情報に基づいて、インターネット11上でユーザ端末10を特定し、このユーザ端末10とネットワーク上でコンテンツを送受信するための接続(セッション)を確立する。クライアント端末12は、ユーザ端末10に対してストリーミング配信サーバ13を介さずに、いわゆるピア・ツー・ピア(Peer To Peer)で、直接コンテンツを送出する。すなわち、クライアント端末12は、ネットワーク上で、特定のサーバ宛てにコンテンツを送信するのではなく、ユーザ端末10宛てにコンテンツを送信する。
コンテンツ配信システム1においては、上述のようにして、クライアント端末12が発信者特定情報に基づいて、ストリーミング配信サーバ13等の特定のサーバ装置を介することなく、ユーザ端末10に対して直接コンテンツを送出していることから、サーバ装置における負荷を考慮することなく、クライアント端末12とユーザ端末10との間で極めてスムーズにコンテンツの授受を行うことが可能とされている。
(5)クライアント端末及びユーザ端末間でのコンテンツ授受の実際ここで、上述したようにしてクライアント端末12から送出されたコンテンツをユーザ端末10が取得し、このコンテンツを利用してライブ配信を行う場合について具体的に説明する。
ユーザ端末10において、先に説明したライブ配信アプリケーション・プログラムを実行中に、クライアント端末12から送出されたコンテンツを利用する場合には、図3に示したメインウィンドウ50のガイダンスバー51に表示されたコミュニケーション用アプリケーション・プログラムの起動用ボタン51aを選択する。
これにより、ユーザ端末10では、ライブ配信アプリケーション・プログラムと連係動作するコミュニケーション用アプリケーション・プログラムが起動し、図5に示すように、ライブ配信アプリケーション・プログラムのメインウィンドウ50の下部に、コミュニケーション用アプリケーション・プログラムにより作成されたコミュニケーション用ウィンドウ70が表示される。
なお、メインウィンドウ50のガイダンスバー51に表示されるコミュニケーション用アプリケーション・プログラムの起動用ボタン51aは、クライアント端末12側からコンテンツの送出が行われている場合にのみ選択可能な状態となり、クライアント端末12側からコンテンツの送出が行われていない場合には、選択不能な状態で表示されるとしてもよい。
このコミュニケーション用ウィンドウ70は、図5に示すように、各クライアント端末12のDVカメラ29によって撮像され、ユーザ端末10に送出された画像をそれぞれ表示するプレビュー領域71が配置されている。このプレビュー領域71に表示される画像は、クライアント端末12のDVカメラ29によって撮像されてユーザ端末10に対して送出された映像であり、動画像であってもよいし、静止画像であってもよい。
なお、このプレビュー領域71に表示する画像としては、例えば、各クライアント端末12の操作者の顔などをDVカメラ29によって撮像した画像が用いられる。また、クライアント端末12からは、DVカメラ29によって撮像した映像をユーザ端末10に対して送出することに限定されるものではなく、例えば、予めDVカメラ29によって撮影して記録しておいた映像データ、各種の画像作成アプリケーション・プログラムによって作成した画像データ、或いは、後述するクライアント端末12側で実行されるコミュニケーション用アプリケーション・プログラムに予め用意された画像データなどであってもよい。
また、コミュニケーション用ウィンドウ70は、プレビュー領域71の下部に、このプレビュー領域71に表示された各画像(すなわちクライアント端末12から送出された画像)をライブ配信する映像に挿入することを選択するための挿入開始ボタン72と、ライブ配信する映像にクライアント端末12から送出された画像を挿入することを停止する挿入停止ボタン73と、コミュニケーション用アプリケーション・プログラムに関するヘルプ情報を参照するためのヘルプ参照ボタン74と、コミュニケーション用アプリケーション・プログラムを終了するための終了ボタン75とが配置されている。
ここで、図5に示す状態においては、ライブ配信アプリケーション・プログラムのメインウィンドウ50におけるカメラ入力パネルウィンドウ53bのプレビュー領域53b1に、ユーザ端末10のDVカメラ29によって撮影されている画像が表示されており、この画像がライブ配信されることを選択されて、メインモニタパネルウィンドウ53cのプレビュー領域53c1にも表示されている。したがって、図5に示す状態においては、このプレビュー領域53c1に表示された映像が、ユーザ端末10からストリーミング配信サーバ13に送出され、ライブ配信されている。
なお、このときプレビュー領域53c1に表示される映像としては、例えば、ユーザ端末10のDVカメラ29によって撮影されたユーザ端末10の操作者、すなわち、ライブ配信される番組の発信者の顔などの映像である。
このとき、コンテンツ配信システム1において、各クライアント端末12では、Webブラウザが起動されており、図6に示すように、このWebブラウザによって作成されたウィンドウ80が表示画面上に表示されている。そして、クライアント端末12におけるWebブラウザは、ストリーミング配信サーバ13から配信されるコンテンツを受信しており、このストリーミング配信サーバ13から取得したHTML(Hyper TextMark-up Language)ファイルに基づいて、所定の内容をウィンドウ80内に表示している。
ここで、Webブラウザには、ストリーミング配信サーバ13から配信される動画像や静止画像、及び音声データなどのコンテンツを表示/再生することが可能な所定のプラグイン・プログラムが実装されており、このプラグイン・プログラムによって作成されたコンテンツ表示領域81が、Webブラウザによって作成されたウィンドウ80内の所定の位置に表示される。
このように、配信されたコンテンツがWebブラウザのウィンドウ80内に表示される構成とされていることによって、ライブ配信される番組を視聴するために専用のアプリケーション・プログラムを用意することが不要となる。また、Webブラウザのウィンドウ80内にコンテンツが表示されることによって、配信されるコンテンツに関連する情報などを容易に表示することができるともに、ストリーミング配信サーバ13から様々な情報をクライアント端末12側に提供することができ、多彩且つ柔軟なコンテンツの配信を行うことができる。
また、Webブラウザのウィンドウ80内にコンテンツが表示される構成とすることにより、クライアント端末12で動作するオペレーション・システムなどに依存した環境に左右されることなく、確実且つ良好なコンテンツの視聴を可能とすることができる。
そして、このコンテンツ表示領域81に、ユーザ端末10から送出された内容が表示・再生される。これにより、クライアント端末12におけるコンテンツ表示領域81には、ユーザ端末10によって送出されたコンテンツ、すなわち、ユーザ端末10におけるメインモニタパネルウィンドウ53cのプレビュー領域53c1に表示され、ライブ配信されたコンテンツが表示される。
なお、Webブラウザのウィンドウ80内には、上述したプラグイン・プログラムによって作成されたコンテンツ表示領域81の他に、このコンテンツ表示領域81内に表示する番組の内容や発信者に関する情報などがテキストや画像などによって表示されていてもよい。クライアント端末12は、このような番組の内容や発信者に関する情報などを、ストリーミング配信サーバ13からHTMLファイルとして取得することができる。
また、Webブラウザのウィンドウ80内には、コンテンツ表示領域81の下部に、ストリーミング配信サーバ13から配信されている番組に参加するための参加ボタン82が表示されている。この参加ボタン82が選択されることにより、クライアント端末12側では、Webブラウザとは別に、コミュニケーション用アプリケーション・プログラムが起動する。
このクライアント端末12側で起動するコミュニケーション用アプリケーション・プログラムは、ユーザ端末10側で起動するコミュニケーション用アプリケーション・プログラムとの間で直接各種データの授受を行うことが可能とされたものである。また、クライアント端末12側で起動するコミュニケーション用アプリケーション・プログラムは、ユーザ端末10側で起動するコミュニケーション用アプリケーション・プログラムに対応した別個のプログラムとして構成されていてもよいし、ユーザ端末10側で起動するコミュニケーション用アプリケーション・プログラムと同等のプログラムとされていてもよい。クライアント端末12とユーザ端末10とで実行されるコミュニケーション用アプリケーション・プログラムを共用する場合には、このコミュニケーション用アプリケーション・プログラムは、予めユーザが指定することにより、或いは自動的に状況を判断することにより、起動形態を適宜変更することが可能なものとされる。
ここで、クライアント端末12側でコミュニケーション用アプリケーション・プログラムが起動すると、図7に示すように、このコミュニケーション用アプリケーション・プログラムによって作成されたコミュニケーション用ウィンドウ90がクライアント端末12の表示画面上に表示される。なお、このコミュニケーション用ウィンドウ90は、Webブラウザのウィンドウ80と同時に表示画面上に表示されてもよいし、相互に切り替えて表示されるとしてもよい。
コミュニケーション用ウィンドウ90は、図7に示すように、クライアント端末12に搭載又は接続されたDVカメラ29によって撮像された画像を表示する自画像表示領域91を備え、この自画像表示領域91の周囲に、各種の指示操作を選択するための複数のボタン92a〜92gが配置されている。そして、これら複数のボタン92a〜92gのさらに外周には、他のクライアント端末12から送出された画像を表示する画像表示領域93が複数配置されている。
自画像表示領域91は、このコミュニケーション用アプリケーション・プログラムを実行するクライアント端末12に搭載又は接続されたDVカメラ29によって撮像された画像を表示する領域であり、通常は、このクライアント端末12の操作者の顔などを撮像した画像を表示している。
また、複数のボタン92a〜92gは、それぞれ以下のような機能を有している。
Webブラウザ起動ボタン92aは、Webブラウザを起動するためのボタンである。このWebブラウザ起動ボタン92aが選択されることによって、外部のWebブラウザ・プログラムを呼び出して起動したり、或いは、このコミュニケーション用アプリケーション・プログラムに内蔵されたWebブラウザを起動するなどの動作が行われる。
感情ボタン92bは、自画像表示領域91に表示された画像に対して、各種の感情を表す効果を付与するためのボタンである。この感情ボタン92bが選択されることによって、例えば「泣く」「笑う」「怒る」などの各種の感情を、アニメーションや効果音などによる効果を自画像表示領域91に表示された画像に付与することにより表現することができる。
アクションボタン92cは、画像表示領域93に表示された他のクライアント端末12から送出された画像に対して各種のアクションを表す効果を付与するためのボタンである。このアクションボタン92cが選択されることによって、例えば「たたく」「なでる」「つねる」などの各種のアクションを、アニメーションや効果音などによる効果を画像表示領域93のうちのいずれかに付与することによって表現することができる。
ヘルプボタン92dは、コミュニケーション用アプリケーション・プログラムに関するヘルプ情報を参照するためのボタンである。このヘルプボタン92dが選択されることによって、ヘルプ情報を表示するウィンドウが開き、各種の操作説明や設定方法などを確認することができる。
戻るボタン92eは、このコミュニケーション用アプリケーション・プログラムを終了するか、或いはひとつ前のメニュー表示段階に戻るためのボタンである。この戻るボタン92eが選択されることによって、コミュニケーション用アプリケーション・プログラムを終了させたり、或いはひとつ前のメニュー表示段階、すなわち、階層構造とされたメニュー表示におけるひとつ前の表示段階に戻ることができる。
画像音声ボタン92fは、自画像表示領域91に表示する画像を選択するためのボタンである。この画像音声ボタン92fが選択されることによって、自画像表示領域91に表示する画像を、予めコミュニケーション用アプリケーション・プログラムに登録された顔画像の中から選択し直したり、或いは、クライアント端末12に接続されたDVカメラ29によって撮影される動画像を自画像として選択して自画像表示領域91に表示するように設定することができる。また、DVカメラ29によって撮影される動画像を自画像として選択した場合には、このDVカメラ29から入力される音声の出力レベルなどを設定することができる。
チャットログボタン92gは、後述するようにしてこのコミュニケーション用アプリケーション・プログラムにより入力したテキストデータを、ユーザ端末10や他のクライアント端末12との間で授受する、いわゆるチャット機能を用いた場合におけるログデータを表示するボタンである。
ここで、クライアント端末12上で、図6に示したWebブラウザによって作成されたウィンドウ80上に表示された参加ボタン82が選択され、コミュニケーション用アプリケーション・プログラムが起動して、コミュニケーション用ウィンドウ90が表示されると、このコミュニケーション用アプリケーション・プログラムが、ストリーミング配信サーバ13から送出された発信者特定情報に基づいてユーザ端末10との間で直接各種データの授受を行うことによって、自画像表示領域91に表示された動画像又は静止画像をユーザ端末10に対して送出する。
これにより、ユーザ端末10の表示部24に表示されたコミュニケーション用ウィンドウ70におけるプレビュー領域71には、上述のようにして各クライアント端末12から送出された動画像又は静止画像が図5に示すように表示されることとなる。
ここで、プレビュー領域71には、図5に示すように、各クライアント端末12から提供されたコンテンツが一覧表示されていることから、ユーザ端末10を操作するユーザは、どの参加者がライブ配信する番組に参加可能であるかを容易に視認することができ、番組に参加させる参加者を直感的に選択操作することができる。
このとき、ユーザ端末10において、コミュニケーション用ウィンドウ70の挿入開始ボタン72が選択され、プレビュー領域71に並んで表示された複数の顔画像のうちのひとつが選択されると、図8に示すように、選択された顔画像がメインモニタパネルウィンドウ53cのプレビュー領域53c1に表示されている画像の所定の位置に挿入される。
なお、図8においては、コミュニケーション用ウィンドウ70のプレビュー領域71に、図7に示したクライアント端末12側のコミュニケーション用ウィンドウ90の自画像表示領域91の表示内容が顔画像71aとして反映された状態を示しており、この顔画像71aが選択されて、メインモニタパネルウィンドウ53cのプレビュー領域53c1内に顔画像100として挿入された状態を示している。
このようにして、ユーザ端末10によって、クライアント端末12から送出された顔画像100が元の配信画像に挿入されると、この顔画像100が挿入された動画像が、ストリーミング配信サーバ13に送出され、この動画像が各クライアント端末12に対してライブ配信される。すなわち、クライアント端末12側では、配信された番組を閲覧するWebブラウザのウィンドウ80におけるコンテンツ表示領域81内に、図9に示すように、図8に示したメインモニタパネルウィンドウ53cのプレビュー領域53c1に表示された内容に相当する動画像が表示されることとなる。
また、クライアント端末12で実行されるコミュニケーション用アプリケーション・プログラムにおいて、自画像表示領域91に例えばマウスカーソルを移動させると、図10に示すように、この自画像表示領域91に相当する位置に、テキスト入力ボックス91aが表示される。
ここで、ユーザ端末10側でライブ配信される動画像に挿入される顔画像が選択されたクライアント端末12において、このテキスト入力ボックス91a内に、例えば「こんにちは!」などのテキストデータが、クライアント端末12に備えられたキーボード等の入力機器により入力された場合について説明する。
この場合には、クライアント端末12で実行されるコミュニケーション用アプリケーション・プログラムは、ストリーミング配信サーバ13から配信された発信者特定情報に基づいてインターネット11上でユーザ端末10を特定し、テキスト入力ボックス91aに入力されたテキストデータを、このユーザ端末10に対して直接送出する。
これにより、ユーザ端末10においては、図11に示すように、メインモニタパネルウィンドウ53cのプレビュー領域53c1に表示された画像に、上述のようにしてクライアント端末12から送出された「こんにちは!」なるテキストデータが挿入されて表示されることとなる。
そして、ユーザ端末10からは、メインモニタパネルウィンドウ53cのプレビュー領域53c1に表示された画像、すなわちクライアント端末12から送出された顔画像100と「こんにちは!」なるテキストデータとが挿入された動画像がストリーミング配信サーバ13に対して送出され、この動画像がストリーミング配信サーバ13によって各クライアント端末12に対してライブ配信される。
これにより、各クライアント端末12におけるWebブラウザのウィンドウ80のコンテンツ表示領域81には、図12に示すように、顔画像100と「こんにちは!」なるテキストデータとが挿入された動画像が表示されることとなる。
以上のように構成されてなるコンテンツ配信システム1では、ライブ配信される番組の視聴側であるクライアント端末12から、発信側であるユーザ端末10に対して、発信者特定情報に基づいて画像やテキストなどのコンテンツが直接送出することができる。また、クライアント端末12から送出されたコンテンツを、ユーザ端末10側で自在に利用してライブ配信する番組に反映させることができる。
したがって、コンテンツ配信システム1によれば、いわゆる視聴者参加型の番組をインターネットを利用して、極めて簡便且つ良好な操作性をもって実現することができる。このため、例えば、視聴者に対して各種の質問やクイズの出題などを行い、これに対する視聴者からの回答をテキストによりテロップ表示するなどして、多彩且つ柔軟な番組を手軽にライブ配信することができる。また、例えば、発信側であるユーザ端末10から離れた場所にいる視聴者によって撮影された画像や、入力されたテキストデータなどを、ユーザ端末10側でライブ配信する動画像に自在に合成することができるため、各地を中継で結ぶような番組をインターネットを利用して実現することができる。
(6)コミュニケーション用アプリケーション・プログラムにおける処理つぎに以下では、上述したコミュニケーション用アプリケーション・プログラムによってユーザ端末10側で実行される一連の処理について、フローチャートを参照しながら順を追って説明する。
なお、コミュニケーション用アプリケーション・プログラムは、例えば、ユーザ端末10側でライブ配信アプリケーション・プログラムによって起動された場合と、クライアント端末12側でWebブラウザによって起動された場合とで異なる状態で起動し、各々の場合において異なる機能が実行可能とされていてもよい。ただし、以下では、図5、図8、及び図11に示したように、ライブ配信アプリケーション・プログラムによって起動された状態におけるコミュニケーション用アプリケーション・プログラムによる一連の処理について説明する。また、以下で説明する一連の処理は、コミュニケーション用アプリケーション・プログラムに記述された処理手続きの流れに従って、ユーザ端末10のCPU20が各種の演算処理を行ったり、各部の動作を制御することによって実現される。
コミュニケーション用アプリケーション・プログラムがライブ配信アプリケーション・プログラムによって起動されると、図13に示すフローチャート中においてステップS10に示すように、セッション確立準備を行う。このステップS10においては、ライブ配信アプリケーション・プログラムとの間で各種データの授受を行うことにより、クライアント端末12から送出された顔画像などのコンテンツを取得する準備を行う。なお、このステップS10における処理についての詳細は後述する。
次に、ステップS11において、クライアント端末12で起動されたコミュニケーション用アプリケーション・プログラムからの接続要求を受け取ったか否かを判定する。すなわち、このステップS11においては、クライアント端末12から顔画像100のようなコンテンツが送信されたか否かを判定する。この判定の結果、接続要求を受け取った場合には処理をステップS12に進め、受け取っていない場合には処理をステップS13に進める。
ステップS12においては、クライアント端末12側から送出された顔画像100などのようなコンテンツを、コミュニケーション用ウィンドウ70のプレビュー領域71に追加する処理を行う。これにより、ユーザ端末10から送出する番組に新たな参加者が参加する準備が整うこととなる。なお、このステップS12における処理についての詳細は後述する。
ステップS13においては、コミュニケーション用ウィンドウ70に配置された挿入開始ボタン72が選択され、番組への新たな参加者を出演させることが選択されたか否かを判定する。この判定の結果、挿入開始ボタン72が選択された場合には処理をステップS14に進め、選択されていない場合には処理をステップS15に進める。
ステップS14においては、各クライアント端末12からそれぞれ送出され、コミュニケーション用ウィンドウ70のプレビュー領域71に配置されたコンテンツのうちのいずれを出演者としてライブ配信するコンテンツに挿入するかを選択する処理を行う。なお、このステップS14における処理についての詳細は後述する。
ステップS15においては、コミュニケーション用ウィンドウ70に配置された挿入停止ボタン73が選択され、ステップS14にて挿入されたコンテンツの挿入中止が選択されたか否かを判定する。すなわち、ライブ配信する番組にクライアント端末12からの出演者が挿入されている場合に、この出演を中止するか否かを判定する。この判定の結果、挿入停止ボタン73が選択されている場合には処理をステップS16に進め、選択されていない場合には処理をステップS17に進める。
ステップS16においては、ライブ配信アプリケーション・プログラムに対して、ライブ配信する番組に挿入されている出演者の出演停止を要求するメッセージを送信し、クライアント端末12からのコンテンツの挿入処理を中止することをこのライブ配信アプリケーション・プログラムに対して要求する。これにより、ライブ配信アプリケーション・プログラムによって、ユーザ端末10から送出される番組に対するクライアント端末12からのコンテンツの挿入が中止されることとなる。
ステップS17においては、ライブ配信する番組に挿入されているコンテンツの送出元であるクライアント端末12から、画像データやテキストデータなどの新たなコンテンツが送出され、これを受信したか否かを判定する。この判定の結果、出演中のクライアント端末12から新たなコンテンツを受信した場合には処理をステップS18に進め、受信していない場合には処理をステップS19に進める。
ステップS18においては、出演中のクライアント端末12から新たに受信した画像データやテキストデータ等のコンテンツを、ライブ配信アプリケーション・プログラムに送信する。これにより、ライブ配信アプリケーション・プログラムによって、この新たなコンテンツがライブ配信される番組に挿入して表示されることとなる。
ステップS19においては、出演中のクライアント端末12から取得したテキストデータや画像データ等のコンテンツを、ライブ配信アプリケーション・プログラムに対して送信して受け渡しを行い、ライブ配信する番組に挿入するコンテンツの更新処理を行う。
次に、ステップS20においては、ユーザ端末10を操作する発信者であるユーザによって、コミュニケーション用アプリケーション・プログラムを終了することが要求されたか否かを判定する。このような要求は、例えば、コミュニケーション用ウィンドウ70に配置された終了ボタンが選択されたり、或いは例えばキーボード等によって構成される操作部26によりコミュニケーション用アプリケーション・プログラムの終了を要求する入力がなされることによって行われる。そして、この判定の結果、終了することが要求された場合には、コミュニケーション用アプリケーション・プログラムの終了処理を行い、コミュニケーション用ウィンドウ70を閉じて、図3に示した画面状態となる。また、終了することが要求されていない場合には、処理をステップS11に戻し、上述した一連の処理を継続する。
つぎに、上述したステップS10におけるセッション確立準備について、図14を参照しながら説明する。
このステップS10における処理が開始されると、図14においてステップS30に示すように、ライブ配信アプリケーション・プログラムから、ユーザ端末10自身のIPアドレスを取得する。このIPアドレスは、ユーザ端末10をインターネット11上で特定する情報であり、一般的には例えば「134.55.22.33」といった4組の数字によって表されるものである。
次に、ステップS31においては、クライアント端末12がユーザ端末10で実行されるコミュニケーション用アプリケーション・プログラムに対して接続するために必要となる接続用データ、すなわち発信者特定情報を生成し、この発信者特定情報をライブ配信アプリケーション・プログラムに対して受け渡す。
この発信者特定情報は、例えば図15に示すように、ユーザ端末10で実行されるコミュニケーション用アプリケーション・プログラムに対してアクセスを行う際に認証などを行うためのアクセスキー、このコミュニケーション用アプリケーション・プログラムが利用するユーザ端末10のネットワークインターフェース28のポート番号、このコミュニケーション用アプリケーション・プログラムに対する接続時に利用されるIPアドレスの数、及びこのコミュニケーション用アプリケーション・プログラムに対する接続時に利用される一連のIPアドレスなどによって構成される。
次に、ステップS32において、コミュニケーション用アプリケーション・プログラムは、クライアント端末12との間での接続状態の確保を実現するサーバ処理を開始する。これにより、クライアント端末12から送出されるコンテンツをユーザ端末10側で取得したり、ユーザ端末10とクライアント端末12との間で各種のデータを授受することが可能な状態となる。
そして、ステップS10における一連のセッション確立準備が上述の如く処理された後に、ステップS11に処理を戻す。
つぎに、上述したステップS12における参加者の追加処理について、図16を参照しながら説明する。
このステップS12における参加者の追加処理が開始されると、図16に示すステップS40において、クライアント端末12から送出されたデータに含まれるアクセスキーを、図15に示した発信者特定情報に含まれるアクセスキーと比較し、これが当該コミュニケーション用アプリケーション・プログラムによって作成されたアクセスキーと一致するか否かを判定する。これにより、クライアント端末12から送出されたコンテンツが、当該コミュニケーション用アプリケーション・プログラムで利用される目的で送出されたものであるか否かを判定することができる。そして、この判定の結果、アクセスキーが一致した場合には処理をステップS41に進め、一致しない場合にはステップS12における参加者の追加処理を中止して処理をステップS13に進める。
ステップS41においては、クライアント端末12から送出されたコンテンツを参加者リストに追加登録する。この参加者リストは、コミュニケーション用ウィンドウ70のプレビュー領域71に一覧表示する顔画像などのコンテンツに対応したものである。
次に、ステップS42においては、クライアント端末12側から、顔画像100や登録名などのコンテンツを取得する。次に、ステップS43においては、ステップS42で取得した顔画像100及び登録名を、プレビュー領域71に表示する。すなわち、コミュニケーション用ウィンドウ70のプレビュー領域71には、参加者リストに基づいて、この参加者リストに登録されたコンテンツの内容が表示されることとなる。
そして、ステップS12における一連の参加者追加処理が上述の如く処理された後に、ステップS13に処理を戻す。
つぎに、上述したステップS14における出演者の選択処理について、図17を参照しながら説明する。
このステップS14における出演者の選択処理が開始されると、図17においてステップS50に示すように、コミュニケーション用ウィンドウ70のプレビュー領域71に配置された複数の顔画像などのコンテンツを選択するモードに移行する。
次に、ステップS51において、プレビュー領域71に配置された複数の顔画像などのコンテンツのうち、いずれかのコンテンツが選択されか否かを判定する。このとき、コンテンツの選択は、例えば、ユーザ端末10の操作部26を構成するマウス等によって、複数の顔画像のうちのいずれかをクリック操作することなどによって行われる。そして、この判定の結果、いずれかのコンテンツが選択された場合には処理をステップS52に進め、いずれのコンテンツも選択されていない場合には処理をステップS55に進める。
ステップS52においては、ステップS51で選択されたコンテンツを、ライブ配信する番組に挿入して出演させることを記憶する。次に、ステップS53において、このコンテンツの送出元であるクライアント端末12から、コンテンツの中身を取得する。次に、ステップS54において、ステップS53で取得したコンテンツに関する情報をライブ配信アプリケーション・プログラムに受け渡し、これによりライブ配信アプリケーション・プログラム側でクライアント端末12から送出されたコンテンツがライブ配信される番組に挿入される。このステップS54が完了すると、処理がステップS56に進められる。
ステップS55においては、例えば操作部26を構成するマウスなどによって、プレビュー領域71に配置された顔画像などのコンテンツ以外の場所がクリック操作されたか否かを判定する。この判定の結果、コンテンツ以外の場所がクリック操作された場合には処理をステップS56に進め、クリック操作が行われていない場合には、処理をステップS51に戻して、このステップS51以降の処理を継続する。すなわち、このステップS55においては、顔画像などのコンテンツを選択するモードを解除するか否かを判定している。
ステップS56においては、顔画像などのコンテンツを選択するモードを解除し、処理をステップS15に戻す。
つぎに、上述したステップS19におけるライブ配信アプリケーション・プログラムに対するコンテンツの受け渡し処理について、図18を参照しながら説明する。
このステップS19におけるライブ配信アプリケーション・プログラムに対するコンテンツの受け渡し処理が開始されると、図18においてステップS60に示すように、ライブ配信アプリケーション・プログラムによって、挿入するテキストデータや画像データ等のコンテンツのサイズに関する問い合わせが行われたか否かを判定する。このとき問い合わされるサイズとしては、例えば、挿入するコンテンツの縦方向及び横方向のピクセル数などである。そして、この判定の結果、問い合わせが行われた場合には処理をステップS61に進め、行われていない場合には処理をステップS62に進める。
ステップS61においては、ライブ配信アプリケーション・プログラムによって問い合わされた、挿入するコンテンツのサイズを算出して、これをライブ配信アプリケーション・プログラムに対して受け渡す。これにより、ライブ配信アプリケーション・プログラムは、ライブ配信する番組に挿入するコンテンツのサイズを、このコンテンツを実際に受け取る前に知ることができ、各種の事前処理を行うことができる。
ステップS62においては、ライブ配信アプリケーション・プログラムによって、このライブ配信アプリケーション・プログラムとコミュニケーション用アプリケーション・プログラムとの間で共有するメモリ(共有メモリ)に関する情報の授受が行われたか否かを判定する。この共有メモリに関する情報としては、例えば、ユーザ端末10に備えられるRAM21における開始アドレスや、このRAM21内に共有メモリとして確保するブロック数などである。そして、この判定の結果、共有メモリに関する情報の授受が行われた場合には、処理をステップS63に進め、授受が行われていない場合には、ステップS19以降のライブ配信アプリケーション・プログラムに対するコンテンツの受け渡し処理を中止して、処理をステップS20に進める。
ステップS63においては、クライアント端末12から送出された顔画像などのコンテンツを取得する。次に、ステップS64において、ステップS63で取得した顔画像等の画像データやテキストデータなどのコンテンツの内容を、共有メモリに格納する。次に、ステップS65においては、共有メモリとしてRAM21に確保されたメモリ領域を解放(クローズ)し、処理をステップS20に戻す。
ユーザ端末10においては、上述したようにして、コミュニケーション用アプリケーション・プログラムによる一連の処理が実行される。これにより、ユーザ端末10は、以上のような一連の処理をコミュニケーション用アプリケーション・プログラムによって実行することにより、クライアント端末12から送出されたコンテンツを受け取って、ライブ配信アプリケーション・プログラムに受け渡すことができる。
(7)ライブ配信アプリケーション・プログラムにおける処理つぎに以下では、上述したライブ配信アプリケーション・プログラムによってユーザ端末10側で実行される一連の処理のうち、クライアント端末12から送出されたコンテンツを挿入する場合の処理について、図19に示すフローチャートを参照しながら順を追って説明する。なお、以下で説明する一連の処理は、ライブ配信アプリケーション・プログラムに記述された処理手続きの流れに従って、ユーザ端末10のCPU20が各種の演算処理を行ったり、各部の動作を制御することによって実現される。
ライブ配信アプリケーション・プログラムがユーザ端末10上で起動された状態で、クライアント端末12から送出されたコンテンツを挿入する場合には、先ず、図19に示すステップS70において、コミュニケーション用アプリケーション・プログラムから画像データやテキストデータ等のコンテンツが送信されたか否かを判定する。このステップS70は、コミュニケーション用アプリケーション・プログラムにおけるステップS18での処理に対応したものである。そして、この判定の結果、コミュニケーション用アプリケーション・プログラムから挿入するコンテンツが送信された場合には処理をステップS71に進め、送信されていない場合には処理をステップS76に進める。
ステップS71においては、コミュニケーション用アプリケーション・プログラムに対して、挿入するテキストデータや画像データ等のコンテンツのサイズに関する問い合わせを行う。このステップS71における処理は、コミュニケーション用アプリケーション・プログラムにおけるステップS60での処理に対応したものである。そして、挿入するコンテンツのサイズをコミュニケーション用アプリケーション・プログラムから取得した後に、処理をステップS72に進める。
ステップS72においては、ステップS72において取得したコンテンツのサイズに基づいて、このコンテンツを格納するに十分な容量の共有メモリをRAM21内に確保する。
次に、ステップS73において、確保した共有メモリに関する情報を、コミュニケーション用アプリケーション・プログラムに対して受け渡す。このステップS73における処理は、コミュニケーション用アプリケーション・プログラムにおけるステップS62での処理に対応したものである。
次に、コミュニケーション用アプリケーション・プログラムによって共有メモリ内にクライアント端末12から送出されたコンテンツの内容が格納された後に、ステップS74において、このコンテンツを共有メモリから読み出して、ライブ配信する番組のコンテンツに合成するなどして挿入する。次に、ステップS75において、共有メモリとしてRAM21に確保されたメモリ領域を解放し、処理をステップS76に進める。
ステップS76においては、コミュニケーション用アプリケーション・プログラムから、ライブ配信する番組に挿入されている出演者の出演停止を要求するメッセージが送信されたか否かを判定する。このステップS76における処理は、コミュニケーション用アプリケーション・プログラムにおけるステップS16での処理に対応したものである。そして、この判定の結果、出演停止を要求するメッセージが送信された場合には処理をステップS77に進め、送信されていない場合には、送出されたコンテンツを挿入する場合の処理を一時終了して、他の処理を継続する。
なお、図19に示す一連の処理は、ライブ配信アプリケーション・プログラムにおける各種の処理のうち、送出されたコンテンツを挿入する場合の処理についてのみ示すものであり、ステップS70以降の処理は、他の各種の処理が実行される間に所定の時間か間隔で繰り返し行われるものである。
ステップS77においては、コミュニケーション用アプリケーション・プログラムから受け渡されたコンテンツを挿入する処理を停止し、ユーザ端末10内に予め格納されたコンテンツ、或いはユーザ端末10に搭載又は接続されたDVカメラ29によって撮像されたコンテンツによってライブ配信を行う。
(8)複数のコンテンツを挿入する場合の画面例以上の説明においては、ユーザ端末10側でコミュニケーション用ウィンドウ70のプレビュー領域71に一覧表示された複数の顔画像のうちのひとつが選択され、この顔画像が挿入された動画像が各クライアント端末12に対してライブ配信される場合を例示した。
しかしながら、コンテンツ配信システム1においては、複数のクライアント端末12から送信された顔画像などのコンテンツをユーザ端末10側で取得し、ユーザ端末10側でライブ配信するコンテンツを生成するに際して、これら複数のコンテンツを挿入するとしてもよい。
そこで、以下では、複数のコンテンツを元の配信画像に挿入してライブ配信を行う場合について説明する。本例では、例えば図5に示した状態において、コミュニケーション用ウィンドウ70のプレビュー領域71に表示された複数の顔画像のうちの3つが選択された場合について、図20を参照して説明する。
このように複数の顔画像を選択するに際しては、プレビュー領域71に一覧表示された複数の顔画像が、例えばユーザ端末10のユーザによってマウスで個別にクリック操作することされることにより実現される。また、例えば、先に説明した挿入開始ボタン72と同様な「全員参加」ボタンなどを例えばプレビュー領域71に表示しておき、この「全員参加」ボタンがユーザにより選択された場合に、現在セッションが確立されている各ユーザに対応した全ての顔画像をライブ配信する画像に挿入するとしてもよい。
このようにして複数の顔画像が選択されると、図20に示すように、選択された顔画像がメインモニタパネルウィンドウ53cのプレビュー領域53c1に表示されている画像の所定の位置に挿入される。なお、図20においては、3つの顔画像100a,100b,100cが選択され、プレビュー領域53c1に挿入された場合について図示する。
そして、各クライアント端末12から送出された3つの顔画像100a,100b,100cが元の配信画像に挿入されると、挿入後の配信画像がストリーミング配信サーバ13に送出され、各クライアント端末12に対してライブ配信される。これにより、各クライアント端末12側では、3つの顔画像100a,100b,100cが挿入された配信画像が閲覧されることとなる。
上述のように、コンテンツ配信システム1は、複数のクライアント端末12からそれぞれ取得したコンテンツ(顔画像100a,100b,100c)を配信画像に挿入してライブ配信することができることから、例えば複数の人々を番組に参加させて討論や会議を行うなどすることができ、より多彩で柔軟な内容を有するライブ配信を行うことができる。以下では、このようにして討論や会議を行う場合について、具体的な例を挙げて説明する。
まず、クライアント端末12側で動作するコミュニケーション用アプリケーション・プログラムにおいて、ユーザ端末10に送出する顔画像に種々のマーク(記号や図形等の画像)を合成して送信する機能が備わっている場合について説明する。この場合には、クライアント端末12側のコミュニケーション用アプリケーション・プログラムにより表示されるコミュニケーション用ウィンドウ90は、例えば図21に示すような状態となる。図21に示すコミュニケーション用ウィンドウ90は、図7に示したものと同様なものであるが、モジュール構造とされたコミュニケーション用アプリケーション・プログラムにおいてマーク合成機能を実現する機能モジュールが動作している状態を示している。
このとき、図21に示すように、自画像表示領域91の周囲には、図7に示した複数のボタン92a〜92gの代わりに、ボタン94a〜94fが配置される。これらボタン94a〜94fは、それぞれ以下の機能に対応している。
まるボタン94a、ばつボタン94b、さんかくボタン94c、及びしかくボタン94dは、それぞれ、「まる」マーク、「ばつ」マーク、「さんかく」マーク、及び「しかく」マークを自画像表示領域91に表示された顔画像に合成する機能に対応しており、これらのボタンがユーザによって選択された場合には、選択されたボタンに対応するマークが顔画像に合成される。また、このようにしてマークが合成された顔画像は、ユーザ端末10に送出される。また、ヘルプボタン94e及び戻るボタン94fは、それぞれ図7に示したヘルプボタン92d及び戻るボタン92eに相当する機能を有している。
このとき、例えば、クライアント端末12側で図21に示すコミュニケーション用ウィンドウ90内のまるボタン94aが選択された場合には、このクライアント端末12から送出される顔画像に「まる」マークが合成されてユーザ端末10に送出される。このようにして送出された顔画像は、ユーザ端末10側のコミュニケーション用アプリケーション・プログラムで取得され、図22に示すように、コミュニケーション用ウィンドウ70のプレビュー領域71内に「まる」マークが合成された状態で表示される。
また、ライブ配信用アプリケーション・プログラムが挿入する顔画像をコミュニケーション用アプリケーション・プログラムから取得していることから、メインモニタパネルウィンドウ53cのプレビュー領域53c1においても、「まる」マークが合成された顔画像100aが元画像に挿入されて表示されることとなる。なお、このようにしてマークが合成された顔画像を含むプレビュー領域53c1内の画像は、先の説明と同様にして各クライアント端末12に配信される。
コンテンツ配信システム1においては、上述のように種々のマークを各顔画像に合成してライブ配信することが可能とされていることから、例えば発信者から出題された問題に対して、複数の参加者がそれぞれ「まる」や「ばつ」等のマークを指定して回答するなどして、クイズ大会や会議、或いは討論などを行うことができ、より柔軟で多彩な視聴者参加型の番組を容易に作成して配信することができる。
つぎに、複数の顔画像が元画像に挿入された状態で、クライアント端末12から送出されたテキストデータをユーザ端末10側で受け取った場合について説明する。以下の説明は、先に図10乃至図12を参照しながら説明した場合に対応するものである。
この場合には、図10を参照して説明したようにして所定のクライアント端末12で実行されるコミュニケーション用アプリケーション・プログラム上でテキストデータ(例えば「こんにちは!」というテキスト)が入力されると、このクライアント端末12側のコミュニケーション用アプリケーション・プログラムからユーザ端末10側のコミュニケーション用アプリケーション・プログラムに対してテキストデータが送出される。
すると、ユーザ端末10側のコミュニケーション用アプリケーション・プログラムは、図23に示すように、コミュニケーション用ウィンドウ70内で当該クライアント端末12に対応した顔画像に相当する位置(又は当該顔画像に隣接した位置)に、取得したテキストデータの内容(「こんにちは!」)を表示する。
また、ライブ配信用アプリケーション・プログラムは、このテキストデータをコミュニケーション用アプリケーション・プログラムから取得して、図23に示すように、プレビュー領域53c1に「こんにちは!」なるテキストデータを挿入して表示する。
このとき、ライブ配信用アプリケーション・プログラムは、挿入するテキストデータの送出元に対応したユーザの顔画像(本例では顔画像100b)に対して、拡大表示するなどの所定の効果を付与することが望ましい。これにより、ライブ配信される画像に挿入されたテキストデータが、複数挿入された顔画像100a,100b,100cのうち、どの顔画像に対応するユーザにより発せられたものであるかを容易に識別することができる。なお、このとき顔画像に付与する効果としては、拡大表示することに特に限定されるものではなく、いずれのユーザからテキストデータが発せられたものかを容易に識別することが可能であれば十分である。このような効果としては、例えば、当該顔画像を変形させたり、所定のアニメーション効果を付与したり、或いは色調を変化させるなどの効果などを挙げることができる。
(9)複数のコンテンツを挿入する場合の処理つぎに、上述のようにして複数のコンテンツを挿入してライブ配信を行う場合に、コミュニケーション用アプリケーション・プログラムによってユーザ端末10側で実行される一連の処理について、フローチャートを参照しながら順を追って説明する。
ここで、コンテンツ配信システム1において発信側となるユーザ端末10において、ライブ配信を行うためにRAM21内に確保されるメモリ領域の内容について、図24を参照して説明する。このメモリ領域の内容は、図24に示すように、コミュニケーション用アプリケーション・プログラムにおいてワークエリアとして使用されるメモリ領域200と、ライブ配信用アプリケーション・プログラムにおいてワークエリアとして使用されるメモリ領域201と、これらコミュニケーション用アプリケーション・プログラム及びライブ配信用アプリケーション・プログラムの双方で共用されるメモリ領域202に区別される。
メモリ領域200は、コミュニケーション用アプリケーション・プログラムにおいてセッションが確立されたクライアント側のユーザ(参加者)に関する情報を記憶する参加者リストと、クライアント端末12から取得してライブ配信用アプリケーション・プログラムに渡すテキストデータ及び画像データをそれぞれ準備するための文字準備用メモリ領域及び画像準備用メモリ領域とにより構成される。このうち、参加者リストは、図中「参加者0」、「参加者1」、「参加者2」、・・・として表すように、必要とされる情報が各参加者毎にまとめて保持されている。
参加者リスト内で各参加者に関する情報は、例えば、各参加者を識別するための参加者ID、当該参加者の名前、当該参加者に対応する顔画像、この顔画像が変化したか否かを示す顔画像変化フラグ、当該参加者から送出されたテキストデータ(文字)、この文字が変化したか否かを示す文字変化フラグ、当該参加者から送出されたマーク、このマークが変化したか否かを示すマーク変化フラグなどにより構成されている。
ユーザ端末10のRAM21内に以上のようなメモリ領域が確保された状態で、コミュニケーション用アプリケーション・プログラムがライブ配信アプリケーション・プログラムによって起動されると、図25に示すフローチャート中においてステップS100に示すように、セッション確立準備を行う。このステップS100においては、ライブ配信アプリケーション・プログラムとの間で各種データの授受を行うことにより、クライアント端末12から送出された顔画像などのコンテンツを取得する準備を行う。なお、このステップS100における処理の内容は、図14に示したステップS30〜S32における処理と同等であるので、本例での説明を省略する。
次に、ステップS101において、クライアント端末12で起動されたコミュニケーション用アプリケーション・プログラムからの接続要求を受け取ったか否かを判定する。すなわち、このステップS101においては、クライアント端末12から顔画像100のようなコンテンツが送信されたか否かを判定する。この判定の結果、接続要求を受け取った場合には処理をステップS102に進め、受け取っていない場合には処理をステップS103に進める。
ステップS102においては、クライアント端末12側から送出された顔画像100などのようなコンテンツを、コミュニケーション用ウィンドウ70のプレビュー領域71に追加する処理を行う。これにより、ユーザ端末10から送出する番組に新たな参加者が参加する準備が整うこととなる。なお、このステップS102における処理の内容は、図16に示したステップS40〜S43における処理と同等であるので、本例での説明を省略する。
ステップS103においては、例えば、コミュニケーション用ウィンドウ70に配置された「全員参加」ボタンが選択されるなどして、コミュニケーション用アプリケーション・プログラムでセッションが確立された全てのユーザをライブ配信用アプリケーション・プログラムにより配信する番組にさせることが要求されたか否かを判定する。この判定の結果、全員の参加が要求されている場合には処理をステップS104に進め、要求されていない場合には処理をステップS105に進める。
ステップS104においては、各クライアント端末12のユーザ(参加者)をライブ配信用アプリケーション・プログラムにより配信される番組に参加(出演)させる準備を行う。なお、このステップS104における処理についての詳細は後述する。
ステップS105においては、コミュニケーション用ウィンドウ70に配置された挿入停止ボタン73がユーザにより選択されるなどして、ステップS104にて開始された参加者の番組への出演を中止することが要求されたか否かを判定する。この判定の結果、出演の中止が要求されている場合には処理をステップS106に進め、要求されていない場合には処理をステップS107に進める。
ステップS106においては、ステップS104にて開始された参加者の番組への出演を中止する処理を行う。なお、このステップS106における処理についての詳細は後述する。
ステップS107においては、クライアント端末12から送出されたコンテンツ(すなわち、顔画像、テキスト、マーク等)に変化が認められるか否かを判定する。この判定の結果、変化が認められる場合には処理をステップS108に進め、認められない場合には処理をステップS109に進める。
ステップS108においては、図24に示した顔画像変化フラグ、文字変化フラグ、或いはマーク変化フラグ等の各変化フラグを変更する処理を行う。このステップS108における処理により、ライブ配信用アプリケーション・プログラムに挿入されるコンテンツの内容が更新されることとなるが、詳細については後述する。
ステップS109においては、画像更新タイマーに関する処理を行う。このステップS109における処理により、各クライアント端末12から取得したコンテンツ(すなわち、顔画像、テキスト、マーク等)を所定の時間間隔でライブ配信用アプリケーション・プログラムに対して渡すことが可能となり、ユーザ端末10での処理負荷が不必要に高まってしまうことを防止することができる。なお、このステップS109における処理についての詳細は後述する。
ステップS110においては、各クライアント端末12から取得したコンテンツをライブ配信用アプリケーション・プログラムに対して実際に渡す処理を行う。なお、このステップS110における処理についての詳細は後述する。
ステップS111においては、ユーザ端末10を操作する発信者であるユーザによって、コミュニケーション用アプリケーション・プログラムを終了することが要求されたか否かを判定する。この判定の結果、終了することが要求された場合には、コミュニケーション用ウィンドウ70を閉じる処理を行うなどして、コミュニケーション用アプリケーション・プログラムの終了処理を行う。また、終了することが要求されていない場合には、処理をステップS101に戻し、上述した一連の処理を繰り返す。
つぎに、上述したステップS104における出演開始処理について、図26を参照しながら説明する。
ステップS104における処理が開始されると、図26に示すステップS120において、顔画像変化フラグ、文字変化フラグ、或いはマーク変化フラグ等の各変化フラグを初期状態に設定(クリア)する。次に、ステップS121において、ライブ配信用アプリケーション・プログラムに対して、挿入する画像を更新すべきことを示す画像更新メッセージを送出する。次に、ステップS122において、画像更新タイマーを開始(スタート)させる。この画像更新タイマーは、クライアント端末12から取得したコンテンツを所定の時間間隔でライブ配信用アプリケーション・プログラムに対して渡すためのタイマーであり、例えば所定の時間間隔でカウント値が増加する変数などによって実現することができる。なお、このステップS122における処理が完了すると、ステップS105に処理が進められる。
つぎに、上述したステップS106における出演中止処理について、図27を参照しながら説明する。
ステップS106における処理が開始されると、図27に示すステップS130において、画像更新タイマーを停止させる。次に、ステップS131において、顔画像変化フラグ、文字変化フラグ、或いはマーク変化フラグ等の各変化フラグをクリアする。次に、ステップS132において、ライブ配信用アプリケーション・プログラムに対して、コンテンツの挿入を中止することを要求するメッセージを出力する。このステップS132における処理が完了した後に、ステップS107に処理を進める。
つぎに、上述したステップS108における変化フラグ処理について、図28を参照しながら説明する。
ステップS108における処理が開始されると、図28に示すステップS140において、参加者リストを参照することにより、各参加者の顔画像、文字、或いはマークが変化したか否かを判断し、変化している参加者の参加者IDを取得する。以降の処理においては、ここで取得した参加者IDを「参加者IDx」と表すこととする。
次に、ステップS141においては、顔画像が変化しているか否かを判定し、変化している場合には処理をステップS142に進め、変化していない場合には処理をステップS143に進める。
ステップS142においては、参加者リスト中で参加者IDxに対応する顔画像変化フラグを立てる処理を行う。なお、以降の説明において「フラグを立てる」とは、当該フラグの値を「0」から「1」に変更することを表すこととする。このステップS142における処理の後に、ステップS143に処理を進める。
ステップS143においては、文字が変化しているか否かを判定し、変化している場合には処理をステップS144に進め、変化していない場合には処理をステップS147に進める。
ステップS144においては、参加者リスト中で参加者IDxに対応する文字変化フラグを立てる処理を行う。次に、ステップS145において、当該参加者からテキストデータ(文字)が取得されていること通知するとともに、この文字を配信画像に合成することを要求する文字更新メッセージをライブ配信用アプリケーション・プログラムに対して送出する。次に、ステップS146において、ライブ配信用アプリケーション・プログラムに対して画像更新メッセージを送出する。このステップS146における処理が完了した後に、ステップS147に処理を進める。
ステップS147においては、マークが変化しているか否かを判定し、変化している場合には処理をステップS148に進め、変化していない場合には変化フラグ処理を完了して処理をステップS109に進める。
ステップS148においては、参加者リスト中で参加者IDxに対応するマーク変化フラグを立てる処理を行う。次に、ステップS149において、参加者リスト中で参加者IDxに対応する顔画像変化フラグを立てる処理を行う。このステップS149における処理が完了した後に、変化フラグ処理を完了して処理をステップS109に進める。
つぎに、上述したステップS109における画像更新タイマー処理について、図29を参照しながら説明する。
ステップS109における処理が開始されると、図29に示すステップS150において、画像更新タイマーがスタートしているか否かを判定する。この結果、スタートしていない場合には、ライブ配信用アプリケーション・プログラムに挿入する画像を更新しないものとして、当該画像更新タイマー処理を完了し、処理をステップS110に進める。また、画像更新タイマーがスタートしている場合には、処理をステップS151に進める。
ステップS151においては、画像更新タイマーの値を参照することにより、前回行われた画像更新タイマー処理から所定の時間(本例では1秒)が経過しているか否かを判定する。この結果、経過していない場合には、ライブ配信用アプリケーション・プログラムに挿入する画像の更新をしないものとして、当該画像更新タイマー処理を完了し、処理をステップS110に進める。また、所定の時間が経過している場合には、処理をステップS152に進める。
ステップS152においては、参加者リストを参照することにより、顔画像変化フラグが立っている参加者が存在するか否かを判定する。この結果、存在する場合には処理をステップS153に進め、存在しない場合には処理をステップS155に進める。
ステップS153においては、ライブ配信用アプリケーション・プログラムに対して、画像更新メッセージを送出する。次に、ステップS154において、参加者リスト中の顔画像変化フラグをクリアする。このステップS154における処理が完了した後に、処理をステップS155に進める。
ステップS155においては、文字変化フラグが立ってから所定の時間(本例では10秒)が経過したか否かを判定する。この結果、経過している場合には処理をステップS156に進め、経過していない場合には処理をステップS110に進める。このステップS155における処理を行うことによって、ライブ配信される元画像に文字を挿入する場合に、この文字を所定の時間(10秒)だけ表示させることが可能となる。
ステップS156においては、ライブ配信用アプリケーション・プログラムに対して画像更新メッセージを送出する。次に、ステップS157において、参加者リスト中の文字変化フラグをクリアする。このステップS157における処理が完了した後に、処理をステップS110に進める。
つぎに、上述したステップS110における処理について、図30を参照しながら説明する。
ステップS110における処理が開始されると、図30に示すステップS160において、ライブ配信用アプリケーション・プログラムから配信画像に挿入すべきテキスト(文字)のサイズ(文字数)、又は配信画像に挿入すべき画像のサイズ(例えば縦横のピクセル数)に関しての問い合わせが行われているか否かを判定する。この結果、問い合わせが行われている場合には処理をステップS161に進め、問い合わせが行われていない場合には処理をステップS163に進める。
ステップS161においては、ライブ配信用アプリケーション・プログラムに対して渡す文字又は画像を準備する処理を行う。この処理が完了した後に、処理をステップS162に進める。なお、このステップS161における処理についての詳細は後述する。
ステップS162においては、ライブ配信用アプリケーション・プログラムに対して、後の処理で渡すこととなる文字の文字数、又は画像のサイズを通知する。これにより、ライブ配信用アプリケーション・プログラムは、予め文字数や画像のサイズを知ることができる。このステップS162における処理が完了した後に、処理をステップS163に進める。
ステップS163においては、アドレス情報(共有メモリのアドレス等を示す情報)をライブ配信用アプリケーション・プログラムから取得するなどして、コミュニケーション用アプリケーション・プログラムとライブ配信用アプリケーション・プログラムとの間で文字や画像等のコンテンツを受け渡す際に利用される共有メモリのアドレスが設定されているか否かを判定する。この結果、アドレスが設定されている場合には処理をステップS164に進め、アドレスが設定されていない場合にはコンテンツの受け渡し処理を中止して、処理をステップS111に進める。
ステップS164においては、設定されたアドレスに基づいて、共有メモリをアクセス可能な状態とする(オープンする)。次に、ステップS165において、コミュニケーション用アプリケーション・プログラムからライブ配信用アプリケーション・プログラムに対して渡す文字又は画像を、文字準備用メモリ又は画像準備用メモリから共有メモリに転送(コピー)する。次に、ステップS166において、ステップS164でオープンした共有メモリに対するアクセスを停止する(クローズする)。
このようにして、ライブ配信用アプリケーション・プログラムに対して渡す文字や画像等のコンテンツを共有メモリにコピーすることにより、ライブ配信用アプリケーション・プログラムは、この共有メモリを参照することによって、コミュニケーション用アプリケーション・プログラムから取得すべきコンテンツを取得することが可能となる。なお、コミュニケーション用アプリケーション・プログラムは、ステップS164における処理が完了した後に、処理をステップS111に進める。
つぎに、上述したステップS161における処理について、図31を参照しながら説明する。
ステップS161における処理が開始されると、図31に示すステップS170において、ライブ配信用アプリケーション・プログラムに対して文字の受け渡しに関する準備が整っているか否かを判定する。この結果、準備が整っている場合には処理をステップS171に進め、準備が整っていない場合、又は文字を渡す必要がない場合には処理をステップS172に進める。
ステップS171においては、ライブ配信用アプリケーション・プログラムに対して渡すテキスト(文字)を文字準備用メモリにコピーする。このステップS171における処理の後に、処理をステップS162に進める。
ステップS172においては、配信画像に出演する参加者の各々に対して以降の一連の処理を行うために用いる変数iの値を「0」に設定する。次に、ステップS173において、参加者リストを参照することにより第i番目の参加者(以下、単に参加者iと称する。)に対応した顔画像を取得し、この顔画像を画像準備用メモリに格納する。
次に、ステップS174において、参加者リストを参照することにより、参加者iに対応した文字変化フラグが立っているか否かを判定する。この結果、文字変化フラグが立っている場合には処理をステップS175に進め、文字変化フラグが立っていない場合には処理をステップS176に進める。
ステップS175においては、画像準備用メモリに格納された参加者iの顔画像を拡大する処理を行う。このステップS175における処理により、図23に示したように、挿入する文字の送信元となる参加者の画像が拡大表示されることとなる。なお、このステップS175における処理の後に、処理をステップS176に進める。
ステップS176においては、参加者リストを参照することにより、参加者iに対応したマーク変化フラグが立っているか否かを判定する。この結果、マーク変化フラグが立っている場合には処理をステップS177に進め、マーク変化フラグが立っていない場合には処理をステップS178に進める。
ステップS177においては、画像準備用メモリに格納された参加者iの顔画像に対して所定のマークを描画する処理を行う。このステップS177における処理の後に、処理をステップS178に進める。
ステップS178においては、変数iの現在の値に「1」を加える処理を行う。次に、ステップS179において、変数iの値が配信番組に出演する参加者の数未満であるか否か、すなわち全ての参加者に対してステップS173以降の処理が完了しているか否かを判定し、完了していない場合には処理をステップS173に戻して、次の参加者についてもステップS173以降の処理を行う。また、全ての参加者に対する処理が完了している場合には、処理をステップS162に進める。
コンテンツ配信システム1においては、コミュニケーション用アプリケーション・プログラムが上述した処理を行うことにより、コミュニケーション用アプリケーション・プログラムで複数のクライアント端末12から取得したコンテンツをライブ配信用アプリケーション・プログラムに対して受け渡すことができる。これにより、ライブ配信用アプリケーション・プログラム側で複数のコンテンツを配信画像に挿入することができる。
なお、上述の説明においては、参加者全員についての画像を画像準備用メモリを利用してコミュニケーション用アプリケーション・プログラム側で合成した後に、ライブ配信用アプリケーション・プログラム側に渡している。したがって、ライブ配信用アプリケーション・プログラム側では、予め合成された参加者全員分の画像を元画像に対して合成する処理と、コミュニケーション用アプリケーション・プログラムから取得した「おはよう!」などのテキスト(文字)を元画像に対して合成する処理との2つの画像合成処理が行われる。
ただし、コンテンツ配信システム1においては、コミュニケーション用アプリケーション・プログラムとライブ配信用アプリケーション・プログラムとのどちらでどの程度までの合成処理を行うかは任意であることは述べるまでもない。
(10)まとめ以上で説明したように、コンテンツ配信システム1においては、ライブ配信アプリケーション・プログラムとコミュニケーション用アプリケーション・プログラムとが密接に連携することによって、クライアント端末12から送出されたコンテンツが、ユーザ端末10からライブ配信されるコンテンツに挿入されることとなる。なお、上述した一連の処理は、ライブ配信アプリケーション・プログラムとコミュニケーション用アプリケーション・プログラムとが連携して実行されることにより実現することに限定されるものではなく、例えば単一のアプリケーション・プログラムにより実現されていてもよい。
また、上述のコンテンツ配信システム1においては、コンテンツの配信側のシステムを、クライアント端末12から送出されたコンテンツを受信し、ライブ配信されるコンテンツを生成するユーザ端末10と、ユーザ端末10で生成したライブ配信されるコンテンツをクライアント端末12に配信するストリーミング配信サーバ13とで構成するようにしたが、ユーザ端末10に複数のクライアント端末12a,12b,12c,・・・に対してライブ配信されるコンテンツを配信するサーバ機能を備えるように構成してもよい。この場合においても、クライアント端末12から提供された動画像、静止画像、或いはテキスト等のコンテンツを、発信側であるユーザ端末10で自在に利用してコンテンツの配信を行うことができる。このため、配信されたコンテンツの視聴側との間で、意見や主張を極めてスムーズに交換することができる。
また、上述したコミュニケーション用アプリケーション・プログラム又はライブ配信用アプリケーション・プログラムにより実行される処理に相当する手続きを所望の電子機器で実行処理させるソフトウェアプログラムを各種の記録媒体に格納して提供するとしてもよい。
本発明の実施の形態として示すコンテンツ配信システムの全体的な基本構成を示す概略図である。 同コンテンツ配信システムに用いられるユーザ端末の構成を示す機能ブロック図である。 同コンテンツ配信システムにおいてユーザ端末側で実行されるライブ配信アプリケーション・プログラムによって表示されるメインウィンドウを示す模式図である。 同コンテンツ配信システムにおけるユーザ端末とクライアント端末との接続関係を示す模式図である。 同コンテンツ配信システムにおいてユーザ端末側で実行されるライブ配信アプリケーション・プログラムからコミュニケーション用アプリケーション・プログラムが起動された状態における表示画面を示す模式図である。 同コンテンツ配信システムにより配信されたコンテンツを視聴するクライアント端末側における表示画面の例を示す模式図である。 同コンテンツ配信システムにおいてクライアント端末側で実行されるコミュニケーション用アプリケーション・プログラムにより作成されるコミュニケーション用ウィンドウの例を示す模式図である。 同コンテンツ配信システムにおいてクライアント端末側から送出されたコンテンツがユーザ端末側で挿入される場合の表示画面の例を示す模式図である。 同コンテンツ配信システムにおいてユーザ端末側でコンテンツの挿入が行われたコンテンツを視聴するクライアント端末側における表示画面の例を示す模式図である。 同コンテンツ配信システムにおいてクライアント端末側のコミュニケーション用アプリケーション・プログラムによりテキストデータの入力が行われた状態における表示画面の例を示す模式図である。 同コンテンツ配信システムにおいてクライアント端末側で入力されたテキストデータがユーザ端末側で取得され、利用される場合における表示画面の例を示す模式図である。 同コンテンツ配信システムにおいてテキストデータが挿入されたコンテンツがクライアント端末側で視聴される場合における表示画面の例を示す模式図である。 同コンテンツ配信システムにおいてユーザ端末側で実行されるコミュニケーション用アプリケーション・プログラムによる実行手順の一例を示すフローチャートである。 同コンテンツ配信システムにおいてコミュニケーション用アプリケーション・プログラムによりセッション確立準備を行う場合の実行手順の一例を示すフローチャートである。 同コンテンツ配信システムにおいてコミュニケーション用アプリケーション・プログラムで用いられる発信者特定情報(接続用データ)の一例を示す模式図である。 同コンテンツ配信システムにおいてコミュニケーション用アプリケーション・プログラムにより参加者追加処理を行う場合の実行手順の一例を示すフローチャートである。 同コンテンツ配信システムにおいてコミュニケーション用アプリケーション・プログラムにより出演者選択処理を行う場合における実行手順の一例を示すフローチャートである。 同コンテンツ配信システムにおいてコミュニケーション用アプリケーション・プログラムによりライブ配信アプリケーション・プログラムに対する文字や画像などの受け渡し処理を行う場合における実行手順の一例を示すフローチャートである。 同コンテンツ配信システムにおいてライブ配信アプリケーション・プログラムによりコンテンツの挿入を行う場合における実行手順の一例を示すフローチャートである。 同コンテンツ配信システムにおいて複数のコンテンツを挿入する場合における表示画面の例を示す模式図である。 同コンテンツ配信システムにて複数のコンテンツを挿入する場合において、クライアント端末側の表示画面に表示されるコミュニケーション用ウィンドウの例を示す模式図である。 同コンテンツ配信システムにて複数のコンテンツを挿入する場合において、クライアント端末側で顔画像にマークを合成することが要求された場合における表示画面の例を示す模式図である。 同コンテンツ配信システムにて複数のコンテンツを挿入する場合において、特定の参加者から入力された文字を元画像に合成して配信する場合における表示画面の例を示す模式図である。 同コンテンツ配信システムにて複数のコンテンツを挿入する場合において、ユーザ端末のRAM内に確保されるメモリ領域の内容を示す模式図である。 同コンテンツ配信システムにて複数のコンテンツを挿入する場合において、ライブ配信用アプリケーション・プログラム側で行われる処理の一例を示すフローチャートである。 同コンテンツ配信システムにて複数のコンテンツを挿入する場合において、ライブ配信用アプリケーション・プログラム側で行われる処理のうち、出演開始処理について示すフローチャートである。 同コンテンツ配信システムにて複数のコンテンツを挿入する場合において、ライブ配信用アプリケーション・プログラム側で行われる処理のうち、出演中止処理について示すフローチャートである。 同コンテンツ配信システムにて複数のコンテンツを挿入する場合において、ライブ配信用アプリケーション・プログラム側で行われる処理のうち、変化フラグ処理について示すフローチャートである。 同コンテンツ配信システムにて複数のコンテンツを挿入する場合において、ライブ配信用アプリケーション・プログラム側で行われる処理のうち、画像更新タイマー処理について示すフローチャートである。 同コンテンツ配信システムにて複数のコンテンツを挿入する場合において、ライブ配信用アプリケーション・プログラム側で行われる処理のうち、ライブ配信用アプリケーション・プログラムに対してコンテンツを受け渡す処理について示すフローチャートである。 同コンテンツ配信システムにて複数のコンテンツを挿入する場合において、ライブ配信用アプリケーション・プログラム側で行われる処理のうち、ライブ配信用アプリケーション・プログラムに対して受け渡すコンテンツを準備する処理について示すフローチャートである。
符号の説明
1 コンテンツ配信システム、10 ユーザ端末、11インターネット、12 クライアント端末、13 ストリーミング配信サーバ、14 サーバ使用予約管理センタ、15 公衆回線網、16 サーバ接続専用ネットワーク、29DVカメラ

Claims (16)

  1. コンテンツを配信するサーバ装置と前記サーバ装置から配信されるコンテンツを受信する複数の視聴装置とにネットワークを介して接続された送信装置であって、
    前記ネットワークを介して他の装置と通信を行う通信手段と、
    前記サーバ装置を介して前記視聴装置に配信されるコンテンツを生成する制御手段と、
    を具備し、
    前記制御手段は、
    前記視聴装置に前記サーバ装置を介して配信される第1コンテンツを、前記送信装置に備える装置および前記送信装置に接続される装置のうち少なくとも1の装置から取得する処理と、
    前記視聴装置に前記サーバ装置を介して配信される第2コンテンツを、前記サーバ装置から配信されるコンテンツを受信する前記視聴装置から、前記通信手段を介して取得する処理と、
    前記第1コンテンツと前記第2コンテンツとを用いて、前記サーバ装置に送信する送信コンテンツを生成する処理と、
    前記送信コンテンツを前記通信手段を介して前記サーバ装置に送信する処理と
    を実行する送信装置。
  2. 前記制御手段は、前記送信装置をネットワーク上で特定するための発信者特定情報を前記サーバ装置に送信し、
    前記サーバ装置から前記発信者特定情報を取得した他の装置からの接続要求に基づいて、前記他の装置と接続を確立し、
    前記接続が確立した他の装置から前記第2コンテンツを受信する
    処理を実行する請求項1記載の送信装置。
  3. 前記第1コンテンツ及び第2コンテンツは、動画像、静止画像、音声情報、又は文字情報である
    請求項1記載の送信装置。
  4. 前記送信装置は、動画像又は静止画像を撮像する画像撮像装置に接続されており、前記制御手段は、前記画像撮像装置から前記第1コンテンツを取得する処理を行うこと
    を特徴とする請求項1記載の送信装置。
  5. 前記第1コンテンツを取得する前記装置は、動画像又は静止画像を撮像する画像撮像手段である
    請求項1記載の送信装置。
  6. 前記制御手段は、前記他の装置に接続された画像撮像装置により撮像された動画像又は静止画像を前記第2コンテンツとして受信する処理を行う
    請求項1記載の送信装置。
  7. 前記制御手段は、前記視聴装置に接続された画像撮像装置により撮像された動画像又は静止画像を前記第2コンテンツとして受信する処理を行う
    請求項2記載の送信装置。
  8. 前記制御手段は、動画像又は静止画像を前記第1コンテンツとして取得し、前記第1コンテンツで動画像又は静止画像の所定の領域内に、前記他の装置から送出された前記第2コンテンツを挿入する処理を行う
    請求項1記載の送信装置。
  9. 前記制御手段は、複数の他の装置それぞれからコンテンツを取得し、前記複数の他の装置それぞれから受信したコンテンツのうち選択されたコンテンツを前記第2コンテンツとして、前記送信コンテンツを生成する処理を行う
    請求項1記載の送信装置。
  10. コンテンツを配信するサーバ装置を介して複数の視聴装置にコンテンツを配信する送信装置が、
    前記視聴装置に前記サーバ装置を介して配信される第1コンテンツを、前記送信装置に備える装置および前記送信装置に接続される装置のうち少なくとも1の装置から取得し、
    前記視聴装置に前記サーバ装置を介して配信される第2コンテンツを、前記サーバ装置から配信されるコンテンツを受信する前記視聴装置から取得し、
    前記第1コンテンツと前記第2コンテンツとを用いて、前記サーバ装置に送信する送信コンテンツを生成し、
    前記送信コンテンツを前記サーバ装置に送信する
    ステップを含む送信方法。
  11. コンテンツを配信するサーバ装置と前記サーバ装置から配信されるコンテンツを受信する複数の視聴装置とにネットワークを介して接続された装置にコンテンツの送信処理を実行させるプログラムであって、
    前記サーバ装置を介して前記視聴装置に配信される第1コンテンツを、前記送信装置に備える装置および前記送信装置に接続される装置のうち少なくとも1の装置から取得する制御を行う処理と、
    前記サーバ装置を介して前記視聴装置に配信される第2コンテンツを、前記サーバ装置から配信されるコンテンツを受信する前記視聴装置から取得する制御を行う処理と、
    前記第1コンテンツと前記第2コンテンツとを用いて、前記サーバ装置に送信する送信コンテンツを生成する制御を行う処理と、
    前記送信コンテンツを前記サーバ装置に送信する制御を行う処理と
    を実行させるプログラム。
  12. 複数の視聴装置とネットワークを介して接続されたコンテンツ配信装置であって、
    前記複数の視聴装置にコンテンツを配信する配信手段と、
    前記配信手段を介して前記視聴装置に配信するコンテンツを生成する生成手段と
    を具備し、
    前記生成手段は、
    前記視聴装置に前記配信手段を介して配信される第1コンテンツを、前記コンテンツ配信装置に備える装置および前記コンテンツ配信装置に接続される装置のうち少なくとも1の装置から取得する処理と、
    前記視聴装置に前記配信手段を介して配信される第2コンテンツを、前記配信手段から配信されるコンテンツを受信する前記視聴装置から取得する処理と、
    前記第1コンテンツと前記第2コンテンツとを用いて、前記配信手段を介して前記視聴装置に配信する配信コンテンツを生成する処理と
    を実行し、
    前記配信手段は、
    前記生成手段で生成された前記配信コンテンツを前記複数の視聴装置に配信する処理を実行するコンテンツ配信装置。
  13. 前記生成手段と前記配信手段とは、前記ネットワークを介して接続されており、
    前記生成手段は、前記ネットワークを介して前記配信コンテンツを前記配信手段に送信する処理を実行する
    請求項12記載のコンテンツ配信装置。
  14. 前記生成手段は、
    前記配信手段を介して、前記配信コンテンツのネットワーク上で発信者を特定するための発信者特定情報を配信し、
    前記配信手段から前記発信者特定情報を取得した他の装置からの接続要求に基づいて、前記他の装置と接続を確立し、
    前記接続が確立した他の装置から前記第2コンテンツを受信する
    処理を実行する
    請求項12記載のコンテンツ配信装置。
  15. 複数の視聴装置にコンテンツを配信する配信手段と、前記配信手段を介して前記視聴装置に配信するコンテンツを生成する生成手段とを有するコンテンツ配信装置が、
    前記視聴装置に前記配信手段を介して配信される第1コンテンツを、前記コンテンツ配信装置に備える装置および前記コンテンツ配信装置に接続される装置のうち少なくとも1の装置から取得し、
    前記視聴装置に前記配信手段を介して配信される第2コンテンツを、前記配信手段から配信されるコンテンツを受信する前記視聴装置から取得し、
    前記第1コンテンツと前記第2コンテンツとを用いて、前記配信手段を介して前記視聴装置に配信する配信コンテンツを生成し、
    前記生成手段で生成された前記配信コンテンツを前記複数の視聴装置に配信する
    ステップを含むコンテンツ配信方法。
  16. 複数の視聴装置にコンテンツを配信する配信手段と、前記配信手段を介して前記視聴装置に配信するコンテンツを生成する生成手段とを有するコンテンツ配信装置に、コンテンツの配信処理を実行させるプログラムであって、
    前記視聴装置に前記配信手段を介して配信される第1コンテンツを、前記コンテンツ配信装置に備える装置および前記コンテンツ配信装置に接続される装置のうち少なくとも1の装置から取得する処理と、
    前記視聴装置に前記配信手段を介して配信される第2コンテンツを、前記配信手段から配信されるコンテンツを受信する前記視聴装置から取得する処理と、
    前記第1コンテンツと前記第2コンテンツとを用いて、前記配信手段を介して前記視聴装置に配信する配信コンテンツを生成する処理と、
    前記生成手段で生成された前記配信コンテンツを前記複数の視聴装置に配信する処理と
    を実行させるプログラム。
JP2008149328A 2001-09-18 2008-06-06 送信装置及び方法、コンテンツ配信装置及び方法、並びにプログラム Expired - Fee Related JP4609737B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008149328A JP4609737B2 (ja) 2001-09-18 2008-06-06 送信装置及び方法、コンテンツ配信装置及び方法、並びにプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001284192 2001-09-18
JP2002023376 2002-01-31
JP2008149328A JP4609737B2 (ja) 2001-09-18 2008-06-06 送信装置及び方法、コンテンツ配信装置及び方法、並びにプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002271334A Division JP4232419B2 (ja) 2001-09-18 2002-09-18 送信装置、送信方法、コンテンツ配信装置、コンテンツ配信方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2008210417A true JP2008210417A (ja) 2008-09-11
JP4609737B2 JP4609737B2 (ja) 2011-01-12

Family

ID=26622459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008149328A Expired - Fee Related JP4609737B2 (ja) 2001-09-18 2008-06-06 送信装置及び方法、コンテンツ配信装置及び方法、並びにプログラム

Country Status (7)

Country Link
US (1) US8510441B2 (ja)
EP (1) EP1429559B1 (ja)
JP (1) JP4609737B2 (ja)
KR (1) KR100919313B1 (ja)
CN (1) CN1237806C (ja)
HK (1) HK1067482A1 (ja)
WO (1) WO2003026302A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6385543B1 (ja) * 2017-09-29 2018-09-05 株式会社ドワンゴ サーバ装置、配信システム、配信方法及びプログラム
JP2023009137A (ja) * 2016-10-21 2023-01-19 Sugar株式会社 情報処理システム

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050134578A1 (en) * 2001-07-13 2005-06-23 Universal Electronics Inc. System and methods for interacting with a control environment
WO2003026302A1 (fr) * 2001-09-18 2003-03-27 Sony Corporation Appareil de transmission, procede de transmission, systeme de remise de contenu, procede de remise de contenu et programme
JP2003146437A (ja) * 2001-11-07 2003-05-21 Hitachi Ltd 流通管理方法及びシステム
JP4704659B2 (ja) * 2002-04-26 2011-06-15 株式会社日立製作所 記憶装置システムの制御方法および記憶制御装置
US7275215B2 (en) 2002-07-29 2007-09-25 Cerulean Studios, Llc System and method for managing contacts in an instant messaging environment
US7398470B2 (en) * 2003-08-22 2008-07-08 Vistaprint Technologies Limited System and method for remote assistance
JP4900637B2 (ja) * 2003-12-25 2012-03-21 独立行政法人産業技術総合研究所 番組放送システム、通信端末装置、番組構成方法及び番組放送プログラム
JP4413629B2 (ja) * 2004-01-09 2010-02-10 パイオニア株式会社 情報表示方法、情報表示装置および情報配信表示システム
JP4059214B2 (ja) * 2004-03-04 2008-03-12 ソニー株式会社 情報再生システムの制御方法、情報再生システム、情報提供装置、および情報提供プログラム
US9161068B2 (en) 2004-03-24 2015-10-13 Onstream Media Corporation Remotely accessed virtual recording room
JP4079121B2 (ja) * 2004-06-07 2008-04-23 ソニー株式会社 双方向コミュニケーションシステムにおけるグラフィカルユーザインタフェース装置及び接続方法
US20060085515A1 (en) * 2004-10-14 2006-04-20 Kevin Kurtz Advanced text analysis and supplemental content processing in an instant messaging environment
GB0425355D0 (en) * 2004-11-18 2004-12-22 Ibm Publishing documents in a publish subscribe data processing system
KR100678206B1 (ko) * 2005-07-22 2007-02-02 삼성전자주식회사 휴대단말기의 화상통화모드에서 감정표시 방법
EP1994179A2 (en) * 2006-02-18 2008-11-26 Michael Strathmann Massively multiplexed sequencing
US20090037826A1 (en) * 2007-07-31 2009-02-05 Christopher Lee Bennetts Video conferencing system
JP5200665B2 (ja) * 2008-05-29 2013-06-05 ソニー株式会社 コンテンツ配信サーバ及びコンテンツ配信方法
KR101584304B1 (ko) 2009-07-20 2016-01-11 삼성전자주식회사 콘텐츠 요청 장치 및 방법
US8850354B1 (en) * 2010-05-21 2014-09-30 Google Inc. Multi-window web-based application structure
PL392068A1 (pl) * 2010-08-05 2012-02-13 Zuza Pictures Spółka Z Ograniczoną Odpowiedzialnością Przenośne urządzenie wideotelekomunikacyjne, sposób transmisji danych, w szczególności danych audio/wideo oraz ich zastosowanie
USD690712S1 (en) 2010-11-29 2013-10-01 Cisco Technology, Inc. Display screen with a graphical interface
USD684986S1 (en) 2010-11-29 2013-06-25 Cisco Technology, Inc. Display screen with a graphical interface
US20120251080A1 (en) 2011-03-29 2012-10-04 Svendsen Jostein Multi-layer timeline content compilation systems and methods
US10739941B2 (en) 2011-03-29 2020-08-11 Wevideo, Inc. Multi-source journal content integration systems and methods and systems and methods for collaborative online content editing
US11748833B2 (en) 2013-03-05 2023-09-05 Wevideo, Inc. Systems and methods for a theme-based effects multimedia editing platform
USD738905S1 (en) 2013-06-09 2015-09-15 Apple Inc. Display screen or portion thereof with animated graphical user interface
USD737833S1 (en) 2013-06-09 2015-09-01 Apple Inc. Display screen or portion thereof with graphical user interface
USD760752S1 (en) 2013-09-10 2016-07-05 Apple Inc. Display screen or portion thereof with graphical user interface
USD746831S1 (en) 2013-09-10 2016-01-05 Apple Inc. Display screen or portion thereof with graphical user interface
USD711427S1 (en) 2013-10-22 2014-08-19 Apple Inc. Display screen or portion thereof with icon
JP6404912B2 (ja) * 2014-05-01 2018-10-17 貴弘 市橋 ライブ放送システム
USD753678S1 (en) 2014-06-01 2016-04-12 Apple Inc. Display screen or portion thereof with animated graphical user interface
USD771680S1 (en) * 2015-09-01 2016-11-15 Grand Rounds, Inc. Display screen with graphical user interface
USD771679S1 (en) * 2015-09-01 2016-11-15 Grand Rounds, Inc. Display screen with graphical user interface
USD788161S1 (en) 2015-09-08 2017-05-30 Apple Inc. Display screen or portion thereof with graphical user interface
USD808403S1 (en) * 2015-09-30 2018-01-23 Apple Inc. Display screen or portion thereof with graphical user interface
WO2017088991A1 (en) * 2015-11-26 2017-06-01 Barco Nv Content sharing protocol
USD808423S1 (en) * 2016-05-27 2018-01-23 Visa International Service Association Display screen or portion thereof with icon
USD826245S1 (en) * 2016-06-03 2018-08-21 Visa International Service Association Display screen with graphical user interface
US10575030B2 (en) 2016-06-22 2020-02-25 DeNA Co., Ltd. System, method, and program for distributing video
USD825612S1 (en) 2016-07-27 2018-08-14 Apple Inc. Display screen or portion thereof with graphical user interface
USD962954S1 (en) 2016-09-06 2022-09-06 Apple Inc. Display screen or portion thereof with graphical user interface
US10353663B2 (en) * 2017-04-04 2019-07-16 Village Experts, Inc. Multimedia conferencing
US11169661B2 (en) 2017-05-31 2021-11-09 International Business Machines Corporation Thumbnail generation for digital images
USD851111S1 (en) 2017-09-09 2019-06-11 Apple Inc. Electronic device with graphical user interface
USD843442S1 (en) 2017-09-10 2019-03-19 Apple Inc. Type font
USD879132S1 (en) 2018-06-03 2020-03-24 Apple Inc. Electronic device with graphical user interface
USD938968S1 (en) 2018-09-06 2021-12-21 Apple Inc. Electronic device with animated graphical user interface
JP7105675B2 (ja) 2018-11-02 2022-07-25 株式会社東芝 送信装置、サーバ装置、送信方法およびプログラム
JP6667853B1 (ja) * 2018-11-13 2020-03-18 株式会社Theater Guild 編成枠管理装置、編成枠管理システム、編成枠管理方法及び編成枠管理プログラム
JP7280698B2 (ja) * 2019-01-11 2023-05-24 キヤノン株式会社 撮像装置及びその制御方法及びプログラム
USD902221S1 (en) 2019-02-01 2020-11-17 Apple Inc. Electronic device with animated graphical user interface
USD900871S1 (en) 2019-02-04 2020-11-03 Apple Inc. Electronic device with animated graphical user interface
USD913315S1 (en) 2019-05-31 2021-03-16 Apple Inc. Electronic device with graphical user interface
USD924912S1 (en) 2019-09-09 2021-07-13 Apple Inc. Display screen or portion thereof with graphical user interface
KR102291293B1 (ko) * 2020-02-26 2021-08-20 가부시끼가이샤 도시바 송신 디바이스, 통신 시스템, 송신 방법, 및 비일시적 컴퓨터 판독가능 기록 매체
CN111460315B (zh) * 2020-03-10 2023-09-29 平安科技(深圳)有限公司 社群画像构建方法、装置、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04356844A (ja) * 1990-05-30 1992-12-10 Hitachi Ltd メディア処理装置
JP2000152201A (ja) * 1998-11-09 2000-05-30 Mega Chips Corp 電子通話システム
JP2001045463A (ja) * 1999-07-29 2001-02-16 Ist Kikaku:Kk テレビコマーシャルシステム
JP2001101117A (ja) * 1999-09-30 2001-04-13 Fujitsu Ltd 情報掲示システムにおける情報登録装置および記録媒体
JP2001148841A (ja) * 1999-11-19 2001-05-29 Nec Corp テレビコミュニティの形成方法とそのシステム
WO2003026302A1 (fr) * 2001-09-18 2003-03-27 Sony Corporation Appareil de transmission, procede de transmission, systeme de remise de contenu, procede de remise de contenu et programme

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5517652A (en) * 1990-05-30 1996-05-14 Hitachi, Ltd. Multi-media server for treating multi-media information and communication system empolying the multi-media server
US6656888B1 (en) * 1992-08-28 2003-12-02 Cognis Corporation Biodegradable two-cycle engine oil compositions, grease compositions, and ester base stocks use therein
JPH0715707A (ja) * 1993-06-25 1995-01-17 Nec Corp 質問受付型テレビ教育システム
US6513069B1 (en) * 1996-03-08 2003-01-28 Actv, Inc. Enhanced video programming system and method for providing a distributed community network
US6006241A (en) * 1997-03-14 1999-12-21 Microsoft Corporation Production of a video stream with synchronized annotations over a computer network
US6449653B2 (en) * 1997-03-25 2002-09-10 Microsoft Corporation Interleaved multiple multimedia stream for synchronized transmission over a computer network
US6041359A (en) * 1997-06-09 2000-03-21 Microsoft Corporation Data delivery system and method for delivering computer data over a broadcast network
US6553404B2 (en) * 1997-08-08 2003-04-22 Prn Corporation Digital system
US6154771A (en) * 1998-06-01 2000-11-28 Mediastra, Inc. Real-time receipt, decompression and play of compressed streaming video/hypervideo; with thumbnail display of past scenes and with replay, hyperlinking and/or recording permissively intiated retrospectively
US6314466B1 (en) * 1998-10-06 2001-11-06 Realnetworks, Inc. System and method for providing random access to a multimedia object over a network
US6871220B1 (en) * 1998-10-28 2005-03-22 Yodlee, Inc. System and method for distributed storage and retrieval of personal information
JP2000137752A (ja) * 1998-10-29 2000-05-16 Recruit Co Ltd 情報配信システム
US6433813B1 (en) 1998-12-28 2002-08-13 Ameritech Corporation Videoconferencing method and system for connecting a host with a plurality of participants
US6636888B1 (en) * 1999-06-15 2003-10-21 Microsoft Corporation Scheduling presentation broadcasts in an integrated network environment
US7330875B1 (en) * 1999-06-15 2008-02-12 Microsoft Corporation System and method for recording a presentation for on-demand viewing over a computer network
JP3836637B2 (ja) * 1999-08-09 2006-10-25 富士通株式会社 情報配信制御装置、情報配信制御方法、情報配信制御プログラムを記録したコンピュータ読み取り可能な記録媒体および情報再生制御プログラムを記録したコンピュータ読み取り可能な記録媒体
WO2001045406A1 (en) 1999-12-17 2001-06-21 Telum (Canada) Inc. Network-based talk show system
JP2001242775A (ja) * 2000-02-24 2001-09-07 Eastman Kodak Co デジタル化されたインタラクティブ学習法
US6857130B2 (en) * 2000-04-08 2005-02-15 Sun Microsystems, Inc. Resynchronizing media during streaming
JP2001346173A (ja) * 2000-05-31 2001-12-14 Sony Corp 画像データ通信システム及び方法、並びに撮像装置及び画像データ処理方法
US7150017B1 (en) * 2000-08-29 2006-12-12 International Business Machines Corporation System and method for scheduling digital information transmission and retransmission on a network during time slots
US7103668B1 (en) * 2000-08-29 2006-09-05 Inetcam, Inc. Method and apparatus for distributing multimedia to remote clients
US7213075B2 (en) * 2000-12-15 2007-05-01 International Business Machines Corporation Application server and streaming server streaming multimedia file in a client specific format
US20020116716A1 (en) * 2001-02-22 2002-08-22 Adi Sideman Online video editor
US20020138552A1 (en) * 2001-03-21 2002-09-26 Debruine Timothy S. Method and system for optimizing private network file transfers in a public peer-to-peer network
JP4465577B2 (ja) * 2001-04-19 2010-05-19 ソニー株式会社 情報処理装置および方法、情報処理システム、記録媒体、並びにプログラム
US7305449B2 (en) * 2001-10-30 2007-12-04 Hewlett-Packard Development Company, L.P. Web-based imaging service providing reservation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04356844A (ja) * 1990-05-30 1992-12-10 Hitachi Ltd メディア処理装置
JP2000152201A (ja) * 1998-11-09 2000-05-30 Mega Chips Corp 電子通話システム
JP2001045463A (ja) * 1999-07-29 2001-02-16 Ist Kikaku:Kk テレビコマーシャルシステム
JP2001101117A (ja) * 1999-09-30 2001-04-13 Fujitsu Ltd 情報掲示システムにおける情報登録装置および記録媒体
JP2001148841A (ja) * 1999-11-19 2001-05-29 Nec Corp テレビコミュニティの形成方法とそのシステム
WO2003026302A1 (fr) * 2001-09-18 2003-03-27 Sony Corporation Appareil de transmission, procede de transmission, systeme de remise de contenu, procede de remise de contenu et programme

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023009137A (ja) * 2016-10-21 2023-01-19 Sugar株式会社 情報処理システム
JP7466945B2 (ja) 2016-10-21 2024-04-15 Sugar株式会社 情報処理システム
JP6385543B1 (ja) * 2017-09-29 2018-09-05 株式会社ドワンゴ サーバ装置、配信システム、配信方法及びプログラム
CN109587391A (zh) * 2017-09-29 2019-04-05 多玩国株式会社 服务器装置、发布系统、发布方法及程序
JP2019068203A (ja) * 2017-09-29 2019-04-25 株式会社ドワンゴ サーバ装置、配信システム、配信方法及びプログラム
US10645274B2 (en) 2017-09-29 2020-05-05 Dwango Co., Ltd. Server apparatus, distribution system, distribution method, and program with a distributor of live content and a viewer terminal for the live content including a photographed image of a viewer taking a designated body pose

Also Published As

Publication number Publication date
JP4609737B2 (ja) 2011-01-12
EP1429559B1 (en) 2017-04-12
KR20040034570A (ko) 2004-04-28
CN1237806C (zh) 2006-01-18
US20040064510A1 (en) 2004-04-01
EP1429559A1 (en) 2004-06-16
KR100919313B1 (ko) 2009-10-01
US8510441B2 (en) 2013-08-13
WO2003026302A1 (fr) 2003-03-27
EP1429559A4 (en) 2009-11-25
CN1493155A (zh) 2004-04-28
HK1067482A1 (en) 2005-04-08

Similar Documents

Publication Publication Date Title
JP4609737B2 (ja) 送信装置及び方法、コンテンツ配信装置及び方法、並びにプログラム
JP4232419B2 (ja) 送信装置、送信方法、コンテンツ配信装置、コンテンツ配信方法、及びプログラム
JP6404912B2 (ja) ライブ放送システム
US10417444B2 (en) Information processing system, service providing apparatus and method, information processing apparatus and method, recording medium, and program
EP2168356B1 (en) Video communication method and user terminal
JP4581201B2 (ja) 予約管理方法、予約管理装置およびプログラム格納媒体
US7856468B2 (en) Server reservation method, reservation control apparatus and program storage medium
JP4974405B2 (ja) サーバ使用方法、サーバ使用予約管理装置およびプログラム格納媒体
US20030063125A1 (en) Information processing apparatus, screen display method, screen display program, and recording medium having screen display program recorded therein
JP2002073541A (ja) コンテンツ配信方法およびコンテンツ供給システム
JP2002074125A (ja) コンテンツ配信の通知方法、予約管理装置およびプログラム格納媒体
JP2003037834A (ja) コンテンツ配信システム、コンテンツ配信制御装置、コンテンツ配信制御方法、コンテンツ配信制御プログラム及びコンテンツ配信制御プログラム格納媒体
JP2002073542A (ja) サーバの使用予約方法、予約管理装置およびプログラム格納媒体
JP2002077868A (ja) コンテンツ配信の予約方法、コンテンツ配信方法、予約管理装置およびプログラム格納媒体
JP6719166B2 (ja) ライブ放送システム
CN108933912A (zh) 一种使用多个移动通信装置建立视频通话的方法
JP2003030105A (ja) コンテンツ評価システム、コンテンツ評価装置、コンテンツ評価方法、コンテンツ評価プログラム及びコンテンツ評価プログラム格納媒体
JP2003044690A (ja) コンテンツ配信システム、コンテンツ予約延長制御装置、コンテンツ予約延長制御方法、コンテンツ予約延長制御プログラム及びコンテンツ予約延長制御プログラム格納媒体
US7716594B2 (en) Information processing apparatus, information processing method, recording medium, and program
US20070165800A1 (en) Connection control apparatus, method, and program
JP2003091472A (ja) コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ送出プログラム
US7739610B2 (en) Information processing apparatus, information processing method, recording medium, and program
US7721215B2 (en) Information processing apparatus, information processing method, recording medium, and program
JP7243323B2 (ja) 通信端末、通信システム、表示制御方法およびプログラム
JP2003030552A (ja) 手続状況通知システム、手続状況通知装置、手続状況通知方法、手続状況通知プログラム、手続状況通知プログラム格納媒体、手続実行装置、手続実行方法、手続実行プログラム及び手続実行プログラム格納媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20080606

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100916

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100929

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131022

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4609737

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131022

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees