JP3712690B2 - Tracing server, content display device and electronic device - Google Patents

Tracing server, content display device and electronic device Download PDF

Info

Publication number
JP3712690B2
JP3712690B2 JP2002137593A JP2002137593A JP3712690B2 JP 3712690 B2 JP3712690 B2 JP 3712690B2 JP 2002137593 A JP2002137593 A JP 2002137593A JP 2002137593 A JP2002137593 A JP 2002137593A JP 3712690 B2 JP3712690 B2 JP 3712690B2
Authority
JP
Japan
Prior art keywords
information
screen
trace
multimedia content
trace information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002137593A
Other languages
Japanese (ja)
Other versions
JP2003333581A (en
Inventor
敏雄 椎名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2002137593A priority Critical patent/JP3712690B2/en
Publication of JP2003333581A publication Critical patent/JP2003333581A/en
Application granted granted Critical
Publication of JP3712690B2 publication Critical patent/JP3712690B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

【0001】
【発明の属する技術分野】
トレーシングサーバ、コンテンツ表示装置及び電子機器に関し、特にフィールド上に存在する1つ以上の対象物の軌跡を表示するためのトレーシングサーバ、コンテンツ表示装置及び電子機器に関する。
【0002】
【従来の技術】
従来、例えばサッカーの試合や野球の試合等は、複数のカメラでフィールドの特定部分を拡大して撮影したものを部分的につなぎ合わせることで1つの番組に編集されて放送されていた。
【0003】
【発明が解決しようとする課題】
しかしながら、このように1つに編集された番組は、あらゆるユーザを対象として作成されているため、ユーザ毎に所望される映像を的確に提供することができず、真に満足できる番組を放送することが困難であった。
【0004】
特にサッカーの試合や野球の試合やオートレース等では、フィールド上の複数箇所又は全体に動きが生じることが多く、これらを一度にユーザへ呈示することは不可能であった。
【0005】
本発明は、上記問題に鑑みてなされたものであり、フィールド全体が撮影されたマルチメディアコンテンツと共に、マルチメディアコンテンツの内容を容易に理解させるための付加的な情報を提供することで、よりマルチメディアコンテンツが楽しめる環境を実現できるコンテンツ表示システム、コンテンツ表示装置、サーバ、電子機器、コンテンツ表示方法を提供することを目的とする。
【0006】
【課題を解決するための手段】
係る目的を達成するために、請求項1記載の発明は、所定のフィールド全体が撮影されたマルチメディアコンテンツを表示するコンテンツ表示システムであって、前記所定のフィールド上に存在する1つ以上の対象物の位置情報を、前記マルチメディアコンテンツに併せて表示することを特徴としている。
【0007】
これにより、本発明では、フィールド全体が撮影されたマルチメディアコンテンツと共に、マルチメディアコンテンツの内容を容易に理解させるための付加的な情報を提供することで、よりマルチメディアコンテンツが楽しめる環境を提供できる。
【0008】
更に、請求項2記載の発明は、上記のコンテンツ表示システムであって、前記位置情報に併せて、前記1つ以上の対象物の識別情報及び/又は該1つ以上の対象物の所定期間の軌跡を表示することを特徴としている。
【0009】
これにより、本発明では、提供する付加的な情報をより詳細なものとすることで、よりマルチメディアコンテンツが楽しめる環境を提供できる。
【0010】
更に、請求項3記載の発明は、上記のコンテンツ表示システムであって、前記対象物の位置情報を、前記マルチメディアコンテンツと同一面であって、該マルチメディアコンテンツの上下左右何れかから所定間隔を隔てた領域に表示することを特徴としている。
【0011】
これにより、本発明では、全体が映し出された画面と同一面に付加的な情報が表示されるため、利便性よく映像と情報とを提供することが可能となる。
【0012】
更に、請求項4記載の発明は、上記のコンテンツ表示システムであって、前記対象物の位置情報を、携帯型電子機器又は携帯電話機に配信することを特徴としている。
【0013】
これにより、本発明では、ユーザの手元で付加的な情報を参照することが可能となるため、ユーザはより明確且つ容易にイベント全体を把握することが可能となる。
【0014】
また、請求項5記載の発明は、所定のフィールド全体が撮影されたマルチメディアコンテンツを表示するコンテンツ表示装置であって、前記所定のフィールド上に存在する1つ以上の対象物の位置情報を、前記マルチメディアコンテンツに併せて表示することを特徴としている。
【0015】
これにより、本発明では、フィールド全体が撮影されたマルチメディアコンテンツと共に、マルチメディアコンテンツの内容を容易に理解させるための付加的な情報を提供することで、よりマルチメディアコンテンツが楽しめる環境を実現できる。
【0016】
更に、請求項6記載の発明は、上記のコンテンツ表示装置であって、前記位置情報に併せて、前記1つ以上の対象物の識別情報及び/又は該1つ以上の対象物の所定期間の軌跡を表示することを特徴としている。
【0017】
これにより、本発明では、提供する付加的な情報をより詳細なものとすることで、よりマルチメディアコンテンツが楽しめる環境を実現できる。
【0018】
更に、請求項7記載の発明は、上記のコンテンツ表示装置であって、前記対象物の位置情報を、前記マルチメディアコンテンツと同一面であって、該マルチメディアコンテンツの上下左右何れかから所定間隔を隔てた領域に表示することを特徴としている。
【0019】
これにより、本発明では、全体が映し出された画面と同一面に付加的な情報が表示されるため、利便性よく映像と情報とを提供することが可能となる。
【0020】
また、請求項8記載の発明は、所定のフィールド上に存在する1つ以上の対象物の位置情報を管理するサーバであって、前記1つ以上の対象物の前記所定のフィールド上における位置情報を生成する対象物位置情報生成手段と、前記1つ以上の対象物の位置情報に基づいて、前記1つ以上の対象物の識別情報及び/又は該1つ以上の対象物の所定期間の軌跡を描画したトレース情報画面を作成するトレース情報画面作成手段と、前記トレース情報画面を前記所定のフィールド全体が撮影されたマルチメディアコンテンツに併せて表示させるトレース情報画面表示手段と、を有することを特徴としている。
【0021】
これにより、本発明では、フィールド全体が撮影されたマルチメディアコンテンツと共に、マルチメディアコンテンツの内容を容易に理解させるための付加的な情報を提供することで、よりマルチメディアコンテンツが楽しめる環境を実現できるサーバが提供される。
【0022】
また、請求項9記載の発明は、1つ以上の対象物の所定のフィールド上における位置情報を生成し、生成した該位置情報に基づいて、前記1つ以上の対象物の識別情報及び/又は該1つ以上の対象物の所定期間の軌跡を描画したトレース情報画面を作成するサーバに所定のネットワークを介して接続可能な電子機器であって、前記所定のフィールド全体が撮影されたマルチメディアコンテンツに併せて前記トレース情報画面を表示することを特徴としている。
【0023】
これにより、本発明では、ユーザの手元で付加的な情報を参照することを可能にし、より明確且つ容易にイベント全体を把握させることが可能となる電子機器が提供される。
【0024】
また、請求項10記載の発明は、所定のフィールド全体が撮影されたマルチメディアコンテンツを表示するコンテンツ表示方法であって、前記1つ以上の対象物の前記所定のフィールド上における位置情報を生成する対象物位置情報生成行程と、前記1つ以上の対象物の位置情報に基づいて、前記1つ以上の対象物の識別情報及び/又は該1つ以上の対象物の所定期間の軌跡を描画したトレース情報画面を作成するトレース情報画面作成行程と、前記とレース情報画面を前記マルチメディアコンテンツに併せて表示する表示行程と、を有することを特徴としている。
【0025】
これにより、本発明では、フィールド全体が撮影されたマルチメディアコンテンツと共に、マルチメディアコンテンツの内容を容易に理解させるための付加的な情報を提供することで、よりマルチメディアコンテンツが楽しめる環境を提供できる。
【0026】
更に、請求項11記載の発明は、上記のコンテンツ表示方法であって、前記表示行程は、前記トレース情報画面を、前記マルチメディアコンテンツと同一面であって、該マルチメディアコンテンツの上下左右何れかから所定間隔を隔てた領域に表示することを特徴としている。
【0027】
これにより、本発明では、全体が映し出された画面と同一面に付加的な情報が表示されるため、利便性よく映像と情報とを提供することが可能となる。
【0028】
更に、請求項12記載の発明は、上記のコンテンツ表示方法であって、前記表示行程は、前記とレース情報画面を、携帯型電子機器又は携帯電話機に配信して表示させることを特徴としている。
【0029】
これにより、本発明では、ユーザの手元で付加的な情報を参照することが可能となるため、ユーザはより明確且つ容易にイベント全体を把握することが可能となる。
【0030】
【発明の実施の形態】
〔原理〕
本発明を説明するにあたり、本発明の原理について触れる。
【0031】
本発明は、映像や音声等のマルチメディアコンテンツをユーザに提供する際に付加的な情報を利用することで、より詳細且つ明確にマルチメディアコンテンツが楽しめる環境を提供するものである。
【0032】
例えばサッカー等では、フィールド全体を1つの画面で表示した場合、視聴者にどの選手が何をしているかを明確に伝えることが困難である。そこで本発明では、映像として映し出されている1つ以上の対象物に関して、これのフィールド上での位置情報や識別情報等の付加的な情報(以下の説明におけるトレース情報に対応)もユーザに呈示する。これにより本発明では、同時に多くの情報を視聴者に明確に伝えることができ、マルチメディアコンテンツをより楽しめる環境を実現することが可能となる。
【0033】
また、このような付加的な情報を提供するために、本発明では、例えば人物や動物や乗り物等の移動するものから木や建築物等のその場に静止しているもの(以下、対象物という)の位置や速度等の情報をトレースする。
【0034】
このように、マルチメディアコンテンツの内容を容易に理解させるための付加的な情報を提供することで、よりマルチメディアコンテンツが楽しめる環境を提供することが、本発明の主たる目的である。
【0035】
以下、本発明を好適に実施した形態について図面を用いて詳細に説明する。
【0036】
〔第1の実施例〕
まず、本発明の第1の実施例について図面を用いて詳細に説明する。尚、以下の説明では、取得されたマルチメディアコンテンツをリアルタイムで放送する、所謂、生放送の場合について説明する。
【0037】
図1及び図2は、本発明のシステム構成を示すブロック図である。尚、図1にはマルチメディアコンテンツの制作側の構成とトレース情報(以下において詳細に説明する)を収集する構成とが示され、図2にはマルチメディアコンテンツの配信やトレース情報を提供する側の構成が示されている。
【0038】
・マルチメディアコンテンツ制作側
図1を参照すると本実施例では、マルチメディアコンテンツを制作する構成として、カメラ110と、マイクロフォン(以下、マイクと略す)120と、カメラ110及び/又はマイク120から入力された映像/音声データに所定の処理を施し、フィールド200全体を映し出すマルチメディアコンテンツを制作するマルチメディアデータ処理システム130と、マルチメディアデータ処理システム130で制作されたマルチメディアコンテンツを所定の放送回線を介して送信する送信局140と、マルチメディアデータ処理システム130から入力されたマルチメディアコンテンツを蓄積するマルチメディアコンテンツデータベース(以下、データベースをDBと略す)150と、が設けられている。尚、マルチメディアコンテンツDB150は、例えばリレーショナルデータベースで構成できるが、これに限定されず、通常のファイル形式やその他の形態で構成されても良い。
【0039】
この構成において、フィールド全体がカメラ110により一度に撮影される。尚、本実施例によるカメラ110は、図3に示すように、例えば3つのカメラ(110a,110b,110c)から成る3面シームレスカメラで構成され、それぞれのカメラ110a,110b,110cに領域A,B,Cが、メインレンズ111及びスプリッタ112を介して入力される。即ち、カメラ110aで領域Aを撮影し、カメラ110bで領域Bを撮影し、カメラ110cで領域Cを撮影することで、フィールド200全体の映像を同時に撮影する。尚、本実施例では、使用するカメラ110を3面のシームレスカメラとするが、これに限定されず、フィールド200全体を撮影することが可能であれば如何様にも変形して良い。
【0040】
カメラ110a,110b,110cで取得された映像データは、各々独立してマルチメディアデータ処理システム130に入力される。但し、個々の映像データには、時間情報を示すタイムコードが含まれており、相互及び後述における音声データとの同期が図れるように構成されている。尚、カメラ110とマルチメディアデータ処理システム130とを接続する通信回線には、例えばシリアル伝送用の同軸ケーブルや無線回線等が適用されるが、これに限るものではない。
【0041】
また同様に、マイク130も複数設けられ、各々において集音された音声データが独立してマルチメディアデータ処理システム130へ入力される。但し、個々の音声データにも、映像データと同様に、時間情報を示すタイムコードが含まれており、相互及び映像データとの同期が図れるように構成されている。尚、マイク130とマルチメディアデータ処理システム130とを接続する通信回線には、例えば光ケーブルや同軸ケーブルや無線回線等が用いられたシリアル回線やパラレル回線等が適用されるが、これに限るものではない。
【0042】
マルチメディアデータ処理システム130では、入力された映像データ及び/又は音声データに基づいて、フィールド全体を表示するマルチメディアコンテンツが制作される。図4に本実施例によるマルチメディアデータ処理システム130のブロック構成を示す。但し、図4では音声データに関する処理機構を省略する。図4を参照すると、マルチメディアデータ処理システム130は、入力された3つの映像データに関して隣接する映像データを結合するためののりしろ部を生成するのりしろ生成部131と、隣接する映像間で重畳させる領域(のりしろ部)にクロスフェード処理を施すクロスフェード処理部132と、を有して構成される。
【0043】
この構成による処理行程を図5を用いて説明する。のりしろ生成部131は、図5(a)から(b)に示すように、入力された3つの映像における中央の映像から両隣の映像を合成するためののりしろ部(重畳させる領域)を生成し、これを右/左側の映像に合成する。クロスフェード処理部132は、図5(b)から(c)に示すように、のりしろ部にクロスフェード処理を施し、結果として3つのマルチメディアコンテンツを制作する。これにより、プロジェクタ430a,430b,430cでフィールド全体の映像を表示画面450上に表示する際に、重畳された領域をなめらかにすることができる。
【0044】
このように制作されたマルチメディアコンテンツは個々に送信局140へ出力される。また、マルチメディアデータ処理システム130は、入力された映像/音声データ(以下、マルチメディアデータという)や制作したマルチメディアコンテンツをマルチメディアコンテンツDB150に入力する。尚、マルチメディアコンテンツDB150は、1つのイベントに関する複数のマルチメディアコンテンツをひとまとまりとして関連付けて格納しておく。この際、このまとまりを一意に識別するための識別情報(以下、イベント識別情報という)を対応付けて登録すると良い。また、マルチメディアデータ処理システム130と送信局140とを結ぶ回線、及び、マルチメディアデータ処理システム130とコンテンツDB150とを結ぶ回線は、例えば光ケーブルや同軸ケーブルや無線回線等が用いられたシリアル回線やパラレル回線等が適用されるが、これに限るものではない。また、マルチメディアコンテンツDB150に関しては、第2の実施例で詳細に説明する。
【0045】
放送局140は、入力されたマルチメディアコンテンツに所定の処理を施したのち、これを放送回線10へ送出する。この際、放送回線10は、衛星又は地上波を利用したアナログ/ディジタル放送網であっても、また、光ケーブルや同軸ケーブル等を利用した通信網であってもCATV(Community Antenna Television/Common Antenna Television/Cable Television System/Cable and Tele−communication Television System)ネットワークであっても、ISDN(Integrated Services Digital Network)やxDSL(x Digital Subscriber Line)等を利用した通信網であっても良い。図6に本実施例による送信局140のブロック構成を示す。
【0046】
図6を参照すると、送信局140は、入力されたマルチメディアコンテンツを圧縮・符号化するエンコーダ141と、圧縮・符号化されたマルチメディアコンテンツを多重化する多重化部142と、多重化されたマルチメディアコンテンツから誤り訂正符号を算出して、これをマルチメディアコンテンツに付加する誤り訂正符号付加部143と、誤り訂正符号が付加されたマルチメディアコンテンツをQPSK(Quadrature Phase Shift Keying)等の変調方式を用いて変調し、映像/音声信号として送出する変調部144と、を有して構成される。また、映像/音声信号は、送信アンテナ145より放送回線10を介して人工衛星300へ送信されて放送されるか、図示しないケーブル等へ送出される。
【0047】
また、エンコーダ141による圧縮・符号化は、マルチメディアデータ処理システム130から個々に入力されたマルチメディアコンテンツに対して行われる。ここで、符号化方式としては、例えばMPEG(Moving Picture Experts Group)−2やMPEG―4やMotion JPEG−2000等や、或いはPCM(Pulse Code Modulation)やADPCM(Adaptive Differential PulseCode Modulation)等が適用できる。
【0048】
尚、カメラ110やマイク120やマルチメディアデータ処理システム130や送信局140には、既存のアナログ/ディジタル放送会社や衛星(ディジタル)放送会社やケーブルテレビ会社等の放送局を適用することもできる。この場合、放送局は、カメラ110やマイク120で取得された映像/音声データを無線や光ケーブル等を用いて放送局へ送信し、放送局において画像/音声処理やエンコードや多重化や誤り訂正符号の付加や変調等を行った後、空きチャネル又は番組として割り当てておいたチャネルへこれを送出する。
【0049】
・トレース情報収集側
次に、図1における撮影対象物の位置や移動速度等の情報(以下、トレース情報という)を収集する構成について説明する。
【0050】
本実施例において、撮影の対象物、例えばスポーツ選手には、小型の発振器210a,210b,…(以下、任意の発振器の符号を210とする)が取り付けられている。また、審判員やボールやその他の物品等を対象物として発振器210を取り付けても良い。発振器210は、自己に割り当てられた識別番号を電気信号(以下、識別信号という)として無線回線を介して送出するものである。発振器210のブロック構成を図7に示す。また、識別信号は、例えば数秒間隔で定期的に、且つ、受信アンテナ220まで届く程度以上の送信電力レベルで送信されるものとする。尚、本実施例における発振器210は、上記構成に限定されるものでなく、自己の位置を常時若しくは定期的に認識させ得るものであれば種々変形して実施することができる。
【0051】
図7を参照すると、本実施例による発振器210は、コイル等で構成された発電部212と、発電された電力を蓄える蓄電部213と、変調された識別信号を送信する送信部214と、が筐体211で包含されるように構成される。また、送信アンテナ215は、対象物にとって邪魔とならないよう、筐体211内部に設けられる。但し、この構成において、発電部212と蓄電部213とを電池等に置き換えても良い。
【0052】
発振器210より送出された識別信号は、複数の受信アンテナ220a,220b,220c(以下、任意の受信アンテナを220という)で受信され、各々に設けられた受信処理部230a,230b,230c(以下、任意の受信処理部を230という)へ入力される。
【0053】
受信処理部230では、入力された識別信号から識別情報が抽出されると共に、受信した識別信号の強度(受信電力レベル)が検出される。この構成を図8に示す。図8を参照すると、受信処理部230は、受信アンテナ220からの信号を入力する入力部231と、入力された信号を復調し、これから識別番号を抽出する識別番号抽出部232と、同じく入力された信号から受信電力レベルを検出する電力レベル検出部233と、抽出された識別番号及び検出された受信電力レベルとの情報がペイロード部(データ領域)に格納されたパケットを生成するパケット生成部234と、生成されたパケットを位置検出処理部240へ出力する出力部235と、を有して構成されている。また、パケット生成部233は、識別番号及び受信電力レベルが入力された時点の時間情報又は入力部231に受信アンテナ220から識別信号が入力された時点の時間情報と、自己の受信処理部230を一意に識別するための識別情報(以下、受信アンテナ識別情報という)と、も含ませて上記のパケットを生成する。尚、受信処理部230と位置検出処理部240とは、例えばLAN(Local Area Network)で接続されており、相互がパケット交換の方式で通信を行うが、これに限るものではない。但し、他の通信方式を採用した場合、その構成に適合するようにパケット生成部234と出力部235との構成が変更される。
【0054】
位置検出処理部240では、入力されたパケットに含まれた識別情報と受信電力レベルと時間情報と受信アンテナ識別情報とに基づいて発振器210の位置が検出される。この構成を図9に示す。図9を参照すると、位置検出処理部240は、受信処理部230から出力されたパケットを入力する入力部241と、入力されたパケットにおけるペイロード部を参照して、これから識別番号と受信電力レベルと時間情報と受信アンテナ識別情報とを特定するパケット解析部242と、特定された識別番号と受信電力レベルと受信アンテナ識別情報とに基づいて、各発振器210の位置を検出する位置検出部243と、位置検出部243で検出された位置の情報(以下、位置情報という)と識別番号と時間情報とがペイロード部に格納されたパケットを生成するパケット生成部244と、生成されたパケットをLAN20を介してトレーシングサーバ440(図2参照)へ出力する出力部245と、を有して構成されている。尚、位置検出処理部240とトレーシングサーバ440とは、例えばLAN20で接続されており、相互がパケット交換の方式で通信を行う。又は、この回線はLAN20に限定されず、所定の専用回線や公衆回線網やインターネット等であってもよい。但し、他の通信方式を採用した場合、その構成に適合するようにパケット生成部244と出力部245との構成が変更される。
【0055】
また、位置検出部243が発振器210の位置を検出する際の動作について説明する。位置検出部243は複数の受信処理部230(図3に示す例では、3つの受信処理部230a,230b,230c)から入力されたパケットに基づいて各発振器210の位置を特定する。即ち、位置検出部240は、パケット解析部242から入力された情報における識別番号と時間情報と受信アンテナ識別情報とに基づいて、発振器210から出力された1回の識別信号に関する受信電圧レベルを特定し、このレベル比若しくはレベル差に基づいて発振器210の位置を特定する。これは例えば、図3に示すように、受信処理部230aで得られた受信電力レベル(これをレベルaとする)と、受信処理部230bで得られた受信電力レベル(これをレベルbとする)と、受信処理部230cで得られた受信電力レベル(これをレベルcとする)と、に基づいて、中心を各受信アンテナの位置とし、半径がこれらの比に依存する円をフィールド上に描くことができる。この際、3つの円全てが交わる点(図3中、交点210X)が存在するとすると、各円の半径が決定される。これにより、発振器210の位置が特定される。尚、位置は、フィールド上の1点を原点とした2次元座標で与えられるものとする。
【0056】
・マルチメディアコンテンツ配信側
次に、マルチメディアコンテンツをユーザへ配信する側の構成について図面を用いて詳細に説明する。
【0057】
図2を参照すると、マルチメディアコンテンツを配信する側として、人工衛星300(又は所定のケーブル)より送信された映像/音声信号を受信する受信アンテナ410と、受信アンテナ410から入力された映像/音声信号を復調し、その後、誤り訂正や分離や復号化等の処理を施す受信処理部420a,420b,420c(以下、任意の受信処理部の符号を420とする)と、受信処理部420から入力されたマルチメディアコンテンツを表示画面450上に結像するプロジェクタ430a,430b,430c(以下、任意のプロジェクタを430とする)と、LAN20を介して入力された発振器210の位置情報に基づいて、対象物の位置及び軌跡が描画されたトレース画像を生成するトレーシングサーバ440と、を有して構成されている。
【0058】
この構成において、ユーザ側の再生機器としては、タワー型やディスクトップ型やノートブック型やラップトップ型やパームトップ型等のパーソナルコンピュータや携帯電話機(次世代携帯電話機を含む)やPDA(Personal Digital Assistants)等、マルチメディアコンテンツを再生するハードウェア又はソフトウェアが組み込まれた電子機器を適用することが可能である。この場合、ユーザ側の再生機器とトレーシングサーバ440とを結ぶネットワークには、この再生機器に応じて、インターネットや公衆回線網やISDNやxDSLや移動体通信網等が適用される。本実施例では、再生機器に携帯電話機510を適用し、また、これとトレーシングサーバ440とを結ぶ回線に移動体通信網30を適用した場合について説明する。尚、ユーザ側の再生機器には、デジタルテレビ等を適用しても良い。
【0059】
受信処理部420の構成を図10を用いて詳細に説明する。図10を参照すると、受信処理部420は、受信アンテナ410で受信された映像/音声信号を復調する復調部421と、復調された映像/音声信号に含まれている誤り訂正符号に基づいて受信データの誤り訂正を行う誤り訂正処理部422と、誤り訂正された受信データから所定のマルチメディアコンテンツを分離する多重信号分離部423と、分離されたマルチメディアコンテンツを復号化し、伸張するデコーダ424と、を有して構成される。また、デコーダ424で伸張されたマルチメディアコンテンツは、プロジェクタ430a,430b,430cへそれぞれ出力される。尚、受信処理部420とプロジェクタ430とを結ぶ回線は、同軸ケーブル等を利用したアナログ/デジタル回線とするが、これに限定されず、種々変形してもよい。
【0060】
プロジェクタ430は、上述にもあるように、入力されたマルチメディアコンテンツを表示画面450上に結像し、1つの画面を形成する。これにより、表示画面450上にはフィールド200全体が映し出された映像が表示される。この表示例を図11に示す。また、図11に示すように、フィールド200全体を表示する領域の上下左右何れかには、トレーシングサーバ440より入力された画像(トレース情報画面450a)が表示される。このトレース情報画面450aは、発振器210を付けた選手若しくは物品(対象物)の現在位置を表示するものである。また、トレース情報画面450aには、各対象物の動き情報を表示するために、所定期間(例えば10秒や1分)の軌跡(450b)も表示するよう構成しても良い。更に、このトレース情報画面450aでは、どのマーク(プロットされた点)がどの選手又は物品(対象物)であるかを明確に伝えるための符号(450c)が表示されるよう構成されると良い。この符号としては、選手や物品のイニシャルや背番号等を適用することができる。トレース情報画面450aの一例を図12に示す。但し、画面中における符号の“X”は対象が例えば物品(例えばボール)であることを示している。
【0061】
次に、トレーシングサーバ440について図面を用いて詳細に説明する。図13は、トレーシングサーバ440の構成を示すブロック図である。但し、各ブロックは、ハードウェアで実現しても、ソフトウェアで実現しても良い。また、このトレーシングサーバ440は、単一のコンピュータで構成しても、複数のコンピュータを用いて構成しても良い。図13を参照すると、トレーシングサーバ440は、トレース情報を生成し、トレース情報画面を出力する構成として、LAN20を介して位置検出処理部240から出力された位置情報と識別番号と時間情報とが含まれたパケットを入力する入力部4401と、入力されたパケットを解析して位置情報と識別情報と時間情報とを特定するパケット解析部4402と、特定された位置情報と識別情報と時間情報とに基づいてトレース情報を生成するトレース情報生成部4403、サーバ外部又は内部に設けられ、生成されたトレース情報を蓄積するトレース情報蓄積部441と、蓄積されたトレース情報から上述したトレース情報画面を作成するトレース画像作成部4404と、作成したトレース情報画面を所定のネットワークを介して表示画面440へ出力する出力部4405と、を有する。ここで出力部4405は、例えばビデオカード等で構成されるものであり、設けれているディスプレイコネクタ等を介して表示画面450へトレース情報画面を送信する。また、表示画面450側では、図示しないプロジェクタ若しくはモニタ等を用いて、トレーシングサーバ440から入力されたトレース情報画面450aを表示する。
【0062】
また、トレーシングサーバ440は、携帯電話機510からの要求に応じてトレース情報画面を携帯電話機510へ送信する用構成すると良い。このためにトレーシングサーバ440には、移動体通信回線30を介して携帯電話機510からの要求等を入力するための入力部4406と、トレース画像作成部4404で作成されたトレース情報が面を移動体通信回線30を介して携帯電話機510へ送信する出力部4407と、が設けられ、トレース画像作成部510が入力部4406から入力された要求に応じて出力部4405へトレース情報画面を出力するよう構成される。
【0063】
ここで、上記のトレース情報を生成し、トレース情報画面を出力する構成を更に詳細に説明する。入力部4401を介してパケットが入力されると、パケット解析部4402は、パケットにおけるペイロード部から位置情報と識別番号と時間情報とを特定し、これをトレース情報生成部4403へ入力する。トレース情報生成部4403は、入力された位置情報と識別番号と時間情報とをそれぞれトレース情報蓄積部441の所定の領域に格納する。また、トレース情報生成部4403は、例えば入力された位置情報と識別番号と時間情報と、及びトレース情報蓄積部441に格納されている位置情報と識別情報と時間情報と、に基づいて、対象物の移動速度(正確には発振器210の移動速度)を算出し、これもトレース情報蓄積部441の所定の領域に格納するよう構成しても良い。ここで、トレース情報蓄積部441のデータ構成を図14に示す。
【0064】
図14を参照すると、トレース情報蓄積部441は、1つの識別番号に関して、対応するマルチメディアコンテンツの識別情報(イベント識別情報)と時間情報と位置情報と速度情報とを対応付けて格納している。尚、位置情報は、実際のフィールド(競技場)での座標であっても、予め用意しているフィールドの画像(以下、フィールド画像という)における座標であってもよい。但し、どちらの場合でも、原点を例えばフィールドにおける左下や中心とするとよい。また、トレーシングサーバ440は、イベント識別情報をトレース情報蓄積部441に入力することで、特定のトレース情報を読み出す。
【0065】
更に、トレース画像作成部4404は、トレース画像を作成する際、最新の位置情報を各対象物(識別番号)毎に参照し、これを予め用意しているフィールドの画像上にプロットする。また軌跡は、対象物毎に所定期間分の位置情報を参照し、これを線で結ぶことで描画される。更に、各点には合わせて読み出された符号や速度情報等も表示されるよう構成すると良い。
【0066】
以上のように構成・動作することで、本実施例では、フィールド全体をユーザへ表示すると共に、このフィールド上での選手等の動きを明確にユーザへ呈示するため、マルチメディアコンテンツをより明確且つ楽しめる環境が提供される。
【0067】
〔第2の実施例〕
次に、本発明を好適に実施した第2の実施例について図面を用いて詳細に説明する。尚、第1の実施例では、マルチメディアコンテンツをリアルタイムで放送する際のサービスについて説明した。これに対し、以下で説明する第2の実施例では、マルチメディアコンテンツを一時保管し、録画映像として提供する。
【0068】
本実施例によるシステム構成は、第1の実施例で説明したものと同様のものを適用できる(図1及び図2参照)。また、図中、各ブロックの構成も第1の実施例と同様のものを適用できる。
【0069】
この構成において、カメラ110及び/又はマイク120からマルチメディアデータ処理システム130に入力されたマルチメディアデータは、加工前又は加工後にマルチメディアコンテンツDB150に一時蓄積される。但し、加工後の場合は、マルチメディアコンテンツに相当する。また、加工前に蓄積されたマルチメディアデータは、後の処理においてマルチメディアコンテンツDB150から読み出され、マルチメディアデータ処理システム130において加工がなされる。また、送信時にマルチメディアデータ処理システム130により読み出されたマルチメディアコンテンツは、第1の実施例と同様に送信局140を介して所定の放送回線10へ送出される。
【0070】
本実施例において表示画面450には、第1の実施例と同様に、フィールド200全体の映像とトレース情報画面450aとが表示される。更に、本実施例においてトレーシングサーバ440には、現在どのマルチメディアコンテンツが放送されているかが設定される。従って、携帯電話機510に表示させる操作画面やトレース情報画面450aもこのマルチメディアコンテンツに対応したものがトレーシングサーバ440において作成され、提供される。尚、この設定にはイベント識別情報を用いることができる。また、トレーシングサーバ440はこれに応じて対応するトレース情報をトレース情報蓄積部441から読み出し、トレース情報画面を作成してユーザへ提供する。この際、トレーシングサーバ440は、放送しているマルチメディアコンテンツのタイムコードに基づいて現在何れのシーンかを特定して、対応するトレース画像を作成する。
【0071】
このように構成・動作することで、本実施例では、第1の実施例と同様に、フィールド全体をユーザへ表示すると共に、このフィールド上での選手等の動きを明確にユーザへ呈示するため、マルチメディアコンテンツをより明確且つ楽しめる環境が提供される。尚、他の構成は第1の実施例と同様であるため、ここでは説明を省略する。
【0072】
〔まとめ〕
以上、説明したように、本発明によれば、サッカーの試合やオートレース中継等のイベントにおいて、全体を放送できると共に、対象物の時間に沿った動き(移動)もユーザに視覚的に与えることが可能となるため、よりマルチメディアコンテンツを明確に理解し、楽しめる環境を提供することができる。
【0073】
また、上記した各実施例は、本発明を好適に実施した形態の一例に過ぎず、本発明は、その主旨を逸脱しない限り、種々変形して実施することが可能なものである。
【0074】
【発明の効果】
以上、説明したように、請求項1記載の発明によれば、フィールド全体が撮影されたマルチメディアコンテンツと共に、マルチメディアコンテンツの内容を容易に理解させるための付加的な情報を提供することで、よりマルチメディアコンテンツが楽しめる環境を提供できる。
【0075】
更に、請求項2記載の発明によれば、提供する付加的な情報をより詳細なものとすることで、よりマルチメディアコンテンツが楽しめる環境を提供できる。
【0076】
更に、請求項3記載の発明によれば、全体が映し出された画面と同一面に付加的な情報が表示されるため、利便性よく映像と情報とを提供することが可能となる。
【0077】
更に、請求項4記載の発明によれば、ユーザの手元で付加的な情報を参照することが可能となるため、ユーザはより明確且つ容易にイベント全体を把握することが可能となる。
【0078】
また、請求項5記載の発明によれば、フィールド全体が撮影されたマルチメディアコンテンツと共に、マルチメディアコンテンツの内容を容易に理解させるための付加的な情報を提供することで、よりマルチメディアコンテンツが楽しめる環境を実現できる。
【0079】
更に、請求項6記載の発明によれば、提供する付加的な情報をより詳細なものとすることで、よりマルチメディアコンテンツが楽しめる環境を実現できる。
【0080】
更に、請求項7記載の発明によれば、全体が映し出された画面と同一面に付加的な情報が表示されるため、利便性よく映像と情報とを提供することが可能となる。
【0081】
また、請求項8記載の発明によれば、フィールド全体が撮影されたマルチメディアコンテンツと共に、マルチメディアコンテンツの内容を容易に理解させるための付加的な情報を提供することで、よりマルチメディアコンテンツが楽しめる環境を実現できるサーバが提供される。
【0082】
また、請求項9記載の発明によれば、ユーザの手元で付加的な情報を参照することを可能にし、より明確且つ容易にイベント全体を把握させることが可能となる電子機器が提供される。
【0083】
また、請求項10記載の発明によれば、フィールド全体が撮影されたマルチメディアコンテンツと共に、マルチメディアコンテンツの内容を容易に理解させるための付加的な情報を提供することで、よりマルチメディアコンテンツが楽しめる環境を提供できる。
【0084】
更に、請求項11記載の発明によれば、全体が映し出された画面と同一面に付加的な情報が表示されるため、利便性よく映像と情報とを提供することが可能となる。
【0085】
更に、請求項12記載の発明によれば、ユーザの手元で付加的な情報を参照することが可能となるため、ユーザはより明確且つ容易にイベント全体を把握することが可能となる。
【図面の簡単な説明】
【図1】本発明の第1の実施例によるシステム構成を示す図である(1)。
【図2】本発明の第1の実施例によるシステム構成を示す図である(2)。
【図3】本発明の第1の実施例におけるカメラ110の構成及び発振器210の位置を示す図である。
【図4】図1におけるマルチメディアデータ処理システム130の構成を示すブロック図である。
【図5】マルチメディアデータ処理システム130による処理内容を説明するための図である。
【図6】図1における送信局140の構成を示すブロック図である。
【図7】図1における発振器210の構成を示すブロック図である。
【図8】図1における受信処理部230の構成を示すブロック図である。
【図9】図1における位置検出処理部240の構成を示すブロック図である。
【図10】図2における受信処理部420の構成を示すブロック図である。
【図11】図2における表示画面450の画面例を示す図である。
【図12】図11におけるトレース情報画面450aの例を示す図である。
【図13】図2におけるトレーシングサーバ440の構成を示すブロック図である。
【図14】図12におけるトレース情報蓄積部441のデータ構成を示すテーブルである。
【符号の説明】
10 放送回線
20 LAN
30 移動体通信網
110 カメラ
111 メインレンズ
112 スプリッタ
120 マイク
130 マルチメディアデータ処理システム
131 のりしろ生成部
132 クロスフェード処理部
140 送信局
141 エンコーダ
142 多重化部
143 誤り訂正符号付加部
144 変調部
145、215 送信アンテナ
150 マルチメディアコンテンツデータベース
200 フィールド
210a、210b 発振器
210X 交点
211 筐体
212 発電部
213 蓄電部
214 送信部
220a、220b、220c、410 受信アンテナ
230a、230b、230c 受信処理部
231、241、4401、4406 入力部
232 識別番号抽出部
233 電力レベル検出部
234 パケット生成部
235、245、4405、4407 出力部
240 位置検出処理部
242、4402 パケット解析部
243 位置検出部
244 パケット生成部
300 人工衛星
420a、420b、420c 受信処理部
421 復調部
422 誤り訂正処理部
423 多重信号分離部
424 デコーダ
430a、430b、430c プロジェクタ
440 トレーシングサーバ
441 トレース情報蓄積部
450 表示画面
450a トレース情報画面
510 携帯電話機
4403 トレース情報生成部
4404 トレース画像作成部
[0001]
BACKGROUND OF THE INVENTION
Tracing server, content display device, and electronic device In particular, Tracing server, content display device, and electronic device for displaying trajectory of one or more objects existing on field About.
[0002]
[Prior art]
Conventionally, for example, a soccer game, a baseball game, and the like have been edited and broadcast into a single program by partially joining together a plurality of cameras, which are taken by enlarging a specific part of the field.
[0003]
[Problems to be solved by the invention]
However, since the program edited into one in this way is created for all users, a desired video cannot be accurately provided for each user, and a truly satisfactory program is broadcast. It was difficult.
[0004]
In particular, in soccer games, baseball games, auto racing, and the like, movement often occurs in a plurality of places or on the entire field, and it is impossible to present these to the user at one time.
[0005]
The present invention has been made in view of the above problems, and by providing additional information for easily understanding the content of the multimedia content together with the multimedia content in which the entire field is photographed, It is an object of the present invention to provide a content display system, a content display device, a server, an electronic device, and a content display method that can realize an environment where media content can be enjoyed.
[0006]
[Means for Solving the Problems]
In order to achieve such an object, the invention according to claim 1 is a content display system for displaying multimedia content in which an entire predetermined field is photographed, and includes one or more objects existing on the predetermined field. The position information of the object is displayed together with the multimedia content.
[0007]
As a result, the present invention can provide an environment in which the multimedia content can be enjoyed more by providing additional information for easily understanding the content of the multimedia content together with the multimedia content in which the entire field is photographed. .
[0008]
Furthermore, the invention according to claim 2 is the above-described content display system, wherein the identification information of the one or more objects and / or a predetermined period of the one or more objects are combined with the position information. It is characterized by displaying a trajectory.
[0009]
Thereby, in this invention, the environment which can enjoy a multimedia content more can be provided by making the additional information to provide more detailed.
[0010]
Further, the invention according to claim 3 is the content display system described above, wherein the position information of the object is on the same plane as the multimedia content, and is at a predetermined interval from any of the top, bottom, left and right of the multimedia content. It is characterized by being displayed in an area separated from each other.
[0011]
As a result, in the present invention, additional information is displayed on the same surface as the entire screen, so that it is possible to provide video and information with high convenience.
[0012]
Furthermore, the invention described in claim 4 is the content display system described above, wherein the position information of the object is distributed to a portable electronic device or a mobile phone.
[0013]
Accordingly, in the present invention, additional information can be referred to by the user, so that the user can grasp the entire event more clearly and easily.
[0014]
The invention according to claim 5 is a content display device that displays multimedia content in which the entire predetermined field is photographed, and includes position information of one or more objects existing on the predetermined field. It is characterized by being displayed together with the multimedia content.
[0015]
Thus, according to the present invention, an environment in which the multimedia content can be enjoyed can be realized by providing additional information for easily understanding the content of the multimedia content together with the multimedia content in which the entire field is photographed. .
[0016]
Furthermore, the invention described in claim 6 is the content display device described above, wherein the identification information of the one or more objects and / or a predetermined period of the one or more objects are combined with the position information. It is characterized by displaying a trajectory.
[0017]
Accordingly, in the present invention, an environment in which multimedia content can be enjoyed can be realized by making the additional information to be provided more detailed.
[0018]
Furthermore, the invention according to claim 7 is the content display device described above, wherein the position information of the object is on the same plane as the multimedia content, and is at a predetermined interval from any of the top, bottom, left and right of the multimedia content. It is characterized by being displayed in an area separated from each other.
[0019]
As a result, in the present invention, additional information is displayed on the same surface as the entire screen, so that it is possible to provide video and information with high convenience.
[0020]
The invention according to claim 8 is a server that manages position information of one or more objects existing on a predetermined field, and the position information of the one or more objects on the predetermined field. Based on position information of the one or more objects and the identification information of the one or more objects and / or a trajectory of the predetermined period of the one or more objects A trace information screen creating means for creating a trace information screen on which the image is drawn, and a trace information screen display means for displaying the trace information screen together with the multimedia content in which the entire predetermined field is photographed. It is said.
[0021]
Thus, according to the present invention, an environment in which the multimedia content can be enjoyed can be realized by providing additional information for easily understanding the content of the multimedia content together with the multimedia content in which the entire field is photographed. A server is provided.
[0022]
The invention according to claim 9 generates position information on a predetermined field of one or more objects, and based on the generated position information, identification information of the one or more objects and / or Multimedia content that is connectable via a predetermined network to a server that creates a trace information screen in which a trace of a predetermined period of the one or more objects is drawn, and the entire predetermined field is photographed In addition, the trace information screen is displayed.
[0023]
As a result, according to the present invention, an electronic device is provided that allows additional information to be referred to by the user and makes it possible to grasp the entire event more clearly and easily.
[0024]
According to a tenth aspect of the present invention, there is provided a content display method for displaying multimedia content in which an entire predetermined field is photographed, and generating position information of the one or more objects on the predetermined field. Based on the object position information generation process and the position information of the one or more objects, the identification information of the one or more objects and / or the trajectory of the one or more objects for a predetermined period is drawn. A trace information screen creating process for creating a trace information screen; and a display process for displaying the race information screen together with the multimedia content.
[0025]
As a result, the present invention can provide an environment in which the multimedia content can be enjoyed more by providing additional information for easily understanding the content of the multimedia content together with the multimedia content in which the entire field is photographed. .
[0026]
Furthermore, the invention according to claim 11 is the above-described content display method, wherein the display process is such that the trace information screen is on the same plane as the multimedia content, and is one of up, down, left and right of the multimedia content. It is characterized in that it is displayed in a region separated by a predetermined interval.
[0027]
As a result, in the present invention, additional information is displayed on the same surface as the entire screen, so that it is possible to provide video and information with high convenience.
[0028]
Furthermore, the invention described in claim 12 is the above-described content display method, wherein the display step distributes and displays the race information screen to a portable electronic device or a mobile phone.
[0029]
Accordingly, in the present invention, additional information can be referred to by the user, so that the user can grasp the entire event more clearly and easily.
[0030]
DETAILED DESCRIPTION OF THE INVENTION
〔principle〕
In explaining the present invention, the principle of the present invention will be mentioned.
[0031]
The present invention provides an environment in which multimedia content can be enjoyed in more detail and clearly by using additional information when providing multimedia content such as video and audio to a user.
[0032]
For example, in soccer or the like, when the entire field is displayed on one screen, it is difficult to clearly tell the viewer what player is doing what. Accordingly, in the present invention, additional information (corresponding to the trace information in the following description) such as position information and identification information on the field of one or more objects displayed as an image is also presented to the user. To do. Thus, according to the present invention, it is possible to clearly convey a large amount of information to the viewer at the same time, and it is possible to realize an environment in which multimedia contents can be more enjoyed.
[0033]
In order to provide such additional information, in the present invention, a moving object such as a person, an animal, or a vehicle, for example, a stationary object such as a tree or a building (hereinafter referred to as an object) Trace information such as position and speed.
[0034]
As described above, it is a main object of the present invention to provide an environment in which multimedia content can be enjoyed by providing additional information for easily understanding the contents of the multimedia content.
[0035]
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the drawings.
[0036]
[First embodiment]
First, a first embodiment of the present invention will be described in detail with reference to the drawings. In the following description, a case of so-called live broadcasting in which acquired multimedia content is broadcast in real time will be described.
[0037]
1 and 2 are block diagrams showing the system configuration of the present invention. FIG. 1 shows the configuration of the production side of multimedia content and the configuration of collecting trace information (described in detail below), and FIG. 2 shows the side of providing multimedia content distribution and trace information. The configuration of is shown.
[0038]
・ Multimedia content production side
Referring to FIG. 1, in this embodiment, as a configuration for producing multimedia content, a camera 110, a microphone (hereinafter abbreviated as a microphone) 120, and video / audio data input from the camera 110 and / or the microphone 120 are used. A multimedia data processing system 130 for producing a multimedia content that performs a predetermined process and displays the entire field 200, and a transmission station that transmits the multimedia content produced by the multimedia data processing system 130 via a predetermined broadcast line 140, and a multimedia content database (hereinafter abbreviated as DB) 150 for storing multimedia contents input from the multimedia data processing system 130 are provided. The multimedia content DB 150 can be composed of, for example, a relational database, but is not limited thereto, and may be composed of a normal file format or other forms.
[0039]
In this configuration, the entire field is photographed at once by the camera 110. As shown in FIG. 3, the camera 110 according to the present embodiment is configured by a three-plane seamless camera including, for example, three cameras (110a, 110b, 110c), and each of the cameras 110a, 110b, 110c has a region A, B and C are input via the main lens 111 and the splitter 112. That is, the area 110 is imaged by the camera 110a, the area B is imaged by the camera 110b, and the area C is imaged by the camera 110c, whereby the entire field 200 is simultaneously imaged. In this embodiment, the camera 110 to be used is a three-plane seamless camera. However, the present invention is not limited to this, and the camera 110 may be modified in any way as long as the entire field 200 can be photographed.
[0040]
Video data acquired by the cameras 110a, 110b, and 110c are independently input to the multimedia data processing system 130. However, each video data includes a time code indicating time information, and is configured to be synchronized with each other and audio data described later. The communication line connecting the camera 110 and the multimedia data processing system 130 may be, for example, a serial transmission coaxial cable or a wireless line, but is not limited thereto.
[0041]
Similarly, a plurality of microphones 130 are also provided, and audio data collected at each microphone 130 is independently input to the multimedia data processing system 130. However, like the video data, each audio data also includes a time code indicating time information, and is configured to be synchronized with each other and with the video data. For example, a serial line or a parallel line using an optical cable, a coaxial cable, a wireless line, or the like is applied to the communication line connecting the microphone 130 and the multimedia data processing system 130. However, the present invention is not limited to this. Absent.
[0042]
In the multimedia data processing system 130, multimedia content for displaying the entire field is produced based on the input video data and / or audio data. FIG. 4 shows a block configuration of a multimedia data processing system 130 according to this embodiment. However, in FIG. 4, a processing mechanism related to audio data is omitted. Referring to FIG. 4, the multimedia data processing system 130 includes a margin generation unit 131 that generates a margin for combining adjacent video data with respect to three input video data, and a region that is overlapped between adjacent videos. And a cross-fade processing unit 132 that performs a cross-fade process on the (extension part).
[0043]
The processing process by this configuration will be described with reference to FIG. As shown in FIGS. 5A to 5B, the margin generation unit 131 generates a marginal portion (a region to be overlapped) for synthesizing the adjacent images from the center image in the three input images. This is combined with the right / left image. As shown in FIGS. 5B to 5C, the cross-fade processing unit 132 performs cross-fade processing on the marginal part, and as a result, produces three multimedia contents. Thereby, when the video of the entire field is displayed on the display screen 450 by the projectors 430a, 430b, and 430c, the superimposed region can be smoothed.
[0044]
The multimedia contents thus produced are individually output to the transmission station 140. In addition, the multimedia data processing system 130 inputs input video / audio data (hereinafter referred to as multimedia data) and produced multimedia content to the multimedia content DB 150. The multimedia content DB 150 stores a plurality of multimedia contents related to one event in association with each other. At this time, identification information (hereinafter referred to as event identification information) for uniquely identifying the group may be registered in association with each other. The line connecting the multimedia data processing system 130 and the transmitting station 140 and the line connecting the multimedia data processing system 130 and the content DB 150 are, for example, a serial line using an optical cable, a coaxial cable, a wireless line, or the like. Although a parallel line etc. are applied, it is not restricted to this. The multimedia content DB 150 will be described in detail in the second embodiment.
[0045]
The broadcast station 140 performs predetermined processing on the input multimedia content and then sends it to the broadcast line 10. At this time, the broadcasting line 10 may be an analog / digital broadcasting network using satellites or terrestrial waves, or a communication network using optical cables, coaxial cables, etc. CATV (Community Antenna Television / Common Antenna Television). / Cable Television System / Cable and Tele-communication Television System (ISDN) (Integrated Services Digital Network) or xDSL (x Digital Network). FIG. 6 shows a block configuration of the transmission station 140 according to the present embodiment.
[0046]
Referring to FIG. 6, the transmitting station 140 includes an encoder 141 that compresses and encodes input multimedia content, a multiplexing unit 142 that multiplexes the compressed and encoded multimedia content, and a multiplexed result. An error correction code adding unit 143 that calculates an error correction code from the multimedia content and adds the error correction code to the multimedia content; and a modulation method such as QPSK (Quadrature Phase Shift Keying) for the multimedia content to which the error correction code is added And a modulation unit 144 that modulates and transmits as a video / audio signal. The video / audio signal is transmitted from the transmission antenna 145 to the artificial satellite 300 via the broadcast line 10 and broadcast, or is transmitted to a cable or the like (not shown).
[0047]
Further, the compression / encoding by the encoder 141 is performed on the multimedia contents individually input from the multimedia data processing system 130. Here, as the encoding method, for example, MPEG (Moving Picture Experts Group) -2, MPEG-4, Motion JPEG-2000, etc., PCM (Pulse Code Modulation), ADPCM (Adaptive Differential Pulse Code Modulation, etc.) can be applied. .
[0048]
Note that broadcast stations such as existing analog / digital broadcasting companies, satellite (digital) broadcasting companies, cable television companies, and the like can be applied to the camera 110, the microphone 120, the multimedia data processing system 130, and the transmission station 140. In this case, the broadcast station transmits video / audio data acquired by the camera 110 and the microphone 120 to the broadcast station using wireless or an optical cable, and the broadcast station performs image / audio processing, encoding, multiplexing, and error correction code. After adding or modulating the data, it is transmitted to an empty channel or a channel assigned as a program.
[0049]
-Trace information collection side
Next, a configuration for collecting information (hereinafter referred to as trace information) such as the position and moving speed of the object to be imaged in FIG.
[0050]
In the present embodiment, small oscillators 210a, 210b,... (Hereinafter referred to as an arbitrary oscillator code 210) are attached to an object to be photographed, for example, a sports player. Further, the oscillator 210 may be attached to a referee, a ball, other articles, or the like as an object. The oscillator 210 transmits an identification number assigned to itself as an electric signal (hereinafter referred to as an identification signal) via a wireless line. A block configuration of the oscillator 210 is shown in FIG. In addition, the identification signal is transmitted periodically at intervals of several seconds, for example, and transmitted at a transmission power level that is at least enough to reach the reception antenna 220. The oscillator 210 in the present embodiment is not limited to the above-described configuration, and can be implemented with various modifications as long as the position of the oscillator 210 can be recognized constantly or periodically.
[0051]
Referring to FIG. 7, an oscillator 210 according to the present embodiment includes a power generation unit 212 configured by a coil or the like, a power storage unit 213 that stores generated power, and a transmission unit 214 that transmits a modulated identification signal. The housing 211 is configured to be included. In addition, the transmission antenna 215 is provided inside the housing 211 so as not to interfere with the object. However, in this configuration, the power generation unit 212 and the power storage unit 213 may be replaced with a battery or the like.
[0052]
The identification signal transmitted from the oscillator 210 is received by a plurality of receiving antennas 220a, 220b, and 220c (hereinafter referred to as arbitrary receiving antennas 220), and reception processing units 230a, 230b, and 230c (hereinafter referred to as “respectively”) are provided. An arbitrary reception processing unit is input to 230).
[0053]
The reception processing unit 230 extracts identification information from the input identification signal and detects the strength (reception power level) of the received identification signal. This configuration is shown in FIG. Referring to FIG. 8, the reception processing unit 230 is similarly input to an input unit 231 that inputs a signal from the reception antenna 220 and an identification number extraction unit 232 that demodulates the input signal and extracts an identification number therefrom. A power level detector 233 that detects a received power level from the received signal, and a packet generator 234 that generates a packet in which information of the extracted identification number and the detected received power level is stored in a payload portion (data area). And an output unit 235 that outputs the generated packet to the position detection processing unit 240. Further, the packet generation unit 233 includes the time information when the identification number and the reception power level are input or the time information when the identification signal is input from the reception antenna 220 to the input unit 231 and the own reception processing unit 230. The packet is generated by including identification information for uniquely identifying (hereinafter referred to as reception antenna identification information). The reception processing unit 230 and the position detection processing unit 240 are connected by, for example, a LAN (Local Area Network) and communicate with each other using a packet exchange method, but the present invention is not limited to this. However, when other communication methods are adopted, the configurations of the packet generation unit 234 and the output unit 235 are changed so as to conform to the configuration.
[0054]
The position detection processing unit 240 detects the position of the oscillator 210 based on the identification information, the received power level, the time information, and the reception antenna identification information included in the input packet. This configuration is shown in FIG. Referring to FIG. 9, the position detection processing unit 240 refers to the input unit 241 that inputs the packet output from the reception processing unit 230, and the payload portion in the input packet, and from now on, the identification number, the received power level, A packet analysis unit 242 that identifies time information and reception antenna identification information; a position detection unit 243 that detects the position of each oscillator 210 based on the identified identification number, received power level, and reception antenna identification information; A packet generation unit 244 that generates a packet in which information on a position detected by the position detection unit 243 (hereinafter referred to as position information), an identification number, and time information is stored in the payload portion, and the generated packet is transmitted via the LAN 20. And an output unit 245 for outputting to the tracing server 440 (see FIG. 2). The position detection processing unit 240 and the tracing server 440 are connected by, for example, the LAN 20 and communicate with each other by a packet exchange method. Alternatively, this line is not limited to the LAN 20, and may be a predetermined dedicated line, a public line network, the Internet, or the like. However, when other communication methods are adopted, the configurations of the packet generation unit 244 and the output unit 245 are changed so as to conform to the configuration.
[0055]
An operation when the position detection unit 243 detects the position of the oscillator 210 will be described. The position detection unit 243 specifies the position of each oscillator 210 based on the packets input from the plurality of reception processing units 230 (three reception processing units 230a, 230b, and 230c in the example shown in FIG. 3). That is, the position detection unit 240 specifies the reception voltage level related to one identification signal output from the oscillator 210 based on the identification number, time information, and reception antenna identification information in the information input from the packet analysis unit 242. Then, the position of the oscillator 210 is specified based on this level ratio or level difference. For example, as shown in FIG. 3, the reception power level obtained by the reception processing unit 230a (this is assumed to be level a) and the reception power level obtained by the reception processing unit 230b (this is assumed to be level b) ) And the reception power level obtained by the reception processing unit 230c (this is assumed to be level c), the center is the position of each reception antenna, and a circle whose radius depends on the ratio of these is on the field I can draw. At this time, if there is a point where all three circles intersect (intersection 210X in FIG. 3), the radius of each circle is determined. Thereby, the position of the oscillator 210 is specified. The position is given by two-dimensional coordinates with one point on the field as the origin.
[0056]
・ Multimedia content distribution side
Next, the configuration on the side of distributing multimedia contents to users will be described in detail with reference to the drawings.
[0057]
Referring to FIG. 2, as a multimedia content distribution side, a reception antenna 410 that receives a video / audio signal transmitted from an artificial satellite 300 (or a predetermined cable), and a video / audio that is input from the reception antenna 410. The reception processing units 420a, 420b, and 420c (hereinafter referred to as arbitrary reception processing unit codes 420) that perform demodulation, error correction, separation, decoding, and the like, are input from the reception processing unit 420. Based on the position information of projectors 430a, 430b, and 430c (hereinafter referred to as arbitrary projectors 430) that form the formed multimedia content on the display screen 450 and the oscillator 210 that is input via the LAN 20. A tracing server 440 for generating a trace image in which the position and trajectory of an object are drawn. It has been made.
[0058]
In this configuration, as a playback device on the user side, a personal computer such as a tower type, a desktop type, a notebook type, a laptop type, a palmtop type, a mobile phone (including a next-generation mobile phone), a PDA (Personal Digital) It is possible to apply an electronic device in which hardware or software for reproducing multimedia contents, such as Assistants, is incorporated. In this case, the Internet, public line network, ISDN, xDSL, mobile communication network, or the like is applied to the network connecting the playback device on the user side and the tracing server 440 according to the playback device. In the present embodiment, a case will be described in which the mobile phone 510 is applied to a playback device, and the mobile communication network 30 is applied to a line connecting the mobile phone 510 and the tracing server 440. A digital television or the like may be applied to the playback device on the user side.
[0059]
The configuration of the reception processing unit 420 will be described in detail with reference to FIG. Referring to FIG. 10, the reception processing unit 420 receives a demodulation unit 421 that demodulates a video / audio signal received by the reception antenna 410 and an error correction code included in the demodulated video / audio signal. An error correction processing unit 422 that performs error correction of data, a multiple signal separation unit 423 that separates predetermined multimedia content from the error-corrected received data, and a decoder 424 that decodes and decompresses the separated multimedia content , And is configured. The multimedia contents expanded by the decoder 424 are output to the projectors 430a, 430b, and 430c, respectively. The line connecting the reception processing unit 420 and the projector 430 is an analog / digital line using a coaxial cable or the like, but is not limited to this and may be variously modified.
[0060]
As described above, the projector 430 forms an image of the input multimedia content on the display screen 450 to form one screen. As a result, an image showing the entire field 200 is displayed on the display screen 450. An example of this display is shown in FIG. In addition, as shown in FIG. 11, an image (trace information screen 450a) input from the tracing server 440 is displayed on the top, bottom, left, or right of the area displaying the entire field 200. The trace information screen 450a displays the current position of the player or article (object) with the oscillator 210 attached. The trace information screen 450a may also be configured to display a trajectory (450b) for a predetermined period (for example, 10 seconds or 1 minute) in order to display movement information of each object. Further, the trace information screen 450a may be configured to display a code (450c) for clearly indicating which mark (plotted point) is which player or article (object). As this code, initials of a player or an article, a spine number, or the like can be applied. An example of the trace information screen 450a is shown in FIG. However, the symbol “X” in the screen indicates that the object is, for example, an article (for example, a ball).
[0061]
Next, the tracing server 440 will be described in detail with reference to the drawings. FIG. 13 is a block diagram showing the configuration of the tracing server 440. As shown in FIG. However, each block may be realized by hardware or software. The tracing server 440 may be configured with a single computer or a plurality of computers. Referring to FIG. 13, the tracing server 440 generates trace information and outputs a trace information screen, and the position information, the identification number, and the time information output from the position detection processing unit 240 via the LAN 20 are included. An input unit 4401 for inputting the included packet; a packet analysis unit 4402 for analyzing the input packet to identify position information, identification information, and time information; and the specified position information, identification information, and time information. Information generation unit 4403 that generates trace information based on the above, a trace information storage unit 441 that is provided outside or inside the server and stores the generated trace information, and creates the above-described trace information screen from the stored trace information The trace image creation unit 4404 to be displayed and the created trace information screen are displayed via a predetermined network Having an output unit 4405 for outputting to the surface 440, a. Here, the output unit 4405 is composed of, for example, a video card or the like, and transmits a trace information screen to the display screen 450 via a provided display connector or the like. On the display screen 450 side, a trace information screen 450a input from the tracing server 440 is displayed using a projector or a monitor (not shown).
[0062]
The tracing server 440 may be configured to transmit a trace information screen to the mobile phone 510 in response to a request from the mobile phone 510. For this purpose, the tracing server 440 moves the surface of the input unit 4406 for inputting a request from the mobile phone 510 via the mobile communication line 30 and the trace information created by the trace image creation unit 4404. An output unit 4407 that transmits to the mobile phone 510 via the body communication line 30, and the trace image creation unit 510 outputs a trace information screen to the output unit 4405 in response to a request input from the input unit 4406. Composed.
[0063]
Here, the configuration for generating the trace information and outputting the trace information screen will be described in more detail. When a packet is input via the input unit 4401, the packet analysis unit 4402 specifies position information, an identification number, and time information from the payload portion of the packet, and inputs this to the trace information generation unit 4403. The trace information generation unit 4403 stores the input position information, identification number, and time information in predetermined areas of the trace information storage unit 441, respectively. Further, the trace information generation unit 4403, for example, based on the input position information, identification number, time information, and the position information, identification information, and time information stored in the trace information storage unit 441, The moving speed (more precisely, the moving speed of the oscillator 210) may be calculated and stored in a predetermined area of the trace information storage unit 441. Here, the data structure of the trace information storage unit 441 is shown in FIG.
[0064]
Referring to FIG. 14, the trace information storage unit 441 stores the corresponding multimedia content identification information (event identification information), time information, position information, and speed information in association with each other. . The position information may be coordinates in an actual field (stadium) or coordinates in a field image prepared in advance (hereinafter referred to as a field image). However, in either case, the origin may be the lower left or center of the field, for example. The tracing server 440 reads specific trace information by inputting event identification information to the trace information storage unit 441.
[0065]
Further, when creating the trace image, the trace image creation unit 4404 refers to the latest position information for each object (identification number) and plots it on the image of the field prepared in advance. In addition, the trajectory is drawn by referring to position information for a predetermined period for each object and connecting them with a line. Furthermore, it is preferable that the code, speed information, and the like read together are displayed at each point.
[0066]
By configuring and operating as described above, in the present embodiment, the entire field is displayed to the user, and the movement of players and the like on the field is clearly presented to the user, so that the multimedia content is more clearly and An enjoyable environment is provided.
[0067]
[Second Embodiment]
Next, a second preferred embodiment of the present invention will be described in detail with reference to the drawings. In the first embodiment, a service for broadcasting multimedia contents in real time has been described. On the other hand, in the second embodiment described below, multimedia contents are temporarily stored and provided as recorded video.
[0068]
The system configuration according to this embodiment can be the same as that described in the first embodiment (see FIGS. 1 and 2). In the figure, the same configuration as that of the first embodiment can be applied to each block.
[0069]
In this configuration, multimedia data input from the camera 110 and / or microphone 120 to the multimedia data processing system 130 is temporarily stored in the multimedia content DB 150 before or after processing. However, the case after processing corresponds to multimedia content. Further, the multimedia data accumulated before the processing is read from the multimedia content DB 150 in the subsequent processing and processed in the multimedia data processing system 130. Also, the multimedia content read by the multimedia data processing system 130 at the time of transmission is sent to a predetermined broadcast line 10 via the transmission station 140 as in the first embodiment.
[0070]
In the present embodiment, on the display screen 450, the video of the entire field 200 and the trace information screen 450a are displayed as in the first embodiment. Further, in the present embodiment, the tracing server 440 is set with which multimedia content is currently being broadcast. Therefore, the operation screen displayed on the mobile phone 510 and the trace information screen 450a corresponding to the multimedia contents are created and provided in the tracing server 440. Note that event identification information can be used for this setting. In response, the tracing server 440 reads the corresponding trace information from the trace information storage unit 441, creates a trace information screen, and provides it to the user. At this time, the tracing server 440 identifies which scene is currently based on the time code of the multimedia content being broadcast, and creates a corresponding trace image.
[0071]
By configuring and operating in this way, in this embodiment, as in the first embodiment, the entire field is displayed to the user, and the movement of players etc. on this field is clearly presented to the user. An environment in which multimedia contents can be more clearly and enjoyed is provided. Since other configurations are the same as those of the first embodiment, description thereof is omitted here.
[0072]
[Summary]
As described above, according to the present invention, it is possible to broadcast the whole in an event such as a soccer game or an auto race broadcast, and also visually give the user movement (movement) along the time. Therefore, it is possible to provide an environment in which multimedia contents can be understood and enjoyed more clearly.
[0073]
Each of the above-described embodiments is merely an example of a preferred embodiment of the present invention, and the present invention can be implemented with various modifications without departing from the gist thereof.
[0074]
【The invention's effect】
As described above, according to the invention described in claim 1, by providing additional information for easily understanding the content of the multimedia content together with the multimedia content in which the entire field is captured, An environment where more multimedia content can be enjoyed can be provided.
[0075]
Furthermore, according to the second aspect of the present invention, an environment in which multimedia content can be enjoyed can be provided by making the additional information to be provided more detailed.
[0076]
Furthermore, according to the third aspect of the present invention, since additional information is displayed on the same surface as the entire screen, the video and information can be provided conveniently.
[0077]
Furthermore, according to the fourth aspect of the invention, additional information can be referred to by the user, so that the user can grasp the entire event more clearly and easily.
[0078]
According to the fifth aspect of the present invention, by providing additional information for easily understanding the content of the multimedia content together with the multimedia content in which the entire field is photographed, the multimedia content can be further improved. An enjoyable environment can be realized.
[0079]
Furthermore, according to the invention described in claim 6, by making the additional information to be provided more detailed, it is possible to realize an environment where more multimedia contents can be enjoyed.
[0080]
Further, according to the seventh aspect of the present invention, since additional information is displayed on the same surface as the entire screen, it is possible to provide video and information conveniently.
[0081]
According to the invention described in claim 8, by providing additional information for easily understanding the content of the multimedia content together with the multimedia content in which the entire field is photographed, the multimedia content can be further improved. A server that can realize an enjoyable environment is provided.
[0082]
In addition, according to the invention described in claim 9, it is possible to refer to additional information at the user's hand, and to provide an electronic device that can grasp the entire event more clearly and easily.
[0083]
According to the invention described in claim 10, the multimedia content is provided by providing additional information for easily understanding the content of the multimedia content together with the multimedia content in which the entire field is photographed. An enjoyable environment can be provided.
[0084]
Furthermore, according to the eleventh aspect of the invention, additional information is displayed on the same surface as the entire screen, so that it is possible to provide video and information conveniently.
[0085]
Furthermore, according to the twelfth aspect of the present invention, additional information can be referred to by the user, so that the user can grasp the entire event more clearly and easily.
[Brief description of the drawings]
FIG. 1 is a diagram showing a system configuration according to a first exemplary embodiment of the present invention (1).
FIG. 2 is a diagram showing a system configuration according to the first exemplary embodiment of the present invention (2).
FIG. 3 is a diagram showing a configuration of a camera 110 and a position of an oscillator 210 in the first embodiment of the present invention.
4 is a block diagram showing a configuration of a multimedia data processing system 130 in FIG. 1. FIG.
FIG. 5 is a diagram for explaining processing contents by the multimedia data processing system 130;
6 is a block diagram showing a configuration of a transmission station 140 in FIG. 1. FIG.
7 is a block diagram showing a configuration of an oscillator 210 in FIG. 1. FIG.
8 is a block diagram showing a configuration of a reception processing unit 230 in FIG.
9 is a block diagram showing a configuration of a position detection processing unit 240 in FIG.
10 is a block diagram showing a configuration of a reception processing unit 420 in FIG.
11 is a diagram showing a screen example of a display screen 450 in FIG.
12 is a diagram showing an example of a trace information screen 450a in FIG.
13 is a block diagram showing a configuration of a tracing server 440 in FIG. 2. FIG.
14 is a table showing a data configuration of the trace information storage unit 441 in FIG. 12. FIG.
[Explanation of symbols]
10 Broadcast line
20 LAN
30 Mobile communication network
110 Camera
111 Main lens
112 Splitter
120 microphone
130 Multimedia Data Processing System
131 Margin Generation Unit
132 Crossfade processing part
140 Transmitting station
141 Encoder
142 Multiplexer
143 Error correction code adding unit
144 Modulator
145, 215 transmitting antenna
150 Multimedia Content Database
200 fields
210a, 210b oscillator
210X intersection
211 housing
212 Power generation unit
213 Power storage unit
214 Transmitter
220a, 220b, 220c, 410 receiving antenna
230a, 230b, 230c reception processing unit
231, 241, 4401, 4406 Input section
232 Identification number extraction unit
233 Power level detector
234 packet generator
235, 245, 4405, 4407 Output section
240 Position detection processing unit
242, 4402 Packet analysis unit
243 Position detection unit
244 packet generator
300 artificial satellite
420a, 420b, 420c reception processing unit
421 Demodulator
422 Error correction processing unit
423 Multiplexed signal demultiplexer
424 decoder
430a, 430b, 430c projector
440 tracing server
441 Trace information storage unit
450 display screen
450a Trace information screen
510 Mobile phone
4403 Trace information generation unit
4404 Trace image creation unit

Claims (3)

所定のフィールド上に存在する1つ以上の対象物の軌跡を管理するトレーシングサーバであって、A tracing server for managing a trajectory of one or more objects existing on a predetermined field,
対象物が有する発振器より送出された識別信号と、受信した識別信号の強度と、時間情報と、受信アンテナ識別情報に基づき、対象物の位置情報を検出する位置検出部と、  A position detection unit that detects position information of the object based on the identification signal transmitted from the oscillator included in the object, the intensity of the received identification signal, time information, and reception antenna identification information;
上記位置検出部により検出された位置情報、識別情報及び時間情報を入力する入力部と、An input unit for inputting position information, identification information and time information detected by the position detection unit;
入力された対象物の位置情報、識別情報及び時間情報に基づいて、対象物のトレース情報生成するトレース情報生成部と、  A trace information generating unit that generates trace information of the object based on the position information, identification information, and time information of the input object;
生成されたトレース情報を蓄積するトレース情報蓄積部と、  A trace information storage unit for storing the generated trace information;
蓄積されたトレース情報からトレース情報画面を作成するトレース画像作成部と、  A trace image creation unit for creating a trace information screen from the accumulated trace information;
を有することを特徴とするトレーシングサーバ。  A tracing server characterized by comprising:
請求項1記載のトレーシングサーバから、前記フィールド上に存在する1つ以上の対象物の軌跡の画面であるトレース情報画面を受信して、該トレース情報画面を表示することを特徴とするコンテンツ表示装置 2. A content display for receiving a trace information screen which is a screen of a trajectory of one or more objects existing on the field from the tracing server according to claim 1, and displaying the trace information screen. Equipment . 請求項1記載のトレーシングサーバから、前記フィールド上に存在する1つ以上の対象物の軌跡の画面であるトレース情報画面を、通信回線を介して受信して、該トレース情報画面を表示することを特徴とする電子機器 A trace information screen that is a screen of a trajectory of one or more objects existing on the field is received from the tracing server according to claim 1 via a communication line, and the trace information screen is displayed. Electronic equipment characterized by
JP2002137593A 2002-05-13 2002-05-13 Tracing server, content display device and electronic device Expired - Fee Related JP3712690B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002137593A JP3712690B2 (en) 2002-05-13 2002-05-13 Tracing server, content display device and electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002137593A JP3712690B2 (en) 2002-05-13 2002-05-13 Tracing server, content display device and electronic device

Publications (2)

Publication Number Publication Date
JP2003333581A JP2003333581A (en) 2003-11-21
JP3712690B2 true JP3712690B2 (en) 2005-11-02

Family

ID=29699300

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002137593A Expired - Fee Related JP3712690B2 (en) 2002-05-13 2002-05-13 Tracing server, content display device and electronic device

Country Status (1)

Country Link
JP (1) JP3712690B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07160856A (en) * 1993-12-01 1995-06-23 Mitsui Constr Co Ltd Locus acquiring device of moving object
JP3122002B2 (en) * 1995-02-16 2001-01-09 松下電器産業株式会社 Interactive information provision device
JP2000032535A (en) * 1998-07-07 2000-01-28 Nippon Telegr & Teleph Corp <Ntt> Position information service device
JP2000224457A (en) * 1999-02-02 2000-08-11 Canon Inc Monitoring system, control method therefor and storage medium storing program therefor
JP3758511B2 (en) * 2000-02-28 2006-03-22 株式会社日立国際電気 Object detection apparatus and object detection program

Also Published As

Publication number Publication date
JP2003333581A (en) 2003-11-21

Similar Documents

Publication Publication Date Title
US9560304B2 (en) Multi-channel audio enhancement for television
AU2003275435B2 (en) Dynamic video annotation
Srivastava et al. Interactive TV technology and markets
EP1113669A2 (en) Real-time communication of sporting event
KR101571283B1 (en) Media content transmission method and apparatus, and reception method and apparatus for providing augmenting media content using graphic object
US7966636B2 (en) Multi-video receiving method and apparatus
JP2003199078A (en) Transmission system for transmitting video stream relating to event to visitor who happens to be at event site
CA2478753A1 (en) Miniaturized video feed generation and user-interface
CN103155582A (en) Hybrid broadcast and communication system, data generation device, and receiver
KR101472013B1 (en) Server and method for providing music streaming include data of add image
JP2005159592A (en) Contents transmission apparatus and contents receiving apparatus
JP2003179908A (en) Image-distributing apparatus and image-receiving apparatus
US20040250297A1 (en) Method, apparatus and system for providing access to product data
KR100604301B1 (en) Receiving terminal, method for controlling the same, and recorded medium on which program is recorded
CN105704399A (en) Playing method and system for multi-picture television program
EP2515548A1 (en) A competition tracking system
KR100328482B1 (en) System for broadcasting using internet
JP2003333570A (en) Contents distribution system, server therefor, electronic apparatus, contents distribution method, program therefor, and recording medium with the program recorded thereon
JP2002280982A (en) Broadcast system and broadcast station and receiver thereof
KR20130089358A (en) Method and apparatus of providing additive information for contents in broadcast system
JP3712690B2 (en) Tracing server, content display device and electronic device
JP2003501965A (en) Digital television receiver / decoder with interactive playback of predetermined television program
US20030053634A1 (en) Virtual audio environment
JP3723412B2 (en) Stream transmission / reception system, semantic information server, and accounting method in stream transmission / reception system
JP3956696B2 (en) Information processing system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050524

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050817

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080826

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090826

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090826

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100826

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100826

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110826

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110826

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120826

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120826

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130826

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees