JPWO2013021643A1 - 放送通信連携システム、データ生成装置及び受信装置 - Google Patents

放送通信連携システム、データ生成装置及び受信装置 Download PDF

Info

Publication number
JPWO2013021643A1
JPWO2013021643A1 JP2013527900A JP2013527900A JPWO2013021643A1 JP WO2013021643 A1 JPWO2013021643 A1 JP WO2013021643A1 JP 2013527900 A JP2013527900 A JP 2013527900A JP 2013527900 A JP2013527900 A JP 2013527900A JP WO2013021643 A1 JPWO2013021643 A1 JP WO2013021643A1
Authority
JP
Japan
Prior art keywords
data
image
additional
information
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013527900A
Other languages
English (en)
Inventor
泰治 佐々木
泰治 佐々木
洋 矢羽田
洋 矢羽田
智輝 小川
智輝 小川
上坂 靖
靖 上坂
和寛 持永
和寛 持永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Publication of JPWO2013021643A1 publication Critical patent/JPWO2013021643A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4882Data services, e.g. news ticker for displaying messages, e.g. warnings, reminders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4886Data services, e.g. news ticker for displaying a ticker, e.g. scrolling banner for news, stock exchange, weather data

Abstract

データ生成装置100は、フレーム画像を取得する取得部101と、再生装置によって付加画像が重畳された前記フレーム画像を再生する際に、付加画像の重畳を禁止するフレーム画像上の領域を示す禁止情報を設定する設定部109と、前記フレーム画像と前記禁止情報とを多重化してデータを生成する多重化部104とを備える。受信装置400は、禁止情報と前記フレーム画像とが多重化されたデータを受信する受信部401と、前記データから、前記フレーム画像と前記禁止情報とを分離する分離部402と、前記付加画像を取得する取得部409と、前記禁止情報に基づいて、前記フレーム画像に前記付加画像を重畳する重畳部407とを備える。

Description

本発明は、放送と通信とを連携する技術に関する。
近年、放送のデジタル化に伴い、一般家庭のテレビにおいて、高画質なハイビジョンの映像を楽しむことが可能となってきている。一方、ブロードバンド環境が普及することで、多くのユーザは、音声・動画ストリーミングサービスやSNS(Social Networking Service)等、様々なインターネットのサービスを楽しむことが可能となってきている。
このような環境において、放送波コンテンツと通信コンテンツとを融合した、新しいサービスの検討がなされ、そのサービスを実現するための技術開発が進められている。
非特許文献1には、番組カスタマイズサービス、ソーシャルテレビサービス、番組お薦めサービスなどの例が記載されている。ここで、番組カスタマイズサービスは、放送中の番組に関連する付加情報をインターネットなどの通信ネットワークを通して提供し、放送と同時に表示するサービスである。これにより、視聴者個人のニーズに合った視聴を可能にする。また、ソーシャルテレビサービスは、インターネット上で普及しているSNSを放送の視聴と融合させるサービスである。ソーシャルテレビサービスでは、SNSに入力される視聴者からの意見や感想を番組と同時にテレビ画面上に表示する。これにより、SNSに積極的に参加しない視聴者も意見や感想を共有できるようにする。さらに、番組お薦めサービスは、インターネットで提供される数多くのVOD(Video On Demand)番組ライブラリーの中から、視聴者にお薦めのVOD番組を提示するサービスである。
松村欣司、外1名、「Hybridcast TM の概要と技術」、NHK技研R&D、NHK放送技術研究所、2010年、No.124、p.10−17
上記のように、放送と通信とを連携するサービスを実現する場合、放送局の意図に反して通信コンテンツの重畳が行われることが課題として挙げられる。例えば、「緊急のお知らせ」など放送局がユーザに伝えたい重要なメッセージに、通信コンテンツが重畳されると、放送局はユーザに伝えたい重要なメッセージを正しくユーザに伝えることができなくなってしまう。
なお、「緊急のお知らせ」のように、放送局がユーザに伝えたい重要なメッセージの例としては「緊急地震速報」、「ニュース速報」などがある。また、放送局のビジネスの面で必要なメッセージとしては「コマーシャル」などがあり、これらのメッセージを正しくユーザに伝えられない場合、放送局のビジネスが阻害されてしまう。
本発明の一態様は、上記課題を解決することを目的とする。
上記目的を達成するため、本発明の一態様は、データを生成するデータ生成装置であって、フレーム画像を取得する取得手段と、再生装置によって付加画像が重畳された前記フレーム画像を再生する際に、付加画像の重畳を禁止するフレーム画像上の領域を示す禁止情報を設定する設定手段と、前記フレーム画像と前記禁止情報とを多重化してデータを生成する多重化手段とを備えることを特徴とする。また、データを受信する受信装置であって、再生装置によって付加画像が重畳されたフレーム画像を再生する際に、付加画像の重畳を禁止するフレーム画像の領域を示す禁止情報と、前記フレーム画像とが多重化されたデータを受信する受信手段と、前記データから、前記フレーム画像と前記禁止情報とを分離する分離手段と、前記付加画像を取得する取得手段と、前記禁止情報に基づいて、前記フレーム画像に前記付加画像を重畳する重畳手段とを備えることを特徴とする。
この態様によると、放送局の意図に反して通信コンテンツの重畳が行われることを防ぐことができ、放送と通信とを連携するサービスを円滑に提供することができる。
実施の形態1としての放送通信連携システム10の全体構成を示すブロック図である。 実施の形態2としての放送通信連携システム10aの全体構成を示すブロック図である。 トランスポートストリーム形式のデジタルストリームのデータ構造を示す。 ビデオストリームのデータ構造を示す。 ビデオストリームのアクセスユニットのデータ構造を示す。 クロッピング領域情報及びスケーリング情報を示す。 クロッピング領域情報及びスケーリング情報の具体的な指定方法を示す。 (a)ビデオフレーム列570のデータ構造を示す。(b)PESパケット列580のデータ構造を示す。 トランスポートストリームを構成するTSパケットのデータ構造を示す。 PMTのデータ構造を示す。 ビデオストリームの参照関係を示す。 映像プレーン641と、映像プレーン641に対して、メッセージ画像643やスコア画像644を重畳して得られた映像プレーン642とを示す ユーザのコメントを表したコメント画像655を重畳して得られた重畳プレーン654を示す 合成プレーン665を生成するプロセスを示す。重畳領域設定ビットマップ661を用いて、重畳プレーン654にマスク処理を施して、マスク重畳プレーン663を生成する。次に、映像プレーン642とマスク重畳プレーン663とを合成して合成プレーン665を生成する。 映像のシーン671、673、676と、重畳領域設定ビットマップ684、685、687との対応関係を示す。 バリエーションとしての重畳領域設定ビットマップ721を示す。 バリエーションとしての重畳領域設定ビットマップ731を示す。 映像のシーン671、673、676と、重畳領域設定データ684a、685a、687aとの対応関係を示す。 重畳領域設定データの格納先の一例を示す。 放送システム100aの動作を示すフローチャートである。 重畳領域設定データの生成の動作を示すフローチャートである。 再生装置400aの動作を示すフローチャートである。 プレーン毎のマスク処理の動作を示すフローチャートである。 重畳領域設定データが存在しない場合の、映像プレーン701と重畳プレーン702との合成のプロセスを示す。 映像のシーン671、673、676と、重畳領域設定データ684b、685b、687bとの対応関係を示す。 バリエーションとしての重畳領域設定ビットマップ684cの一例を示す。 他のバリエーションとしての重畳領域設定ビットマップ684dの一例を示す。 変形例としての放送通信連携システム10a1の全体構成を示すブロック図である。 放送通信連携システム10a1において、合成プレーン665aを生成するプロセスを示す。重畳領域設定ビットマップ661を用いて、重畳プレーン654aにマスク処理を施して、マスク重畳プレーン663aを生成する。次に、映像プレーン642とマスク重畳プレーン663aとを合成して合成プレーン665aを生成する。 映像のシーン671、673、676と、重畳領域設定ビットマップ684e、685e、687eとの対応関係を示す。 合成プレーン665eを生成するプロセスを示す。重畳領域設定ビットマップ685eを用いて、重畳プレーン654eにマスク処理を施して、マスク重畳プレーン663eを生成する。次に、映像プレーン642とマスク重畳プレーン663eとを合成して合成プレーン665eを生成する。 映像のシーン671、673、676と、重畳領域設定ビットマップ684f、685f、687fとの対応関係を示す。 変形例としての放送通信連携システム10a2の全体構成を示すブロック図である。 変形例としての放送通信連携システム10a3の全体構成を示すブロック図である。 実施の形態3としての放送通信連携システム10bの全体構成を示すブロック図である。 映像のシーン671、673、676と、音声合成設定データ684i、685i、687iとの対応関係を示す。 音声合成設定データの生成の動作を示すフローチャートである。 再生装置400bの動作を示すフローチャートである。 音声の合成処理の動作を示すフローチャートである。 実施の形態4としての放送通信連携システム10cの全体構成を示すブロック図である。 実施の形態5としての放送通信連携システム10dの全体構成を示すブロック図である。 放送通信連携システム10dにおいて提供されるサービスを示す。映像プレーン901及び911において、各選手画像の近傍にラベル画像が重畳されて表示される。 俯瞰カメラ921と3次元実空間との位置関係を示す。 選手位置テーブル941のデータ構造の一例を示す。 重畳データ961のデータ構造の一例を示す。 映像プレーン981と重畳プレーン985とを合成して合成プレーン988を生成するプロセスを示す。 重畳データの生成の動作を示すフローチャートである。 再生の動作を示すフローチャートである。 ラベル画像の配置の一例を示す。 重畳データのデータ構造の一例を示す。各ラベル位置情報は、画像IDを含む。 重畳プレーン801の一例を示す。 ラベル画像が配置された後の合成プレーン801aを示す。 ラベル画像が配置された後の別の合成プレーン801bを示す。 基本ビュービデオストリーム及び拡張ビュービデオストリームにおける参照関係を示す。
1.実施の形態1
本発明の実施の形態1としての、放送通信連携システム10について、図面を参照しながら説明する。
(1)放送通信連携システム10
放送通信連携システム10は、図1に示すように、データ生成装置100と放送装置200とサービス提供装置300と受信装置400とから構成される。
データ生成装置100は、フレーム画像を取得する取得部101と、再生装置によって付加画像が重畳された前記フレーム画像を再生する際に、付加画像の重畳を禁止するフレーム画像上の領域を示す禁止情報を設定する設定部109と、前記フレーム画像と前記禁止情報とを多重化してデータを生成する多重化部104とを備える。
放送装置200は、前記データを放送路にて伝送する。
サービス提供装置300は、前記付加画像を通信路にて伝送する。
受信装置400は、再生装置によって付加画像が重畳された前記フレーム画像を再生する際に、付加画像の重畳を禁止するフレーム画像の領域を示す禁止情報と、前記フレーム画像とが多重化されたデータを受信する受信部401と、前記データから、前記フレーム画像と前記禁止情報とを分離する分離部402と、前記付加画像を取得する取得部409と、前記禁止情報に基づいて、前記フレーム画像に前記付加画像を重畳する重畳部407とを備える。
(2)ここで、データ生成装置100は、前記フレーム画像を一の伝送路により伝送し、前記付加画像は、前記伝送路とは、異なる伝送路により、伝送されるとしてもよい。
この態様によると、異なる伝送路を用いるので、それぞれの伝送路の特性を有効に利用することができる。
(3)ここで、前記フレーム画像は放送路にて伝送され、前記付加画像は通信路にて伝送されるとしてもよい。
この態様によると、異なる伝送路を用いるので、それぞれの伝送路の特性を有効に利用することができる。
(4)ここで、設定部109は、さらに、再生装置によって付加画像が重畳された前記フレーム画像を再生する際に、付加画像の重畳を許可するフレーム画像上の領域を示す許可情報を設定し、多重化部104は、さらに、前記許可情報を多重化するとしてもよい。
この態様によると、フレーム画像を再生する際に、重畳を許可する領域を示すことにより、その他の領域において、付加画像が重畳されて、フレーム画像が妨げられないように、前記データを生成することができる。
(5)ここで、設定部109は、さらに、再生装置によって付加画像が重畳された前記フレーム画像を再生する際に、付加画像の重畳を推奨するフレーム画像上の領域を示す推奨情報を設定し、多重化部104は、さらに、前記推奨情報を多重化するとしてもよい。
この態様によると、フレーム画像を再生する際に、重畳を推奨する領域を示すことにより、その他の領域において、付加画像が重畳されて、フレーム画像が妨げられないように、前記データを生成することができる。
(6)ここで、設定部109は、さらに、再生装置によって付加画像が重畳された前記フレーム画像を再生する際に、付加画像の重畳に対して注意を促すフレーム画像上の領域を示す注意情報を設定し、多重化部104は、さらに、前記注意情報を多重化するとしてもよい。
この態様によると、フレーム画像を再生する際に、注意を促す領域を示すことにより、注意を促す領域に付加画像が重畳されることを避け、その他の領域において、付加画像が重畳されて、フレーム画像が妨げられないように、前記データを生成することができる。
(7)ここで、前記禁止情報及び前記許可情報は、前記フレーム画像内の各画素に対応して設定されるとしてもよい。
この態様によると、フレーム画像を再生する際に、画素毎に、フレーム画像が妨げられないように、前記データを生成することができる。
(8)ここで、前記禁止情報及び前記許可情報は、前記フレーム画像を複数に分割して得られる領域に対応して設定されるとしてもよい。
この態様によると、フレーム画像を再生する際に、領域毎に、フレーム画像が妨げられないように、前記データを生成することができる。
(9)ここで、受信装置400は、前記フレーム画像と前記付加画像を、異なる伝送路にて受信するとしてもよい。
この態様によると、異なる伝送路を用いるので、それぞれの伝送路の特性を有効に利用することができる。
(10)ここで、前記フレーム画像を放送路にて受信し、前記付加画像を通信路にて受信するとしてもよい。
この態様によると、異なる伝送路を用いるので、それぞれの伝送路の特性を有効に利用することができる。
(11)受信部401は、さらに、再生装置によって付加画像が重畳されたフレーム画像を再生する際に、付加画像の重畳を許可するフレーム画像の領域を示す許可情報が多重化された前記データを受信し、分離部402は、前記データから、さらに、前記許可情報を分離し、重畳部407は、さらに、前記許可情報に基づいて、前記フレーム画像に前記付加画像を重畳するとしてもよい。
この態様によると、前記許可情報に基づいて、付加画像を重畳させ、前記許可情報により示される領域以外の領域において、付加画像が重畳されて、フレーム画像が妨げられないようにすることができる。
(12)ここで、受信部401は、さらに、再生装置によって付加画像が重畳されたフレーム画像を再生する際に、付加画像の重畳を推奨するフレーム画像の領域を示す推奨情報が多重化された前記データを受信し、分離部402は、前記データから、さらに、前記推奨情報を分離し、重畳部407は、さらに、前記推奨情報に基づいて、前記フレーム画像に前記付加画像を重畳するとしてもよい。
この態様によると、前記推奨情報に基づいて、付加画像を重畳させ、前記推奨情報により示される領域以外の領域において、付加画像が重畳されて、フレーム画像が妨げられないようにすることができる。
(13)ここで、受信部401は、さらに、再生装置によって付加画像が重畳されたフレーム画像を再生する際に、付加画像の重畳に対して注意を促すフレーム画像の領域を示す注意情報が多重化された前記データを受信し、分離部402は、前記データから、さらに、前記注意情報を分離し、重畳部407は、さらに、前記注意情報に基づいて、前記フレーム画像に前記付加画像を重畳するとしてもよい。
この態様によると、前記注意情報に基づいて、付加画像を重畳させ、前記注意情報により示される領域以外の領域において、付加画像が重畳されて、フレーム画像が妨げられないようにすることができる。
(14)ここで、前記禁止情報及び前記許可情報は、前記フレーム画像内の各画素に対応して設定されており、前記重畳部407は、前記フレーム画像内の画素毎に、前記付加情報を重畳するとしてもよい。
この態様によると、画素毎に、フレーム画像が妨げられないようにすることができる。
(15)ここで、前記禁止情報及び前記許可情報は、前記フレーム画像を複数に分割して得られる領域に対応して設定されており、重畳部407は、前記フレーム画像内の前記領域毎に、前記付加情報を重畳するとしていもよい。
この態様によると、領域毎に、フレーム画像が妨げられないようにすることができる。
(16)また、本発明の一態様は、データ生成装置と放送装置とサービス提供装置と受信装置とから構成される放送通信連携システムである。
前記データ生成装置は、主音声を取得する取得手段と、再生装置によって付加音声が合成された前記主音声を再生する際に、付加音声の合成を禁止する主音声の区間を示す禁止情報を設定する設定手段と、前記主音声と前記禁止情報とを多重化してデータを生成する多重化手段とを備える。
前記放送装置は、前記データを放送路にて伝送する。
前記サービス提供装置は、前記付加音声を通信路にて伝送する。
前記受信装置は、再生装置によって付加音声が合成された前記主音声を再生する際に、付加音声の合成を禁止する主音声の区間を示す禁止情報と、前記主音声とが多重化されたデータを受信する受信手段と、前記データから、前記主音声と前記禁止情報とを分離する分離手段と、前記付加音声を取得する取得手段と、前記禁止情報に基づいて、前記主音声に前記付加音声を合成する合成手段とを備える。
この態様によると、主音声を再生する際に、合成を禁止する領域を示すことにより、付加音声が合成されて、主音声が妨げられないように、前記データを生成することができる。また、主音声を再生する際に、合成を禁止する区間を示すことにより、付加音声が合成されて、主音声が妨げられないようにすることができる。
(17)ここで、前記データ生成装置は、前記主音声を一の伝送路により伝送し、前記付加音声は、前記伝送路とは、異なる伝送路により伝送されるとしてもよい。
この態様によると、異なる伝送路を用いるので、それぞれの伝送路の特性を有効に利用することができる。
(18)ここで、前記主音声は放送路にて伝送され、前記付加音声は通信路にて伝送されるとしてもよい。
この態様によると、異なる伝送路を用いるので、それぞれの伝送路の特性を有効に利用することができる。
(19)ここで、前記設定手段は、さらに、再生装置によって付加音声が合成された前記主音声を再生する際に、付加音声の合成を許可する主音声の区間を示す許可情報を設定し、前記多重化手段は、さらに、前記許可情報を多重化するとしてもよい。
この態様によると、主音声を再生する際に、合成を許可する区間を示すことにより、その他の区間において、付加音声が合成されて、主音声が妨げられないように、前記データを生成することができる。
(20)ここで、前記設定手段は、さらに、再生装置によって付加音声が合成された前記主音声を再生する際に、付加音声の合成を推奨する主音声の区間を示す推奨情報を設定し、前記多重化手段は、さらに、前記推奨情報を多重化するとしてもよい。
この態様によると、主音声を再生する際に、合成を推奨する区間を示すことにより、その他の区間において、付加音声が合成されて、主音声が妨げられないように、前記データを生成することができる。
(21)ここで、前記設定手段は、さらに、再生装置によって付加音声が合成された前記主音声を再生する際に、付加音声の合成に対して注意を促す主音声の区間を示す注意情報を設定し、前記多重化手段は、さらに、前記注意情報を多重化するとしてもよい。
この態様によると、主音声を再生する際に、注意を促す区間を示すことにより、その他の区間において、付加音声が合成されて、主音声が妨げられないように、前記データを生成することができる。
(22)ここで、前記受信装置は、前記主音声と前記付加音声とを、異なる伝送路にて受信するとしてもよい。
この態様によると、異なる伝送路を用いるので、それぞれの伝送路の特性を有効に利用することができる。
(23)ここで、前記主音声は放送路にて受信し、前記付加音声を通信路にて受信するとしてもよい。
この態様によると、異なる伝送路を用いるので、それぞれの伝送路の特性を有効に利用することができる。
(24)ここで、前記受信手段は、さらに、前記再生装置によって付加音声が合成された主音声を再生する際に、付加音声の重畳を許可する主音声の区間を示す許可情報が多重化された前記データを受信し、前記分離手段は、前記データから、さらに、前記許可情報を分離し、前記重畳手段は、さらに、前記許可情報に基づいて、前記主音声に前記付加音声を合成するとしてもよい。
この態様によると、主音声を再生する際に、合成を許可する区間を示すことにより、その他の区間において、付加音声が合成されて、主音声が妨げられないようにすることができる。
(25)ここで、前記受信手段は、さらに、前記再生装置によって付加音声が合成された主音声を再生する際に、付加音声の重畳を推奨する主音声の区間を示す推奨情報が多重化された前記データを受信し、前記分離手段は、前記データから、さらに、前記推奨情報を分離し、前記重畳手段は、さらに、前記推奨情報に基づいて、前記主音声に前記付加音声を合成するとしてもよい。
この態様によると、主音声を再生する際に、合成を推奨する区間を示すことにより、その他の区間において、付加音声が合成されて、主音声が妨げられないようにすることができる。
(26)ここで、前記受信手段は、さらに、前記再生装置によって付加音声が合成された主音声を再生する際に、付加音声の重畳に対して注意を促す主音声の区間を示す注意情報が多重化された前記データを受信し、前記分離手段は、前記データから、さらに、前記注意情報を分離し、前記重畳手段は、さらに、前記注意情報に基づいて、前記主音声に前記付加音声を合成するとしてもよい。
この態様によると、主音声を再生する際に、注意を促す区間を示すことにより、その他の区間において、付加音声が合成されて、主音声が妨げられないようにすることができる。
2.実施の形態2
本発明の実施の形態2としての、放送通信連携システム10aについて、図面を参照しながら説明する。
2.1 放送通信連携システム10a
放送通信連携システム10aは、放送波により放送される映像に対して、ユーザのコメントなどの付加情報を重畳するサービスを提供する。放送通信連携システム10aは、図2に示すように、放送システム100a、通信サービス提供システム300a及び再生装置400aから構成されている。
通信サービス提供システム300a及び再生装置400aは、ネットワーク20aを介して、接続されている。ネットワーク20aは、例えば、インターネットである。
放送システム100aは、放送局におけるシステムであり、カメラレコーダにより撮影した映像及び音声を放送波に乗せて放送する。
通信サービス提供システム300aは、通信サービス事業者におけるシステムであり、SNS等から取得したユーザのコメントなどの付加情報を、ネットワーク20aを介して、提供する。
再生装置400aは、放送波を受信し、ストリームをデコードして放送映像を再生し、放送映像を表示する。また、通信サービス提供システム300aから、ネットワーク20aを介して、送信される付加情報を、放送映像に重畳して表示する。再生装置400aは、一例として、デジタル放送受信装置である。再生装置400aには、ユーザインターフェースとしてリモコンが付属している。再生装置400aのユーザは、リモコンを通じて、放送波のチャンネルを選択し、一例として図12に示すように、映像プレーン641を表示して楽しむ。また、ユーザは、図14に示すように、放送映像に付加情報を重畳させて楽しむ。合成プレーン665においては、サッカーの放送映像に、付加情報として、通信サービス提供システム300aから取得したコメントを表したコメント画像667が重畳されている。
2.2 ストリームのデータ構造
ここでは、デジタルテレビの放送波等で伝送される一般的なストリームのデータ構造について説明する。
デジタルテレビの放送波等での伝送では、MPEG−2トランスポートストリーム形式のデジタルストリームが使われている。MPEG−2トランスポートストリームとは、ビデオやオーディオなど様々なストリームを多重化して伝送するための規格である。この規格は、ISO/IEC13818−1およびITU−T勧告H222.0において標準化されている。
(MPEG−2トランスポートストリーム形式のデジタルストリームの構成)
MPEG−2トランスポートストリーム形式のデジタルストリームの構成を図3に示す。この図に示すように、トランスポートストリーム513は、ビデオストリーム501、オーディオストリーム504、字幕ストリーム507などを多重化することで得られる。
ビデオストリーム501は、番組の主映像を格納している。また、オーディオストリーム504は、番組の主音声部分や副音声を格納している。さらに、字幕ストリーム507は、番組の字幕情報を格納している。
ビデオストリーム501は、MPEG−2、MPEG−4 AVCなどの方式を用いて、符号化して記録される。オーディオストリーム504は、ドルビーAC−3、MPEG−2 AAC、MPEG−4 AAC、HE−AACなどの方式を用いて、圧縮・符号化して記録されている。
(動画圧縮符号化)
ビデオストリームの構成について説明する。MPEG−2、MPEG−4 AVC、SMPTE VC−1などの動画圧縮符号化においては、動画像の空間方向および時間方向の冗長性を利用してデータ量の圧縮を行う。時間方向の冗長性を利用する方法として、ピクチャ間予測符号化が用いられる。ピクチャ間予測符号化では、あるピクチャを符号化する際に、表示時間順で前方又は後方にあるピクチャを参照ピクチャとする。次に、その参照ピクチャからの動き量を検出する。動き補償を行ったピクチャと符号化対照のピクチャとの差分値に対して空間方向の冗長度を取り除くことによりデータ量の圧縮を行う。図11に、ビデオストリームのピクチャの一般的な参照構造を示す。矢印は参照して圧縮されていることを示す。この図に示すように、ビデオストリームは、ピクチャ631、632、・・・、637を含む。ここで、ピクチャとは、フレームおよびフィールドの両者を包含する1つの符号化の単位である。
参照ピクチャを持たずに符号化対象ピクチャのみを用いてピクチャ内予測符号化を行うピクチャをIピクチャと呼ぶ。また、既に処理済の1枚のピクチャを参照してピクチャ間予測符号化するピクチャをPピクチャと呼ぶ。既に処理済みの2枚のピクチャを同時に参照してピクチャ間予測符号化するピクチャをBピクチャと呼ぶ。Bピクチャの中で他のピクチャから参照されるピクチャをBrピクチャと呼ぶ。また、フレーム構造の場合のフレーム、フィールド構造のフィールドを、ここではビデオアクセスユニットと呼ぶ。
(ビデオストリームの構造)
ビデオストリームは、図4に示すような階層構造を有している。ビデオストリーム521は、複数のGOP(Group of Pictures)522、523、・・・から構成されている。GOPを符号化処理の基本単位とすることで動画像の編集やランダムアクセスが可能となっている。
また、GOP522は、1つ以上のビデオアクセスユニット524、525、526、・・・により構成されている。他のGOPについても、同様である。ビデオアクセスユニットは、ピクチャの符号化データを格納する単位である。フレーム構造の場合、ビデオアクセスユニットには、1フレームのデータが格納される。また、フィールド構造の場合、ビデオアクセスユニットには、1フィールドのデータが格納される。
ビデオアクセスユニット524は、AU識別コード531、シーケンスヘッダ532、ピクチャヘッダ533、補足データ534、圧縮ピクチャデータ535、パディングデータ536、シーケンス終端コード537、ストリーム終端コード538などから構成される。他のビデオアクセスユニットについても、同様である。各データは、MPEG−4 AVCの場合は、NALユニットと呼ばれる単位で格納される。
AU識別コード531は、アクセスユニットの先頭を示す開始符号である。シーケンスヘッダ532は、複数のビデオアクセスユニットから構成される再生シーケンスでの共通の情報を格納したヘッダである。シーケンスヘッダ532には、解像度、フレームレート、アスペクト比、ビットレートなどの情報が格納される。ピクチャヘッダ533は、ピクチャ全体についての符号化の方式などの情報を格納したヘッダである。補足データ534は、圧縮データの復号に必須ではない付加情報である。例えば、補足データ534には、映像と同期してTVに表示するクローズドキャプションの文字情報やGOP構造情報などが格納される。圧縮ピクチャデータ535には、圧縮符号化されたピクチャのデータが格納される。パディングデータ536は、形式を整えるための意味のないデータが格納される。例えば、決められたビットレートを保つためのスタッフィングデータとして用いる。シーケンス終端コード537は、再生シーケンスの終端を示すデータである。ストリーム終端コード538は、ビットストリームの終端を示すデータである。
AU識別コード531、シーケンスヘッダ532、ピクチャヘッダ533、補足データ534、圧縮ピクチャデータ535、パディングデータ536、シーケンス終端コード537、ストリーム終端コード538のそれぞれの中身の構成は、ビデオの符号化方式によって異なる。
例えば、MPEG−4 AVCの場合であれば、AU識別コード531は、AUデリミタ(Access Unit Delimiter)に対応する。シーケンスヘッダ532は、SPS(Sequence Paramter Set)に対応する。ピクチャヘッダ533は、PPS(Picture Parameter Set)に対応する。圧縮ピクチャデータ535は、複数個のスライスに対応する。補足データ534は、SEI(Supplemental Enhancement Information)に対応する。パディングデータ536は、FillerDataに対応する。シーケンス終端コード537は、End of Sequenceに対応する。ストリーム終端コード538は、End of Streamに対応する。
また、例えば、MPEG−2の場合であれば、シーケンスヘッダ532は、sequence_Header、sequence_extension、group_of_picture_headerに対応する。ピクチャヘッダ533は、picture_header、picture_coding_extensionに対応する。圧縮ピクチャデータ535は、複数個のスライスに対応する。補足データ534は、user_dataに対応する。シーケンス終端コード537は、sequence_end_codeに対応する。AU識別コード531は、存在しないが、それぞれのヘッダのスタートコードを使えば、アクセスユニットの切れ目を判断できる。
各データは常に必要ではない。例えば、シーケンスヘッダ532は、GOP先頭のビデオアクセスユニットでのみ必要で、それ以外のビデオアクセスユニットにはなくてもよい。また、符号化方式によっては、ピクチャヘッダ533については、符号順に前のビデオアクセスユニットのものを参照してもよい。この場合には、自身のビデオアクセスユニット内にピクチャヘッダ533がなくてもよい。
また、図5に示すように、GOP先頭のビデオアクセスユニット524aには、圧縮ピクチャデータ535aとしてIピクチャのデータが格納される。また、AU識別コード531a、シーケンスヘッダ532a、ピクチャヘッダ533a、圧縮ピクチャデータ535aが必ず格納される。また、補足データ534a、パディングデータ536a、シーケンス終端コード537a、ストリーム終端コード538aが格納されている、としてもよい。
GOP先頭以外のビデオアクセスユニット524bは、AU識別コード531b、圧縮ピクチャデータ535bが必ず格納される。また、補足データ534b、パディングデータ530b、シーケンス終端コード537b、ストリーム終端コード538bが格納されている、としてもよい。
(クロッピング領域情報及びスケーリング情報)
次に、クロッピング領域情報及びスケーリング情報について、図6を参照しながら説明する。
ビデオ符号化方式によっては、符号化されたフレームの領域と、実際に表示に使う領域を変更することができる。
図6のように、符号化されたフレーム領域541の中から実際に表示する領域を、「クロッピング領域」(542)として指定することが出来る。
例えば、MPEG−4 AVCの場合には、SPSに格納されるframe_cropping情報を使って指定できる。frame_cropping情報は、図7(a)に示す上クロップ量555、下クロップ量556、左クロップ量553及び左クロップ量554を含む。ここで、上クロップ量555は、クロッピンング領域552の上辺とフレーム領域551の上辺との距離である。また、下クロップ量556は、クロッピンング領域552の下辺とフレーム領域551の下辺との距離である。また、左クロップ量553は、クロッピンング領域552の左辺とフレーム領域551の左辺との距離である。また、右クロップ量554は、クロッピンング領域552の右辺とフレーム領域551の右辺との距離である。
より具体的には、クロッピング領域を指定する場合には、frame_cropping_flagを「1」に設定し、frame_crop_top_offset / frame_crop_bottom_offset / frame_crop_left_offset / frame_crop_right_offsetに、上/下/左/右のクロップ量を指定する。
MPEG−2の場合には、図7(b)に示すように、クロッピング領域の縦及び横のサイズ(sequence_display_extensionのdisplay_horizontal_size, display_vertical_size)565、566と、符号化されたフレーム領域561の中心点564とクロッピング領域562の中心点563との差分情報(picture_display_extensionのframe_centre_horizontal_offset, frame_centre_vertical_offset)を使って、クロッピング領域を指定する。
また、ビデオ符号化方式によっては、クロッピング領域を実際にテレビなどに表示する際のスケーリング方法を示すスケーリング情報が存在する。これは、例えば、アスペクト比として設定される。再生装置400aは、そのアスペクト比の情報を使って、クロッピング領域をアップコンバートして表示を行う。
例えば、MPEG−4 AVCの場合には、スケーリング情報として、SPSにアスペクト比の情報(aspect_ratio_idc)が格納される。MPEG−4 AVCの場合、1440×1080のクロッピング領域を、1920×1080に拡大して表示するためには、アスペクト比は4:3を指定する。この場合、水平方向に4/3倍にアップコンバート(1440×4/3=1920)され、1920×1080に拡大されて表示される。MPEG−2の場合にも同様にsequence_headerにアスペクト比の情報(aspect_ratio_information)が格納されている。
(PID)
トランスポートストリームに含まれる各ストリームは、PIDと呼ばれるストリーム識別IDによって識別される。このPIDのパケットを抽出することで、再生装置400aは、対象のストリームを抽出することが出来る。PIDとストリームの対応は、以降で説明するPMTパケットのディスクリプタに格納される。
(トランスポートストリームにおける多重化)
図3には、トランスポートストリーム513において、複数のストリームがどのように多重化されるかを模式的に示している。
まず、複数のビデオフレームからなるビデオストリーム501及び複数のオーディオフレームからなるオーディオストリーム504を、それぞれ、PESパケット列502及び505に変換する。さらに、PESパケット列502及び505を、それぞれ、TSパケット列503及び506に変換する。同じく、字幕ストリーム507のデータをそれぞれPESパケット列508に変換する。さらに、PESパケット列508をTSパケット列509に変換する。MPEG−2トランスポートストリーム513は、これらのTSパケット列503、506及び509を1本のストリームに多重化することで構成される。
図8は、PESパケット列に、ビデオストリームがどのように格納されるかをさらに詳しく示している。図8(a)は、ビデオストリームのビデオフレーム列570を示し、図8(b)は、PESパケット列580を示す。また、図8は、ビデオフレーム列570の各ピクチャと、PESパケット列580の各ピクチャとの対応を示している。
ビデオフレーム列570は、複数のVideo Presentation Unitを含む。Video Presentation Unitは、Iピクチャ、Bピクチャ又はPピクチャである。ビデオストリームのビデオフレーム列570は、ピクチャ毎に分割され、各ピクチャは、PESパケットのペイロードに格納される。具体的には、図8に示すように、ビデオフレーム列570のピクチャ571、572、573及び574は、それぞれ、PESパケット591、592、593及び594のペイロードに格納される。
各PESパケットは、PESヘッダを持つ。PESヘッダには、ピクチャの表示時刻であるPTS(Presentation Time−Stamp)やピクチャの復号時刻であるDTS(Decoding Time−Stamp)が格納される。
(TSパケット)
図9は、トランスポートストリームを構成するTSパケットのデータ構造を示している。
TSパケット601は、188Byteの固定長のパケットである。TSパケット601は、4ByteのTSヘッダ602、アダプテーションフィールド604及びTSペイロード605から構成される。
TSヘッダ602は、transport_priority(606)、PID(607)、adaptaion_field_control(608)などから構成される。
PID(607)は、前述した通り、トランスポートストリームに多重化されているストリームを識別するためのIDである。transport_priority(606)は、同一PIDのTSパケットの中において、パケットの種別を識別するための情報である。adaptation_field_control(608)は、アダプテーションフィールド604とTSペイロード605の構成を制御するための情報である。アダプテーションフィールド604及びTSペイロード605については、どちらか一方だけが存在する場合がある。また、アダプテーションフィールド604及びTSペイロード605の両方が存在する場合がある。adaptation_field_control(608)は、その有無を示す。adaptation_field_control(608)が「1」の場合は、TSペイロード605のみが存在する。adaptation_field_control(608)が「2」の場合は、アダプテーションフィールド604のみが存在する。また、adaptation_field_control(608)が「3」の場合は、TSペイロード605とアダプテーションフィールド604の両方が存在することを示す。
アダプテーションフィールド604は、PCRなどの情報の格納や、TSパケットを188バイト固定長にするためのスタッフィングするデータの格納領域である。TSペイロード605にはPESパケットが分割されて格納される。
(PAT、PMT、PCRなど)
トランスポートストリームに含まれるTSパケットには、映像・音声・字幕などの各ストリーム以外にも、PAT(Program Association Table)、PMT(Program Map Table)、PCR(Program Clock Reference)などがある。これらのパケットは、PSI(Program Specific Information)と呼ばれる。
PATは、トランスポートストリーム中に利用されるPMTのPIDが何であるかを示し、PAT自身のPIDは「0」で登録される。
PMTは、トランスポートストリーム中に含まれる映像、音声、字幕などの各ストリームのPIDと各PIDに対応するストリームの属性情報を持ち、またトランスポートストリームに関する各種ディスクリプタを持つ。ディスクリプタには、AVストリームのコピーを許可・不許可を指示するコピーコントロール情報などがある。
PCRは、TSパケットのデコーダへの到着時刻とPTS、DTSの時間軸であるSTC(System Time Clock)の同期を取るために、そのPCRパケットがデコーダに転送されるタイミングに対応するSTC時間の情報を持つ。
(PMT)
図10は、PMT(611)のデータ構造を詳しく説明する図である。PMT(611)の先頭には、そのPMTに含まれるデータの長さなどを記したPMTヘッダ612が配置される。その後ろには、トランスポートストリームに関するディスクリプタ613、・・・、614が複数配置される。前述したコピーコントロール情報などが、ディスクリプタとして記載される。ディスクリプタの後には、トランスポートストリームに含まれる各ストリームに関するストリーム情報615、・・・、616が複数配置される。ストリーム情報615は、ストリームの圧縮コーデックなどを識別するためストリームタイプ617、ストリームのPID(618)、ストリームの属性情報(フレームレート、アスペクト比など)が記載されたストリームディスクリプタ619、・・・、620から構成される。
2.3 放送システム100a
放送システム100aは、図2に示すように、放送映像撮影手段101a、編集手段103a、放送ストリーム生成手段104a、放送ストリームバッファ105a、送信手段106a、アンテナ107a、設定情報バッファ108a、重畳領域設定手段109a及び重畳領域設定データバッファ110aから構成される。
(1)放送映像撮影手段101a及び編集手段103a
放送映像撮影手段101aは、一例として、ビデオカメラレコーダである。放送映像撮影手段101aは、被写体を撮影して映像を記録し、音声を記録する。
編集手段103aは、放送映像撮影手段101aにより、記録された映像及び音声を、編集する手段である。例えば、複数台のビデオカメラレコーダによって撮影された映像の中で、放送するシーンを選択したり、撮影した映像にスコア情報や字幕情報などのグラフィックスを重ねあわせる。図12において、編集の様子を示している。この図に示すように、放送映像撮影手段101aによって撮影して記録したサッカーの映像プレーン641に対して、通常情報として、スコア画像644を重ね合わせている。また、重要情報を表したメッセージ画像643「緊急のおしらせ」を重ね合わせている。
(2)放送ストリーム生成手段104a
放送ストリーム生成手段104aは、編集手段103aによって編集された映像及び音声のコンテンツを、放送波に流すためのフォーマットである放送ストリームに変換する。次に、放送ストリームを放送ストリームバッファ105aに書き込む。
例えば、放送ストリーム生成手段104aは、映像であれば、MPEG−2やMPEG−4 AVCなどのビデオコーデックで符号化してビデオストリームを生成する。音声であれば、AC3やAACなどのオーディオコーデックで符号化してオーディオストリームを生成する。次に、ビデオストリーム及びオーディオストリームを多重化して、1本のMPEG−2 TSなどのシステムストリームを生成する。このように、多重化により生成された放送波で配布するフォーマットのストリームを、以降では、放送ストリームと呼ぶことにする。
放送ストリーム生成手段104aは、編集手段103aによって生成される映像及び音声データを元に放送ストリームを生成する。また、図19に示すように、重畳領域設定データを、放送ストリームに埋め込む。
重畳領域設定データは、前述のとおり、重畳領域設定ビットマップや、そのビットマップの解像度などの補足情報を含んでいる。放送ストリーム生成手段104aは、重畳領域設定データを、放送ストリームに多重化されるビデオストリームや、PMTやSITなどのディスクリプタに格納する。
重畳領域設定データをビデオストリームに格納する場合、各フレームの補足データなどに格納してもよい。また、重畳領域設定データをGOP先頭のアクセスユニットのみに格納し、その重畳領域設定データは、次のGOP先頭まで有効としてもよい。補足情報は、重畳領域設定データが有効な区間を示す開始時刻のPTSや終了時刻PTSなどの時刻情報であるとしてもよい。なお、重畳領域設定データを別ストリームとしてPIDを割り当てて多重化するように構成してもよい。
(3)送信手段106a
送信手段106aは、放送ストリームバッファ105aから、放送ストリームを読み出し、読み出した放送ストリームを、アンテナ107aにより、放送波として、送出する。こうして、放送ストリームは、放送波を通じて、各家庭に配信される。
(4)設定情報バッファ108a
設定情報バッファ108aは、一例として、半導体メモリから構成されている。設定情報バッファ108aは、設定情報を記憶している。
設定情報は、放送波に乗せて放送される映像及び音声において、映像及び音声を構成する各シーンの種類毎に、映像に付加情報をどのように重畳すべきかを示す。具体的には、設定情報は、シーンの種類に対応付けて、重畳フラグを含む。
放送波によって配信する映像及び音声を構成する各シーンは、一例として、次に示す第1の種類、第2の種類及び第3の種類に分類される。
第1の種類は、放送映像撮影手段101aにより取得した映像及び音声のみを含むシーンである。一例として、通常のサッカー中継の映像及び音声のみを含むシーンである。
第2の種類は、放送映像撮影手段101aにより取得した映像及び音声に加え、映像に重要情報を表したメッセージ画像が重畳されたものである。一例として、通常のサッカー中継のシーンに、重要情報としての緊急のお知らせを表したメッセージ画像が重畳されたシーンである。
第3の種類は、広告の映像及び音声のみからなるシーンである。
設定情報は、第1の種類に対応して、重畳フラグ「0」を含む。また、第2の種類に対応して、重畳フラグ「1」を含む。さらに、第3の種類に対応して、重畳フラグ「2」を含む。
重畳フラグ「0」は、対応する第1の種類のシーンに含まれる映像に付加情報を重畳することを許可することを示す。
重畳フラグ「1」は、対応する第2の種類のシーンに含まれる映像のうち、重要情報を表したメッセージ画像が表示される部分に付加情報を重畳することを禁止する。
重畳フラグ「2」は、対応する第2の種類のシーンに含まれる映像に付加情報を重畳することを禁止することを示す。
(5)重畳領域設定データバッファ110a
重畳領域設定データバッファ110aは、一例として、ハードディスクユニットから構成されている。重畳領域設定データバッファ110aは、重畳領域設定データを記憶するための領域を備えている。
重畳領域設定データは、後述するように、各放送映像のフレームに対して、許可領域及び禁止領域を表すビットマップ情報から構成される。
(6)重畳領域設定手段109a
重畳領域設定手段109aは、編集手段103aから、編集後の映像及び音声を受け取る。受け取った映像及び音声を、放送ストリーム生成手段104aに出力する。
また、重畳領域設定手段109aは、設定情報バッファ108aから設定情報を読み出す。次に、読み出した設定情報を用いて、放送波によって配信する映像において、再生装置400aによって、重畳してもよい空間的な領域や時間的な区間を設定する。また、重畳が禁止される空間的な領域や時間的な区間を設定する。こうして、重畳領域設定データを生成する。
具体的には、受け取った映像及び音声を構成する各シーンが、第1の種類、第2の種類及び第3の種類の何れであるかを判断する。次に、当該シーンの種類に対応する重畳フラグを設定情報から抽出する。次に、抽出した重畳フラグに従って、当該シーンについて、重畳領域設定データを生成する。
次に、生成した重畳領域設定データを重畳領域設定データバッファ110aに書き込む。
重畳領域設定データの一例を図15に示す。この図に示すように、重畳領域設定データは、各放送映像のフレームに対して、許可領域及び禁止領域を表すビットマップ情報から構成される。例えば、1920×1080解像度のフルHDの映像の場合には、1920×1080の画素ごとに1ビットが割り当てられたビット列が用意される。許可される画素位置には「1」、禁止される画素位置は「0」として構成される。このビットマップを、「重畳領域設定ビットマップ」と呼ぶことにする。
図15(a)は、再生時間軸上での画面イメージの遷移を示している。各シーン構成における重畳領域設定ビットマップの例を説明する。区間681は、通常のサッカー中継のシーンである。また、区間682は、サッカー中継に緊急のお知らせを表したメッセージ画像が入ったシーンである。さらに、区間683は、CMのシーンを示している。
このようなシーン構成の例の場合、区間681では、重畳領域設定ビットマップ(684)#1内の全てのビットが、許可領域「=1」と設定される。
また、区間682では、重畳領域設定ビットマップ(685)#2においては、放送局によりメッセージ画像675「緊急のお知らせ」が表示される画素に対応するビット領域686が禁止領域「=0」と設定される。また、メッセージ画像675以外のビット領域が許可領域「=1」と設定される。
さらに、区間683では、重畳領域設定ビットマップ(687)#3内の全てのビットが禁止領域「=0」と設定される。
なお、重畳領域設定ビットマップの解像度は、放送波のフレーム解像度よりも小さくてもよい。例えば、放送波がフルHD(1920×1080)の場合には、ハーフHD、クオータHD、さらにその半分としてもよい。
また、図16及び図17に示すように、重畳領域設定ビットマップの解像度は、10×10や2×2のような、極端に小さい解像度でもよい。図16に示す場合には、重畳領域設定ビットマップは、10行、10列、合計100個の領域722、723、・・・から構成される。ここで、領域724、725、・・・は、禁止領域であり、その他の領域は、許可領域である。また、図17に示す場合には、重畳領域設定ビットマップは、2行、2列、合計4個の領域732、733、734、735から構成される。ここで、領域734、735は、禁止領域であり、領域732、733は、許可領域である。
このような場合には、再生装置400aがマスク処理を行う場合に、重畳領域設定ビットマップを、放送波の解像度まで拡大してから処理を行えばよい。このようなケースを考えて、重畳領域設定ビットマップの補足情報として、重畳領域設定ビットマップの解像度を一緒に記録しておく。
なお、重畳領域設定ビットマップは、非圧縮のビット列として格納してもよいし、ランレングスなどの可逆圧縮や、JPGなどのイメージ、ビデオストリームとしてエンコードしてもよい。
なお、重畳領域設定データは、1ビットでフレーム全体を表わしてもよい。1ビットの場合は、フラグという意味となるので、図18に示す構成となる。図18に示すように、区間681において、重畳領域設定データ684aは、「1」(許可)である。また、区間682において、重畳領域設定データ685aは、「0」(禁止)である。さらに、区間683において、重畳領域設定データ685aは、「0」(禁止)である。
なお、重畳領域設定データとして、フレーム全体で禁止されるか、否かを示すフラグを設けてもよい。さらに、このフラグとは別に、詳細に許可領域を示す重畳領域設定ビットマップを用意してもよい。このように構成することにより、再生装置は、最初にフラグを見ればよい。フラグが禁止を示す場合には、再生装置は、それ以降ビットマップを展開する必要がなくなる。この結果、処理が簡単になる。
2.4 通信サービス提供システム300a
通信サービス提供システム300aは、図2に示すように、重畳データ生成手段301a、重畳データバッファ302a及び送信手段303aから構成されている。
重畳データ生成手段301aは、放送局の映像に重畳するための重畳データを生成する手段である。例えば、通信サービス提供システム300aにより、放送映像に対するユーザのコメントを重畳するサービスが提供される場合には、重畳データ生成手段301aは、次のようにする。重畳データ生成手段301aは、ツイッターなどのユーザのつぶやきを共有するSNS上のコメントの中から、言語解析やタグ情報などを利用して、該当放送番組に関連するコメントや放送映像に適したコメントを収集する。次に、そのコメント集及びデザイン情報から構成される重畳データに変換する。ここで、デザイン情報は、放送映像のどこに、どのようにコメントを表示するか、コメントを何色で表示するか、などを示す情報である。デザイン情報は、例えば、図13に示すように、コメント集を囲う矩形の情報(矩形の幅、高さ、矩形が配される座標位置、矩形の色や透過度)、文字の情報(フォント、太さ、色)などの情報である。
次に、重畳データ生成手段301aは、生成した重畳データを重畳データバッファ302aに書き込む。
送信手段303aは、重畳データバッファ302aから重畳データを読み出す。次に、読み出した重畳データをネットワーク20aを介して、各家庭に設置された再生装置400aに対して送信する。
2.5 再生装置400a
再生装置400aは、図2に示すように、チューナ401a、放送ストリームデコード手段402a、放送データバッファ403a、重畳領域設定データバッファ404a、重畳領域マスク手段405a、マスク重畳プレーンバッファ406a、合成手段407a、表示手段408a、NIC(Network Interface Card)409a、重畳手段410a及び重畳プレーンバッファ411aから構成される。チューナ401aには、アンテナ420aが接続されている。
(1)バッファ
放送データバッファ403aは、一例として、半導体メモリから構成されている。放送データバッファ403aは、放送ストリームデコード手段402aによって、デコードされた映像プレーンを格納するための領域を備えている。
重畳プレーンバッファ411aは、一例として、半導体メモリから構成されている。重畳プレーンバッファ411aは、重畳手段410aによって、生成された重畳イメージを格納するための領域を備えている。重畳プレーンは、RGBやYUVなどの色情報に加えて、α値を持っており、透過度を設定することが可能である。
重畳領域設定データバッファ404aは、一例として、半導体メモリから構成されている。重畳領域設定データバッファ404aは、重畳領域設定データを記憶するための領域を備えている。
(2)チューナ401a及び放送ストリームデコード手段402a
チューナ401aは、アンテナ420aを介して、放送波から放送ストリームを選択し、復調する機能を有している。
放送ストリームデコード手段402aは、チューナ401aから放送ストリームを受け取る。次に、放送ストリームをデコードしてPTSのタイミングで、映像プレーンを分離し、映像プレーンを放送データバッファ403aに書き込む。また、重畳領域設定データを分離し、重畳領域設定データを重畳領域設定データバッファ404aに書き込む。
映像プレーンの一例として、映像プレーン642を図12に示す。映像プレーン642は、放送映像プレーンに対して、スコア情報を表したスコア画像644及び重要情報を表したメッセージ画像643「緊急のおしらせ」が重ね合わせられている。
(3)NIC409a
NIC409aは、ネットワーク20aと接続されており、通信サービス提供システム300aから、ネットワーク20aを介して、重畳データを受信する機能を有している。受信した重畳データを重畳手段410aに対して出力する。
重畳データの一例として、重畳データ652を図12に示す。重畳データ652には、コメント集及びデザイン情報が含まれている。
(4)重畳手段410a
重畳手段410aは、通信サービス提供システム300aから、ネットワーク20a及びNIC409aを介して、重畳データを取得する。次に、重畳手段410aは、取得した重畳データを元に、放送映像に重畳するためのイメージである重畳プレーンを生成する。次に、生成した重畳プレーンを重畳プレーンバッファ411aに書き込む。重畳データに、PTSのタイミング情報が含まれていれば、PTSのタイミングで書き込めば、放送映像と同期を取って重畳が可能となる。重畳プレーンには、透過度を設定することが可能であるため、透過させたい場合は、重畳プレーンの各色について、透明であると設定する。
重畳プレーンの一例として、重畳プレーン654を図13に示す。重畳プレーン654においては、コメント画像655が重畳されている。
(5)重畳領域マスク手段405a
重畳領域マスク手段405aは、重畳領域設定データバッファ404aに記憶されている重畳領域設定データの中から、映像プレーンに出力されるビデオのPTSに対応する重畳領域設定ビットマップを取得する。重畳領域設定ビットマップの一例として、重畳領域設定ビットマップ661を図14に示す。重畳領域設定ビットマップ661は、禁止領域662を含む。禁止領域662以外は、許可領域である。次に、重畳領域マスク手段405aは、重畳プレーンバッファ411aに記憶されている重畳プレーンを読み出す。次に、取得した重畳領域設定ビットマップを用いて、読み出した重畳プレーンに対して、マスク処理を行う。このマスク処理において、重畳領域設定ビットマップの禁止領域に対応する重畳プレーン画素のα値を完全透明色に設定する。具体的には、禁止領域に対応する重畳プレーンの画素のα値を、透明を意味する値に変更する。これにより、マスク重畳プレーンを生成する。次に、マスク重畳プレーンをマスク重畳プレーンバッファ406aに書き込む。マスク重畳プレーンの一例として、マスク重畳プレーン663を図14に示す。図14に示すマスク重畳プレーン663においては、重畳プレーンのコメント画像655と、重畳領域設定ビットマップ661の禁止領域662との間で、重複する部分に、透明色が設定されている。これにより、コメント画像655の一部分を欠いたコメント画像664が、マスク重畳プレーン663に表示されている。
(6)合成手段407a及び表示手段408a
合成手段407aは、放送データバッファ403aから映像プレーンを読み出す。次に、読み出した映像プレーンのフレームのPTSに対応するマスク重畳プレーンをマスク重畳プレーンバッファ406aから読み出す。次に、読み出した映像プレーンとマスク重畳プレーンとを合成して合成プレーンを生成する。図14に示す例では、映像プレーン642とマスク重畳プレーン663とを合成して、合成プレーン665を生成する。合成プレーン665においては、撮影により得られた映像プレーンに、スコア情報を表したスコア画像666、コメントを表したコメント画像667及び重要情報を表したメッセージ画像668が重ね合わせられている。スコア画像666、コメント画像667及びメッセージ画像668には、重複する部分はない。このため、メッセージ画像668は、欠けることなく、表示される。次に、合成手段407aは、合成プレーンを表示手段408aに出力する。
表示手段408aは、合成プレーンを表示する。
2.6 放送通信連携システム10aの動作
放送通信連携システム10aを構成する放送システム100a及び再生装置400aの動作について、説明する。
(1)放送システム100aの動作
放送システム100aの動作について、図20に示すフローチャートを用いて、説明する。
放送映像撮影手段101aは、被写体を撮影して映像を記録し、音声を記録する(ステップS110)。編集手段103aは、放送映像撮影手段101aにより、記録された映像及び音声を編集する(ステップS111)。重畳領域設定手段109aは、重畳領域設定データを生成する(ステップS112)。放送ストリーム生成手段104aは、放送ストリームを生成する(ステップS113)。送信手段106aは、放送ストリームを送信する(ステップS114)。
次に、重畳領域設定データの生成の手順について、図21に示すフローチャートを用いて説明する。なお、この手順は、図20に示すステップS112の詳細である。
重畳領域設定手段109aは、設定情報バッファ108aから、設定情報を読み出す(ステップS121)。次に、放送映像データのシーン毎に、次のステップS123〜S128を繰り返す(ステップS122〜S129)。
重畳領域設定手段109aは、放送映像データのシーンの種類を抽出する(ステップS123)。次に、抽出したシーンの種類を判断する(ステップS124)。
第1の種類である場合(ステップS124で「第1」)、許可からなる重畳領域設定データを生成する(ステップS125)。第2の種類である場合(ステップS124で「第2」)、禁止を示す領域を含む重畳領域設定データを生成する(ステップS126)。第3の種類である場合(ステップS124で「第3」)、禁止からなる重畳領域設定データを生成する(ステップS127)。次に、生成した重畳領域設定データを重畳領域設定データバッファ110aに書き込む(ステップS128)。
(2)再生装置400aの動作
再生装置400aの動作について、図22に示すシーケンス図を用いて、説明する。
アンテナ420aは、放送波を繰り返し受信し、チューナ401aは、放送波から放送ストリームを選択し、繰り返し復調する(ステップS131)。
放送ストリームデコード手段402aは、放送ストリームから、該当ストリームを分離し、繰り返し、映像プレーン及び重畳領域設定データを分離する(ステップS132)。
放送ストリームデコード手段402aは、繰り返し、映像プレーンを放送データバッファ403aに書き込む(ステップS133)。
放送ストリームデコード手段402aは、繰り返し、重畳領域設定データを重畳領域設定データバッファ404aに書き込む(ステップS135)。
NIC409aは、通信サービス提供システム300aから、ネットワーク20aを介して、重畳データを受信する(ステップS137)。
重畳手段410aは、取得した重畳データを元に、放送映像に重畳するためのイメージである重畳プレーンを生成する(ステップS138)。
重畳領域マスク手段405aは、重畳領域設定データバッファ404aに記憶されている重畳領域設定データの中から、映像プレーンに出力されるビデオのPTSに対応する重畳領域設定ビットマップを取得する(ステップS136)。
次に、重畳領域マスク手段405aは、重畳プレーンバッファ411aに記憶されている重畳プレーンを読み出す。次に、取得した重畳領域設定ビットマップを用いて、読み出した重畳プレーンに対して、マスク処理を行う(ステップS139)。
次に、合成手段407aは、放送データバッファ403aから、繰り返し、映像プレーンを読み出す(ステップS134)。次に、繰り返し、映像プレーンとマスク重畳プレーンとを合成して合成プレーンを生成する(ステップS140)。
表示手段408aは、繰り返し、合成プレーンを表示する(ステップS141)。
次に、重畳領域マスク手段405aのマスク重畳プレーンの生成の手順について、図23に示すフローチャートを用いて説明する。なお、この手順は、図22に示すステップS139の詳細である。
重畳領域マスク手段405aは、映像プレーン内の画素毎に、以下のステップS152〜S154を繰り返す(ステップS151〜S155)。
映像プレーン内の画素について、重畳領域設定データ内の対応するビットを抽出する(ステップS152)。
抽出したビットが許可を示すか、又は、禁止を示すか、判断する(ステップS153)。
抽出したビットが許可を示す場合(ステップS153で「許可」)、何もしない。
抽出したビットが禁止を示す場合(ステップS153で「禁止」)、マスク重畳プレーンの対応する画素に完全透明を設定する(ステップS154)。
2.7 まとめ
放送波の映像に、付加情報を重畳するサービスを実現する場合に、放送局の意図が反映できなくなることが問題としてあげられる。図24を参照して、具体的に説明を行う。
図24に示すように、映像プレーン701には、サッカーの映像を背景に、スコア画像704とともに、メッセージ画像705「緊急のお知らせ」が挿入されている。このメッセージ画像705は、放送局としては、ユーザに緊急で伝えることが必要なメッセージを表したものであり、放送映像に埋め込まれている。一方で、重畳プレーン702には、ユーザのコメントを表したコメント画像706が含まれている。この場合に、映像プレーン701と重畳プレーン702を、合成した場合には、図24に示すように、合成プレーン703のようになる。
合成プレーン703においては、メッセージ画像709「緊急のお知らせ」の上に、コメント画像708が上書きされ、メッセージ画像709の一部分が消されている。この場合には、放送局側としてユーザに伝えたい重要情報であるメッセージを、正しくユーザに伝えることができなくなる。
このような「緊急のお知らせ」のように、放送局側としてユーザに伝えたいメッセージの例としては、「緊急地震速報」、「ニュース速報」がある。これらは、重要情報である。また、「緊急のお知らせ」だけでなく、放送局側のビジネスとして必要なメッセージとしては、「コマーシャル」、「放送局からのお知らせ(番組のCM、アンケート、中継延長)」があり、これらのメッセージを正しく伝えられない場合には、放送局のビジネスが阻害されてしまう事となってしまう。
これに対して、放送通信連携システム10aによると、図14に示すように、メッセージ画像668は、コメント画像667によって、上書きされない。このため、放送局側で通知したい映像に埋め込まれた緊急放送やCMなどのメッセージを、放送局の意図通りに正確にユーザに伝えることが可能となる。
このように構成することによって、放送局がユーザに伝えたい緊急のお知らせなどのメッセージを、他の画像によって重畳されて妨害されることなく、正確にユーザに伝えることが可能となる。
2.8 変形例
(1)上記において、重畳許可・禁止の領域を表す方法として、ビットマップを用いる構成を説明しているが、これには限定されない。
図25に示すように、禁止領域の矩形情報をベクタイメージとして記載してもよい。
例えば、禁止領域の矩形領域を、禁止領域の座標位置と、禁止領域のサイズで表現してもよい。座標位置は、重畳領域設定ビットマップ内における禁止領域の左上点の位置(x、y)を示す。禁止領域のサイズは、横幅及び高さを含む。横幅は、禁止領域の横幅を示す。高さは、禁止領域の高さを示す。
この場合、例えば、図25に示す区間681では、禁止領域が存在しないため、エントリはない。
区間682では、禁止領域は、重畳領域設定ビットマップ685b内の座標位置(x、y)、横幅(w1)、高さ(y1)により示される。
区間683では、禁止領域は、重畳領域設定ビットマップ687b内の座標位置(0、0)、横幅(w2)、高さ(y2)により示される。
このようにすることで、ビットマップの構造を使うことに比べて、情報量を少なくすることが可能となる。
(2)重畳領域設定ビットマップ内において、禁止領域は、図26に示すように、複数存在してもよい。この図において、重畳領域設定ビットマップ684c内において、禁止領域684c1及び684c2が存在する。
(3)禁止領域は、図27に示すように、多角形(平面ポリゴン)の形状を有するとしてもよい。この図において、重畳領域設定ビットマップ684d内において、禁止領域684d1が存在する。この場合には、左回りか右回りかの順番で、多角形の各頂点の位置座標を登録するようにする。この図の、多角形の頂点A、B、C、D、Eの点の位置座標を登録する。このようにベクタイメージによって、重畳領域設定データを構成する場合には、重畳領域マスク手段405aは、ベクタイメージを用いて禁止領域を特定し、重畳プレーンに対するマスク処理を実行すればよい。
(4)再生装置400aの変形例としての再生装置400a1を図28に示す。
再生装置400a1において、重畳手段410aは、重畳領域設定データバッファ404aを参照している。
重畳手段410aが、例えば、アプリケーションプログラム及びプロセッサから構成されている場合には、アプリケーションプログラムのAPIを経由して重畳領域設定データを参照できるようにしてもよい。また、フレーム毎、GOP毎、N秒毎、変化毎などに、コールバックイベントで情報を受け取ることができるようにしてもよい。
このようにすることで、重畳手段410aは、重畳領域設定データを使って、重畳する領域をその都度変更することが可能となる。
例えば、図29のように、重畳手段410aは、重畳領域設定ビットマップ661を参照することで、禁止領域662の位置を特定する。次に、この禁止領域662に重ならないように、重畳プレーン654aにおいて、重畳するコメント画像の位置をずらす処理を行う。この図において、ずらされた後のコメント画像655aを示している。このように構成することで、ユーザは、放送局による重要情報を表したメッセージ画像も、コメント画像も、両方とも同時に重なることなく見ることが可能となる。
(5)図30に示すように、重畳領域設定ビットマップの構成として、許可、禁止の2つの属性だけでなく、「注意」、「推奨」等の他の属性を有する領域を設定できるようにしてもよい。
例えば、「注意」は、文字スーパーなどのメッセージ画像(試合のスコアなど)が存在することを示し、できるだけ重畳しないように、注意を促すことを意味するようにする。また、「推奨」は、放送局側で、極力、文字スーパーを出さない領域を示し、この領域に重畳することを推奨することを意味するようにする。
例えば、禁止領域のビットの値を「0」、許可領域のビットの値を「1」とする場合、注意領域のビット値を「2」、推奨領域のビット値を「3」とする。
図30に示す例では、重畳領域設定ビットマップ(684e)#1において、サッカーのスコア画像672に対応する領域684e1について、「注意=2」と設定されている。また、他の領域684e2について、「推奨=3」と設定されている。
また、重畳領域設定ビットマップ(685e)#2において、サッカーのスコア画像674に対応する領域685e1について、「注意=2」と設定されている。また、他の領域685e2について、「推奨=3」と設定されている。
さらに、重畳領域設定ビットマップ(687e)#3においては、全面について、禁止が設定されている。
重畳手段410aは、図31に示すように、禁止及び注意の領域を避けて、推奨の領域に、コメントなど付加情報を重畳することができる。
このような構成により、重畳手段410aは、重畳領域設定ビットマップの注意、推奨、禁止、許可の領域を参照し、コメントなどの付加情報をどこに重畳するべきかを、より細やかに制御できる。
なお、このような注意、推奨、禁止、許可といった複数タイプの領域属性の設定は、図25に示すベクタイメージや、図18に示すフレームに対するフラグやタイプのような情報においても、設定可能であることは言うまでもない。
(6)図32に示すように、重畳領域設定ビットマップの構成として、許可、禁止の属性情報ではなく、重畳領域設定ビットマップの画素毎に、重畳プレーンの透過度を設定してもよい。
例えば、図32の例では、重畳領域設定ビットマップ(685f)#2では、スコアが表わされているスコア画像674に対応する領域685f1には、透過度「90%」が設定されている。また、重畳を推奨する領域685f2では透過度「0%」が設定されている。緊急のお知らせの領域685f3では透過度「100%」が設定されている。また、それ以外重畳を推奨する領域では、透過度「50%」が設定されている。ここで、透過度100%は、完全透過であり、透過度0%は、完全不透過とする。
重畳領域マスク手段405aは、重畳領域設定ビットマップ上に設定された透過度を用いて、重畳プレーンに対してマスク処理を行う。
例えば、重畳領域設定ビットマップで90%と設定されている領域に対して、重畳プレーン上の元の透過度の値を0%と設定する。つまり、完全不透過の場合には、透過度を90%の透過度に変更する。このような構成にすることで、放送局の意図をより細やかに反映することが可能である。
(7)重畳領域設定データに、画面の何%まで合成するというような画面上の合成領域の最大サイズをパーセントで指定してもよい。例えば、重畳領域設定データで、50%まで、と規定されている場合に、重畳される領域が画面全体の60%であれば、50%まで領域を削減して表示を行う。このようにすることで、放送局の意図をより細やかに反映することが可能である。
(8)重畳領域設定ビットマップにおいて、禁止及び許可の属性情報だけでなく、その領域における代表色の情報が格納されていてもよい。このような情報があれば、重畳手段410aは、重畳領域設定ビットマップを参照することで、重畳する文字色の設定などを適切なものに設定できる。また、重畳手段410aは、文字を表示する場合には、2色の文字で構成するようにすれば、どのような背景にもユーザに分かりやすく表示できる。
(9)重畳手段410aは、図33に示すように、重畳領域設定ビットマップ以外にも、映像プレーンの情報を参照できるような構成にしてもよい。
このように構成することで、重畳手段410aは、背景色が何色で構成されているかを知ることできるので、適切な色で重畳データを構成することが可能となる。
また、重畳手段410aは、映像プレーンにおいて、人物を認識することにより、背景を特定し、人の顔に重畳しないように、背景に重畳データを描くとしてもよい。
(10)放送ストリームのシステムパケット(SITやEITなど)において、緊急放送の区間を通知するフラグ情報が符号化されて配置されているとしてもよい。この場合、重畳領域マスク手段405aは、放送ストリームデコード手段402aからこのフラグ情報を通知されたときに、フレームの全ての領域を禁止領域に設定して、マスク処理を行い重畳プレーンに出力してもよい。
(11)図34に示すように、変形例としての再生装置400a3は、さらに、セキュリティ設定手段412aを含むとしてもよい。
重畳領域設定データは、鍵を用いて、暗号化されているとしてもよい。また、セキュリティ設定手段412aは、重畳手段410aの鍵を設定することで、暗号化された重畳領域設定データを復号できるとしてもよい。
このようにすることで、重畳領域設定データは、重畳を行うときのみに有効となり、それ以外の用途で利用することを禁止できる。
なお、重畳領域設定データには、複数の種類が用意されており、セキュリティ設定手段412aは、重畳手段410aの鍵又はIDに応じて、適用する重畳領域設定データを変更してもよい。
なお、鍵は、再生装置に用意されており、認証されている再生装置でしか重畳領域設定データを復号できないように構成してもよい。
(12)放送通信連携システム10aでは、グラフィックスを重畳させる例について説明している。しかし、これには限定されない。放送波映像に対して、追加映像をPicture−In−Pictureとして表示するような構成においても、適用可能である。重畳手段410aを通信で提供される追加ストリームのデコード手段とすれば、同様に対応が可能である。
重畳手段410aは、通信サービス提供システム300aから、ネットワーク20aを介して、追加映像を取得する。
3.実施の形態3
本発明の実施の形態3としての放送通信連携システム10bについて、図面を参照しながら説明する。
上記の実施の形態2の放送通信連携システム10aにおいては、放送波に乗せて放送された映像に対して、付加情報を重畳するサービスを提供する。これに対し、放送通信連携システム10bにおいては、放送波に乗せて放送された音声を付加音声に置換するサービス、又は、放送波に乗せて放送された音声に付加音声を合成するサービスを提供する。
なお、放送波に乗せて放送された音声を主音声と呼ぶこともある。
放送通信連携システム10bは、図35に示すように、放送システム100b、通信サービス提供システム300b及び再生装置400bから構成される。
3.1 放送システム100b
放送システム100bは、図35に示すように、放送映像撮影手段101b、編集手段103b、放送ストリーム生成手段104b、放送ストリームバッファ105b、送信手段106b、アンテナ107b、設定情報バッファ108b、音声合成設定データ生成手段109b及び音声合成設定データバッファ110bから構成される。
放送システム100bは、放送通信連携システム10aの放送システム100bと類似した構成を有している。放送映像撮影手段101b、編集手段103b、放送ストリームバッファ105b、送信手段106b及びアンテナ107bは、それぞれ、放送システム100aの放送映像撮影手段101a、編集手段103a、放送ストリームバッファ105a、送信手段106a及びアンテナ107aと同様の構成を有しているので、説明を省略する。
ここでは、放送システム100aとの相違点を中心に説明する。
(1)設定情報バッファ108b
設定情報バッファ108bは、一例として、ハードディスクユニットから構成されている。設定情報バッファ108bは、設定情報を記憶している。
設定情報は、放送波に乗せて放送される映像及び音声において、映像及び音声を構成する各シーンの種類毎に、付加音声をどのように重畳すべきかを示す。具体的には、設定情報は、シーンの種類に対応付けて、重畳フラグを含む。
放送波によって配信する映像及び音声を構成する各シーンは、一例として、次に示す第1の種類、第2の種類及び第3の種類に分類される。
第1の種類は、放送映像撮影手段101bにより取得した映像及び音声のみを含むシーンである。一例として、通常のサッカー中継の映像及び音声のみを含むシーンである。
第2の種類は、放送映像撮影手段101bにより取得した映像及び音声に加え、映像に重要情報を表したメッセージ画像が重畳されたものである。一例として、通常のサッカー中継のシーンに、緊急のお知らせを表したメッセージ画像が重畳されたシーンである。
第3の種類は、広告の映像及び音声のみからなるシーンである。
設定情報は、第1の種類に対応して、重畳フラグ「0」を含む。また、第2の種類に対応して、重畳フラグ「1」を含む。さらに、第3の種類に対応して、重畳フラグ「2」を含む。
重畳フラグ「0」は、対応する第1の種類のシーンに含まれる音声の付加音声への置換、又は、当該シーンに含まれる音声及び付加音声の合成を許可することを示す。ここで、当該シーンに含まれる音声及び付加音声を合成する場合に、付加音声のミキシング係数を100%までとすることを許可する。言い換えると、付加音声の割合を100%までとすることを許可する。
重畳フラグ「1」は、対応する第2の種類のシーンについて、付加音声への置換を禁止する。又は、当該シーンに含まれる音声及び付加音声を合成する場合、付加音声の合成のミキシング係数を50%までとすることを許可する。言い換えると、付加音声の割合を50%までとすることを許可する。
重畳フラグ「2」は、対応する第2の種類のシーンについて、付加音声への置換、又は、付加音声の合成を禁止することを示す。
(2)音声合成設定データバッファ110b
音声合成設定データバッファ110b、一例として、ハードディスクユニットから構成されている。音声合成設定データバッファ110bは、音声合成設定データを記憶するための領域を備えている。
音声合成設定データは、後述するように、映像及び音声を構成する各シーンについて、置換フラグ及び合成設定情報を含む。
置換フラグは、各シーンに含まれる音声について、付加音声への置換の禁止、又は、付加音声への置換の許可を示す。
合成設定情報は、各シーンに含まれる音声及び付加音声を合成する場合に、付加音声の合成のミキシング係数を示す。言い換えると、付加音声の割合を示す。例えば、ミキシング係数が100%までである場合には、当該シーンに含まれる音声及び付加音声を合成する場合に、付加音声のミキシング係数を100%までとすることを許可する。また、ミキシング係数が50%までである場合には、当該シーンに含まれる音声及び付加音声を合成する場合に、付加音声のミキシング係数を50%までとすることを許可する。さらに、ミキシング係数が0%である場合には、当該シーンに含まれる音声及び付加音声を合成することを禁止する。
(3)音声合成設定データ生成手段109b
音声合成設定データ生成手段109bは、次に示すようにして、編集手段103bによって生成される音声データに対して、音声合成設定データを生成する。
音声合成設定データ生成手段109bは、設定情報バッファ108bから設定情報を読み出す。次に、受け取った映像及び音声を構成する各シーンが、第1の種類、第2の種類及び第3の種類の何れであるかを判断する。次に、当該シーンの種類に対応する重畳フラグを設定情報から抽出する。次に、抽出した重畳フラグに従って、当該シーンについて、音声合成設定データを生成する。
具体的には、重畳フラグが「0」である場合、音声合成設定データ生成手段109bは、当該シーンについて、置換フラグ及び合成設定情報から構成される音声合成設定データを生成する。ここで、置換フラグは、付加音声による置換の許可を示す。また、合成設定情報は、ミキシング係数を100%までとすることを許可することを示す。
重畳フラグが「1」である場合には、音声合成設定データ生成手段109bは、当該シーンについて、置換フラグ及び合成設定情報から構成される音声合成設定データを生成する。ここで、置換フラグは、付加音声による置換の禁止を示す。また、合成設定情報は、ミキシング係数を50%までとすることを許可することを示す。
重畳フラグが「2」である場合には、音声合成設定データ生成手段109bは、当該シーンについて、置換フラグ及び合成設定情報から構成される音声合成設定データを生成する。ここで、置換フラグは、付加音声による置換の禁止を示す。また、合成設定情報は、合成の禁止を示す。
次に、生成した重畳領域設定データを重畳領域設定データバッファ110aに書き込む。
図36に、音声合成方法の設定内容の一例を示す。図36(a)は、再生時間軸上でのシーンの遷移を示している。図36(a)に示す各シーンにおける音声合成設定データの例について説明する。
区間681のシーン671は、通常のサッカー中継のシーンである。また、区間682のシーン673は、サッカー中継に緊急のお知らせを表したメッセージ画像が入ったシーンである。さらに、区間683のシーン676は、CMのシーンである。
音声合成設定データは、上述したように、音声の置換を許可するか、又は、禁止するかを示す置換フラグを含む。例えば、区間681については、置換フラグは、許可684gに設定されている。一方、区間682及び683では、置換フラグは、それぞれ、禁止685g、687gに設定されている。
また、音声合成設定データには、上述したように、音声の合成を許可するか、禁止するか、許可する場合のミキシング係数の上限を示す「合成設定情報」が含まれている。
図36に示す場合には、区間681のシーン671においては、音声合成が許可され、付加音声の割合を100%まで上げることが可能であることを示している。また、区間682のシーン673においては、音声合成が許可されるが、付加音声の割合を50%まで上げることが可能であると制限されていることを示す。さらに、区間683のシーン676においては、音声合成が禁止されていることを示す。
(4)放送ストリーム生成手段104b
放送ストリーム生成手段104bは、編集手段103bによって編集された映像及び音声のコンテンツを、放送波に流すためのフォーマットである放送ストリームに変換する。次に、放送ストリームを放送ストリームバッファ105bに書き込む。
このとき、放送ストリーム生成手段104bは、編集手段103bによって生成される映像や音声のコンテンツを元に放送ストリームを生成する。また、音声合成設定データバッファ110bから音声合成設定データを読み出し、読み出した音声合成設定データを、放送ストリームに埋め込む。
音声合成設定データは、放送ストリームに多重化されるビデオストリームや、オーディオストリーム、PMTやSITなどのディスクリプタに格納される。ビデオストリームに格納される場合は、各フレームの補足データなどに格納されるとしてもよい。
また、音声合成設定データは、GOPの先頭のアクセスユニットのみに格納され、その音声合成設定データは、次のGOPの先頭まで有効としてもよい。
音声合成設定データがオーディオストリームに格納される場合は、音声合成設定データは、ユーザデータ領域に格納される。
音声合成設定データがディスクリプタに格納される場合には、該当音声合成設定データが有効な区間の開始時刻のPTSや終了時刻のPTSなどの時刻情報とともに記録されてもよい。
なお、音声合成設定データを別ストリームとしてPIDを割り当てて多重化するように構成してもよい。
3.2 通信サービス提供システム300b
通信サービス提供システム300bは、図35に示すように、音声データ生成手段301b、音声データバッファ302b及び送信手段303bから構成されている。
音声データ生成手段301bは、音声データを、例えば、AC3やAACやMP3などの音声フォーマットに変換して、音声データを生成する。次に、生成した音声データを音声データバッファ302bに書き込む。
送信手段303bは、音声データバッファ302bから音声データを読み出す。次に、読み出した音声データを、ネットワーク20bを介して、各家庭に設置された再生装置400bに対して送信する。
3.3 再生装置400b
再生装置400bは、図35に示すように、チューナ401b、放送ストリームデコード手段402b、放送データバッファ403b、音声合成設定データバッファ404b、第一設定手段405b、第二設定手段406b、合成手段407b、表示手段408b、NIC409b、IP音声デコード手段410b、IP非圧縮音声バッファ411b及びスピーカ412bから構成される。チューナ401bには、アンテナ420bが接続されている。
再生装置400bは、再生装置400aと類似した構成を有している。アンテナ420b、チューナ401b、放送ストリームデコード手段402b、放送データバッファ403b、表示手段408b、NIC409bは、それぞれ、再生装置400aのアンテナ420a、チューナ401a、放送ストリームデコード手段402a、放送データバッファ403a、表示手段408a及びNIC409aと、同様の構成を有しているので、これらについての説明を省略する。
ここでは、再生装置400aとの相違点を中心に説明する。
(1)バッファ
放送データバッファ403bは、一例として、半導体メモリから構成されている。放送データバッファ403bは、放送ストリームデコード手段402bによってデコードされた映像プレーンを記憶するための領域を備えている。また、放送ストリームデコード手段402bによってデコードされた放送非圧縮音声を記憶するための領域を備えている。
音声合成設定データバッファ404bは、一例として、半導体メモリから構成されている。音声合成設定データバッファ404bは、音声合成設定データを記憶するための領域を備えている。
IP非圧縮音声バッファ411bは、一例として、半導体メモリから構成されている。IP非圧縮音声バッファ411bは、IP非圧縮音声を記憶するための領域を備えている。
(2)放送ストリームデコード手段402b
放送ストリームデコード手段402bは、チューナ401bから放送ストリームを受け取る。次に、放送ストリームをデコードしてPTSのタイミングで、映像プレーンを分離し、映像プレーンを放送データバッファ403bに書き込む。また、放送非圧縮音声を分離し、放送非圧縮音声を放送データバッファ403bに書き込む。さらに、音声合成設定データを分離し、音声合成設定データを音声合成設定データバッファ404bに書き込む。
(3)IP音声デコード手段410b
IP音声デコード手段410bは、通信サービス提供システム300bから、ネットワーク20b及びNIC409bを介して、音声データ及びIP合成指示情報を受信する。次に、受信した音声データをデコードして、IP非圧縮音声を生成し、生成したIP非圧縮音声をIP非圧縮音声バッファ411bに書き込む。
ここで、IP合成指示情報は、IP非圧縮音声と放送非圧縮音声との合成方法を示す。言い換えると、IP非圧縮音声と放送非圧縮音声とをどのようにして合成するかを示す。合成方法は、例えば、放送波から受信した放送非圧縮音声をそのまま使う、ネットワークを介して受信したIP非圧縮音声をそのまま使う、放送非圧縮音声とIP非圧縮音声を50%ずつ、ミキシングして再生する、などである。
IP合成指示情報は、置換フラグ及び合成設定情報を含む。置換フラグ及び合成設定情報は、それぞれ、音声合成設定データに含まれる置換フラグ及び合成設定情報と同一である。
また、IP音声デコード手段410bは、音声のIP合成指示情報を、第一設定手段405bに対して出力する。例えば、アプリケーションのAPIなどを用いて、IP合成指示情報を出力する。
なお、IP合成指示情報は、通信サービス提供システム300bから受信する音声データの中に埋め込まれていてもよい。この場合、IP音声デコード手段410bは、音声データからIP合成指示情報を抽出する。
(5)第一設定手段405b
第一設定手段405bは、IP音声デコード手段410bから、IP合成指示情報を受け取る。IP合成指示情報を受け取ると、受け取ったIP合成指示情報を第二設定手段406bに出力する。
(6)第二設定手段406b
第二設定手段406bは、第一設定手段405bからIP合成指示情報を受け取る。
また、第二設定手段406bは、音声合成設定データバッファ404bから、音声合成設定データを読み出す。次に、読み出した音声合成設定データから放送非圧縮音声のPTSに対応する音声合成の指示を抽出する。
次に、第二設定手段406bは、第一設定手段405bから受け取ったIP合成指示情報よりも、音声合成設定データから抽出した音声合成の指示を優先して、音声合成の指示を決定する。
次に、第二設定手段406bは、音声合成設定データ又はIP合成指示情報を合成手段407bに対して、出力する。
具体的には、図36に示すように、区間681のシーン671について、音声合成又は音声置換が許可されているため、第二設定手段406bは、第一設定手段405bから受け取ったIP合成指示情報をそのまま合成手段407bに出力する。
また、区間682のシーン673については、音声置換が禁止されており、音声合成が50%まで許可されている。このため、第一設定手段405bから受け取ったIP合成指示情報により示される合成方法が「置換」の場合には、置換を禁止して放送非圧縮音声をそのまま使うように、合成手段407bに対して音声合成設定データを出力する。又は、IP非圧縮音声の割合が50%以下となるように、放送非圧縮音声とIP非圧縮音声とを合成するように、合成手段407bに対して音声合成設定データを出力する。
さらに、区間683のシーン676については、音声置換及び音声合成の両方とも、禁止となっている。このため、第一設定手段405bから受け取ったIP合成指示情報により示される合成方法が「置換」の場合には、置換を禁止して放送非圧縮音声をそのまま使うように、合成手段407bに対して音声合成設定データを出力する。
(7)合成手段407b
合成手段407bは、第二設定手段406bから、音声合成設定データ又はIP合成指示情報を受け取る。次に、受け取った音声合成設定データ又はIP合成指示情報の指示に従って、音声の合成方法を内部に設定する。
また、合成手段407bは、放送データバッファ403bから放送非圧縮音声を読み出す。また、IP非圧縮音声バッファ411bからIP非圧縮音声を読み出す。
次に、設定された音声の合成方法に従って、放送非圧縮音声とIP非圧縮音声とをミキシングし、合成音声を生成し、生成した合成音声をスピーカ412bに対して出力する。
(8)スピーカ412b
スピーカ412bは、合成手段407bから合成音声を受け取る。受け取った合成音声を音響として出力する。
3.4 放送通信連携システム10bの動作
放送通信連携システム10bを構成する放送システム100b及び再生装置400bの動作について、説明する。
(1)放送システム100bの動作
放送システム100bの動作は、図20に示す放送システム100aの動作と類似している。相違点は、以下の通りである。
放送システム100aでは、図20に示すフローチャートのステップS112において、重畳領域設定手段109aが重畳領域設定データを生成する。
これに対して、放送システム100bでは、図20に示すフローチャートのステップS112において、音声合成設定データ生成手段109bが音声合成設定データを生成する。
次に、音声合成設定データの生成の手順について、図37に示すフローチャートを用いて説明する。
音声合成設定データ生成手段109bは、設定情報バッファ108bから、設定情報を読み出す(ステップS121a)。次に、放送映像データのシーン毎に、次のステップS123a〜S128aを繰り返す(ステップS122a〜S129a)。
音声合成設定データ生成手段109bは、放送映像データのシーンの種類を抽出する(ステップS123a)。次に、抽出したシーンの種類を判断する(ステップS124a)。
第1の種類である場合(ステップS124aで「第1」)、許可を示す置換フラグと、許可を示す合成設定情報からなる音声合成設定データを生成する(ステップS125a)。第2の種類である場合(ステップS124aで「第2」)、禁止を示す置換フラグと、許可を示す合成設定情報からなる音声合成設定データを生成する。このとき、合成設定情報は、合成の割合が50%以下であることを示す情報を含む(ステップS126a)。第3の種類である場合(ステップS124aで「第3」)、禁止を示す置換フラグと、禁止を示す合成設定情報からなる音声合成設定データを生成する(ステップS127a)。次に、生成した音声合成設定データを音声合成設定データバッファ110bに書き込む(ステップS124a)。
(2)再生装置400bの動作
再生装置400bの動作について、図38に示すシーケンス図を用いて、説明する。
アンテナ420bは、放送波を繰り返し受信し、チューナ401bは、放送波から放送ストリームを選択し、繰り返し復調する(ステップS131a)。
放送ストリームデコード手段402bは、放送ストリームから、該当ストリームを分離し、繰り返し、映像プレーン、放送非圧縮音声及び音声合成設定データを分離する(ステップS132a)。
放送ストリームデコード手段402aは、繰り返し、映像プレーン及び放送非圧縮音声を放送データバッファ403bに書き込む(ステップS133a)。
放送ストリームデコード手段402aは、繰り返し、音声合成設定データを音声合成設定データバッファ404bに書き込む(ステップS135a)。
NIC409aは、通信サービス提供システム300aから、ネットワーク20aを介して、音声データ及びIP合成指示情報を受信する(ステップS137a)。
IP音声デコード手段410bは、音声データからIP非圧縮音声を生成する(ステップS138a)。
第二設定手段406bは、音声合成設定データバッファ404bに記憶されている音声合成設定データを読み出す(ステップS136a)。
次に、第一設定手段405bは、IP合成指示情報を第二設定手段406bに出力し、第二設定手段406bは、合成手段407bに音声の合成方法を設定する(ステップS139a)。
次に、合成手段407aは、放送データバッファ403aから、繰り返し、映像プレーン及び放送非圧縮音声を読み出す(ステップS134a)。次に、繰り返し、放送非圧縮音声とIP非圧縮音声とを合成して合成音声を生成する(ステップS140a)。
表示手段408aは、繰り返し、映像プレーンを表示し、スピーカ412bは、繰り返し、合成音声を出力する(ステップS141a)。
(3)再生装置400bによる音声の合成の動作
再生装置400bによる音声の合成の動作について、図39に示すフローチャートを用いて、説明する。なお、この手順は、図38に示すステップS140aの詳細である。
合成手段407bは、区間のシーン毎に、以下のステップS201〜S206を繰り返す(ステップS200〜S207)。
合成手段407bは、音声合成設定データに含まれる置換フラグを読み出す(ステップS201)。
読み出した置換フラグが許可を示すか、又は、禁止を示すか、判断する(ステップS202)。
読み出した置換フラグが許可を示す場合(ステップS202で「許可」)、合成手段407bは、IP非圧縮音声を出力する(ステップS203)。
読み出した置換フラグが禁止を示す場合(ステップS202で「禁止」)、合成手段407bは、合成設定情報が許可を示すか、又は、禁止を示すか、判断する(ステップS204)。
合成設定情報が許可を示す場合(ステップS204で「許可」)、合成設定情報に含まれる割合に従って、IP非圧縮音声と放送非圧縮音声とを合成して出力する(ステップS205)。
合成設定情報が禁止を示す場合(ステップS204で「禁止」)、放送非圧縮音声を出力する(ステップS206)。
3.5 まとめ
上述したように、通信サービス事業者から、ネットワークを介して、IP音声が提供される。この場合、再生装置は、放送により受信した放送音声とネットワークを介して受信したIP音声とを切り替えて出力することができる。また、放送音声とIP音声とを合成して出力することができる。例えば、通信サービス事業者が、放送されるサッカー中継について、独自の解説音声を、ネットワークを介して、IP音声として配信する。この場合、再生装置は、通常のサッカー中継時には、解説音声を出力し、ヒーローインタビューの時には、放送音声を出力するというようなことができる。
しかし、放送局として、緊急放送の音声やCM音声に対して、IP音声が合成されるという問題がある。
放送通信連携システム10bは、このような問題を解決している。
放送通信連携システム10bにおいては、放送局として、合成又は置換してほしくない緊急放送の音声やCM音声に対して、IP音声の合成処理を制御することが可能となる。
4.実施の形態4
本発明の実施の形態4としての、放送通信連携システム10cについて、図面を参照しながら説明する。
背景技術で説明したように、様々なサービスが提案されている状況において、さらに、放送と通信とを連携する新たなサービスの提供が要望されている。
放送通信連携システム10cは、上記の要望に応えるため、放送と通信とを連携する新たなサービスを提供することを目的とする。
放送通信連携システム10cによると、以下に説明するように、放送と通信とを連携する新たなサービスを提供することができる。
(1)放送通信連携システム10c
放送通信連携システム10cは、図40に示すように、放送装置100c、重畳データ生成装置300c、重畳データ提供装置500c及び受信装置400cから構成される。
放送装置100cは、カメラを用いた撮像により得られた映像フレーム画像を含む放送データを放送波として送信する送信手段を備える。
重畳データ生成装置300cは、映像フレーム画像に重畳される重畳フレーム画像の元になる重畳データを生成する。重畳データ生成装置300cは、映像フレーム画像を取得する画像取得部301cと、前記映像フレーム画像に含まれる主オブジェクトを特定する特定部302cと、前記主オブジェクトの前記映像フレーム画像内における位置を算出する算出部303cと、特定された前記主オブジェクトに係るオブジェクト情報を取得する情報取得部304cと、算出された前記位置に基づいて、前記オブジェクト情報を表した補助画像を配置すべき配置位置を決定し、前記オブジェクト情報と、前記配置位置を示す配置位置情報とからなる重畳データを生成する生成部306cとを備える。
重畳データ提供装置500cは、重畳データ生成装置300cから、前記重畳データを取得し、取得した前記重畳データをネットワークを介して送信する送信手段を備える。
受信装置400cは、映像フレーム画像と重畳フレーム画像とを合成する。受信装置400cは、前記映像フレーム画像を含む前記放送データを受信する受信部401cと、前記放送データから、前記映像フレーム画像を分離する分離部402cと、前記映像フレーム画像に含まれるオブジェクトに係るオブジェクト情報と、前記オブジェクトの前記フレーム画像内における位置の近傍の位置を示す位置情報とからなる重畳データを取得する取得部403cと、前記オブジェクト情報を表す補助画像を生成し、前記映像フレーム画像に対応するフレーム画像において、前記位置情報により示される位置に前記補助画像を配置して、前記重畳フレーム画像を生成する生成部404cと、前記影像フレーム画像と前記重畳フレーム画像とを合成して合成フレーム画像を生成する合成部405cとを備える。
この態様によると、映像フレーム画像を再生する際に、主オブジェクトとともに、主オブジェクトに係るオブジェクト情報を表した補助画像を再生できるように、前記補助画像を配置すべき配置位置を含む重畳データを生成することができる。また、主オブジェクトとともに、主オブジェクトに係るオブジェクト情報を表した補助画像を合成することにより、映像フレーム画像を再生する際に、主オブジェクトに係るオブジェクト情報を視聴者に提供することができる。
(2)ここで、生成部306cは、前記映像フレーム画像内の前記主オブジェクトに、前記補助画像が重複しないように、前記配置位置を決定してもよい。
この態様によると、映像フレーム画像を再生する際に、前記補助画像が主オブジェクトに重複しないように配置位置を決定するので、主オブジェクトが視認できなくなるような状況を防ぐように、重畳データを生成することができる。
(3)ここで、生成部306cは、さらに、前記映像フレーム画像から特定された複数の主オブジェクトを、複数のグループに分類し、生成部306cは、グループ毎に、前記配置位置の決定方法を切り換えてもよい。
この態様によると、グループ毎に、配置位置の決定方法を切り換えることにより、映像フレーム画像を再生する際に、グループを区別できるように、重畳データを生成することができる。
(4)ここで、前記映像フレーム画像から特定された複数の主オブジェクトが、2個のグループに分類された場合、生成部306cは、第1のグループに属する主オブジェクトについて、各主オブジェクトから見て、第1の方向に、前記配置位置を決定し、第2のグループに属する主オブジェクトについて、各主オブジェクトから見て、前記第1の方向とは反対の第2の方向に、前記配置位置を決定してもよい。
この態様によると、2個のグループについて、映像フレーム画像を再生する際に、グループを区別できるように、重畳データを生成することができる。
(5)ここで、情報取得部304cは、取得したオブジェクト情報から被写体に係る属性情報を抽出し、生成部306cは、抽出した属性情報に応じて、前記補助画像に付すべき背景色を決定し、決定された背景色を前記重畳データに含めてもよい。
この態様によると、映像フレーム画像を再生する際に、決定された背景色により補助画像を区別できるように、前記背景色を含む重畳データを生成することができる。
(6)ここで、特定部302cは、さらに、前記映像フレーム画像から1個の中核被写体を表す中核オブジェクトを抽出し、算出部303cは、さらに、前記中核オブジェクトの前記映像フレーム画像内における位置を算出し、生成部306cは、算出された中核オブジェクトの位置に重複しないように、前記補助画像の前記配置位置を決定してもよい。
この態様によると、映像フレーム画像を再生する際に、中核オブジェクトと補助画像が重複しないように、重畳データを生成することができる。
(7)ここで、生成部306cは、主オブジェクトから中核オブジェクトへの方向とは、反対の方向に、前記補助画像を配置するように、前記配置位置を決定してもよい。
この態様によると、映像フレーム画像を再生する際に、中核オブジェクトと補助画像が重複しないように、重畳データを生成することができる。
(8)ここで、生成部306cは、さらに、複数の主オブジェクトの中から、注目オブジェクトを抽出し、生成部306cは、前記注目オブジェクトについて、前記補助画像の強調を示す強調情報を生成し、生成した強調情報を前記重畳データに含めてもよい。
この態様によると、映像フレーム画像を再生する際に、注目オブジェクトを強調できるように、重畳データを生成することができる。
(9)ここで、生成部306cは、前記注目オブジェクトについて、前記補助画像を、他の補助画像より、大きく又は明るく描画することを指示する指示情報を生成し、生成した指示情報を前記重畳データに含めてもよい。
この態様によると、映像フレーム画像を再生する際に、注目オブジェクトを強調できるように、重畳データを生成することができる。
(10)ここで、特定部302cは、さらに、前記映像フレーム画像から1個の中核被写体を表す中核オブジェクトを特定し、抽出した中核オブジェクトに最も近い位置に存在する主オブジェクトを、前記注目オブジェクトとして特定してもよい。
この態様によると、映像フレーム画像を再生する際に、中核オブジェクトに最も近い位置に存在する注目オブジェクトを強調できるように、重畳データを生成することができる。
(11)ここで、前記重畳データ生成装置は、さらに、前記映像フレーム画像動についての解説を示す解説データ又は字幕を示す字幕データを取得するデータ取得部と、前記解説データ又は前記字幕データから、主被写体を示す識別情報を抽出する識別情報抽出部とを含み、特定部302cは、抽出した識別情報に係る主被写体の主オブジェクトを、前記注目オブジェクトとして、特定してもよい。
この態様によると、映像フレーム画像を再生する際に、解説データ又は字幕データに表れた注目オブジェクトを強調できるように、重畳データを生成することができる。
5.実施の形態5
本発明の実施の形態5としての、放送通信連携システム10dについて、図面を参照しながら説明する。
背景技術で説明したように、様々なサービスが提案されている状況において、さらに、放送と通信とを連携する新たなサービスの提供が要望されている。
放送通信連携システム10dは、上記の要望に応えるため、放送と通信とを連携する新たなサービスを提供することを目的とする。
放送通信連携システム10dによると、以下に説明するように、放送と通信とを連携する新たなサービスを提供することができる。
放送通信連携システム10dは、放送波の映像に対する付加情報の重畳サービスを提供する。例えば、サッカーなどのスポーツ中継において、映像中で動く選手の画像に追従しながら、選手の画像に付加情報を重畳する。なお、選手の画像を、単に、選手画像と呼ぶこともある。また、選手の画像を主オブジェクトと呼ぶこともある。
放送通信連携システム10dは、図41に示すように、放送システム100d及び再生装置400dから構成される。
放送通信連携システム10dにおいて提供されるサービスについて、図42を用いて説明する。この図において、サッカー中継の放送映像における映像プレーン901及び911を示している。映像プレーン911は、映像プレーン901から1秒程度、後の映像プレーンである。
映像プレーン901には、ボールを表したボール画像905及び選手を表した選手画像902、903、904、・・・が含まれている。選手画像902の近傍には、ラベル画像902aが配置されている。ラベル画像902aには、選手画像902により表される選手の名前が表示されている。選手画像903、904、・・・についても、選手画像902と同様に、その近傍に、ラベル画像903a、904a、・・・が配置されている。ラベル画像903a、904a、・・・には、それぞれの選手の名前が表示されている。
ここで、ラベル画像を補助画像と呼ぶことがある。また、ボール画像を中核オブジェクトと呼ぶこともある。
映像プレーン911には、映像プレーン901と同様に、ボールを表したボール画像915及び選手を表した選手画像912、913、914、・・・が含まれている。また、選手画像912、913、914、・・・の近傍には、それぞれ、ラベル画像912a、913a、914a、・・・が配置されている。
このように、放送通信連携システム10dにおいて提供されるサービスにおいては、放送映像中の選手画像の動きに、各ラベル画像を追従させて移動させ、それぞれの映像プレーンにおいて、選手画像の近傍にラベル画像を配置している。
このように選手の画像に追従させて、名前などのラベル情報を表したラベル画像を配置させることで、スポーツ中継がよりわかりやすくなる。
5.1 放送システム100d
放送システム100dは、図41に示すように、放送映像撮影手段101d、放送原画映像バッファ102d、カメラ情報バッファ103d、放送ストリーム生成手段104d、放送ストリームバッファ105d、送信手段106d、アンテナ107d、情報取得手段108d、試合情報バッファ109d、関連情報バッファ110d、重畳データ生成手段111d、重畳データバッファ112d及び送信手段113dから構成される。
(1)放送映像撮影手段101d
放送映像撮影手段101dは、一例として、ビデオカメラレコーダである。放送映像撮影手段101dは、被写体を撮影して映像を記録し、音声を記録する。また、GPS及びジャイロセンサーを備え、カメラの位置、画角、向き、ズーム量などのカメラ情報を検出し、検出したカメラ情報を出力する。さらに、映像及び音声を放送原画映像バッファ102dに書き込み、カメラ情報を、カメラ情報バッファ103dに書き込む。また、映像、音声及びカメラ情報を情報取得手段108dに対して出力する。
ここで、放送システム100dは、放送映像撮影手段101dとして、2台以上のビデオカメラレコーダを含むとしてもよい。このうち、1台のビデオカメラレコーダは、コート全体を俯瞰する位置に設置された俯瞰カメラである。俯瞰カメラは、コート全体を撮影する。別の1台のカメラは、コート上で動く選手を撮影するための放送用カメラである。放送システム100dは、さらに、多くの俯瞰カメラ及び放送用カメラを含むとしてもよい。
(2)放送ストリーム生成手段104d
放送ストリーム生成手段104dは、放送ストリーム生成手段104aと同様に、放送原画映像バッファ102dに記憶されている映像及び音声を、放送波に流すためのフォーマットである放送ストリームに変換する。次に、放送ストリームを放送ストリームバッファ105dに書き込む。
(3)送信手段106d
送信手段106dは、送信手段106aと同様に、放送ストリームバッファ105dから、放送ストリームを読み出し、読み出した放送ストリームを、アンテナ107dにより、放送波として、送出する。
(4)情報取得手段108d
情報取得手段108dは、以下に示すようにして、スポーツ中継上のオブジェクト情報をリアルタイムに取得し、取得したオブジェクト情報を出力する。
例えば、情報取得手段108dは、コート上の選手やボールの位置を取得し、取得した選手やボールの位置を出力する。また、試合に関する選手情報(走行距離、軌跡、試合時間、スピード、イエローカードの提示の有無)を出力する。
情報取得手段108dは、データベースを保持している。このデータベースは、選手情報テーブル、選手画像テーブル、試合情報テーブル及びチーム情報テーブルを含んでいる。
選手情報テーブルは、複数の選手情報を含む。複数の選手情報は、それぞれ、放送対象である当該試合に出場する複数の選手に対応している。各選手情報は、選手を識別する選手ID、選手の名前、選手が所属するチームを識別するチームID、選手のポジション、選手の背番号、選手の趣味、選手の戦歴、選手のコメントなどを含む。
選手画像テーブルは、複数の選手画像情報を含む。複数の選手画像情報は、当該試合に出場する複数の選手に対応している。各選手画像情報は、選手を識別する選手ID、選手の顔写真、選手が着ているユニフォームの画像、選手の背番号の画像、選手の体型の画像などを含む。
試合情報テーブルは、放送対象である当該試合に関する試合情報を含んでいる。試合情報は、試合の開始時刻、対戦する2チームを識別するチームID、各チームのゴール方向などを含む。
チーム情報テーブルは、放送対象である当該試合に出場する2チームのそれぞれについて、チーム情報を含む。各チーム情報は、当該チームを識別するチームID、当該チームの名前、当該チームに所属する選手を識別する選手IDを含む。
情報取得手段108dは、データベースから選手情報テーブル、試合情報テーブル及びチーム情報テーブルを取得する。次に、取得した選手情報テーブル、試合情報テーブル及びチーム情報テーブルを関連情報バッファ110dに書き込む。
情報取得手段108dは、コート全体を撮影する俯瞰カメラにより撮影された2次元の俯瞰画像を用いて、コート上のボールの位置を特定する。次に、特定したボールの位置を、試合情報として、試合情報バッファ109dに書き込む。
また、情報取得手段108dは、データベースの選手画像テーブルに記憶されている選手の顔写真、ユニフォーム、背番号、体型などの画像と、俯瞰画像に含まれる部分画像とのパターンマッチングを行う。次に、選手画像テーブル内の画像と、俯瞰画像内の部分画像とが一致する場合に、一致する画像を含む選手画像情報内の選手IDを取得する。こうして、俯瞰画像に含まれる選手の画像から、選手を特定し、特定した選手IDを取得する。
次に、情報取得手段108dは、選手情報テーブルから、取得した選手IDを含む選手情報を取得し、取得した選手情報を関連情報バッファ110dに書き込む。
また、情報取得手段108dは、図43に示すように、俯瞰カメラ921により生成された2次元の俯瞰映像と、俯瞰カメラの位置、画角、向き、ズーム量のカメラ情報を使って、透視投影変換の逆処理を行って、3次元実空間上の各選手の位置を示す3次元位置座標を特定する。なお、複数の俯瞰カメラを用いて、4方向など、さまざまな角度で撮影して、平均値や多数決などで位置を特定すれば、位置の特定の精度が高くなる。
次に、情報取得手段108dは、放送用カメラの位置、画角、向き、ズーム量のカメラ情報を取得する。次に、その選手の位置を示す3次元位置座標に対して、透視投影変換を行って、図44に示すように、放送カメラで撮影される映像プレーン931における選手画像の位置を特定する。映像プレーン931において、選手画像932及びその他の選手画像が表示されている。映像プレーン931において、選手画像932の位置は、一例として、(1000、200)である。ここで、(x、y)は、映像プレーンにおけるx座標値及びy座標値を示す。情報取得手段108dは、映像プレーン内に含まれる全ての選手画像について、その位置を特定する。
こうして、情報取得手段108dは、一例として、図44に示す選手位置テーブル941を生成する。選手位置テーブル941は、複数の選手位置情報を含む。複数の選手位置情報は、それぞれ、映像プレーン931に含まれる複数の選手画像に対応する。各選手位置情報は、選手ID及び位置情報を含む。選手IDは、対応する選手画像により表される選手を識別する識別番号である。位置情報は、映像プレーン931における選手画像の位置を示す。位置情報は、x座標値及びy座標値を含む。情報取得手段108dは、選手位置テーブル941を試合情報バッファ109dに書き込む。
なお、選手の位置を示す位置情報を取得するために、選手にGPS付の無線発信機を持たせおき、GPS情報から位置情報を特定してもよい。無線発信機は、ユニフォームやスパイクに埋め込むとしてもよい。
また、審判又はボールに、広域無線発信機を付けておき、選手には狭い領域の無線発信機を付けておく。選手の情報を、審判又はボールに付けられた広域無線発信機が集め、広域に発信するような構成にしてもよい。
また、選手の位置をフレーム単位で計測することが困難な場合には、数秒単位で取得した選手の位置から線形補間などの補間方法により、フレーム単位の選手の位置を算出してもよい。
(5)重畳データ生成手段111d
重畳データ生成手段111dは、試合情報バッファ109dから選手位置テーブル941を読み出す。また、関連情報バッファ110dから、選手情報テーブルを読み出す。
次に、重畳データ生成手段111dは、選手位置テーブル941から選手ID及び位置情報を読み出し、読み出した選手IDに対応する名前を、選手情報テーブルから読み出す。次に、読み出した選手ID、読み出した名前及び読み出した位置情報を対応付けて、ラベル位置情報として、重畳データ961に書き込む。選手位置テーブル941内の全ての選手位置情報について、名前の読み出しと、選手ID、名前及び位置情報の書き込みとを繰り返す。
次に、重畳データ生成手段111dは、重畳データ961に含まれる位置情報により示される選手画像の位置を、左、右、下、上などに移動して、ラベル画像の位置を示す位置情報に変換する。このとき、以下の条件(a)、(b)及び(c)を満たすようにする。
(a)ラベル画像が、どの選手画像とも重複しないように、ラベル画像を配置する位置を決定する。
(b)ラベル画像が、ボール画像と重複しないように、ラベル画像を配置する位置を決定する。
(c)ラベル画像が、そのラベル画像が表す名前により示される選手の選手画像の近傍に位置するように、ラベル画像を配置する位置を決定する。
このようにして、生成された重畳データ961の一例を図45に示す。
重畳データ961は、図45に示すように、複数のラベル位置情報を含む。複数のラベル位置情報は、それぞれ、映像プレーン951において表示される複数のラベル画像に対応している。各ラベル位置情報は、選手ID、名前及び位置情報を含む。選手IDは、対応する選手画像により表される選手を識別する識別番号である。名前は、当該選手の名前である。位置情報は、映像プレーン951におけるラベル画像の左上点の位置を示す。位置情報は、x座標値及びy座標値を含む。
重畳データ生成手段111dは、重畳データ961と放送の映像プレーンとの同期が取れるように、重畳データ961に対して、PTSを割り当てる。
重畳データ生成手段111dは、重畳データ961を重畳データバッファ112dに書き込む。
5.2 再生装置400d
再生装置400dは、図41に示すように、チューナ401d、放送ストリームデコード手段402d、放送データバッファ403d、合成手段407d、表示手段408d、NIC409d、重畳手段410d及び重畳プレーンバッファ411dから構成される。チューナ401dには、アンテナ420dが接続されている。
再生装置400dは、再生装置400aと類似した構成を有している。アンテナ420d、チューナ401d、放送データバッファ403d、表示手段408d、NIC409dは、それぞれ、再生装置400aのアンテナ420a、チューナ401a、放送データバッファ403a、表示手段408a及びNIC409aと、同様の構成を有しているので、これらについての説明を省略する。
ここでは、再生装置400aとの相違点を中心に説明する。
(1)放送ストリームデコード手段402d
放送ストリームデコード手段402dは、チューナ401dから放送ストリームを受け取る。次に、放送ストリームをデコードしてPTSのタイミングで、映像プレーンを分離し、映像プレーンを放送データバッファ403dに書き込む。
(2)重畳手段410d
重畳手段410dは、放送システム100dから、インターネット20d及びNIC409dを介して、重畳データテーブルを受け取る。次に、受け取った重畳データテーブルを用いて、以下に示すようにして、重畳プレーンを生成し、PTSのタイミングで重畳プレーンバッファ411dに書き込む。
図45に示す重畳データ961の場合には、重畳データ961の各ラベル位置情報に含まれる名前を、フォントファイルなどを使って、ラスタイメージ(ビットマップ)に変換する。こうして、ラベル画像を生成する。次に、重畳プレーンにおいて、各重畳データに含まれる位置情報により示される位置に、そのラベル画像を描く。
(3)合成手段407d
合成手段407dは、放送データバッファ403dから映像プレーンを読み出し、重畳プレーンバッファ411dから重畳プレーンを読み出す。次に、PTSで同期をとって、映像プレーンと重畳プレーンとを合成して合成プレーンを生成し、合成プレーンを表示手段408dに対して出力する。
映像プレーンと重畳プレーンの合成処理の一例を、図46に示す。この図には、PTS=100000のフレームの映像プレーン981及びPTS=100000の重畳プレーン785を示している。映像プレーン981には、ボール画像984、選手画像952、983、・・・が含まれている。また、重畳プレーン985には、ラベル画像982a、983a、・・・が含まれている。
合成手段407dは、映像プレーン981と重畳プレーン985とを合成して、合成プレーン988を生成する。合成プレーン988には、ボール画像984、選手画像982及びラベル画像982a、選手画像983及びラベル画像983a、・・・が表示されている。ここで、ラベル画像982aは、選手画像982の近傍に表示され、ラベル画像983aは、選手画像983の近傍に表示されている。
5.3 放送通信連携システム10dの動作
放送通信連携システム10dを構成する放送システム100d及び再生装置400dの動作について、説明する。
(1)放送システム100dの動作
放送システム100dの動作は、図20に示す放送システム100aの動作と類似している。
放送システム100dの動作においては、図20のステップS111に示す放送映像データの編集は、存在しない。また、図20のステップS112において、重畳領域設定データを生成する代りに、放送システム100dの動作においては、重畳データを生成する。
次に、重畳データの生成の動作の詳細について、図47に示すフローチャートを用いて、説明する。
放送映像撮影手段101dは、ビデオカメラレコーダにより、映像及び音声を記録する(ステップS301)。
次に、情報取得手段108dは、ビデオカメラレコーダの位置、画角、向き、ズーム量などのカメラ情報を取得する(ステップS302)。次に、ボールのコート上の位置を取得する(ステップS303)。次に、俯瞰カメラによる映像データを用いて、選手の顔などのパターンマッチングを行って、選手を特定する。対応する選手IDを取得し、選手情報を取得し、選手情報を書き込む(ステップS304)。次に、俯瞰カメラによる映像データ及びカメラ情報を用いて各選手の3次元実空間上の3次元位置座標を特定する。映像プレーン上の選手の位置を特定し、選手位置情報を書き込む(ステップS305)。
次に、重畳データ生成手段111dは、放送映像、カメラ情報、選手・ボールの試合情報、関連情報を元に、ラベル画像を生成する(ステップS306)。次に、重畳プレーン上で、ラベル画像を配置する位置を決定する(ステップS307)。次に、重畳プレーン上に決定した位置にラベル画像を描画する(ステップS308)。
送信手段113dは、重畳データを送信する(ステップS309)。
送信手段106dは、放送データを送信する(ステップS310)。
(2)再生装置400dの動作
再生装置400dの動作について、図48に示すフローチャートを用いて、説明する。
放送ストリームデコード手段402dは、放送ストリームから映像プレーンを分離する(ステップS321)。
重畳手段410dは、重畳データを受信して、重畳プレーンを取得する(ステップS322)。
合成手段407dは、映像プレーンと重畳プレーンを合成して、合成プレーンを生成する(ステップS323)。
表示手段408dは、合成プレーンを表示する(ステップS324)。
5.4 まとめ
以上説明したように、放送波の映像に対して付加情報を重畳するサービスを提供する際に、例えば、サッカーなどのスポーツ中継において、映像中で動く選手画像に追従にするように、付加情報を配置することが可能となる。
5.5 変形例
(1)映像プレーン上にラベル画像を配置する場合に、図49に示すように、チームごとに統一して、チームが攻める方向とは反対側に配置した方が、ラベルの重なり度合いを少なくできる。
この場合、重畳データ生成手段111dは、重畳データ961に含まれる位置情報により示される選手画像の位置を、左、右、下、上などに移動して、ラベル画像の位置を示す位置情報に変換する。このとき、上記の条件(a)、(b)及び(c)に加えて、以下の条件(d)及び(e)を満たすようにする。
(d)同じチームに所属する選手の選手画像について、選手画像に対してラベル画像を配置する位置が、同じ方向となるように、ラベル画像の位置を決定する。
(e)選手画像に対してラベル画像を配置する位置が、チームが攻める方向とは反対側になるように、ラベル画像の位置を決定する。
図49に示すように、選手画像971、972、973により表される選手は、第1チームに所属している。一方、選手画像974、975、976により表される選手は、第2チームに所属している。また、第1チームが攻める方向は、方向977に示す通りである。第2チームが攻める方向は、方向978に示す通りである。
重畳データ生成手段111dは、関連情報バッファ110dに記憶されている選手情報テーブルから、各選手の所属するチームIDを取得する。また、関連情報バッファ110dに記憶されている試合情報テーブルから、各チームのゴール方向を取得する。
重畳データ生成手段111dは、選手がどのチームに所属しているかを、選手情報テーブルから取得した各選手の所属するチームIDを用いて、決定する。また、取得したゴール方向を用いて、各チームの攻める方向を決定する。
従って、重畳データ生成手段111dは、選手画像971、972、973について、それぞれの選手画像に対し、同じ方向にラベル画像971a、972a、973aを配置する。図49に示す場合には、選手画像971、972、973の左側に、それぞれ、ラベル画像971a、972a、973aが配置されている。
ここで、重畳データ生成手段111dは、第1チームが攻める方向は、方向977であるので、選手の位置に対して、方向977とは反対の方向である左側に、ラベル画像を配置する。
また、重畳データ生成手段111dは、選手画像974、975、976について、それぞれの選手画像に対し、同じ方向にラベル画像974a、975a、976aを配置する。図49に示す場合には、選手画像974、975、976の右側に、それぞれ、ラベル画像974a、975a、976aが配置されている。
ここで、重畳データ生成手段111dは、第2チームが攻める方向は、方向978であるので、選手の位置に対して、方向978とは反対の方向である右側に、ラベル画像を配置する。
(2)重畳データ生成手段111dは、映像プレーン上にラベル画像を配置する場合に、選手画像の位置からボール画像の位置へのベクトルとは反対方向に、ラベル画像を配置してもよい。このようにすることにより、ラベル画像とボール画像が重ならずにすむ。
一例として図42に示すように、映像プレーン901において、選手画像902の位置からボール画像905の位置へのベクトルとは反対方向に、ラベル画像902aが配置されている。ラベル画像903aについても、同様である。
ただし、ラベル画像906aについては、この方法に従っていない。選手画像906の位置からボール画像905の位置へのベクトルとは反対方向に、ラベル画像を配置すると、ラベル画像が映像プレーン701の外にはみ出すことになる。従って、この場合には、この方法に従うことなく、重畳データ生成手段111dは、選手画像906の位置からボール画像905の位置へのベクトルと同じ方向に、ラベル画像906aを配置する。
(3)放送通信連携システム10dでは、再生装置400dの重畳手段410dは、ネットワークを介して、重畳データを受信し、重畳データに基づいて、重畳プレーンバッファ411dに重畳プレーンを出力している。しかし、これには限定されない。次のようにしてもよい。
ネットワークの通信トラブル等により、重畳データの伝送が遅れた場合、次のような現象が発生する。放送により受信した映像プレーンと、ネットワークを介して遅延して受信した重畳データから生成した重畳プレーンとを合成すると、ラベル画像が、当該選手画像の近傍ではなく、別の選手画像の近傍の位置や、選手画像が存在しない位置に表示される。
そこで、ネットワークの通信トラブルにより、重畳データの伝送が遅れた場合、放送波の映像をデコードするときに、動きベクトルを覚えておく。次に、その動きベクトルに基づき、カメラのパンの動きを推定し、推定した動きに従って、ラベル画像を移動させて、重畳プレーンを生成してもよい。
この結果、表示される画面における違和感を少なくできる。
(4)ネットワークの通信トラブル等により、重畳データを取得できなかった場合に、ラベル画像を表示させないようにすると、ネットワークの通信トラブル等により、重畳データを取得できたり、できなかったりすると、ラベル画像が表示されたり、表示されなかったりする。このため、ラベル画像が点滅しているように見える。
このような場合、重畳データを取得できない期間が、ある一定期間より長く発生した場合にのみ、フェードイン又はフェードアウトによりラベル画像の表示を制御してもよい。言い換えると、ラベル画像が次第に見えなくなるようにし、又は、ラベル画像が次第に見えるようにしてもよい。
この結果、ユーザにとって、見やすい映像となる。
(5)放送通信連携システム10dでは、重畳データをテキスト情報として、重畳手段410dがその情報に基づいて、イメージを生成している。しかし、これには限定されない。
重畳データとして、テキストデータが設定されていなくてもよく、重畳データとして、JPG、PNG等の画像ファイルが設定されるようにしてもよい。
一例として図50に示すように、重畳データ991は、複数のラベル位置情報を含む。各ラベル位置情報は、選手ID、名前、位置情報及び画像IDを含む。ここで、画像IDは、JPG、PNG等の画像ファイルを識別する識別子である。画像ファイルは、各選手の名前を表す画像から構成されている。また、画像ファイルは、各選手の名前に代えて、又は、各選手の顔写真から構成されているとしてもよい。
この場合は、放送システム100dは、あらかじめ画像ファイルを再生装置400dに対して送っておき、再生装置400dは、画像ファイルを保持しておいてもよい。こうすることにより、ネットワークの負荷を抑えることができる。
(6)放送通信連携システム10dでは、再生装置400dの重畳手段410dは、ネットワークを介して、重畳データを受信し、重畳データに基づいて、重畳プレーンに映像を出力している。しかし、これには限定されない。次に示すようにしてもよい。
重畳データを放送波に乗せて放送してもよい。例えば、ビデオストリームの補足データや、別PIDのストリーム、システムパケットのディスクリプタなどで重畳データを伝送してもよい。この場合、ラベル画像の位置情報を、各ビデオフレーム単位で送信する。また、JPG、PNG等の画像ファイルを、データ放送のように、一定周期で同じ内容を繰り返し送り続けるカルーセル伝送を行うとしてもよい。
(7)映像プレーンにおいて、ボール画像に最も近い位置に存在する選手画像に対して、他より大きいラベル画像を配置してもよい。
一例として、図52に示すように、合成プレーン801aにおいて、選手画像802は、他の選手画像803、804、・・・よりも、最もボール画像805に近い位置に存在する。ボール画像805に最も近い位置に存在する選手画像802に対して、他より大きいラベル画像802aを配置してもよい。
また、別の一例として、図53に示すように、合成プレーン801bにおいて、選手画像804は、他の選手画像802、804、・・・よりも、最もボール画像805に近い位置に存在する。ボール画像805に最も近い位置に存在する選手画像804に対して、他より大きいラベル画像804aを配置してもよい。
このように、ボール画像(中核オブジェクト)に最も近い位置に表示されている選手画像(主オブジェクト)を注目オブジェクトと呼ぶこともある。
この場合、放送システム100dは、重畳データに、さらに、映像プレーン内のボール画像の位置を示す位置情報、及び、映像プレーン内の選手画像の位置を示す位置情報を含める。次に、ボール画像の位置を示す位置情報及び選手画像の位置を示す位置情報を含む重畳データを伝送する。つまり、ラベル画像の位置情報と同様に、選手画像の位置情報と及びボール画像の位置情報を、放送波の映像における位置情報として、重畳データに含めて伝送する。
情報取得手段108dは、選手画像の位置の取得と同様にして、俯瞰映像から、ボールの形状や色等により、パターンマッチングにより、ボール画像の位置を示す位置情報を取得する。また、ボールの内部に、GPS機能付の無線発信機を埋め込み、無線発信機は、GPSによりボールの位置情報を取得し、取得した位置情報を電波により送信してもよい。
重畳手段410dは、重畳データに含まれる選手画像の位置を示す位置情報及びボール画像の位置を示す位置情報を用いて、映像プレーン内の全ての選手画像の位置と、ボール画面の位置との距離を算出する。次に、最も小さく算出された距離に対応する選手画像について、他のラベル画像より大きくしたラベル画像を重畳する。
このようにすることで、注目選手(注目オブジェクト)が強調されるため、視聴者には、わかりやすい表示となる。なお、選手画像の位置情報と、ボール画像の位置情報は、放送波の映像に対する2次元座標ではなく、実際の3次元座標を用いる方が、正確に選手とボールとの距離を計測できる。
(8)放送システム100dは、選手の代表位置情報だけでなく、選手の骨格を表現するため各ノード(頭、首、腰、左肩、左手、左ひざ、左足首、右肩、右手、右ひざ、右足首など)の位置情報を伝送してもよい。再生装置400dは、選手の骨格を表現するため各ノードの位置情報を元にして、選手画像とラベル画像が重ならないように、ラベル画像の位置を決定してもよい。
また、このように、選手の骨格の位置情報がわかれば、手を上げた選手を光らせるなどのエフェクトや、蹴った足を光らせるなど、効果的な演出ができる
(9)解説音声を言語解析して、又はクローズドキャプション (closed captioning) などの字幕情報を利用して、解説者の話に出てくる選手名を特定する。次に、特定したその選手を表すラベル画像を大きくしたり、光らせたりしてもよい。これにより、注目選手(注目オブジェクト)が視聴者にわかりやすくなる。
(10)重畳データとして、各選手の情報として、選手の配置を示すポジションの情報を格納するようにし、ポジションごとに、ラベルを色分けしてもよい。こうすることにより、試合の戦略がわかりやすくなる。
(11)選手が存在する3次元実空間上の3次元座標位置に、3次元モデルのラベルを配置した後、放送用カメラの位置、向き、ズームなどのカメラ情報を使って、3次元モデルのラベルに対して、透視投影変換を行い、レンダリングを実行し、生成した画像をラベル画像として重畳するようにしてもよい。このようにすることで、あたかもコート上に3次元のラベルがあるかのような映像を作成できる。
(12)放送通信連携システム10dにおいて、映像内で動く選手画像の位置に追従してラベル画像を重畳する場合に、より効果的にユーザの意図を反映させる方法として、次のようなものがある。
(a)重畳データを複数言語分、用意しておけば、視聴者の好みに応じて、言語の選択ができる。
例えば、放送システム100dは、重畳データに、日本語、英語、ドイツ語、スペイン語及びポルトガル語で表記された選手の名前を含ませる。放送システム100dは、この重畳データを送信する。再生装置400dは、これらの言語により表記された選手の名前を含む重畳データを受信する。再生装置400dは、視聴者の好みの言語の入力を受け付ける。再生装置400dは、受け付けた言語による選手の名前のみを含む重畳プレーンを生成し、映像プレーンと重畳プレーンとを合成して出力する。
(b)放送システム100dは、重畳データに、選手の氏名、苗字、愛称、チームID、背番号などを含ませる。放送システム100dは、この重畳データを送信する。
再生装置400dは、視聴者からラベル画像に表示されるデータの種類を受け付ける。データの種類の例は、選手の氏名、苗字、愛称、背番号である。再生装置400dは、受け付けたデータの種類により、ラベル画像を生成し、生成したラベル画像を含む重畳プレーンを生成し、映像プレーンと重畳プレーンとを合成して出力する。例えば、視聴者から、データの種類として、選手の氏名を受け付けた場合に、ラベル画像に選手の氏名を表示する。同様に、苗字、愛称、背番号を受け付けた場合に、それぞれ、ラベル画像に、苗字、愛称、背番号を表示する。
こうして、視聴者は、ラベル画像に表示すべき内容を指定することできる。
(c)放送システム100dは、重畳データに、選手の氏名、苗字、愛称、チームID、背番号などを含ませる。放送システム100dは、この重畳データを送信する。
また、再生装置400dは、視聴者からラベル画像を表示すべきカテゴリとその識別情報の入力を受け付ける。
例えば、再生装置400dは、カテゴリとして「チームID」を受け付け、チームIDとして「0105」を受け付ける。再生装置400dは、重畳データのうち、チームID「0105」を含むラベル位置情報についてのみ、名前を含むラベル画像を生成し、生成したラベル画像を表示する。
例えば、再生装置400dは、カテゴリとして「背番号」を受け付け、背番号として「51」を受け付ける。再生装置400dは、重畳データのうち、背番号「51」を含むラベル位置情報についてのみ、名前を含むラベル画像を生成し、生成したラベル画像を表示する。
こうして、視聴者は、特定のチームの選手だけ、又は特定の背番号の選手だけに、ラベル画像を重畳することができる。
(13)タッチパネルを備える端末装置で映像を視聴する場合、タッチパネルにより、タッチ位置を特定して、重畳データに含まれている選手画像の位置と、タッチ位置とが重なるときに、その選手のみについて、ラベル画像を表示してもよい。また、その選手のみについて、ラベル画像を大きくしたり、ハイライトにして、強調してもよい。また、また、その選手のみについて、選手の名前、背番号、チーム名、過去の成績などを含むラベル画像を生成して、詳細に表示してもよい。
(14)テレビの表示画面のサイズ(インチ数)に応じて、選手画像に重畳するラベル画像のサイズを変更してもよい。インチ数が大きくなれば、ラベル画像のサイズを大きくする。
また、表示画面のアスペクト比に応じて、ラベル画像のサイズの縦横比を決定してもよい。
また、ラベル画像の垂直方向のサイズを一定にし、表示画面の水平方向の画素数に応じて、ラベル画像の水平方向のサイズを変更してもよい。逆に、ラベル画像の水平方向のサイズを一定にし、表示画面の垂直方向の画素数に応じて、ラベル画像の垂直方向のサイズを変更してもよい。
(15)放送通信連携システム10dでは、重畳データをネットワークで伝送し、再生装置400dの重畳手段410dが重畳データに基づいて、重畳プレーンを生成し、重畳プレーンと映像プレーンとを合成している。しかし、これには限定されない。次に示すようにしてもよい。
(a)放送システム100dは、重畳データから、重畳用のビデオストリームを生成し、重畳用のビデオストリームと、放送用の映像ストリームとを多重化して、放送ストリームを生成して、放送してもよい。
例えば、図51に示すように、放送システム100dは、合成プレーン801aを、MPEG−2やMPEG−4 AVCなどのビデオコーデックで、圧縮符号化してビデオストリームを作成する。ここで、合成プレーン801aにおいては、選手画像802、803、804、・・・とともに、これらの画像の位置に追従してラベル画像802a、803a、804a、・・・が配置されている。また、合成プレーン801aの背景は、黒などの淡色映像で構成される。
再生装置400dの重畳手段410dは、ビデオストリームをデコードしたのち、背景色を透過ピクセルとして重畳プレーンに書き出す。
このようにすれば、再生装置400dにおいて、グラフィックスの生成が不要となり、再生装置400dの処理が容易となる。
(b)重畳用のビデオストリームとして、重畳用ビデオストリームと透過度を設定したビデオストリームの両方を用意する構成にしてもよい。
背景については、黒などの淡色映像で構成し、選手画像の位置に追従したラベル画像を配置してデザインされたフレームを、MPEG−2やMPEG−4 AVCなどのビデオコーデックで、圧縮符号化して、圧縮符号化して色情報ビデオストリームを作成する。
一方で、透過度のみを符号化した透過度ビデオストリームを用意する。
再生装置400dの重畳手段410dは、色情報ビデオストリームをデコードしたのち、透過度ビデオストリームをデコードして、色情報ビデオストリームのデコード結果に対して、透過度ビデオストリームのデコード結果の透過度を設定して、重畳プレーンに書き出す。このようにすれば、再生装置400dにおいて、グラフィックスの生成が不要となり、処理が容易となる。なお、色情報ビデオストリームと透過度ビデオストリームをSide-by-Sideで、半分の解像度にして構成してもよい。
(c)重畳用のビデオストリームとしては、ビュー間参照を利用した圧縮符号化のビデオストリームの構成にしてもよい。
ビュー間参照を使って圧縮する符号化方式として、MPEG−4 MVC(Multiview Video Coding)と呼ばれるMPEG−4 AVC/H.264の修正規格がある。図54は、MPEG−4 MVCによる符号化方式を説明する図である。MPEG−4 MVCでは、従来の機器との再生互換性のある基本ビュー1021と、基本ビュー1021と同時に処理することで別視点の映像の再生を実現する拡張ビュー1022とから構成される。基本ビュー1021は、図54に示すように、時間方向の冗長性のみを利用してピクチャ間予測符号化を用いて圧縮されている。基本ビュー1021は、ピクチャ1001、1002、・・・、1007、・・・を含む。一方、拡張ビュー1022は、この時間方向の冗長性を利用したピクチャ間予測符号化に加えて、視点間の冗長性を利用したピクチャ間予測符号化によって圧縮されている。拡張ビュー1022は、ピクチャ1011、1012、・・・、1017、・・・を含む。基本ビュービデオストリームのピクチャは、拡張ビュービデオストリームの同じ表示時刻のピクチャを参照して圧縮されている。図54に示す矢印は、参照関係を示している。拡張ビュービデオストリームの先頭Pピクチャ1011は、基本ビュービデオストリームのIピクチャ1001を参照する。拡張ビュービデオストリームのBピクチャ1012は、基本ビュービデオストリームのBrピクチャ1002を参照している。また、拡張ビュービデオストリームの二つ目のPピクチャ1014は、基本ビュービデオストリームのPピクチャ1004を参照している。また、基本ビュービデオストリームは、拡張ビュービデオストリームを参照していないため、このストリーム単体は1本で再生することができる。反対に拡張ビュービデオストリームは、基本ビュービデオストリームを参照しているため、このストリーム単体は1本で再生することはできない。ただし、左右の視点からは同じ被写体を見るため映像の相関が大きい。このため、視点間のピクチャ間予測符号化を行うことで、拡張ビュービデオストリームについては、基本ビュービデオストリームに比べて、データ量を大幅に削減できる。このように、MVCは、複数視点の映像をまとめて符号化する規格である。映像の時間方向の類似性だけでなく視点間の類似性も予測符号化に利用することにより、複数視点の独立した圧縮に比べて圧縮効率を向上している。この視点間の相関を利用し、異なるビューのピクチャを参照することを、「ビュー間参照」とよぶ。
ここで、放送波映像をベースビューとし、重畳済み映像を拡張ビューとして、符号化する。このようにすることで、拡張ビューの重畳済み映像を符号化したビデオストリームは、ラベル画像以外は、ベースビューと一致するので、ビュー間参照の効果が大きい。このため、拡張ビューの重畳済み映像を符号化したビデオストリームのビットレートは小さくできる。再生装置400dは、この拡張ビューの重畳済みビデオストリームを、ベースビューとともにデコードして、拡張ビューのみを表示することで、映像重畳を実現できる。
6.その他の変形例
なお、本発明を上記の実施の形態に基づいて説明してきたが、本発明は、上記の実施の形態に限定されないのはもちろんである。以下のような場合も本発明に含まれる。
(1)本発明の一態様は、AVストリームに多重化されるビデオストリームをデコードし、付加データを重畳する再生装置である。前記AVストリームには、前記ビデオストリームに対応する重畳禁止領域情報が含まれている。前記重畳禁止領域は、前記ビデオストリームのフレームにおいて、付加データの重畳を禁止する領域が定義されている。前記再生装置は、前記ビデオストリームをデコードした結果をプレーンバッファ1に書き出し、前記付加データをプレーンバッファ2に書き出す。また、前記重畳禁止領域情報を元に、前記プレーンバッファ2の禁止領域を透明色に変更して、前記プレーンバッファ1に前記プレーンバッファ2を重畳する。
(2)本発明の一態様である放送波及び通信で提供する映像コンテンツの再生装置は、テレビ放送映像コンテンツに、付加情報を重畳してユーザに新しい楽しみを提供するだけでない。緊急放送やCMなどテレビ放送の重要なメッセージを、情報を損なうことなく、ユーザに正確に届けることを保障できる。故に、本発明の一態様である映像ストリーム、その符号化方法、符号化装置、再生方法及び再生装置は、テレビ放送などの映像配信産業、民生機器産業において高い利用可能性を有する。
(3)上記の各装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニットなどから構成されるコンピュータシステムである。前記RAM又は前記ハードディスクユニットには、コンピュータプログラムが記憶されている。ここで、コンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、各装置は、その機能を達成する。つまり、前記マイクロプロセッサは、前記コンピュータプログラムに含まれる各命令を1個ずつ読み出し、読み出した命令を解読し、解読結果に従って動作する。
また、RAM又はハードディスクユニットに記憶されているコンピュータプログラムに含まれる命令に従って、マイクロプロセッサが動作することにより、当該コンピュータプログラムとマイクロプロセッサとが、あたかも、一つのハードウェア回路を構成し、このハードウェア回路が動作しているようにみせることができる。
(4)上記の各装置を構成する構成要素の一部又は全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
また、上記の各装置を構成する構成要素の各部は、個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。
LSIは、複数の回路ブロックから構成される。
また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)やLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。
(5)上記の各装置を構成する構成要素の一部又は全部は、各装置に脱着可能なICカード又は単体のモジュールから構成されているとしてもよい。前記ICカード又は前記モジュールは、マイクロプロセッサ、ROM、RAM、などから構成されるコンピュータシステムである。前記ICカード又は前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、前記ICカード又は前記モジュールは、その機能を達成する。このICカード又はこのモジュールは、耐タンパ性を有するとしてもよい。
(6)本発明は、上記に示す装置を制御するための制御方法であるとしてもよい。また、これらの制御方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。
また、本発明は、前記コンピュータプログラム又は前記デジタル信号をコンピュータ読み取り可能な非一時的な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD―ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray Disc)、半導体メモリなど、に記録したものとしてもよい。また、これらの記録媒体に記録されている前記コンピュータプログラム又は前記デジタル信号であるとしてもよい。
また、本発明は、前記コンピュータプログラム又は前記デジタル信号を、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
また、本発明は、マイクロプロセッサとメモリとを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶している。前記マイクロプロセッサは、前記コンピュータプログラムに従って動作するとしてもよい。
また、前記プログラム又は前記デジタル信号を前記記録媒体に記録して移送することにより、又は前記プログラム又は前記デジタル信号を前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
(7)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
本発明にかかる放送通信連携システムは、新たなサービスを提供することができ、放送と通信とを連携する技術として有用である。
10 放送通信連携システム
10a 放送通信連携システム
10b 放送通信連携システム
10c 放送通信連携システム
10d 放送通信連携システム
100 データ生成装置
100a 放送システム
100b 放送システム
100d 放送システム
300a 通信サービス提供システム
300b 通信サービス提供システム
300c データ生成装置
400 受信装置
400a 再生装置
400b 再生装置
400c 受信装置
400d 再生装置

Claims (30)

  1. データを生成するデータ生成装置であって、
    フレーム画像を取得する取得手段と、
    再生装置によって付加画像が重畳された前記フレーム画像を再生する際に、付加画像の重畳を禁止するフレーム画像上の領域を示す禁止情報を設定する設定手段と、
    前記フレーム画像と前記禁止情報とを多重化してデータを生成する多重化手段と
    を備えることを特徴とするデータ生成装置。
  2. 前記データ生成装置は、前記フレーム画像を一の伝送路により伝送し、
    前記付加画像は、前記伝送路とは、異なる伝送路により、伝送される
    ことを特徴とする請求項1記載のデータ生成装置。
  3. 前記フレーム画像は放送路にて伝送され、前記付加画像は通信路にて伝送される
    ことを特徴とする請求項2記載のデータ生成装置。
  4. 前記設定手段は、さらに、再生装置によって付加画像が重畳された前記フレーム画像を再生する際に、付加画像の重畳を許可するフレーム画像上の領域を示す許可情報を設定し、
    前記多重化手段は、さらに、前記許可情報を多重化する
    ことを特徴とする請求項1に記載のデータ生成装置。
  5. 前記設定手段は、さらに、再生装置によって付加画像が重畳された前記フレーム画像を再生する際に、付加画像の重畳を推奨するフレーム画像上の領域を示す推奨情報を設定し、
    前記多重化手段は、さらに、前記推奨情報を多重化する
    ことを特徴とする請求項4に記載のデータ生成装置。
  6. 前記設定手段は、さらに、再生装置によって付加画像が重畳された前記フレーム画像を再生する際に、付加画像の重畳に対して注意を促すフレーム画像上の領域を示す注意情報を設定し、
    前記多重化手段は、さらに、前記注意情報を多重化する
    ことを特徴とする請求項4に記載のデータ生成装置。
  7. 前記禁止情報及び前記許可情報は、前記フレーム画像内の各画素に対応して設定される
    ことを特徴とする請求項4に記載のデータ生成装置。
  8. 前記禁止情報及び前記許可情報は、前記フレーム画像を複数に分割して得られる領域に対応して設定される
    ことを特徴とする請求項4に記載のデータ生成装置。
  9. データを生成するデータ生成装置であって、
    主音声を取得する取得手段と、
    再生装置によって付加音声が合成された前記主音声を再生する際に、付加音声の合成を禁止する主音声の区間を示す禁止情報を設定する設定手段と、
    前記主音声と前記禁止情報とを多重化してデータを生成する多重化手段と
    を備えることを特徴とするデータ生成装置。
  10. 前記データ生成装置は、前記主音声を一の伝送路により伝送し、
    前記付加音声は、前記伝送路とは、異なる伝送路により伝送される
    ことを特徴とする請求項9記載のデータ生成装置。
  11. 前記主音声は放送路にて伝送され、前記付加音声は通信路にて伝送される
    ことを特徴とする請求項10記載のデータ生成装置。
  12. 前記設定手段は、さらに、再生装置によって付加音声が合成された前記主音声を再生する際に、付加音声の合成を許可する主音声の区間を示す許可情報を設定し、
    前記多重化手段は、さらに、前記許可情報を多重化する
    ことを特徴とする請求項9に記載のデータ生成装置。
  13. 前記設定手段は、さらに、再生装置によって付加音声が合成された前記主音声を再生する際に、付加音声の合成を推奨する主音声の区間を示す推奨情報を設定し、
    前記多重化手段は、さらに、前記推奨情報を多重化する
    ことを特徴とする請求項12に記載のデータ生成装置。
  14. 前記設定手段は、さらに、再生装置によって付加音声が合成された前記主音声を再生する際に、付加音声の合成に対して注意を促す主音声の区間を示す注意情報を設定し、
    前記多重化手段は、さらに、前記注意情報を多重化する
    ことを特徴とする請求項12に記載のデータ生成装置。
  15. データを受信する受信装置であって、
    再生装置によって付加画像が重畳されたフレーム画像を再生する際に、付加画像の重畳を禁止するフレーム画像の領域を示す禁止情報と、前記フレーム画像とが多重化されたデータを受信する受信手段と、
    前記データから、前記フレーム画像と前記禁止情報とを分離する分離手段と、
    前記付加画像を取得する取得手段と、
    前記禁止情報に基づいて、前記フレーム画像に前記付加画像を重畳する重畳手段と
    を備えることを特徴とする受信装置。
  16. 前記受信装置は、前記フレーム画像と前記付加画像を、異なる伝送路にて受信する
    ことを特徴とする請求項15記載の受信装置。
  17. 前記フレーム画像を放送路にて受信し、前記付加画像を通信路にて受信する
    ことを特徴とする請求項16記載の受信装置。
  18. 前記受信手段は、さらに、再生装置によって付加画像が重畳されたフレーム画像を再生する際に、付加画像の重畳を許可するフレーム画像の領域を示す許可情報が多重化された前記データを受信し、
    前記分離手段は、前記データから、さらに、前記許可情報を分離し、
    前記重畳手段は、さらに、前記許可情報に基づいて、前記フレーム画像に前記付加画像を重畳する
    ことを特徴とする請求項15記載の受信装置。
  19. 前記受信手段は、さらに、再生装置によって付加画像が重畳されたフレーム画像を再生する際に、付加画像の重畳を推奨するフレーム画像の領域を示す推奨情報が多重化された前記データを受信し、
    前記分離手段は、前記データから、さらに、前記推奨情報を分離し、
    前記重畳手段は、さらに、前記推奨情報に基づいて、前記フレーム画像に前記付加画像を重畳する
    ことを特徴とする請求項18記載の受信装置。
  20. 前記受信手段は、さらに、再生装置によって付加画像が重畳されたフレーム画像を再生する際に、付加画像の重畳に対して注意を促すフレーム画像の領域を示す注意情報が多重化された前記データを受信し、
    前記分離手段は、前記データから、さらに、前記注意情報を分離し、
    前記重畳手段は、さらに、前記注意情報に基づいて、前記フレーム画像に前記付加画像を重畳する
    ことを特徴とする請求項18記載の受信装置。
  21. 前記禁止情報及び前記許可情報は、前記フレーム画像内の各画素に対応して設定されており、
    前記重畳手段は、前記フレーム画像内の画素毎に、前記付加情報を重畳する
    ことを特徴とする請求項18に記載の受信装置。
  22. 前記禁止情報及び前記許可情報は、前記フレーム画像を複数に分割して得られる領域に対応して設定されており、
    前記重畳手段は、前記フレーム画像内の前記領域画素毎に、前記付加情報を重畳する
    ことを特徴とする請求項18に記載の受信装置。
  23. データを受信する受信装置であって、
    再生装置によって付加音声が合成された主音声を再生する際に、付加音声の合成を禁止する主音声の区間を示す禁止情報と、前記主音声とが多重化されたデータを受信する受信手段と、
    前記データから、前記主音声と前記禁止情報とを分離する分離手段と、
    前記付加音声を取得する取得手段と、
    前記禁止情報に基づいて、前記主音声に前記付加音声を合成する合成手段と
    を備えることを特徴とする受信装置。
  24. 前記受信装置は、前記主音声と前記付加音声とを、異なる伝送路にて受信する
    ことを特徴とする請求項23記載の受信装置。
  25. 前記主音声は放送路にて受信し、前記付加音声を通信路にて受信する
    ことを特徴とする請求項24記載の受信装置。
  26. 前記受信手段は、さらに、前記再生装置によって付加音声が合成された主音声を再生する際に、付加音声の重畳を許可する主音声の区間を示す許可情報が多重化された前記データを受信し、
    前記分離手段は、前記データから、さらに、前記許可情報を分離し、
    前記重畳手段は、さらに、前記許可情報に基づいて、前記主音声に前記付加音声を合成する
    ことを特徴とする請求項23記載の受信装置。
  27. 前記受信手段は、さらに、前記再生装置によって付加音声が合成された主音声を再生する際に、付加音声の重畳を推奨する主音声の区間を示す推奨情報が多重化された前記データを受信し、
    前記分離手段は、前記データから、さらに、前記推奨情報を分離し、
    前記重畳手段は、さらに、前記推奨情報に基づいて、前記主音声に前記付加音声を合成する
    ことを特徴とする請求項26記載の受信装置。
  28. 前記受信手段は、さらに、前記再生装置によって付加音声が合成された主音声を再生する際に、付加音声の重畳に対して注意を促す主音声の区間を示す注意情報が多重化された前記データを受信し、
    前記分離手段は、前記データから、さらに、前記注意情報を分離し、
    前記重畳手段は、さらに、前記注意情報に基づいて、前記主音声に前記付加音声を合成する
    ことを特徴とする請求項26記載の受信装置。
  29. データ生成装置と放送装置とサービス提供装置と受信装置とから構成される放送通信連携システムであって、
    前記データ生成装置は、
    フレーム画像を取得する取得手段と、
    再生装置によって付加画像が重畳された前記フレーム画像を再生する際に、付加画像の重畳を禁止するフレーム画像上の領域を示す禁止情報を設定する設定手段と、
    前記フレーム画像と前記禁止情報とを多重化してデータを生成する多重化手段とを備え、
    前記放送装置は、前記データを放送路にて伝送し、
    前記サービス提供装置は、前記付加画像を通信路にて伝送し、
    前記受信装置は、
    再生装置によって付加画像が重畳された前記フレーム画像を再生する際に、付加画像の重畳を禁止するフレーム画像の領域を示す禁止情報と、前記フレーム画像とが多重化されたデータを受信する受信手段と、
    前記データから、前記フレーム画像と前記禁止情報とを分離する分離手段と、
    前記付加画像を取得する取得手段と、
    前記禁止情報に基づいて、前記フレーム画像に前記付加画像を重畳する重畳手段とを備える
    ことを特徴とする放送通信連携システム。
  30. データ生成装置と放送装置とサービス提供装置と受信装置とから構成される放送通信連携システムであって、
    前記データ生成装置は、
    主音声を取得する取得手段と、
    再生装置によって付加音声が合成された前記主音声を再生する際に、付加音声の合成を禁止する主音声の区間を示す禁止情報を設定する設定手段と、
    前記主音声と前記禁止情報とを多重化してデータを生成する多重化手段とを備え、
    前記放送装置は、前記データを放送路にて伝送し、
    前記サービス提供装置は、前記付加音声を通信路にて伝送し、
    前記受信装置は、
    再生装置によって付加音声が合成された前記主音声を再生する際に、付加音声の合成を禁止する主音声の区間を示す禁止情報と、前記主音声とが多重化されたデータを受信する受信手段と、
    前記データから、前記主音声と前記禁止情報とを分離する分離手段と、
    前記付加音声を取得する取得手段と、
    前記禁止情報に基づいて、前記主音声に前記付加音声を合成する合成手段とを備える
    ことを特徴とする放送通信連携システム。
JP2013527900A 2011-08-11 2012-08-08 放送通信連携システム、データ生成装置及び受信装置 Pending JPWO2013021643A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161522391P 2011-08-11 2011-08-11
US61/522,391 2011-08-11

Publications (1)

Publication Number Publication Date
JPWO2013021643A1 true JPWO2013021643A1 (ja) 2015-03-05

Family

ID=47668178

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013527900A Pending JPWO2013021643A1 (ja) 2011-08-11 2012-08-08 放送通信連携システム、データ生成装置及び受信装置

Country Status (5)

Country Link
US (1) US20130191861A1 (ja)
EP (1) EP2744196A1 (ja)
JP (1) JPWO2013021643A1 (ja)
CN (1) CN103155582A (ja)
WO (1) WO2013021643A1 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9363441B2 (en) * 2011-12-06 2016-06-07 Musco Corporation Apparatus, system and method for tracking subject with still or video camera
JP6157094B2 (ja) * 2012-11-21 2017-07-05 キヤノン株式会社 通信装置、設定装置、通信方法、設定方法、及び、プログラム
KR102181994B1 (ko) 2012-11-26 2020-11-24 소니 주식회사 송신 장치, 송신 방법, 수신 장치, 수신 방법 및 수신 표시 방법
US9817556B2 (en) * 2012-12-26 2017-11-14 Roovy, Inc. Federated commenting for digital content
EP2866436A1 (en) * 2013-10-23 2015-04-29 Thomson Licensing Method and apparatus for transmission and reception of media data
US9348495B2 (en) 2014-03-07 2016-05-24 Sony Corporation Control of large screen display using wireless portable computer and facilitating selection of audio on a headphone
JP6338437B2 (ja) * 2014-04-30 2018-06-06 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6341809B2 (ja) * 2014-08-29 2018-06-13 シャープ株式会社 放送信号送受信システムおよび放送信号送受信方法
JP6341810B2 (ja) * 2014-08-29 2018-06-13 シャープ株式会社 放送信号送受信システムおよび放送信号送受信方法
JP2016096498A (ja) * 2014-11-17 2016-05-26 シャープ株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
WO2016163603A1 (ko) * 2015-04-05 2016-10-13 엘지전자 주식회사 Xml 자막에 기반한 방송 서비스를 위한 방송 신호 송수신 방법 및 장치
TWM508350U (zh) * 2015-04-24 2015-09-11 Aten Int Co Ltd 遊戲錄製裝置
JP6641731B2 (ja) 2015-06-05 2020-02-05 ソニー株式会社 送信装置及び送信方法、並びに受信装置及び受信方法
BR112018003441A2 (pt) * 2015-09-01 2018-11-27 Sony Corp aparelhos de recepção e de transmissão, e, método de processamento de dados.
JP2018105958A (ja) 2016-12-26 2018-07-05 ルネサスエレクトロニクス株式会社 データ転送装置およびデータ転送方法
EP3343561B1 (en) * 2016-12-29 2020-06-24 Axis AB Method and system for playing back recorded video
BR112019025278A8 (pt) * 2017-06-16 2023-04-11 Hewlett Packard Development Co Geração de imagem vetorial pequena
JP6251835B2 (ja) * 2017-07-20 2017-12-20 シャープ株式会社 放送信号送受信システムおよび放送信号送受信方法
JP6251834B2 (ja) * 2017-07-20 2017-12-20 シャープ株式会社 放送信号受信装置、放送信号受信方法、テレビジョン受像機、制御プログラム、および記録媒体
JP7285045B2 (ja) * 2018-05-09 2023-06-01 日本テレビ放送網株式会社 画像合成装置、画像合成方法及びプログラム
US20210219013A1 (en) * 2018-06-04 2021-07-15 Sharp Kabushiki Kaisha Systems and methods for signaling overlay information
JP7301521B2 (ja) * 2018-11-07 2023-07-03 キヤノン株式会社 画像処理装置
JP6791344B2 (ja) * 2019-12-11 2020-11-25 ソニー株式会社 送信装置及び送信方法、並びに受信装置及び受信方法
JP6935843B2 (ja) * 2019-12-11 2021-09-15 ソニーグループ株式会社 送信装置及び送信方法、並びに受信装置及び受信方法
EP4147452A4 (en) * 2020-05-06 2023-12-20 ARRIS Enterprises LLC INTERACTIVE COMMENTARY IN VIDEO ON DEMAND
JP7160161B2 (ja) 2020-10-26 2022-10-25 ソニーグループ株式会社 送信方法及び送信装置、並びに受信方法及び受信装置
US20230031056A1 (en) * 2021-07-29 2023-02-02 Sony Group Corporation Audio recommendation based on text information and video content

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08307848A (ja) * 1995-04-27 1996-11-22 Pioneer Electron Corp Catvシステム
JP2000115725A (ja) * 1998-10-02 2000-04-21 Victor Co Of Japan Ltd 視聴制限装置
JP2000308036A (ja) * 1999-04-16 2000-11-02 Mitsubishi Electric Corp 放送番組受信装置
JP2004023641A (ja) * 2002-06-19 2004-01-22 Fujitsu Ltd ホームページ表示装置
US7486337B2 (en) * 2003-12-22 2009-02-03 Intel Corporation Controlling the overlay of multiple video signals
JP4408845B2 (ja) * 2005-07-27 2010-02-03 シャープ株式会社 映像合成装置及びプログラム
US8640180B2 (en) * 2010-09-29 2014-01-28 Alcatel Lucent Apparatus and method for client-side compositing of video streams

Also Published As

Publication number Publication date
US20130191861A1 (en) 2013-07-25
EP2744196A1 (en) 2014-06-18
CN103155582A (zh) 2013-06-12
WO2013021643A1 (ja) 2013-02-14

Similar Documents

Publication Publication Date Title
WO2013021643A1 (ja) 放送通信連携システム、データ生成装置及び受信装置
US8773584B2 (en) Playback apparatus, playback method, integrated circuit, broadcast system, and broadcast method using a broadcast video and additional video
JP6267961B2 (ja) 映像提供方法および送信装置
JP5637585B2 (ja) デジタル情報信号を受信する装置
WO2012017643A1 (ja) 符号化方法、表示装置、及び復号方法
KR20190094451A (ko) 360 비디오 시스템에서 오버레이 처리 방법 및 그 장치
US7782344B2 (en) Digital video zooming system
EP3780595A1 (en) Method and device for transmitting 360-degree video by using metadata related to hotspot and roi
TW201036437A (en) Systems and methods for providing closed captioning in three-dimensional imagery
JP6986158B2 (ja) 複数のビューポイントに関するメタデータを送受信する方法及び装置
US10873737B1 (en) VR device and control method for the same
US10848837B2 (en) Device and method for processing high-definition 360-degree VR image
WO2013099290A1 (ja) 映像再生装置、映像再生方法、映像再生プログラム、映像送信装置、映像送信方法及び映像送信プログラム
WO2012147354A1 (ja) 映像処理装置及び映像処理方法
JPWO2013099289A1 (ja) 再生装置、送信装置、再生方法及び送信方法
KR20140038482A (ko) 송신장치, 수신재생장치, 송신방법 및 수신재생방법
JP6148232B2 (ja) 映像送信装置、映像送信方法、及び映像再生装置
JP2013518458A (ja) デジタルビデオストリーム内の情報及び/又はアプリケーションデータを転送する方法、及び、ビデオストリームを生成及び再生するための関連装置
JP2008252752A (ja) 映像情報再生装置及び方法、映像情報再生システム、並びに映像情報再生システムの制御方法
WO2013150724A1 (ja) 送信装置、再生装置及び送受信方法