JP2011029849A - 受信装置、通信システム、立体画像への字幕合成方法、プログラム、及びデータ構造 - Google Patents
受信装置、通信システム、立体画像への字幕合成方法、プログラム、及びデータ構造 Download PDFInfo
- Publication number
- JP2011029849A JP2011029849A JP2009172490A JP2009172490A JP2011029849A JP 2011029849 A JP2011029849 A JP 2011029849A JP 2009172490 A JP2009172490 A JP 2009172490A JP 2009172490 A JP2009172490 A JP 2009172490A JP 2011029849 A JP2011029849 A JP 2011029849A
- Authority
- JP
- Japan
- Prior art keywords
- caption
- video
- depth direction
- stereoscopic video
- broadcast signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/183—On-screen display [OSD] information, e.g. subtitles or menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/194—Transmission of image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
【課題】立体映像に対して字幕の奥行き方向の位置を最適に設定する。
【解決手段】放送信号に含まれる立体映像のデータを取得するビデオデコーダ108と、放送信号に含まれる字幕オブジェクトのデータを取得する字幕デコーダ110と、前記立体映像の奥行き方向の位置に関する位置情報を取得する番組情報処理部106と、立体映像に対する字幕オブジェクトの奥行き方向の位置を設定する字幕3D変換部120と、を備える。これにより、立体映像に対して字幕の奥行き方向の位置を最適に設定することが可能となる。
【選択図】図1
【解決手段】放送信号に含まれる立体映像のデータを取得するビデオデコーダ108と、放送信号に含まれる字幕オブジェクトのデータを取得する字幕デコーダ110と、前記立体映像の奥行き方向の位置に関する位置情報を取得する番組情報処理部106と、立体映像に対する字幕オブジェクトの奥行き方向の位置を設定する字幕3D変換部120と、を備える。これにより、立体映像に対して字幕の奥行き方向の位置を最適に設定することが可能となる。
【選択図】図1
Description
本発明は、受信装置、通信システム、立体画像への字幕合成方法、プログラム、及びデータ構造に関する。
従来、例えば下記の特許文献1には、字幕データに基づく字幕をユーザからどの位の位置に表示するかを示す距離パラメータを発生し、復号側の立体表示装置において、字幕をユーザから所定の奥行き方向の位置にあるように表示する手法が開示されている。
しかしながら、立体映像に字幕を挿入する場合、表示画面の奥行き方向において、映像に対する字幕の表示位置が重要となる。映像に対する字幕の表示位置が適切でない場合、例えば立体映像よりも奥に字幕が表示されるような場合は、字幕が映像の中に埋め込まれているように感じるため、視聴者に違和感を与えてしまう問題がある。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、立体映像に対して字幕の奥行き方向の位置を最適に設定することが可能な、新規かつ改良された受信装置、通信システム、立体画像への字幕合成方法、プログラム、及びデータ構造を提供することにある。
上記課題を解決するために、本発明のある観点によれば、放送信号に含まれる立体映像のデータを取得する立体映像取得部と、前記放送信号に含まれる字幕オブジェクトのデータを取得する字幕取得部と、前記立体映像の奥行き方向の位置に関する位置情報を取得する位置情報取得部と、前記位置情報に基づいて立体映像に対する字幕オブジェクトの奥行き方向の位置を設定する字幕位置処理部と、を備える、受信装置が提供される。
また、前記位置情報は、前記立体映像を構成する右目用映像と左目用映像のオフセット量であってもよい。
また、前記位置情報は、前記放送信号の番組情報に含まれるものであってもよい。
また、前記位置情報は、前記放送信号の配信側において番組コンテンツ毎に予め設定されるものであってもよい。
また、前記位置情報は、前記立体映像を構成する映像信号のストリームに含まれるものであってもよい。
また、前記位置情報は、字幕オブジェクトの奥行き方向の位置を指定する情報であり、字幕オブジェクトのテキスト情報を規定する字幕情報に含まれるものであってもよい。
また、複数の前記位置情報に基づいて、1つの字幕オブジェクトの中で奥行き方向の位置が可変されるものであってもよい。
また、複数の前記位置情報に基づいて字幕オブジェクトの奥行き方向の位置が動的に変化するものであってもよい。
また、前記字幕オブジェクトの奥行き方向の位置が動的に変化する際の拡大率が前記位置情報によって規定されるものであってもよい。
また、上記課題を解決するために、本発明の別の観点によれば、立体映像の奥行き方向の位置に関する位置情報を含む放送信号を送出する送信装置と、前記放送信号に含まれる立体映像のデータを取得する立体映像取得部と、前記放送信号に含まれる字幕オブジェクトのデータを取得する字幕取得部と、前記位置情報を取得する位置情報取得部と、前記位置情報に基づいて立体映像に対する字幕オブジェクトの奥行き方向の位置を設定する字幕位置処理部と、を有する、受信装置と、を備える通信システムが提供される。
また、上記課題を解決するために、本発明の別の観点によれば、放送信号に含まれる立体映像のデータを取得するステップと、前記放送信号に含まれる字幕オブジェクトのデータを取得するステップと、前記立体映像の奥行き方向の位置に関する位置情報を取得するステップと、前記位置情報に基づいて立体映像に対する字幕オブジェクトの奥行き方向の位置を設定するステップと、を備える、立体画像への字幕合成方法が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、放送信号に含まれる立体映像のデータを取得する手段、前記放送信号に含まれる字幕オブジェクトのデータを取得する手段、前記立体映像の奥行き方向の位置に関する位置情報を取得する手段、前記位置情報に基づいて立体映像に対する字幕オブジェクトの奥行き方向の位置を設定する手段、としてコンピュータを機能させるためのプログラムが提供される。
また、上記課題を解決するために、本発明の別の観点によれば、放送する立体映像コンテンツに係る映像信号と字幕オブジェクトのデータとを含むデジタル放送信号のデータ構造であって、放送信号に含まれる立体映像のデータを取得する手段、前記放送信号に含まれる字幕オブジェクトのデータを取得する手段、前記立体映像の奥行き方向の位置に関する位置情報を取得する手段、前記位置情報に基づいて立体映像に対する字幕オブジェクトの奥行き方向の位置を設定する手段、として受信装置を機能させるためのデジタル放送信号のデータ構造が提供される。
本発明によれば、立体映像に対して字幕の奥行き方向の位置を最適に設定することが可能となる。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.第1の実施形態
(1)本実施形態に係るシステムの構成
(2)字幕3D変換処理部及び合成部で行われる処理
(3)オフセット量Soを設定する具体的手法
2.第2の実施形態
(1)字幕オブジェクト単位でのオフセット量の設定
(2)第2の実施形態に係る受信装置の構成
(3)字幕3D特殊効果について
(4)放送局側で3D映像を撮影する手法
1.第1の実施形態
(1)本実施形態に係るシステムの構成
(2)字幕3D変換処理部及び合成部で行われる処理
(3)オフセット量Soを設定する具体的手法
2.第2の実施形態
(1)字幕オブジェクト単位でのオフセット量の設定
(2)第2の実施形態に係る受信装置の構成
(3)字幕3D特殊効果について
(4)放送局側で3D映像を撮影する手法
1.第1の実施形態
(1)本実施形態に係るシステムの構成
図1は、第1の実施形態に係る受信装置100の構成を示す模式図である。受信装置100は、例えば、デジタル放送信号によって受信したテレビ番組などのコンテンツを視聴するためのユーザ側の装置であり、受信した映像を表示画面上に表示し、音声を出力する。受信装置100は、例えば、サイド・バイ・サイド方式、トップ・アンド・ボトム方式による3D映像と、通常の2D映像を受信して表示することができる。なお、3D映像の方式については、サイド・バイ・サイド方式、トップ・アンド・ボトム方式以外のものであってもよい。
(1)本実施形態に係るシステムの構成
図1は、第1の実施形態に係る受信装置100の構成を示す模式図である。受信装置100は、例えば、デジタル放送信号によって受信したテレビ番組などのコンテンツを視聴するためのユーザ側の装置であり、受信した映像を表示画面上に表示し、音声を出力する。受信装置100は、例えば、サイド・バイ・サイド方式、トップ・アンド・ボトム方式による3D映像と、通常の2D映像を受信して表示することができる。なお、3D映像の方式については、サイド・バイ・サイド方式、トップ・アンド・ボトム方式以外のものであってもよい。
図1に示すように、受信装置100は、復調処理部(デモジュレータ;Demod)102、Demux104、番組情報処理部106、ビデオデコーダ(Video Decoder)108、字幕デコーダ(Caption Decoder)110を備える。また、受信装置100は、オーディオデコーダ(Audio Decoder)112、アプリOSD処理部114,合成部116、3D変換処理部118、字幕(Caption)3D変換処理部120、ディスプレイ122、スピーカ(SP)124を備える。
図1に示すように、放送局200から送信された放送波はアンテナ250で受信されて、受信装置100のデモジュレータ102に送られる。本実施形態では、放送波によって所定の3D方式による3Dの映像データが受信装置100に送られるものとする。ここで、3D方式としては、トップ・アンド・ボトム方式、サイド・バイ・サイド方式などが挙げられるが、これらに限定されるものではない。
デジタル放送の場合は、例えばH.222 ISO/IEC IS 13818-1 Information Technology − Generic Coding of Moving Pictures and Associated Audio Information: Systemのトランスポートストリーム(Transport Stream)を使用して、ビデオ、オーディオ、EPGデータ等を送出し、受信装置はそれを受信して画像、音声、システムデータに分離して、画像、音声を表示する。
受信装置100のデモジュレータ102では、変調された信号を復調し、データストリームを生成する。これにより、パケット列のデータがDEMUX104に送られる。
DEMUX104では、データストリームをフィルタリングし、番組情報データ、映像データ、字幕データ、音声データに分ける。そして、DEMUX104は、映像データをビデオデコーダ108に送るとともに、音声データをオーディオデコーダ112へ送る。また、DEMUX104は、番組情報データを番組情報処理部106へ送るとともに、字幕データを字幕デコーダ110へ送る。
ビデオデコーダ108は、入力された映像データをデコードして、合成部116に送る。また、字幕デコーダ110は、字幕データをデコードして字幕3D変換部120に送る。また、番組情報処理部106は、番組情報をデコードし、番組情報に含まれるオフセット量Soを字幕3D変換部120に送る。なお、オフセット量Soについては後で詳細に説明する。
オーディオデコーダ112は、入力された音声データをデコードして、スピーカ124に送る。スピーカ124は、入力された音声データにより音声を発生させる。
上述したように放送局200からは、トップ・アンド・ボトム方式などによる3D映像の映像データが送られる。このため、ビデオデコーダ108でデコードされた映像は、トップ・アンド・ボトム方式の場合、図1に示すように、右目用映像Rと左目用映像Lが縦方向に配列された映像400となる。また、サイド・バイ・サイド方式の場合、ビデオデコーダ108でデコードされた映像は、右目用映像Rと左目用映像Lが水平方向に配列された映像450となる。
合成部116では、トップ・アンド・ボトム方式などによる3D映像に対して字幕データを付加する処理を行う。この際、右目用映像Rと左目用映像Lのそれぞれに同じ字幕が付加され、後で詳細に説明するが、右目用映像Rと左目用映像Lのそれぞれに付加される字幕は、オフセット量Soに基づいてその位置が互いにオフセットされる。
また、番組情報処理部106は、番組情報に含まれるオフセット量SoをアプリOSD処理部114に送る。アプリOSD処理部114では、映像に挿入するロゴ、メッセージなどを作成し、合成部116に送る。合成部116は、3D映像に対してアプリOSD処理部114で作成されたロゴ、メッセージ等を付加する処理を行う。この際、右目用映像Rと左目用映像Lのそれぞれに同じロゴ、メッセージ等を付加し、右目用映像Rと左目用映像Lのそれぞれに付加されるロゴ、メッセージ等は、オフセット量Soに基づいてその位置が互いにオフセットさせる。
字幕、またはロゴ、メッセージ等が付加された映像データは、3D変換処理部118に送られる。3D変換処理部118では、映像データを例えば240kHzなどのハイフレームレートで表示するようにフレームレートを設定し、表示ディスプレイ122へ出力する。表示ディスプレイ122は、例えば液晶パネルなどから構成されるディスプレイであり、入力されたハイフレームレートの3D映像を表示する。
なお、図1に示す各構成要素は、ハードウェア(回路)、または中央演算処理装置(CPU)とこれを機能させるためのプログラム(ソフトウェア)によって構成することができる。
(2)字幕3D変換処理部及び合成部で行われる処理
次に、字幕3D変換処理部120及び合成部116で行われる処理について詳細に説明する。図2は、字幕3D変換処理部120及び合成部116で行われる処理を示す模式図である。図2に示すように、字幕デコーダ110でデコードされて得られた字幕オブジェクト150は、右目用映像Rと左目用映像Lのそれぞれに付加される。ここでは、右目用映像Rに字幕オブジェクト150Rが付加され、左目用映像Lに字幕オブジェクト150Lが付加されるものとする。なお、図2では、サイド・バイ・サイド方式の場合と、トップ・アンド・ボトム方式のそれぞれにおいて、字幕オブジェクト150が付加される様子を示している。
次に、字幕3D変換処理部120及び合成部116で行われる処理について詳細に説明する。図2は、字幕3D変換処理部120及び合成部116で行われる処理を示す模式図である。図2に示すように、字幕デコーダ110でデコードされて得られた字幕オブジェクト150は、右目用映像Rと左目用映像Lのそれぞれに付加される。ここでは、右目用映像Rに字幕オブジェクト150Rが付加され、左目用映像Lに字幕オブジェクト150Lが付加されるものとする。なお、図2では、サイド・バイ・サイド方式の場合と、トップ・アンド・ボトム方式のそれぞれにおいて、字幕オブジェクト150が付加される様子を示している。
字幕3D変換処理部120では、3D映像における字幕の奥行き方向の位置(飛び出し量)を調整するため、右目用映像Rに付加される字幕オブジェクト150Rと左目用映像Lに付加される字幕オブジェクト150Lとをオフセット量Soだけオフセットさせる。上述したように、オフセット量Soは、番組情報処理部106にて番組情報EITから抽出されて字幕3D変換部120へ送られる。そして、このオフセット量Soの値を適宜設定することで、視聴者が3D映像を見た際に、表示ディスプレイ122の表示画面に対する字幕の奥行き方向の位置を自在に設定することができる。合成部116は、字幕3D変換部120で指定されたオフセット量Soに基づいて字幕オブジェクト150Rと字幕オブジェクト150Lをオフセットして、右目用映像R及び左目用映像Lのそれぞれに付加する。
以下、オフセット量Soにより表示画面に対する字幕の奥行き方向の位置を設定する手法について詳細に説明する。図3は、表示ディスプレイ122の表示画面に右目用映像Rと左目用映像Lが表示された際に、3D映像の奥行き方向の位置(飛び出し量)とオフセット量Soとの関係を示す図である。また、図3は、表示ディスプレイ122の表示画面及び視聴者(Man)を上方向から見た状態を模式的に示した図である。図3に示すように、立体映像を表示するため、表示画面には右目用映像Rと左目用映像Lが表示される。
図3において、表示画面上で右目用映像Rが左目用映像Lよりも左にオフセットしている場合は、ユーザには、3D映像が表示ディスプレイ122の表示画面よりも前に飛び出しているように見える。また、表示画面上で右目用映像Rが左目用映像Lよりも右にオフセットしている場合は、ユーザには、3D映像が表示画面よりも奥に位置しているように見える。また、右目用映像と左目用映像Rとがオフセットしていない場合は、映像が表示画面の位置に見える。
従って、図3において、右目用映像R1と左目用映像L1によって表示される立体映像3D1は、視聴者にとっては表示画面上に位置するように見える。また、右目用映像R2と左目用映像L2によって表示される立体映像3D2は、表示画面よりも手前側に飛び出して見える。また、右目用映像R3と左目用映像L3によって表示される立体映像3D3は、表示画面よりも奥側に位置しているように見える。従って、視聴者には、図3中に曲線で示す位置に3D映像によって表示された物体が位置しているように見える。このように、表示画面上で右目用映像R1と左目用映像L1との間にオフセットを持たせることで、図2中の実線の曲線で示すように、立体映像の表示画面に対する奥行き方向の位置を規定することができる。
3D映像の奥行き方向の位置は、ユーザの右目と右目用映像Rを結ぶ直線LRと、ユーザの左目と左目用映像Rを結ぶ直線LLとの交点の位置となる。従って、オフセット量Soにより、物体の位置を表示画面からの飛び出し量を自由に設定することが可能である。なお、以下の説明では、立体映像の表示画面の奥行き方向の位置を深さDoで表すものとし、Do>0の場合は映像の位置が表示画面よりも手前に見えるものとし、Do<0の場合は映像の位置が表示画面よりも奥に見えるものとする。
本実施形態において、字幕3D変換処理部120は、番組情報から抽出されたオフセット量Soを用いて字幕の奥行き方向の位置を決定して表示する。オフセット量Soは、放送局200側で映像のコンテンツに応じて決定され、番組情報に挿入される。
図4は、字幕の最適な奥行き方向の位置について説明するための模式図である。図4に示すように、字幕は3D映像の最も飛び出した位置よりも手前(ユーザ側)に表示することが望ましい。これは、字幕が3D映像の最も飛び出した位置よりも奥に位置していると、映像に字幕が埋め込まれて見えるため、映像が不自然になるためである。
図5及び図6は、オフセット値Soと深さDoとの関係を示す模式図である。ここで、図5は、3D映像で表示された物体が表示画面よりも手前に位置して見える場合を示している。また、図6は、3D映像で表示された物体が表示画面よりも奥に位置して見える場合を示している。
オフセット量Soは、表示ディスプレイ122の画素数で表すものとすると、以下の数式(1)によりオフセット量Soを求めることができる。
So=Do×(We/(Dm−Do))×(Ss/Ws) ・・・(1)
数式(1)において、Weは視聴者の左右の眼の距離、Dmは視聴者の眼から表示ディスク122の表示画面までの距離、Ssは表示ディスプレイ122の横方向の画素数、Wsは表示ディスプレイ122の横幅をそれぞれ示している。
So=Do×(We/(Dm−Do))×(Ss/Ws) ・・・(1)
数式(1)において、Weは視聴者の左右の眼の距離、Dmは視聴者の眼から表示ディスク122の表示画面までの距離、Ssは表示ディスプレイ122の横方向の画素数、Wsは表示ディスプレイ122の横幅をそれぞれ示している。
数式(1)において、Doは物体の奥行き方向の位置を示しており、Do>0の場合は、物体が表示画面よりも手前側に位置している状態となる。また、Do<0の場合は、物体が表示画面よりも奥に位置している状態となる。また、Do=0の場合は、物体が表示画面上に位置している状態となる。また、オフセット量Soは、左目用映像Lを基準とし、左目用映像Lから右目用映像Rまでの距離を表すものとし、図5及び図6において、右から左に向かう方向をプラス方向とする。従って、図5の場合はSo≧0であり、図6の場合はSo<0である。このようにDoとSoの符号+,−を設定することで、物体が表示画面の手前側に表示される場合と奥側に表示される場合の双方において、数式(1)によりオフセット量Soを求めることができる。以上のように、数式(1)によれば、表示画面に対する字幕の奥行き方向の位置Doとオフセット量Soの関係を規定することができる。
(3)オフセット量Soを設定する具体的手法
次に、字幕のオフセット量Soを設定する具体的手法について説明する。図7は、映像の最大のオフセット情報に基づいて字幕のオフセット量を設定する手法を示す模式図である。図7は、ある番組の映像が表示されている最中に、ビデオデコーダ108でデコードされて表示ディスプレイ122に表示される映像コンテンツについて、曲線で示す表示位置の奥行きDoの最大値が時系列に変化する様子を示している。図7は、図3等と同様に、表示ディスプレイ122の表示画面を上方向から見た状態を示している。
次に、字幕のオフセット量Soを設定する具体的手法について説明する。図7は、映像の最大のオフセット情報に基づいて字幕のオフセット量を設定する手法を示す模式図である。図7は、ある番組の映像が表示されている最中に、ビデオデコーダ108でデコードされて表示ディスプレイ122に表示される映像コンテンツについて、曲線で示す表示位置の奥行きDoの最大値が時系列に変化する様子を示している。図7は、図3等と同様に、表示ディスプレイ122の表示画面を上方向から見た状態を示している。
図7に示すように、時間の経過に伴って映像コンテンツの奥行きはDo1、Do2、Do3、Do4、Do5のように順次変化する。また、これに伴い、右目用映像Rと左目用映像Lのオフセット量も、So1、So2、So3、So4、So5のように順次変化する。
そして、図7に示す手法では、放送局200側において、ある番組内で最も奥行きの位置が手前になる映像(3D映像として最も手前に飛び出した映像)を抽出する。図7の例では、奥行きがDo3となる映像が最も手前に位置する映像となり、So3の値がプラス側に最も大きいオフセット量として抽出される。抽出された最大のオフセット量So3は、デジタル放送フォーマットの番組情報(例えばEITpf、EPGデータ等)の中に挿入され、映像データ等とともに受信装置100に伝送される。
受信装置100は、番組情報処理部106において、番組情報をデコードし、番組情報の中からオフセット量So3を抽出すると、字幕3D変換部120にてこのオフセットSo3よりもプラス側に大きいオフセット量を設定する。合成部116は、設定されたオフセット量に基づいて、字幕を右目用映像R及び左目用映像Lに合成する。このようにして、放送局200から送られたオフセット量So3よりも大きいオフセット量で字幕を表示することにより、字幕を映像コンテンツよりも手前側に表示することができ、視聴者が違和感をもつことがなく、適正な表示を実現できる。
図8は、デジタル放送信号における映像情報ストリーム、番組情報ストリーム、及び字幕情報ストリームを示す模式図である。図8に示すように、番組1の映像情報ストリームを受信している場合、これに対応して番組1の番組情報と、番組1の次に放送される番組2の番組情報が受信される。従って、受信装置100は、番組情報から現在視聴している番組のオフセット量Soと、次に視聴する番組のオフセット情報を取得することができる。従って、現在視聴している番組の3D映像内の適正な奥行き方向の位置に字幕オブジェクトを表示できるとともに、次に視聴する番組についても、3D映像内の適正な奥行き方向の位置に字幕オブジェクトを表示できる。
また、図8に示す字幕ストリームの字幕データ内にもオフセット量Soを挿入することが可能である。これについては、後述する第2の実施形態で詳細に説明する。
また、図9は、番組単位ではなく、GOP単位で、Video ESのヘッダまたはPESヘッダの拡張領域に、最大オフセット値を記述する例を示す模式図である。例えばMPEG2 video(H.222 ISO/IEC IS 13818-1 Information Technology − Generic Coding of Moving Picture and Associated Audio Information: Video)に挿入する場合、同フォーマットで定義されるpicture headerのUser dataエリアに入れることができる。また、シーケンスヘッダ、スライスヘッダ、またはマクロブロックヘッダに3D映像に関するデータを挿入しても良い。この場合、各GOPに記述されるオフセット量Soの値は、So1、So2、So3、So4、So5のように時系列に刻々と変化する。
ビデオデコーダ108では、各GOPからオフセット量を逐次取得し、字幕3D変換部120へ送る。字幕3D変換部120では、取得したオフセットSoよりもプラス側に大きいオフセット量を設定し、合成部116にて字幕を右目用映像R及び左目用映像Lに合成する。以上のような構成によれば、GOPのヘッダ毎にオフセット量を切り換えることができるため、映像に応じて字幕の奥行き方向の位置を逐次設定することが可能となる。従って、受信装置100では、映像と同じタイミングで表示される字幕表示において、映像のオフセット値より大きいオフセットで字幕を表示することにより、視聴者に違和感を与えることなく、適正な表示を確保できる。
以上説明したように第1の実施形態によれば、放送局200側で放送信号の中に字幕オブジェクト150のオフセット量Soを挿入するようにした。このため、受信装置100側ではオフセット量Soを抽出することによって、3D映像中の最適な奥行き位置に字幕オブジェクト150を配置することが可能となる。
2.第2の実施形態
次に、本発明の第2の実施形態について説明する。第2の実施形態は、字幕データに含まれる情報に基づいてオブジェクト単位で3Dの位置制御、特殊効果を行うものである。
次に、本発明の第2の実施形態について説明する。第2の実施形態は、字幕データに含まれる情報に基づいてオブジェクト単位で3Dの位置制御、特殊効果を行うものである。
(1)字幕オブジェクト単位でのオフセット量の設定
図10は、第2の実施形態に係る字幕の3D表示の一例を示す模式図である。図10に示す例では、映像として2人の人物A,Bが表示ディスプレイ122の表示画面に3D表示されている。また、人物A,Bの近傍には、人物A,Bのそれぞれが発している言葉が字幕A,Bとして表示されている。表示画面の下に示された曲線は、各人物A,Bの表示画面位置に対する奥行き方向の位置を示しており、図3等と同様に表示ディスプレイ122を上方向から見た場合の映像の奥行き方向の位置を示している。
図10は、第2の実施形態に係る字幕の3D表示の一例を示す模式図である。図10に示す例では、映像として2人の人物A,Bが表示ディスプレイ122の表示画面に3D表示されている。また、人物A,Bの近傍には、人物A,Bのそれぞれが発している言葉が字幕A,Bとして表示されている。表示画面の下に示された曲線は、各人物A,Bの表示画面位置に対する奥行き方向の位置を示しており、図3等と同様に表示ディスプレイ122を上方向から見た場合の映像の奥行き方向の位置を示している。
図10に示すように、人物Aは表示画面よりも手前に位置し、人物Bは表示画面よりも奥に位置している。このような場合において、図10の例では、表示画面内で奥行き位置が異なるそれぞれの映像に合わせて字幕の奥行き位置を設定する。図10の例では、人物Aに関係する字幕Aは、その奥行き方向の位置が人物Aよりも手前側に3D表示される。また、人物Bに関係する字幕Bは、その奥行き方向の位置が人物Bよりも手前側に3D表示される。
このように、表示画面に字幕を表示する場合に、字幕が関係する映像のオブジェクト単位で3Dの奥行き方向の位置を制御し、コンテンツに合わせて放送局200(事業者)側で字幕の表示位置を制御するための情報を放送信号の中に挿入する。これにより、映像の各コンテンツの奥行き位置と字幕の奥行き位置を一致させることができるため、視聴者に対して自然な映像を提供することができる。
図11は、字幕の位置制御の手法を示す模式図である。字幕オブジェクト150は、水平方向位置Soh、垂直方向位置Sovの2つもパラメータによって表示画面の面方向の位置が制御される。また、第1の実施形態と同様に、オフセット量Sodによって奥行き方向の位置が制御される。図11に示すように、第2の実施形態では、水平方向位置Soh、垂直方向位置Sov、及びオフセット量Sodは、デジタル放送フォーマットの中の字幕情報(字幕データ)の中に含まれている。
(2)第2の実施形態に係る受信装置の構成
図12は、第2の実施形態に係る受信装置100の構成を示す模式図である。第2の実施形態に係る受信装置100の基本的な構成は、第1の実施形態に係る受信装置100と同様である。第2の実施形態では、字幕情報の中に含まれる水平方向位置Soh、垂直方向位置Sov、及びオフセット量Sodは、字幕デコーダ110において抽出され、字幕3D変換部120に送られる。水平方向位置Soh及び垂直方向位置Sovは、字幕オブジェクト150の画面内での位置を指定する情報である。図11に示すように、水平方向位置Sohは字幕オブジェクト150の水平方向の位置を、垂直方向位置Sovは字幕オブジェクト150の垂直方向の位置を規定する。また、オフセット量Sodは、第1の実施形態のオフセット量Soに対応し、字幕オブジェクト150の奥行き方向の位置を指定する。字幕3D変換部は、オフセット量Sodに基づいて左右映像の字幕オブジェクト150R,150Lのオフセットを設定することで、字幕オブジェクト150の奥行き位置を指定する。また、字幕3D変換部120は、Soh,Sovに基づいて左右映像の字幕オブジェクト150R,150Lの表示画面内の位置を指定する。合成部116は、字幕3D変換部120で指定されたSoh,Sov,Soに基づいて、字幕オブジェクト150R,150Lを右目用映像R及び左目用映像Lのそれぞれに付加する。これにより、図11に示すように、字幕デコーダ110でデコードされた字幕オブジェクト150は、右目用映像Rと左目用映像Lのそれぞれに対して、水平方向位置Soh、垂直方向位置Sov、及びオフセット量Sodに基づいて、適正な位置に付加される。このように、字幕オブジェクト150の画面位置と共に、3Dの奥行き方向の深さ(depth)をサンプルオフセット値Sodにより字幕データ上で指定することができる。
図12は、第2の実施形態に係る受信装置100の構成を示す模式図である。第2の実施形態に係る受信装置100の基本的な構成は、第1の実施形態に係る受信装置100と同様である。第2の実施形態では、字幕情報の中に含まれる水平方向位置Soh、垂直方向位置Sov、及びオフセット量Sodは、字幕デコーダ110において抽出され、字幕3D変換部120に送られる。水平方向位置Soh及び垂直方向位置Sovは、字幕オブジェクト150の画面内での位置を指定する情報である。図11に示すように、水平方向位置Sohは字幕オブジェクト150の水平方向の位置を、垂直方向位置Sovは字幕オブジェクト150の垂直方向の位置を規定する。また、オフセット量Sodは、第1の実施形態のオフセット量Soに対応し、字幕オブジェクト150の奥行き方向の位置を指定する。字幕3D変換部は、オフセット量Sodに基づいて左右映像の字幕オブジェクト150R,150Lのオフセットを設定することで、字幕オブジェクト150の奥行き位置を指定する。また、字幕3D変換部120は、Soh,Sovに基づいて左右映像の字幕オブジェクト150R,150Lの表示画面内の位置を指定する。合成部116は、字幕3D変換部120で指定されたSoh,Sov,Soに基づいて、字幕オブジェクト150R,150Lを右目用映像R及び左目用映像Lのそれぞれに付加する。これにより、図11に示すように、字幕デコーダ110でデコードされた字幕オブジェクト150は、右目用映像Rと左目用映像Lのそれぞれに対して、水平方向位置Soh、垂直方向位置Sov、及びオフセット量Sodに基づいて、適正な位置に付加される。このように、字幕オブジェクト150の画面位置と共に、3Dの奥行き方向の深さ(depth)をサンプルオフセット値Sodにより字幕データ上で指定することができる。
従って、複数の字幕オブジェクト150を表示する場合は、各字幕オブジェクト150について水平方向位置Soh、垂直方向位置Sov、オフセット量Sodを設定する。これにより、各字幕オブジェクト150を映像に合わせた最適な位置に配置することができる。
(3)字幕3D特殊効果について
図13は、第2の実施形態にかかる字幕3Dの特殊効果を示す模式図である。上述したように、第2の実施形態では、字幕データの中に含まれるSoh,Sov,Sodにより、左右映像中の字幕オブジェクト150R,150Lの位置を指定する。図13の例は、これを応用して、2つの異なるオフセット量により字幕オブジェクト150の位置を指定するものである。
図13は、第2の実施形態にかかる字幕3Dの特殊効果を示す模式図である。上述したように、第2の実施形態では、字幕データの中に含まれるSoh,Sov,Sodにより、左右映像中の字幕オブジェクト150R,150Lの位置を指定する。図13の例は、これを応用して、2つの異なるオフセット量により字幕オブジェクト150の位置を指定するものである。
図13に示す例では、「CAPTION」という字幕オブジェクト150を表示する際に、字幕の左側ほど視聴者から見て表示画面よりも手前側に表示されるように3D表示を行う。このため、字幕データの中には、2つのオフセット量Sod11,Sod12が含まれている。
図13に示すように、字幕オブジェクト150の左端では、オフセット量Sod11により左右映像中の字幕オブジェクト150のオフセットが規定され、表示画面に対する奥行き方向の位置はDo11となる。一方、字幕オブジェクト150の右側では、オフセット量Sod12により左右映像中の字幕オブジェクト150のオフセットが規定され、表示画面に対する奥行き方向の位置はDo12となる。そして、字幕オブジェクト150の左端と右端の間では、左端または右端からの水平方向の距離に応じて、リニアに奥行き位置が変化するようにオフセット量が受信装置100側で規定される。従って、視聴者は、「CAPTION」の左側ほど手前側に表示され、右側ほど奥に表示された字幕オブジェクト150を見ることができる。
また、図14は、字幕3D特殊効果の他の例を示す模式図である。図14に示す例では、字幕オブジェクト150の左右の端部が最も奥側に表示され、字幕オブジェクト150の中央が最も手前側に表示される。このため、図14の例においても、2つの異なるオフセット量により字幕オブジェクトの位置が指定される。
図14に示すように、字幕オブジェクト150の左端及び右端では、オフセット量Sod11により左右映像中の字幕オブジェクトのオフセットが規定され、表示画面に対する奥行き方向の位置はDo11となる。一方、字幕オブジェクト150の中央では、オフセット量Sod12により左右映像中の字幕オブジェクト150のオフセットが規定され、表示画面に対する奥行き方向の位置はDo12となる。そして、字幕オブジェクト150の左端と中央の間、及び中央と右端の間では、所定の曲線、またはリニアに奥行き方向の位置が変化するようオフセット量が受信装置100側で規定される。従って、視聴者は、「CAPTION」の左側及び右側ほど奥側に表示され、中央ほど手前側に表示された字幕オブジェクト150を見ることができる。
図15は、字幕3D特殊効果として、字幕オブジェクト150を表示画面の奥から手前側に移動させる例を示す模式図である。図15に示す例では、「CAPTION」という字幕オブジェクト150を表示する際に、ある時間内で位置Aから位置Bに移動させ、奥行き方向の位置を奥側から手前側に移動させる。
より詳細には、字幕データに含まれる情報により、移動開始位置Aの画面上の位置情報(水平方向位置Soh1、垂直方向位置Sov1)とオフセット量Sod11、及び、移動終了位置Bの画面上の位置情報(水平方向位置Soh2、垂直方向位置Sov2)とオフセット量Sod21、移動スピード(または移動時間moving_time))が指定される。受信装置100側では、さらに、後述する数式(3)で字幕オブジェクト150をスケーリングして、適切な大きさでレンダリングする。
図15に示すように、受信装置100では、Soh1,Sov1,Soh2,Sov2に基づいて字幕オブジェクト150を左右映像に合成することにより、字幕オブジェクト150を位置Aから位置Bへ移動させる。また、位置Aでは、オフセット量Sod11により字幕オブジェクト150の奥行き方向の位置がDod11とされ、位置Bではオフセット量Sod21により字幕オブジェクト150の奥行き方向の位置がDo21とされる。これにより、字幕オブジェクト150が位置Aから位置Bへ移動させた際に、奥行き方向の位置を表示画面の奥側から手前側に移動させることができる。
図16は、図15の例において、字幕オブジェクト150のダイナミックな移動による表示サイズの変化を説明するための模式図である。字幕等のオブジェクトを奥行き方向で移動させた場合、表示画面上での表示サイズを一定にすると、オブジェクトの手前側への移動に伴って、オブジェクトの見た目のサイズが小さくなる。3Dの奥行き方向の移動に伴う、オブジェクトの見た目でのサイズを不変とするためには、表示画面上での表示領域において、サイズのスケーリングが必要となる。図16は、このスケーリングを説明するための模式図である。
ここで、図16(A)は、オブジェクト(ここでは物体Xとする)が表示画面よりも奥に位置している場合を示している(図15の位置Aに相当)。また、図16(B)は、図16(A)の状態から手前側に移動してきた物体Xが、表示画面よりも手前側に位置している場合を示している(図16の位置Bに相当)。図16(A)及び図16(B)において、Trは物体Aの見かけ上の大きさ(横幅)、Toは表示画面上での物体Aの大きさ(横幅)をそれぞれ示している。図16(A)及び図16(B)において、Toは以下の数式(2)で表すことができる。
To=(Dm*Tr)/(Dm−Do) ・・・(2)
To=(Dm*Tr)/(Dm−Do) ・・・(2)
ここで、位置Aにおける物体Xの横幅をTo1、位置Bにおける物体Xの横幅をTo2とし、To1の値に対するTo2の値をスケーリング率とする。この場合、図16(A)と図16(B)において、見かけ上の物体Xの横幅Trを一定に保つためのスケーリング率は、位置Aと位置Bにおける左右映像のオフセット量So1,So2とその他の固定パラメータより以下の数式(3)で求められる。
To2/To1=(Dm−Do1)/(Dm−Do2)=(Do1・So2)/(Do2・So1)=(We・Ss+Ws・So2)/(We・Ss+Ws・So1)
To2/To1=(Dm−Do1)/(Dm−Do2)=(Do1・So2)/(Do2・So1)=(We・Ss+Ws・So2)/(We・Ss+Ws・So1)
以上のように、スケーリング率はオフセット量So1,So2で規定することができるため、字幕データの中にスケーリング率として新たなパラメータを含める必要はない。但し、位置Aと位置Bにおいて、見かけ上の物体Aの大きさを拡大したい場合等は、その拡大率を表すパラメータを字幕データの中に含めても良い。
図17は、以上説明した特殊効果指定も含む字幕情報のフォーマット例を示す模式図である。特殊効果を使う場合は、Sov1,Soh1、text(字幕オブジェクト自体の情報)の情報の他に、3D拡張領域が設けられる。
以下、3D拡張領域に含まれる情報について詳細に説明すると、3D拡張領域には、オフセット量Sod11,Sod12,Sod21、スタティック効果フラグ(Static_Effect_flag)、などの情報が含まれる。また、3D拡張領域には、ダイナミック効果フラグ(Dynamic_Effect_flag)、スタティック効果モード(Static_Effect_mode)、ダイナミック効果モード(Dynamic_Effect_mode)、終端垂直方向位置Sov2、終端水平方向位置Soh2、移動時間(moving_time)などの情報が含まれる。
スタティック効果フラグが“1”の場合は、図13、図14で説明した特殊効果が実現される。この場合、例えばスタティック効果モードが“0”の場合は図14の特殊効果が実現され、スタティック効果モードが“1”の場合は図15の特殊効果が実現されるものとすることができる。また、この場合、2つのオフセット量Sod11,Sod12が用いられる。
また、ダイナミック効果フラグが“1”の場合は、図15、図16で説明した特殊効果が実現される。この場合、例えばダイナミック効果モードが“0”の場合は、図15で説明したような、字幕オブジェクト150が奥側から手前側に移動する特殊効果が実現される。また、例えばダイナミック効果モードが“1”の場合は、字幕オブジェクト150が手前側から奥側に移動する特殊効果が実現される。また、ダイナミック効果モードの値により左右への字幕オブジェクト150の移動を規定しても良い。また、この場合、オフセット量Sod11、オフセット量Sod21は、位置A、位置Bでのオフセット量をそれぞれ規定する。また、終端垂直方向位置Sov2、終端水平方向位置Soh2は、図15の位置Bにおける位置情報である。また、移動時間(moving_time)は、図15で位置Aから位置Bへ移動する時間を規定する情報である。
以上のように、受信装置100は、図17に示す字幕データを受信することにより、図13〜図16で説明したような特殊効果を3D映像中で実現することができる。
(4)放送局側で3D映像を撮影する手法
図18は、放送局200側で3D映像の右目用映像R、左目用映像Lを撮影する手法を示す模式図である。ここでは、例えばスタジオ内の人物Cを撮影する場合について説明する。図18に示すように、人物Cの手前には、右目用映像Rを撮影するカメラRと左目用映像Lを撮影するカメラLが配置される。そして、カメラRの光軸ORとカメラLの光軸OLとの交点を表示画面位置とする。また、表示画面の横幅をWsとし、表示画面の横方向画素数をSsとし、カメラR,Lから表示画面位置までの距離をDsとし、カメラR,Lから人物Cまでの距離をDoとし、カメラRとカメラLの距離をWcとする。このとき、表示画面位置でのオフセットSoは、以下の数式(4)で表すことができる。
So=Wc*((Ds−Do)/Do)*(Ss/Ws) ・・・(4)
従って、カメラR,Lで撮影した右目用映像R、左目用映像Lを上式で求めたオフセットSoだけオフセットすることにより、表示画面から手前側に飛び出した人物Cの映像を立体映像で表示することができる。
図18は、放送局200側で3D映像の右目用映像R、左目用映像Lを撮影する手法を示す模式図である。ここでは、例えばスタジオ内の人物Cを撮影する場合について説明する。図18に示すように、人物Cの手前には、右目用映像Rを撮影するカメラRと左目用映像Lを撮影するカメラLが配置される。そして、カメラRの光軸ORとカメラLの光軸OLとの交点を表示画面位置とする。また、表示画面の横幅をWsとし、表示画面の横方向画素数をSsとし、カメラR,Lから表示画面位置までの距離をDsとし、カメラR,Lから人物Cまでの距離をDoとし、カメラRとカメラLの距離をWcとする。このとき、表示画面位置でのオフセットSoは、以下の数式(4)で表すことができる。
So=Wc*((Ds−Do)/Do)*(Ss/Ws) ・・・(4)
従って、カメラR,Lで撮影した右目用映像R、左目用映像Lを上式で求めたオフセットSoだけオフセットすることにより、表示画面から手前側に飛び出した人物Cの映像を立体映像で表示することができる。
以上説明したように第2の実施形態によれば、字幕データの中に字幕オブジェクト150の水平方向位置Soh、垂直方向位置Sov、オフセット量Sodの情報を挿入する。これにより、受信装置100側では、これらの情報に基づいて字幕オブジェクト150を最適に表示することが可能となる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
100 受信装置
106 番組情報処理部
108 ビデオデコーダ
110 字幕デコーダ
120 字幕3D変換部
200 放送局
106 番組情報処理部
108 ビデオデコーダ
110 字幕デコーダ
120 字幕3D変換部
200 放送局
Claims (13)
- 放送信号に含まれる立体映像のデータを取得する立体映像取得部と、
前記放送信号に含まれる字幕オブジェクトのデータを取得する字幕取得部と、
前記立体映像の奥行き方向の位置に関する位置情報を取得する位置情報取得部と、
前記位置情報に基づいて立体映像に対する字幕オブジェクトの奥行き方向の位置を設定する字幕位置処理部と、
を備える、受信装置。 - 前記位置情報は、前記立体映像を構成する右目用映像と左目用映像のオフセット量である、請求項1に記載の受信装置。
- 前記位置情報は、前記放送信号の番組情報に含まれる、請求項1に記載の受信装置。
- 前記位置情報は、前記放送信号の配信側において番組コンテンツ毎に予め設定される、請求項3に記載の受信装置。
- 前記位置情報は、前記立体映像を構成する映像信号のストリームに含まれる、請求項1に記載の受信装置。
- 前記位置情報は、字幕オブジェクトの奥行き方向の位置を指定する情報であり、字幕オブジェクトのテキスト情報を規定する字幕情報に含まれる、請求項1に記載の受信装置。
- 複数の前記位置情報に基づいて、1つの字幕オブジェクトの中で奥行き方向の位置が可変される、請求項6に記載の受信装置。
- 複数の前記位置情報に基づいて字幕オブジェクトの奥行き方向の位置が動的に変化する、請求項6に記載の受信装置。
- 前記字幕オブジェクトの奥行き方向の位置が動的に変化する際の拡大率が前記位置情報によって規定される、請求項8に記載の受信装置。
- 立体映像の奥行き方向の位置に関する位置情報を含む放送信号を送出する送信装置と、
前記放送信号に含まれる立体映像のデータを取得する立体映像取得部と、前記放送信号に含まれる字幕オブジェクトのデータを取得する字幕取得部と、前記位置情報を取得する位置情報取得部と、前記位置情報に基づいて立体映像に対する字幕オブジェクトの奥行き方向の位置を設定する字幕位置処理部と、を有する、受信装置と、
を備える通信システム。 - 放送信号に含まれる立体映像のデータを取得するステップと、
前記放送信号に含まれる字幕オブジェクトのデータを取得するステップと、
前記立体映像の奥行き方向の位置に関する位置情報を取得するステップと、
前記位置情報に基づいて立体映像に対する字幕オブジェクトの奥行き方向の位置を設定するステップと、
を備える、立体画像への字幕合成方法。 - 放送信号に含まれる立体映像のデータを取得する手段、
前記放送信号に含まれる字幕オブジェクトのデータを取得する手段、
前記立体映像の奥行き方向の位置に関する位置情報を取得する手段、
前記位置情報に基づいて立体映像に対する字幕オブジェクトの奥行き方向の位置を設定する手段、
としてコンピュータを機能させるためのプログラム。 - 放送する立体映像コンテンツに係る映像信号と字幕オブジェクトのデータとを含むデジタル放送信号のデータ構造であって、
放送信号に含まれる立体映像のデータを取得する手段、
前記放送信号に含まれる字幕オブジェクトのデータを取得する手段、
前記立体映像の奥行き方向の位置に関する位置情報を取得する手段、
前記位置情報に基づいて立体映像に対する字幕オブジェクトの奥行き方向の位置を設定する手段、
として受信装置を機能させるためのデジタル放送信号のデータ構造。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009172490A JP2011029849A (ja) | 2009-07-23 | 2009-07-23 | 受信装置、通信システム、立体画像への字幕合成方法、プログラム、及びデータ構造 |
US12/818,831 US20110018966A1 (en) | 2009-07-23 | 2010-06-18 | Receiving Device, Communication System, Method of Combining Caption With Stereoscopic Image, Program, and Data Structure |
EP10169496A EP2293585A1 (en) | 2009-07-23 | 2010-07-14 | Receiving device, communication system, method of combining caption with stereoscopic image, program and data structure |
CN201010232155XA CN101964915A (zh) | 2009-07-23 | 2010-07-16 | 接收设备、通信系统、组合字幕与立体图像的方法及节目 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009172490A JP2011029849A (ja) | 2009-07-23 | 2009-07-23 | 受信装置、通信システム、立体画像への字幕合成方法、プログラム、及びデータ構造 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011029849A true JP2011029849A (ja) | 2011-02-10 |
Family
ID=42732709
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009172490A Withdrawn JP2011029849A (ja) | 2009-07-23 | 2009-07-23 | 受信装置、通信システム、立体画像への字幕合成方法、プログラム、及びデータ構造 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20110018966A1 (ja) |
EP (1) | EP2293585A1 (ja) |
JP (1) | JP2011029849A (ja) |
CN (1) | CN101964915A (ja) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011155418A1 (ja) * | 2010-06-10 | 2011-12-15 | ソニー株式会社 | 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 |
WO2012026342A1 (ja) * | 2010-08-23 | 2012-03-01 | ソニー株式会社 | 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 |
JP4892105B1 (ja) * | 2011-02-21 | 2012-03-07 | 株式会社東芝 | 映像処理装置、映像処理方法および映像表示装置 |
WO2012043352A1 (ja) * | 2010-10-01 | 2012-04-05 | ソニー株式会社 | 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 |
WO2012118231A1 (en) * | 2011-03-02 | 2012-09-07 | Sharp Kabushiki Kaisha | Method and device for displaying a pair of stereoscopic images |
JP2012175698A (ja) * | 2011-12-13 | 2012-09-10 | Toshiba Corp | 映像処理装置、映像処理方法および映像表示装置 |
JP2012186652A (ja) * | 2011-03-04 | 2012-09-27 | Toshiba Corp | 電子機器、画像処理方法及び画像処理プログラム |
WO2012144372A1 (ja) * | 2011-04-21 | 2012-10-26 | シャープ株式会社 | 映像供給装置、および、映像供給方法 |
JP2013003586A (ja) * | 2011-06-14 | 2013-01-07 | Samsung Electronics Co Ltd | 映像変換メカニズムを活用したディスプレイ装置およびその動作方法 |
WO2013039347A1 (ko) * | 2011-09-14 | 2013-03-21 | 삼성전자 주식회사 | 영상 처리 장치 및 그 영상 처리 방법 |
JP2013064996A (ja) * | 2011-08-26 | 2013-04-11 | Nikon Corp | 三次元画像表示装置 |
WO2013054371A1 (ja) * | 2011-10-11 | 2013-04-18 | パナソニック株式会社 | 立体字幕処理装置および立体字幕処理方法 |
JP2013090019A (ja) * | 2011-10-14 | 2013-05-13 | Hitachi Consumer Electronics Co Ltd | 映像出力装置および映像出力方法 |
WO2013108633A1 (ja) * | 2012-01-18 | 2013-07-25 | パナソニック株式会社 | 送信装置、映像表示装置、送信方法、映像処理方法、映像処理プログラム及び集積回路 |
WO2013111552A1 (ja) * | 2012-01-27 | 2013-08-01 | パナソニック株式会社 | 画像処理装置、撮像装置および画像処理方法 |
JP2015512196A (ja) * | 2012-02-13 | 2015-04-23 | トムソン ライセンシングThomson Licensing | 3dグラフィックス・アニメーションを3dステレオ・コンテンツに挿入する方法および装置 |
JP2015517236A (ja) * | 2012-04-10 | 2015-06-18 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | 表示オブジェクトの表示位置を提供し、3次元シーン内の表示オブジェクトを表示するための方法および装置 |
US9313442B2 (en) | 2010-04-14 | 2016-04-12 | Samsung Electronics Co., Ltd. | Method and apparatus for generating a broadcast bit stream for digital broadcasting with captions, and method and apparatus for receiving a broadcast bit stream for digital broadcasting with captions |
US9407897B2 (en) | 2011-09-30 | 2016-08-02 | Panasonic Intellectual Property Management Co., Ltd. | Video processing apparatus and video processing method |
JP2017182076A (ja) * | 2011-08-26 | 2017-10-05 | 株式会社ニコン | 画像表示装置 |
WO2023248678A1 (ja) * | 2022-06-24 | 2023-12-28 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及び情報処理システム |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8970669B2 (en) * | 2009-09-30 | 2015-03-03 | Rovi Guides, Inc. | Systems and methods for generating a three-dimensional media guidance application |
US20110137727A1 (en) * | 2009-12-07 | 2011-06-09 | Rovi Technologies Corporation | Systems and methods for determining proximity of media objects in a 3d media environment |
US20120320153A1 (en) * | 2010-02-25 | 2012-12-20 | Jesus Barcons-Palau | Disparity estimation for stereoscopic subtitling |
KR20110138151A (ko) * | 2010-06-18 | 2011-12-26 | 삼성전자주식회사 | 자막 서비스를 포함하는 디지털 방송 서비스를 제공하기 위한 비디오 데이터스트림 전송 방법 및 그 장치, 자막 서비스를 포함하는 디지털 방송 서비스를 제공하는 비디오 데이터스트림 수신 방법 및 그 장치 |
KR20120004203A (ko) * | 2010-07-06 | 2012-01-12 | 삼성전자주식회사 | 디스플레이 방법 및 장치 |
JP2012060318A (ja) * | 2010-09-07 | 2012-03-22 | Sony Corp | 表示制御装置、表示制御方法、及びプログラム |
US20120092364A1 (en) * | 2010-10-14 | 2012-04-19 | Microsoft Corporation | Presenting two-dimensional elements in three-dimensional stereo applications |
JP2012205285A (ja) * | 2011-03-28 | 2012-10-22 | Sony Corp | 映像信号処理装置及び映像信号処理方法 |
WO2012150100A1 (en) | 2011-05-02 | 2012-11-08 | Thomson Licensing | Smart stereo graphics inserter for consumer devices |
TW201249169A (en) * | 2011-05-24 | 2012-12-01 | Wintek Corp | LCD driver chip with 3D display functions and application methods thereof |
JP5991596B2 (ja) | 2011-06-01 | 2016-09-14 | パナソニックIpマネジメント株式会社 | 映像処理装置、送信装置、映像処理システム、映像処理方法、送信方法、コンピュータプログラム及び集積回路 |
KR20130011506A (ko) * | 2011-07-21 | 2013-01-30 | 삼성전자주식회사 | 3d 디스플레이 장치 및 컨텐츠 출력 방법 |
CN102917176B (zh) * | 2011-08-05 | 2015-08-26 | 新奥特(北京)视频技术有限公司 | 一种三维立体视差字幕的产生方法 |
JP5694883B2 (ja) * | 2011-08-23 | 2015-04-01 | 京セラ株式会社 | 表示機器 |
CN102447863A (zh) * | 2011-12-20 | 2012-05-09 | 四川长虹电器股份有限公司 | 一种多视点立体视频字幕处理方法 |
CN103379299A (zh) * | 2012-04-12 | 2013-10-30 | 冠捷投资有限公司 | 屏幕选单的显示方法 |
US20130321572A1 (en) * | 2012-05-31 | 2013-12-05 | Cheng-Tsai Ho | Method and apparatus for referring to disparity range setting to separate at least a portion of 3d image data from auxiliary graphical data in disparity domain |
KR102130123B1 (ko) * | 2013-10-31 | 2020-07-03 | 삼성전자주식회사 | 다시점 영상 디스플레이 장치 및 그 제어 방법 |
US9542722B2 (en) * | 2014-12-29 | 2017-01-10 | Sony Corporation | Automatic scaling of objects based on depth map for image editing |
KR101826025B1 (ko) * | 2016-07-22 | 2018-02-07 | 한국과학기술연구원 | 사용자 인터렉션이 가능한 3d 영상 콘텐츠 생성 시스템 및 방법 |
US10356481B2 (en) | 2017-01-11 | 2019-07-16 | International Business Machines Corporation | Real-time modifiable text captioning |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1095876A (zh) * | 1993-05-25 | 1994-11-30 | 王淑云 | 特技字幕广告的制作方法 |
US5784097A (en) * | 1995-03-29 | 1998-07-21 | Sanyo Electric Co., Ltd. | Three-dimensional image display device |
US20050146521A1 (en) * | 1998-05-27 | 2005-07-07 | Kaye Michael C. | Method for creating and presenting an accurate reproduction of three-dimensional images converted from two-dimensional images |
JP2004274125A (ja) | 2003-03-05 | 2004-09-30 | Sony Corp | 画像処理装置および方法 |
JP2004274642A (ja) * | 2003-03-12 | 2004-09-30 | Nippon Telegr & Teleph Corp <Ntt> | 3次元映像情報の伝送方法 |
CN100377578C (zh) * | 2005-08-02 | 2008-03-26 | 北京北大方正电子有限公司 | 一种电视字幕文字的处理方法 |
KR100818933B1 (ko) * | 2005-12-02 | 2008-04-04 | 한국전자통신연구원 | 디지털방송 기반 3차원 컨텐츠 서비스 제공 방법 |
US8074168B2 (en) * | 2006-06-09 | 2011-12-06 | Oracle America, Inc. | Automated context-compensated rendering of text in a graphical environment |
KR101842622B1 (ko) * | 2007-03-16 | 2018-03-27 | 톰슨 라이센싱 | 3차원 콘텐츠와 텍스트를 조합하기 위한 시스템 및 방법 |
US8213711B2 (en) * | 2007-04-03 | 2012-07-03 | Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry, Through The Communications Research Centre Canada | Method and graphical user interface for modifying depth maps |
JP2009135686A (ja) * | 2007-11-29 | 2009-06-18 | Mitsubishi Electric Corp | 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置 |
KR101539935B1 (ko) * | 2008-06-24 | 2015-07-28 | 삼성전자주식회사 | 3차원 비디오 영상 처리 방법 및 장치 |
-
2009
- 2009-07-23 JP JP2009172490A patent/JP2011029849A/ja not_active Withdrawn
-
2010
- 2010-06-18 US US12/818,831 patent/US20110018966A1/en not_active Abandoned
- 2010-07-14 EP EP10169496A patent/EP2293585A1/en not_active Ceased
- 2010-07-16 CN CN201010232155XA patent/CN101964915A/zh active Pending
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9313442B2 (en) | 2010-04-14 | 2016-04-12 | Samsung Electronics Co., Ltd. | Method and apparatus for generating a broadcast bit stream for digital broadcasting with captions, and method and apparatus for receiving a broadcast bit stream for digital broadcasting with captions |
WO2011155418A1 (ja) * | 2010-06-10 | 2011-12-15 | ソニー株式会社 | 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 |
JP2011259317A (ja) * | 2010-06-10 | 2011-12-22 | Sony Corp | 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 |
WO2012026342A1 (ja) * | 2010-08-23 | 2012-03-01 | ソニー株式会社 | 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 |
WO2012043352A1 (ja) * | 2010-10-01 | 2012-04-05 | ソニー株式会社 | 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 |
JP4892105B1 (ja) * | 2011-02-21 | 2012-03-07 | 株式会社東芝 | 映像処理装置、映像処理方法および映像表示装置 |
WO2012118231A1 (en) * | 2011-03-02 | 2012-09-07 | Sharp Kabushiki Kaisha | Method and device for displaying a pair of stereoscopic images |
JP2012186652A (ja) * | 2011-03-04 | 2012-09-27 | Toshiba Corp | 電子機器、画像処理方法及び画像処理プログラム |
WO2012144372A1 (ja) * | 2011-04-21 | 2012-10-26 | シャープ株式会社 | 映像供給装置、および、映像供給方法 |
JP2012227842A (ja) * | 2011-04-21 | 2012-11-15 | Sharp Corp | 映像供給装置、および、映像供給方法 |
JP2013003586A (ja) * | 2011-06-14 | 2013-01-07 | Samsung Electronics Co Ltd | 映像変換メカニズムを活用したディスプレイ装置およびその動作方法 |
JP2013064996A (ja) * | 2011-08-26 | 2013-04-11 | Nikon Corp | 三次元画像表示装置 |
JP2017182076A (ja) * | 2011-08-26 | 2017-10-05 | 株式会社ニコン | 画像表示装置 |
WO2013039347A1 (ko) * | 2011-09-14 | 2013-03-21 | 삼성전자 주식회사 | 영상 처리 장치 및 그 영상 처리 방법 |
KR20130029333A (ko) * | 2011-09-14 | 2013-03-22 | 삼성전자주식회사 | 영상 처리 장치 및 그 영상 처리 방법 |
US8817020B2 (en) | 2011-09-14 | 2014-08-26 | Samsung Electronics Co., Ltd. | Image processing apparatus and image processing method thereof |
KR101975247B1 (ko) * | 2011-09-14 | 2019-08-23 | 삼성전자주식회사 | 영상 처리 장치 및 그 영상 처리 방법 |
US9407897B2 (en) | 2011-09-30 | 2016-08-02 | Panasonic Intellectual Property Management Co., Ltd. | Video processing apparatus and video processing method |
WO2013054371A1 (ja) * | 2011-10-11 | 2013-04-18 | パナソニック株式会社 | 立体字幕処理装置および立体字幕処理方法 |
JP2013090019A (ja) * | 2011-10-14 | 2013-05-13 | Hitachi Consumer Electronics Co Ltd | 映像出力装置および映像出力方法 |
JP2012175698A (ja) * | 2011-12-13 | 2012-09-10 | Toshiba Corp | 映像処理装置、映像処理方法および映像表示装置 |
JPWO2013108633A1 (ja) * | 2012-01-18 | 2015-05-11 | パナソニック株式会社 | 送信装置、映像表示装置、送信方法、映像処理方法、映像処理プログラム及び集積回路 |
WO2013108633A1 (ja) * | 2012-01-18 | 2013-07-25 | パナソニック株式会社 | 送信装置、映像表示装置、送信方法、映像処理方法、映像処理プログラム及び集積回路 |
US9872008B2 (en) | 2012-01-18 | 2018-01-16 | Panasonic Corporation | Display device and video transmission device, method, program, and integrated circuit for displaying text or graphics positioned over 3D video at varying depths/degrees |
JPWO2013111552A1 (ja) * | 2012-01-27 | 2015-05-11 | パナソニックIpマネジメント株式会社 | 画像処理装置、撮像装置および画像処理方法 |
WO2013111552A1 (ja) * | 2012-01-27 | 2013-08-01 | パナソニック株式会社 | 画像処理装置、撮像装置および画像処理方法 |
US9418436B2 (en) | 2012-01-27 | 2016-08-16 | Panasonic Intellectual Property Management Co., Ltd. | Image processing apparatus, imaging apparatus, and image processing method |
JP2015512196A (ja) * | 2012-02-13 | 2015-04-23 | トムソン ライセンシングThomson Licensing | 3dグラフィックス・アニメーションを3dステレオ・コンテンツに挿入する方法および装置 |
US9685006B2 (en) | 2012-02-13 | 2017-06-20 | Thomson Licensing Dtv | Method and device for inserting a 3D graphics animation in a 3D stereo content |
JP2015517236A (ja) * | 2012-04-10 | 2015-06-18 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | 表示オブジェクトの表示位置を提供し、3次元シーン内の表示オブジェクトを表示するための方法および装置 |
WO2023248678A1 (ja) * | 2022-06-24 | 2023-12-28 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及び情報処理システム |
Also Published As
Publication number | Publication date |
---|---|
EP2293585A1 (en) | 2011-03-09 |
US20110018966A1 (en) | 2011-01-27 |
CN101964915A (zh) | 2011-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011029849A (ja) | 受信装置、通信システム、立体画像への字幕合成方法、プログラム、及びデータ構造 | |
US9485489B2 (en) | Broadcasting receiver and method for displaying 3D images | |
US9491434B2 (en) | Method for processing three dimensional (3D) video signal and digital broadcast receiver for performing the method | |
US9288470B2 (en) | 3D image signal transmission method, 3D image display apparatus and signal processing method therein | |
KR101622688B1 (ko) | 3차원 캡션 디스플레이 방법 및 이를 구현하기 위한 3차원 디스플레이 장치 | |
JP5482254B2 (ja) | 受信装置、送信装置、通信システム、表示制御方法、プログラム、及びデータ構造 | |
US9578305B2 (en) | Digital receiver and method for processing caption data in the digital receiver | |
US20130169762A1 (en) | Receiving apparatus, receiving method and transmitting apparatus | |
US20130141533A1 (en) | Digital broadcasting reception method capable of displaying stereoscopic image, and digital broadcasting reception apparatus using same | |
JP2010273333A (ja) | 立体映像合成装置 | |
CN101984671B (zh) | 一种3dtv接收系统合成视频图像和界面图形的方法 | |
KR20130108075A (ko) | 3d 서브타이틀을 위한 디지털 방송 신호를 프로세싱하고 수신하는 방법 및 장치 | |
JP2010130495A (ja) | 立体情報出力装置及び立体情報出力方法 | |
JP5955851B2 (ja) | 3d画像データの転送 | |
WO2011089982A1 (ja) | 受信装置、送信装置、通信システム、受信装置の制御方法、及びプログラム | |
WO2011118215A1 (ja) | 映像処理装置 | |
US20130147912A1 (en) | Three dimensional video and graphics processing | |
US9872008B2 (en) | Display device and video transmission device, method, program, and integrated circuit for displaying text or graphics positioned over 3D video at varying depths/degrees | |
WO2012160812A1 (ja) | 映像処理装置、送信装置、立体映像視聴システム、映像処理方法、映像処理プログラム及び集積回路 | |
JP2013026644A (ja) | 受信装置、受信方法および送受信方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20121002 |