JP2011019191A - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP2011019191A
JP2011019191A JP2009164050A JP2009164050A JP2011019191A JP 2011019191 A JP2011019191 A JP 2011019191A JP 2009164050 A JP2009164050 A JP 2009164050A JP 2009164050 A JP2009164050 A JP 2009164050A JP 2011019191 A JP2011019191 A JP 2011019191A
Authority
JP
Japan
Prior art keywords
additional information
stereoscopic video
information
video data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009164050A
Other languages
English (en)
Other versions
JP5369952B2 (ja
JP2011019191A5 (ja
Inventor
Shunji Okada
俊二 岡田
Tatsu Kuwahara
立 桑原
Kazuya Yokoyama
和也 横山
Kenichiro Aritome
憲一郎 有留
Atsushi Mae
篤 前
Kenichiro Nagao
研一郎 長尾
Shinya Kano
真也 狩野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009164050A priority Critical patent/JP5369952B2/ja
Priority to US12/803,536 priority patent/US9071830B2/en
Priority to CN2010102247439A priority patent/CN101951527B/zh
Publication of JP2011019191A publication Critical patent/JP2011019191A/ja
Publication of JP2011019191A5 publication Critical patent/JP2011019191A5/ja
Application granted granted Critical
Publication of JP5369952B2 publication Critical patent/JP5369952B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/236Image signal generators using stereoscopic image cameras using a single 2D image sensor using varifocal lenses or mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Abstract

【課題】立体視映像と付加情報とを重ねて表示する場合にも視聴し易い立体視映像を提供する情報処理装置を提供する。
【解決手段】本発明の情報処理装置は、立体視映像データに含まれるオブジェクトの奥行き方向における位置を表す奥行き情報に基づいて、立体視映像データと重畳して表示する付加情報データの付加情報表示領域内における立体視映像データのオブジェクトの表示位置が最前方となる奥行き方向の位置を示すピーク値を検出する奥行き情報検出部と、付加情報データの奥行き情報と、立体視映像データのピーク値とを比較して、付加情報表示領域内における立体視映像データと付加情報の表示位置との奥行き方向における位置関係を検出する比較検出部と、立体視映像データと付加情報の表示位置との奥行き方向における位置関係に応じて、立体視映像データおよび付加情報の表示位置を制御する制御部と、を備える。
【選択図】図2

Description

本発明は、情報処理装置および情報処理方法に関し、より詳細には、立体視映像や立体視画像とこれに重畳して表示される付加情報との表示を制御する情報処理装置および情報処理方法に関する。
近年、立体視方式で動画像や静止画を記録する撮像装置や、記録装置が開発されている。かかる方式で記録された動画像や静止画は、立体視映像あるいは立体視画像として出力され、ユーザはより臨場感のある撮影した動画像や静止画を視聴することができる。
こうした立体視映像や立体視画像をより視聴し易くするための手法が提案されてきている。例えば、特許文献1には、背景画像に合成対象画像を合成して印刷用の立体画像を生成する処理を実行する立体画像生成装置が開示されている。かかる立体画像生成装置は、合成対象画像の配置位置に対応する背景画像の部位についての奥行き情報を取得し、当該奥行き情報に対応する合成対象画像の眼数の合成対象画像を背景画像に合成して印刷用の立体画像を生成する。このように合成対象画像の眼数を決定することにより、観察し易い印刷用の立体画像を生成することができる。
特開2009−59113号公報
記録された立体視映像や立体視画像を再生する際、再生装置により、撮影日時や字幕などの付加情報を表示させて、立体視映像や立体視画像に関連する情報をユーザが一度に視認できるようにすることもできる。付加情報は、例えば字幕を、記録された立体視映像や立体視画像に対して映像や画像として画面上の縦横の指定された固定位置に奥行き方向距離を固定位置で重畳して表示させることができる。このように立体視映像や立体視画像に対して付加情報を重畳して表示する場合にも、ユーザの視聴し易い映像や画像の提供が要求される。
従来は、立体視映像や立体視画像の内容を考慮することなく固定位置に付加情報を表示させていた。しかし、映像撮影時には様々な映像が撮影される可能性がある。付加情報も、字幕情報以外に、計時情報、カメラ撮影の際の撮影に関する計量情報、メディア記録データ量情報などが一緒に記録される。特に立体視方式で記録された映像では映像中のオブジェクトの奥行き方向の位置も認識できるが、この奥行き方向の位置は各オブジェクトによって異なり、時々刻々と変化する。また、撮影者のその場の撮影状況、撮影創意発想により、撮影画角としてのテレ/ワイドのズーム操作または切り替え操作が予測なく行われ変化する可能性がある。
このような映像内容の変化は映像を撮影する前には予測することができないため、付加情報を画面上の縦横の定められた固定位置に奥行き方向距離を固定して表示させると、付加情報によって立体視映像の表示が妨げられ、立体視映像の表示が乱れる可能性があるという問題があった。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、立体視映像と付加情報とを重ねて表示する場合にも視聴し易い立体視映像を提供することが可能な、新規かつ改良された、情報処理装置および情報処理方法を提供することにある。
上記課題を解決するために、本発明のある観点によれば、撮影、録画の際に決定される立体視映像データに含まれるオブジェクトの奥行き方向における位置を表す奥行き情報に基づいて、立体視映像データと重畳して表示する付加情報データの付加情報表示領域内における立体視映像データのオブジェクトの表示位置が最前方となる奥行き方向の位置を示すピーク値を検出する奥行き情報検出部と、付加情報データの奥行き情報と、立体視映像データのピーク値とを比較して、付加情報表示領域内における立体視映像データと付加情報の表示位置との奥行き方向における位置関係を検出する比較検出部と、立体視映像データと付加情報の表示位置との奥行き方向における位置関係に応じて、立体視映像データおよび付加情報の表示位置を制御する制御部と、を備える、情報処理装置が提供される。
本発明によれば、付加情報表示領域における立体視映像データのオブジェクトと付加情報データの奥行き情報に基づいて、立体視映像データおよび付加情報データの表示位置を制御する。撮影あるいは映像記録時に光学的あるいは電子的にテレ、ワイドにズームして映像表示画角を変化させ遠方の被写体オブジェクトを拡大または縮小して記録、再生する場合に、立体視映像データと付加情報データの立体視表示画面上の奥行き方向における位置関係を考慮して表示制御可能に、映像データおよび付加情報を記録することにより、視認しやすい立体視映像データを提供することができる。
ここで、制御部は、比較検出部により立体視映像データのオブジェクトが付加情報より前方に表示されると判断されたとき、付加情報表示領域内の立体視映像データのオブジェクトを付加情報より後方に表示することができる。
また、比較検出部により立体視映像データのオブジェクトが付加情報より前方に表示される超過時間を検出する超過時間検出部をさらに備えてもよい。このとき、奥行き情報検出部は、立体視映像データの基本単位毎に、付加情報表示領域におけるオブジェクトの表示位置が最前方となる奥行き方向の位置を示す単位ピーク値として検出し、比較検出部は、付加情報データの奥行き方向の位置と単位ピーク値とを比較して、付加情報表示領域内における立体視映像データのオブジェクトと付加情報との位置関係を検出し、制御部は、超過時間が第1の閾値時間を超えた場合に、付加情報表示領域内の立体視映像データのオブジェクトを付加情報より後方に表示する。
さらに、制御部は、超過時間が第1の閾値時間を超えた場合に、立体視映像データおよび付加情報データの表示制御の実行可否をユーザに選択させるメッセージを通知してもよい。
また、制御部は、重複表示させる付加情報データに属し、付加情報視認向上のため備えている背景映像を、当該背景映像と重複する立体視映像データのオブジェクトが視認できるように透過率を上げて表示してもよい。なお、背景映像としては、例えば画面の所定領域に占有表示する文字背景などがある。
あるいは、制御部は、比較検出部により立体視映像データのオブジェクトが付加情報より前方に表示されると判断されたとき、立体視映像データのオブジェクトと重複する部分を当該オブジェクトに隠すように付加情報データを表示することもできる。
ここで、比較検出部により立体視映像データのオブジェクトが付加情報より前方に表示される超過時間を検出する超過時間検出部をさらに備えることもできる。例えば、前方に表示される超過時間が一瞬だと検出され、付属情報表示の視聴の妨げとはならない超過時間と判断された場合に、自然にそのまま一瞬だけ前方に表示させる。このとき、奥行き情報検出部は、立体視映像データの基本単位毎に、付加情報表示領域におけるオブジェクトの表示位置の奥行き方向の位置の平均である単位平均値を検出し、比較検出部は、付加情報データの奥行き方向の位置と単位平均値とを比較して、付加情報表示領域内における立体視映像データのオブジェクトと付加情報との位置関係を検出し、制御部は、超過時間が第2の閾値時間を超えた場合に、立体視映像データのオブジェクトと重複する部分を当該オブジェクトに隠すように付加情報データを表示する。
また、制御部は、超過時間が第2の閾値時間を超えた場合に、立体視映像データおよび付加情報データの表示制御の実行可否をユーザに選択させるメッセージを通知してもよい。
付加情報データの奥行き方向における表示位置は固定とすることができる。
また、立体視映像データおよび付加情報データは、AVCHDフォーマットで記録されている。立体視映像データの基本単位ごとの奥行き情報は、当該基本単位ごとの立体視映像データとともに記録されるようにしてもよい。
また、上記課題を解決するために、本発明の別の観点によれば、立体視映像データに含まれるオブジェクトの奥行き方向における位置を表す奥行き情報に基づいて、立体視映像データと重畳して表示する付加情報データの付加情報表示領域内における立体視映像データのオブジェクトの表示位置が最前方となる奥行き方向の位置を示すピーク値を検出するステップと、付加情報データの奥行き情報と、立体視映像データのピーク値とを比較するステップと、付加情報データの奥行き情報と立体視映像データのピーク値との比較結果から、付加情報表示領域内における立体視映像データと付加情報の表示位置との奥行き方向における位置関係を検出するステップと、立体視映像データと付加情報の表示位置との奥行き方向における位置関係に応じて、立体視映像データおよび付加情報の表示位置を制御するステップと、を含む、情報処理方法が提供される。
以上説明したように本発明によれば、立体視映像と付加情報とを重ねて表示する場合にも視聴し易い立体視映像を提供することが可能な、情報処理装置および情報処理方法を提供することができる。
立体視映像ストリームのみを表示させる非表示モードでの表示状態を示す説明図である。 押さえ込み表示制御モードでの立体視映像ストリームおよびOverlayBitmapの表示状態を示す説明図である。 埋め込み表示制御モードでの立体視映像ストリームおよびOverlayBitmapの表示状態を示す説明図である。 本発明の第1の実施形態にかかる撮像記録装置の入力記録処理部を示すブロック図である。 立体視映像RUVと記録メディアとの関係を示す説明図である。 同実施形態にかかる撮像記録装置の再生出力処理部を示すブロック図である。 立体視映像ストリームを再生可能な、一般的な再生装置の構成を示すブロック図である。 同実施形態にかかる表示制御部を備える再生装置の構成を示すブロック図である。 立体視映像ストリームのOverlayBitmapの表示制御に用いる情報の構成を示す説明図である。 同実施形態にかかる表示制御部による押さえ込み表示制御モード時の表示制御方法を示すフローチャートである。 同実施形態にかかる表示制御部による埋め込み表示制御モード時の表示制御方法を示すフローチャートである。 1つのストリームが記録される場合のストリーム管理ファイルへの記録方式を示す説明図である。 2つのストリームが記録される場合のストリーム管理ファイルへの記録方式を示す説明図である。 本発明の第2の実施形態にかかる立体視映像ストリームおよびOverlayBitmapのMP4立体視ストリームへの変換処理を示す説明図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.第1の実施形態(立体視映像ストリームおよびOverlayBitmapの表示制御)
2.第2の実施形態(AVCHDフォーマットにより記録された立体視映像ストリームとMP4ストリームとの変換)
<1.第1の実施形態>
[表示制御モードの説明]
まず、図1〜図3に基づいて、本発明の第1の実施形態にかかる再生装置による、立体視映像ストリームおよび付加情報であるOverlayBitmapの表示制御モードについて説明する。なお、図1は、OverlayBitmapを表示せず、立体視映像ストリームのみを表示させる非表示モードでの表示状態を示す説明図である。図2は、押さえ込み表示制御モードでの立体視映像ストリームおよびOverlayBitmapの表示状態を示す説明図である。図3は、埋め込み表示制御モードでの立体視映像ストリームおよびOverlayBitmapの表示状態を示す説明図である。
ここで、「押さえ込み表示制御モード」および「埋め込み表示制御モード」は、本実施形態の説明において立体視表示装置上で再生表示される、立体視映像ストリームの奥行き方向表示位置と付属情報を立体視表示するOverlayBitmapの奥行き方向表示位置の相互の奥行き方向の位置関係を制御する概念として定義したもので、その詳細は後述する。
本実施形態にかかる再生装置は、表示制御モードに応じて立体視映像ストリームおよびOverlayBitmapの表示を制御する表示制御部を備え、視聴し易い立体視映像ストリームを提供する。表示制御部は、例えば、OverlayBitmapの表示によって立体視映像ストリームの表示内容を妨げないように制御したり、OverlayBitmapが視認し易い適切な位置に表示されるように制御したりする。このような表示制御を行うため、本実施形態では3つの表示制御モードを設けている。
まず、OverlayBitmapを表示せず、立体視映像ストリームのみを表示させる非表示モードでは、図1に示すように、撮影時に記録された状態で立体視映像ストリームが表示される。図1では、表示領域250内に複数のオブジェクト210、220、230が表示されている。立体視映像ストリームの再生映像が立体視映像表示装置上に表示されるとき、オブジェクト210、220、230は、左右視差で立体視されるように、左眼映像と右眼映像とから構成されている。オブジェクト#1(210)についてみると、実際の映像を用いた左眼映像210aと、左眼画像210aを左側に水平オフセットして生成された右眼映像210bとから、立体視されるオブジェクト#1(210)は構成されている。
立体視映像ストリーム内の各オブジェクトおよび背景の奥行き情報は、デプスマップ(DepthMap)データとして保持されている。デプスマップデータは、1画面内における各ピクセルあるいはマクロブロックごとのデプスマップ値からなるデータである。デプスマップ値は、映像を撮影するカメラ部のAF(AutoFocus)制御情報のうちレンズ被写界深度を用いて生成される値である。デプスマップ値は、光学および電子ズームとフォーカス焦点操作によって測定される被写体距離に対応させて近距離に大きい値を、遠距離に小さい値を割り当てて生成される。本実施形態では、被写体測定距離に8ビット値である2の8乗値を割り当て、10進数表記法で無限遠方を0、最も近い距離を255とする10進数値で表現される、カメラ撮影において撮影情報として取得するデプスマップ値を使用する。
ここで、デプスマップデータの生成方法の一例について説明する。まず、レンズワイド端で、絞り解放にしてレンズ被写界深度を最も浅く制御し、レンズ焦点を無限遠(>5m)に設定する。ここで無限遠を>5mとするのは、レンズが広角側のワイド端とされる画角(例えば35mmフィルム判換算の画角で28mm相当)であれば、5m以遠の被写体には左右視差での立体感は知覚困難なことが知られているためである。この状態で、画面内領域のフォーカスする映像領域を把握し、その領域を背景領域に設定する。背景領域のデプスマップ値は0ビットとする。
次いで、レンズワイド端で、絞り解放にしてレンズ被写界深度を最も浅く制御した状態で、レンズ焦点を近距離(0.5m)に設定する。ここで近距離を0.5mとするのは、レンズがワイド端とされる画角(例えば35mmフィルム判換算の画角で28mm相当)であっても、0.5mより近い距離の被写体では、人間の左右の眼の瞳の間隔距離は0.1m未満であり、視聴者が固定位置で視聴する前提での立体視映像表示では、左右視差での立体感を過大に知覚させることは視聴上不適切であるからである。また、視聴者が数10cm以上を左右の眼の間隔が位置関係を保ったまま横平行移動することによって前景と背景とがずれてゆくように見えることで感じる距離感は、本実施形態の左右立体視映像が与える距離感とは異なり区別される。
この状態で、画面内領域のフォーカスする映像領域を把握し、その領域を最近距離点に設定する。最近距離点のデプスマップ値は、2の8乗ビットに割り当てた本実施例の場合、8ビット、2の8乗範囲での最大値である10進数値255とする。
その後、レンズワイド端で、絞り解放にしてレンズ被写界深度を最も浅く制御した状態で、レンズ焦点を近距離(0.5m)から無限遠(>5m)まで順次変化させる。このとき、レンズ焦点の距離ごとに、フォーカスする画面内領域差分を指数関数的に表したビット値が割り当てられる。そして、レンズ位置制御で距離測定が行われ、これに同期して順次画面内領域のフォーカスする映像領域が記録される。例えば、測定距離が1mのときのデプスマップ値は2の8乗での10進数値180となり、例えば、測定距離が2mのときのデプスマップ値は100となる。
そして、デプスマップ値範囲内の被写体オブジェクト群を個別や集合グループでオブジェクト認識する。撮影開始時にデプスマップ値を初期設定した後は、撮像対象のオブジェクトを動きベクトルで追従して輪郭認識を続け、光学系であるズームレンズおよびフォーカスレンズからレンズ焦点測定距離を把握する。このようにして、継続してデプスマップデータの各デプスマップ値を各被写体オブジェクトの映像輪郭内領域に割り当てることができる。
また、光学レンズテレ端での撮影の場合のデプスマップ生成を説明する。このとき、絞り解放にしてレンズ被写界深度を最も浅く制御して距離測定を行う。テレ端には2種類あり、光学レンズによる動画の画角拡大する高い倍率の得られる光学ズームと、高解像度撮像素子の一部を用いて動画の画角拡大する、倍率の乏しい電子ズームとがある。通常、2眼の左右視差の撮影でだけ立体視撮影する場合は光学ズーム時には左右視差が生じないので立体視撮影は困難とされてきた。しかし、本実施形態ではデプスマップストリームを映像撮影記録に用いることによって解決している。すなわち、画角をテレ端で撮影された場合でも被写体との距離測定によりデプスマップストリームを生成して映像記録し、再生出力時に撮影時の映像とデプスマップストリームから左右視差による立体視映像ストリームとして出力するので、光学ズーム撮影時にも立体視映像撮影を可能としている。
レンズを光学ズームのテレ端に設定し、レンズ焦点を無限遠方(>500m)に設定する。ここで、レンズが望遠側のテレ端とされる画角(例えば35mmフィルム版換算の画角で135mm相当など)の場合、ワイド端画角での被写体に対するフォーカス焦点制御によるデプスマップ割り当てと同様に、デプスマップに割り当てる測定距離が<50mより近距離であるとき8ビットの10進数表記255を割り当て、>500mより遠距離であるとき8ビットの10進数表記0を割り当てる。これらの間での測定距離に対応するデプスマップの10進表記値は、このズーム画角の場合も、上記と同様に、50mから500mを指数直線な8ビットの10進数表記値でそれぞれ割り当てることとする。
光学レンズ群を構成するズームレンズ群およびフォーカスレンズ群のズーム時の動作は、まず、ズームレンズ群の制御位置で画角が決定され、次にフォーカスレンズ群の焦点制御によって被写体に焦点が合わせられる。これにより、目標とする被写体の鮮明な映像を撮影することができる。このときのズームレンズ群のレンズ機構内部位置とそれに対応するフォーカスレンズ群のフォーカスしたときの制御位置の特性はレンズ設計製造時に一意に決定されており、ズーム画角拡大時にもフォーカス位置によって距離が測定可能に構成される。これにより、ワイド端画角の場合と同様に、光学ズームや電子ズームでズームして画角を拡大した場合であっても、デプスマップを割り当てることによって立体視可能な映像の撮影記録を実現することができる。
立体視映像ストリームは、このように被写体オブジェクトのデプスマップデータとして奥行き情報を管理している。図1に示す映像においては、測定距離が最も近いオブジェクト#1(210)のデプスマップ値は3つのオブジェクトの中で最大となる(例えば、測定距離1mのとき8ビットの10進数表記180)。そして、オブジェクト#1(210)より奥側に位置するオブジェクト#2(220)、オブジェクト#3(230)のデプスマップ値は、奥側に向かうにつれて小さくなる(例えば、ワイド端画角の場合、測定距離2mのとき8ビットの10進数表記100、測定距離5mのとき8ビットの10進数表記0)。
次に、本実施形態の説明上で規定する押さえ込み表示制御モードで表示制御されると、立体視映像ストリームおよびOverlayBitmapは図2に示すように表示されるようになる。押さえ込み表示制御モードでは、表示制御部は、OverlayBitmapの表示領域(以下、「OB表示領域」とする。)252に表示される立体視映像ストリームのオブジェクトを常に、OverlayBitmapの表示位置より視聴者からみて立体視画面表示の奥側に表示させるように制御する。
例えば、撮影された立体視映像ストリームよりも字幕や時刻情報等の付加情報を優先して表示させたい場合に、本実施形態の説明上で規定する押さえ込み表示制御モードを用いることができる。押さえ込み表示制御モードにおいては、表示制御部は、図2に示すように、OB表示領域252に位置するオブジェクト#1(210)を、OverlayBitmapの表示位置よりも奥側となるように制御する。これにより、OB表示領域252にオブジェクトが位置するために、付加情報が当該オブジェクトによって視認できなくなるのを防止することが実現できる。
一方、本実施形態の説明上で規定する埋め込み表示制御モードで表示制御されると、立体視映像ストリームおよびOverlayBitmapは図3に示すように表示されるようになる。埋め込み表示制御モードでは、表示制御部は、OB表示領域252に表示される立体視映像ストリームのオブジェクトを、OverlayBitmapの表示位置より、立体視映像表示装置を視聴している視聴者からみて、奥手前前方側に表示させるように制御する。このとき、OverlayBitmapは、オブジェクト#1(210)と重複する部分はオブジェクト#1(210)によって隠れる。埋め込み表示制御モードでは、埋め込み表示制御モードでは、OverlayBitmapによって立体視映像ストリームの表示を妨げないようにすることが実現できる。
このように、本実施形態にかかる再生装置は、デプスマップデータに基づいて、立体視映像ストリームおよびOverlayBitmapの表示を制御することにより、視聴し易い立体視映像ストリームを提供することができる。以下では、本実施形態にかかる再生装置の構成と、これによる表示制御方法について詳細に説明する。
[撮像記録装置の構成]
本実施形態にかかる再生装置について説明する前に、図4〜図6に基づいて、撮像部によって撮像された映像を記録する本実施形態にかかる撮像記録装置について説明する。なお、図4は、本実施形態にかかる撮像記録装置100の入力記録処理部を示すブロック図である。図5は、立体視映像RUVと記録メディアとの関係を示す説明図である。図6は、本実施形態にかかる撮像記録装置100の再生出力処理部を示すブロック図である。
本実施形態では、撮像記録装置によって撮影された映像を立体視映像ストリームとしてAVCHDフォーマットで記録し、記録された立体視映像ストリームを再生装置により再生する場合を例に説明する。ここで、本実施形態にかかる撮像記録装置100は、記録された立体視映像ストリームを再生する再生機能も備えるものとする。撮像記録装置100としては、例えばフラッシュメモリドライブやハードディスク等の記録メディアに、立体視方式で立体視映像ストリームとデプスマップデータとをエンコードして記録し、記録した立体視映像ストリームを再生することの可能なカメラ一体型ビデオや、動画撮影機能付きのデジタルカメラ、映像携帯機器等が想定される。
(撮像記録装置の入力記録処理部の構成および機能)
本実施形態にかかる撮像記録装置100の入力記録処理部は、図4に示すように、映像を撮像する撮像部として機能するカメラ部、カメラ制御部110、マイク122およびマイク音声入力部120を備える。カメラ制御部110は、撮像素子やレンズ等からなるカメラ部を制御して、カメラ部が撮影した映像を取得する。マイク音声入力部120には、マイク122により取得された、望ましくはステレオ音声方式または5.1chサラウンド音声方式で、音声情報が入力される。
カメラ制御部110は、カメラ部により撮影された記録映像ストリームをエンコード部130へ出力する。また、マイク音声入力部120は、マイク122から入力された音声情報をエンコード部130へ出力する。エンコード部130は、カメラ制御部110から入力された記録映像ストリームをエンコードし(主映像エンコード)、マイク音声入力部120から入力された音声情報をエンコードする(音声エンコード)。
また、カメラ制御部110は、付加情報のOverlayBitmapを生成するため、映像撮影時の撮影情報パラメータとして、撮影時刻、撮影カメラ制御パラメータなどの、付加情報データをエンコード部130へ出力する。本実施形態では、特に撮影映像の時刻情報を付加情報として記録する場合を説明する。このとき、撮像記録装置100は、撮影映像の時刻情報のフォントデータを、個々のフォント図形としてAVCHDフォーマットで規定された圧縮方式で圧縮された状態でフォントデータ用記憶部(図示せず。)に記憶している。撮像記録装置100は、記憶部から取得したフォントをOverlayBitmapデータとして配列して、カメラ制御部110から入力された撮影映像の時刻情報の画像を生成する。そして、このOverlayBitmapストリームを、エンコード部130は、生成された撮影映像の時刻情報の画像としてエンコードする(OverlayBitmapエンコード)。
ここで、Blu−Ray(登録商標)/AVCHDでの字幕データである、OverlayBitmapデータについて説明する。OverlayBitmapデータのストリーム種別は、トランスポートストリームを構成するデータ種別である。OverlayBitmapは、以下のような制御仕様を有している。
まず、表示形式(例えば記録日時について、YMD、DMY、記録しない等)は、記録開始までにユーザにより指定され設定される。これらの設定は記録中に変更させなくともよい。OverlayBitmapは動画記録時に記録される。記録日時はストリーム内部に記述される時刻情報、ModifiedDVPackの時刻情報と同じとすることができる。なお、表示形式で「OverlayBitmapを記録しない」が指定された場合は、OverlayBitmapストリームそのものを記録しないようにする。光ディスク再生機(例えば、Blu−Ray(登録商標)プレーヤ、AVCHD記録DVDプレーヤ)では、ユーザ操作により、OverlayBitmapの表示/非表示を切り替えることができる。
OverlayBitmap1個のデータ(DisplaySet)は、次に示す各セグメントで構成される。1EP(EntryPoint)には、1個のデータ(DisplaySet)が記録される。1EPには、機能ごとに5セグメント(PCS、WDS、PDS、ODS、END;=5PESPacket)が設けられる。
PCS(SegPCS;Presentation Composition Segment情報)は、表示構成(presentation)を定義するセグメントデータである。表示される文字等のオブジェクトは、各々がフォントのビットマップデータである。かかるデータは、そのままではなく、圧縮されて記録される。WDS(SegWDS;Window Definition Segment情報)は、1画面構成定義(Window
Definition)するセグメントデータである。PDS(SegPDS;Palette Definition
Segment情報)は、カラーパレット定義(palette)するセグメントデータである。表示される各文字フォントデータは各々ビットマップの圧縮データであるが、その表示色はこの数値データにより指定される。ODS(SegODS;Object Definition Segment情報)(RLE除く)は、表示オブジェクトを定義するセグメントデータである。END(SegEND;End of Display Set Segment情報)は、表示データセットの終了を示すセグメントデータである。
これらのセグメントデータは、TSストリームの、1EP(ここでは、1GOPを15ビデオフレームで構成する例について説明する)に、DisplaySetとして纏められたデータ集合を一緒に同居させる形で記録される。1EPには、ビデオフレーム(Video Frame (I-pic/P-pic/B-pic))がデータとして含まれている。現在のAVCHD方式HDビデオカメラの記録映像ストリーム例では、OverlayBitmapデータは1GOPに1個あるIピクチャの直後に、以下のDisplaySetを、各ビデオフレームの再生画像表示時刻PTS(PresentationTimeStamp)に対応するように、対応するPTSを付加して、纏めて記録される。
本実施形態において想定する再生プレーヤは、再生時にこのOverlayBitmapをよみとって再生する。記録され、再生時に映像に重ねられるOverlayBitmapは、縦列が「Display/Set/PCS/WDS/PDS/ODS/END」からなる1つのセグメントを、1EPに含まれる15個の各ビデオフレームにそれぞれ対応するように、横列に15個並べて構成されている。なお、WDS、PDS、ODSは、1EPにおいて1回定義されればよいため、2つ目以降のセグメントは「Display/Set/PCS/END」のように構成されている。ここでは、1EPに15のセグメントが含まれる例を示したが、データ量にもよるが、1EPに約10〜15個のセグメントを含むことができる。
文字フォントのビットマップデータは、単純なデータ圧縮であるランレングス(RunLength)符号化圧縮を用いる仕様に定められている。1文字フォントデータは、例えば10[Pixel]×14[Line]で構成することができる。プログレッシブ方式のフレーム映像ストリームの字幕ではそのままでよいが、インターレース方式のフィールド映像ストリームの字幕ではTop/Bottomが決められる。なお、TSストリームのOverlayBitmapを含む各セグメント種別と名称は、後述する図9に示すようになっている。
なお、エンコード部130は、カメラ制御部110から入力された撮影映像の時刻情報を映像ストリーム内部の付加情報としても保持しており、記録映像ストリーム、音声情報、OverlayBitmap、後述する映像デプスマップ情報とともに、それぞれデータ種別ごとにTSパケットにPIDを付与してエンコードする。
一方、立体視映像ストリームを生成するために用いられる、オブジェクトの奥行情報の分布を示すデプスマップデータがデプスマップ処理部150により生成される。デプスマップ処理部150は、カメラ部から取得される映像情報およびAF制御情報を用いて、8ビット値の10進表記の255〜0、光学レンズのワイド画角(例えば35ミリフィルム判画角で28ミリ相当)の撮影状態で0・5〜5m距離での撮影時の被写体オブジェクト群のメタ映像判別に基づいた光学画角制御(光学ズーム)と光学フォーカス制御による測定距離情報処理データに基づき、デプスマップデータを生成する。デプスマップデータは、上述した方法により生成される。
デプスマップ処理部150は、生成したデプスマップデータのうち、映像の立体表示部分である映像デプスマップ情報をエンコード部130へ出力する。エンコード部130は、デプスマップ処理部150から入力された映像デプスマップ情報を撮影映像の時間情報とともにエンコードする(デプスマップ映像エンコード)。
また、デプスマップ処理部150は、カメラ部のAF制御情報に基づいて、GOP(Group of Picture)ごとのデプスマップのピーク値および平均値を検出する。さらに、デプスマップ処理部150は、GOPごとのデプスマップのピーク値および平均値を用いて、1動画チャプタにおけるデプスマップのピーク値および平均値を算出する。これらの値は、本実施形態の表示制御に用いられる。デプスマップ処理部150は、検出したデプスマップのピーク値および平均値をデプスマップ属性情報として後述する記憶部へ出力する。
上記処理によって生成された各種エンコード情報およびデプスマップ属性情報は、RUV(Recording Unit of Video Object Unit)作成記録処理部140へ出力され、AVCHDフォーマットで各種エンコード情報およびデプスマップ属性情報が記憶部142に記録される。記憶部142は、例えば、フラッシュメモリカードや内蔵するフラッシュメモリ、SSDなどのメモリドライブや、ハードディスクおよび円盤型磁性体ディスクなどの磁気ディスクや、CD−RW(Compact Disc ReWritable)、DVD(Digital Versatile Disc)−RW//+RW/RAM(Ramdam Access Memory)あるいはBD(Blu−ray Disc(登録商標))−REなどの光ディスク等の記録媒体である。
AVCHDフォーマットは、ビデオデータとオーディオデータとが多重化されたAVストリームを記録可能な記録媒体に記録する記録フォーマットである。ビデオカメラ等で撮像された動画像ストリームは、MPEG2−TSストリームに符号化されて、AVCHDフォーマットに従って記録される際に、ファイルとして記録媒体に記録される。このファイルがストリーム管理ファイルである。ストリーム管理ファイルは、概略すると、Indexファイル、MovieObjectファイル、MoviePlayListファイル、ClipInfoファイルの4つのファイルから構成される。なお、AVCHDフォーマットについての詳細な説明は後述する。
立体視映像ストリームは、図5に示すように、記録媒体への記録単位であるRUVを複数のGOPから構成し、RUVごとに順次記憶部142に記録される。RUVを構成するGOPの数は、記録媒体の記録単位によって規定される。各GOPは、主映像GOPおよび当該主映像GOPのデプスマップ映像からなる。主映像GOPおよびそのデプスマップ映像は、完全同一時刻タイムスタンプで記録される。また、RUVが記憶部142に記憶されると、記録した追記論理アドレスを記憶部142上の記録位置情報として、RUVに付加される。記録位置情報は、AVCHDのストリーム管理ファイルのClipInfoファイルのEP_Mapに記録される。EP_Mapは、記録媒体上の記録されたストリームのEP(Entry Point)の論理アドレス位置と記録コンテンツストリームの時刻タイムスタンプとの対応テーブルである。なお、EPは、AVCHDフォーマットでの記録媒体への基本アクセス単位である。
また、本実施形態にかかる立体視映像RUVには、それぞれ記録された映像ストリームが立体視映像であるか否かを示す立体属性フラグが設けられている。立体属性フラグは、デプスマップ方式であるか否かを示す第1の立体属性情報と、左右視差像方式(Binoclar Disparity方式)であるか否かを示す第2の立体属性情報とからなる。本実施形態のようにストリームが1つである場合に、立体視映像ストリームを記録したとき、第1の立体属性情報がTRUEとなり、第2の立体属性情報はFALSEとなる。立体属性フラグは、AVCHDのストリーム管理ファイルの各ファイルおよびストリームのModifiedDVPack144の新規拡張定義フィールドに記録される。
また、各種エンコード情報およびデプスマップ属性情報は、AVCHDフォーマットのストリーム管理ファイル内の所定のファイル146にも記録される。ストリーム管理ファイル内の所定のファイル146には、例えば、記憶部142に記録されるAVCHDフォーマットのストリーム属性情報や、時刻タイムスタンプに対応する論理アドレス位置情報が記録される。また、ストリーム管理ファイル内のファイル146には、UI(User Interface)操作コンテンツインデックスフォーマットの時刻タイムスタンプに対応するストリーム属性各種情報が記録される。
(撮像記録装置の再生出力処理部の構成および機能)
一方、本実施形態にかかる撮像記録装置100は、記録された立体視映像ストリームを再生する再生出力処理部を備える。ただし、本実施形態にかかる再生出力処理部は、後述する表示制御モードに応じて立体視映像ストリームおよびOverlayBitmapの表示を制御する表示制御部を備える再生装置ではなく、立体視映像ストリームのみを再生するものであるとする。再生出力処理部は、図6に示すように、RUV再生処理部160により、記憶部142に記録されたAVCHDフォーマットのストリーム管理ファイルから、エンコードされた映像ストリーム、音声情報、映像デプスマップ情報をデコードして再生する。
RUV再生処理部160は、記憶部142に記録された情報を取得して、出力処理部170へ出力する。出力処理部170は、エンコードされている映像ストリーム、音声情報、映像デプスマップ情報をデコードする(主映像デコード、音声デコード、デプスマップ映像デコード)。
また、RUV再生処理部160は、ストリーム管理ファイルのModifiedDVPack144の新規拡張定義フィールドに記憶されたデプスマップ属性情報からデプスマップのピーク値および平均値や、時刻情報およびカメラ情報を出力処理部170へ出力する。なお、立体視映像ストリームおよび時刻情報は、出力処理部170によるディスクダブリング時におけるOverlayBitmap書き込み処理にも用いられる。
出力処理部170は、デコードした再生映像ストリームを映像出力制御部182へ出力し、デコードした音声情報を音声出力部184へ出力する。映像出力制御部182は、映像ストリームに対して表示するための処理を行い、処理された映像ストリームを文字データ情報重畳表示処理部186へ出力する。文字データ情報重畳表示処理部186は、後述するデプスマップ映像レベル付加処理部194から入力された時刻情報やカメラ情報を文字情報として映像ストリームに重畳し、表示装置200へ出力する。音声出力部184は、音声情報を表示装置200へ出力する。
また、出力処理部170は、デコードした映像デプスマップ情報をデプスマップ映像レベル適応処理部192へ出力し、時刻情報およびカメラ情報をデプスマップ映像レベル付加処理部194へ出力する。デプスマップ映像レベル適応処理部192およびデプスマップ映像レベル付加処理部194には、ストリーム管理ファイルの所定のファイル146から取得されたUI操作コンテンツインデックスフォーマット時刻タイムスタンプに対応するストリーム属性各種情報も入力される。デプスマップ映像レベル付加処理部194は、付加処理した情報をデプスマップ映像レベル適応処理部192および文字データ情報重畳表示処理部186へ出力する。デプスマップ映像レベル適応処理部192は、生成したデプスマップ映像を、立体表示可能な表示装置200へ出力する。
撮像記録装置100の再生出力処理部から映像ストリーム、音声情報およびデプスマップ映像が入力された表示装置200は、左右視差映像復元処理部202により映像の復元処理を行う。これにより、表示装置200は、立体視映像ストリームの奥行き感を再現して表示することができる。
以上、本実施形態にかかる撮像記録装置100の構成について説明した。かかる撮像記録装置100は、本実施形態にかかる再生装置に接続することにより、再生出力処理部によって撮像記録装置100に接続された表示装置200に立体視映像ストリームを表示させたように、立体視映像ストリームを表示させることができる。以下で説明する本実施形態にかかる再生装置は、撮像記録装置100により生成されたデプスマップに基づいて、立体視映像ストリームおよびOverlayBitmapを表示制御する表示制御部を備える。以下、図7〜図11に基づいて、本実施形態にかかる表示制御部を備える再生装置の構成とこれによる表示制御について、詳細に説明する。
なお、図7は、立体視映像ストリームを再生可能な、一般的な再生装置の構成を示すブロック図である。図8は、本実施形態にかかる表示制御部を備える再生装置の構成を示すブロック図である。図9は、立体視映像ストリームのOverlayBitmapの表示制御に用いる情報の構成を示す説明図である。図10は、本実施形態にかかる表示制御部による押さえ込み表示制御モード時の表示制御方法を示すフローチャートである。図11は、本実施形態にかかる表示制御部による埋め込み表示制御モード時の表示制御方法を示すフローチャートである。
[再生装置の構成]
図7に示す再生装置の構成は、映像ストリームや音声情報等をデコードする一般的な再生装置の構成にデプスマップをデコードする機能を設けた構成となっている。再生装置は、映像ストリームの読み出し先からAVCHDフォーマットのストリーム管理ファイル(IFO)に記録された立体属性フラグを読み込む。再生装置のPIDセレクタは、立体属性フラグの第1の立体属性情報がFALSEである場合には、2次元の映像ストリームを再生する処理を行う。一方、立体属性フラグの第1の立体属性情報がTRUEである場合には、PIDセレクタは、立体視映像ストリームを再生する処理を行う。PIDセレクタは、読み込んだ映像ストリーム中の個々のパケットに種別ごとに付与されているPIDに応じて、デプスマップとその他の情報とを切り分けるように構成する。これにより、不要なデプスマップデータパケットが従来の2次元平面視映像ビデオデコード側に入力しないようにすることができ、映像ストリーム再生の下位互換性を保持することができる。
再生装置は、図7に示すとおり、TSストリーム(Transport Stream、以下TSストリームと略す)形式の映像ストリームが記録されたときにTSパケット種別によってPIDが各パケットに付与されているから、PIDセレクタによって各PIDに応じて各パケットを種別に切り分けて、各パケットをパケットESバッファに蓄積した後各種情報をデコードして、映像ストリームや音声情報、システム制御情報、その他のPBデータを表示装置へ出力する構成をとる。デプスマップストリームにおいても同様に、再生装置は、PIDセレクタによって切り分けられたデプスマップストリームをデコードし、デコード後のデプスマップストリームを出力する。
表示装置がデプスマップストリームを入力として受け付ける立体視映像表示装置の場合は、本実施形態の再生装置からデプスマップストリームを出力する。また、左右視差ある2系統映像ストリームのみを入力として受け付ける立体視映像表示装置の場合は、デプスマップ情報から左右視差映像を生成して左右視差2系統映像入力のみの立体視映像表示装置へ出力する。本実施形態では撮影時に同時に記録しているデプスマップストリームを保持しているので、本来左右視差のまったくない望遠画角のテレ端ズーム撮影映像ストリームであっても、ワイド端広角撮影映像ストリームの場合と同様に、デプスマップ情報から左右視差映像を生成して表示装置へ出力する。
また、再生装置は、映像ストリームを構成するセグメントの一つであるPCRを取り出し、STC(System Time Clock)から同期再生のための時間情報であるPTS(Presentation
Time Stamp)およびDTS(Decoding Time Stamp)を生成する。PTSは、PES(Packetized Elementary Stream)ヘッダに記載された再生表示時刻タイムスタンプであり、DTSは、PESヘッダに記載されたデコード時刻タイムスタンプである。PTSおよびDTSは各種情報をデコードするデコード部に入力されて、デコード後の各種情報に付与される。PTSおよびDTSは、デコード後の映像ストリームとデプスマップ映像とを対応付けるために用いられる。
本実施形態にかかる表示制御部を備える再生装置のより詳細な構成を、図8に示す。本実施形態にかかる表示制御部174は、デプスマップ映像をデコードするデプスマップ映像デコード部173に設けられる。表示制御部174には、主映像デコード部171によりデコードされた映像ストリームと、OBデコード部172によりデコードされたOverlayBitmapと、デコードされたデプスマップ映像とが入力される。表示制御部174は、入力されたこれらの情報および図1〜図3に示した表示制御モードに基づいて、立体視映像ストリームおよびOverlayBitmapの表示を制御する。
主映像デコード部171は、映像ストリームをデコードして表示制御部174に出力する。また、デプスマップ映像デコード部173は、撮影時に映像ストリームの内容に応じて記憶された、1EP(あるいはGOP)単位ごとのModifiedDVPack144の情報を読み出して、デプスマップのピーク値および平均値を示すデプスマップ属性情報を取得する。そして、デプスマップ映像デコード部173は、取得したデプスマップ属性情報を、デプスマップ映像の表示位置を制御する表示制御部174へ出力する。
OBデコード部172は、OverlayBitmapデータのビットマップ画像データをデコードする。OBデコード部172は、デコードされたビットマップ画像データを構成して、グラフィックコントローラ(Graphic Controller)によりビットマップ画像データが表示領域250上のどの位置に表示されるものであるか判定する。こうして表示領域250内でのOverlayBitmapデータの表示位置を把握すると、OBデコード部172は、OverlayBitmapデータの位置情報を表示制御部174に提供する。
また、グラフィックコントローラは、OverlayBitmapデータの位置情報の出力処理を行うとともに、構成したビットマップ画像データの平面や色を決定する処理を行い、表示装置へ出力する。なお、立体視映像ストリームの各EPのOverlayBitmapのセグメントには、上述したように、表示構成情報定義(PCS)や、色パレット定義(PDS)、ウィンドウ映像定義(WDS)、表示オブジェクト定義(ODS)等の情報が含まれている。これらの情報を用いることにより、OverlayBitmapの画像を構成することができる。
表示制御部174は、入力された上記情報を用いて、立体視映像ストリームとOverlayBitmapの表示を制御する。ここで、表示制御部174による表示制御処理について説明する前に、この表示制御処理に用いられる各種情報について説明する。
図9に示すように、立体視映像ストリームの表示領域250に対して、OverlayBitmapを表示するOB表示領域252が設定されている。例えば、OverlayBitmapデータとして表示される付加情報が字幕や時刻である場合、表示領域250内の右隅や下部、あるいは上部等の所定の位置にOB表示領域252が設定される。OB表示領域252に表示されるOverlayBitmapの奥行き方向における位置は、本実施形態にかかる表示制御処理では表示なしモード、押さえ込み表示モード、埋め込み表示モードのどの場合も常に固定で、視聴者から立体視映像表示装置をみるとき立体視映像ストリームの前方向側に重ねて表示される。
一方、立体視映像ストリームの表示される被写体オブジェクトは、デプスマップ情報により、OverlayBitmap表示なしモードでは固定にされるが、押さえ込み表示モード、埋め込み表示モードではそれぞれ1映像チャプタ再生期間中は、ストリーム管理DBファイルに記録の際にデプスマップのチャプタ内の映像のデプスマップストリームのピーク値、平均値が登録されているので、その値に対応して画面全体の映像側のデプスマップ情報を一定の固定比率で減じて立体視の奥行き情報を低減するように構成する。そのため、立体視映像ストリームの奥行き情報として、図4に示した撮像記録装置100のデプスマップ処理部150は、OB表示領域252内におけるEP(GOP)単位のデプスマップのピーク値および平均値を検出する。
ここで、図9とともに図4のシステム図に基づいて、このストリームが記録されるときの、立体視映像ストリーム記録の際の各映像のデプスマップ情報記録と、そのピーク値の詳細を説明する。1つのEP(GOP)は、複数のセグメントにより構成されている。図4の記録側のデプスマップ処理部150は、EP(GOP)単位のデプスマップのピーク値(DepthMapGOP_PeakValue)および平均値(DepthMapGOP_AverageValue)を、ストリーム管理DBファイルの所定フィールドに記録している。再生時には再生開始準備中のタイミングでこれらの情報が取得され、指定された再生1チャプタでのデプスマップ値のピークを一瞬で取得し、判断し映像ストリームのデプスマップの値を演算処理して立体視映像表示の奥行き方向を制御する。
また、これとは別途に、デプスマップ処理部150は、記録時に、EP(GOP)単位のデプスマップのピーク値および平均値を各EPビデオフレームのMDP内に記録している。こうしてこのストリーム内へ記録しておくことにより、映像ストリームのアクセスを管理するストリーム管理DBファイルが記録途中やメディア保存中、再生途中、編集途中に何らかの事故で壊れたとしても、映像ストリーム内部のMDPackを参照することにより、非常に時間はかかるが、EP(GOP)単位のデプスマップ属性情報を取得することができる。すなわち、このように構成することにより、修復可能な範囲でストリームを読み取り、壊れたストリーム管理DBファイルを修復することが可能となる。また、映像ストリームとして属性情報の完全性を保持することもできる。
1回の記録開始/停止により取得されメディアに記録される1動画チャプタについて、各EP(GOP)単位での、表示領域をOB表示領域252内に限定する必要があればそれに応じた設定と制御によりOB表示領域252内で、そうでなければ画面表示領域全体での、デプスマップ値のピーク値と平均値を取得する設定と制御を図4の記録側のデプスマップ処理部150に設定して検出制御し、映像デプスマップ値が取得されると、図9に示すように、映像デプスマップ値の時間変動を把握することができる。なお、図9に示す映像デプスマップ値は、各EP(GOP)単位でのOB表示領域252内のデプスマップの平均値とする。デプスマップ処理部150は、1動画チャプタ内での最大の映像デプスマップ値を当該動画チャプタにおけるデプスマップのピーク値とし、1動画チャプタ内での映像デプスマップ値の平均を当該動画チャプタにおけるデプスマップの平均値とする。
デプスマップ処理部150により検出された各動画チャプタのデプスマップのピーク値および平均値は、デプスマップ属性情報として、ストリーム管理ファイルのMoviePlayListファイルのExtentionDataのPlayItemに記録される。デプスマップ属性情報は、動画チャプタの記録停止後にストリーム管理ファイルに書き込みされるタイミングで記録される。
[表示制御部による表示制御処理]
このように撮影時に記録された動画チャプタ毎のデプスマップのピーク値および平均値を用いて、表示制御部174は再生時に立体視映像ストリームおよびOverlayBitmapの表示を制御する。本実施形態にかかる再生装置は、図1〜図3に示したように、立体視映像ストリームのみ表示してOverlayBitmapを表示しない非表示モード、押さえ込み表示制御モードおよび埋め込み表示制御モードの3つのモードで表示制御することができる。いずれのモードで表示制御するかは、撮影時やオーサリング時に予め設定することができる。再生装置は、設定された表示制御モードにしたがって、立体視映像ストリームおよびOverlayBitmapの表示を制御する。
(非表示モードでの表示制御処理)
まず、表示制御モードが非表示モードに設定されている場合、再生装置は、表示しないOverlayBitmapデータをデコードする必要はない。したがって、再生装置は、映像ストリーム、音声情報およびシステム情報をデコードして表示装置へ出力する。このとき、再生装置は、立体視映像ストリームおよびOverlayBitmapを表示制御する表示制御部174を機能させる必要はない。
(押さえ込み表示制御モードでの表示制御処理)
次に、表示制御モードが押さえ込み表示制御モードに設定されている場合には、表示制御部174により図10に示す表示制御処理が実行される。表示制御部174は、まず、MoviePlayListファイルから動画チャプタごとのデプスマップのピーク値を取得する(ステップS100)。そして、表示制御部174は、動画チャプタ単位で、デプスマップのピーク値がOverlayBitmapのデプスマップ値を超えているか否かを判定する(ステップS102)。
OverlayBitmapのデプスマップ値は、通常固定値とされる。例えば、0〜5mの距離での奥行きが映像で表わされているとき、奥行き2mの位置に固定でOverlayBitmapを表示させる。ステップS102にて、デプスマップのピーク値がOverlayBitmapのデプスマップ値を超えていないと判定された場合には、再生装置は、表示制御部174による表示制御をせずに、立体視映像ストリームの再生を開始する(ステップS120)。すなわち、立体視映像ストリームは、撮影時に記録された状態で表示され、OverlayBitmapは、OB表示領域252の固定の表示位置に表示される。
一方、ステップS102にて、デプスマップのピーク値がOverlayBitmapのデプスマップ値を超えたと判定された場合には、再生装置は、EP(GOP)ごとのデプスマップのピーク値を、ClipInfoファイルからリスト取得する(ステップS104)。そして、EP(GOP)ごとのデプスマップのピーク値がOverlayBitmapのデプスマップ値を超えるピーク値超過再生時間を取得する(ステップS106)。ピーク値超過再生時間は、EP(GOP)再生時間単位で取得される。
本実施形態にかかる再生装置は、立体視映像ストリームをユーザが視聴し易くするように表示制御する。しかし、EP(GOP)ごとのデプスマップのピーク値がOverlayBitmapのデプスマップ値を超えている状態では、立体視映像ストリームの手前視聴者側に重ねて表示されているOverlayBitmapのデプスマップによる立体視表示は、映像ストリームのオブジェクトのデプスマップによる立体視表示で表示が乱されてしまう。このため、OverlayBitmapにより表示する時刻や撮影情報、撮影時の各種情報等の付加情報をユーザは視認することができない。
そこで、表示制御部174は、押さえ込み表示制御モードにおいて、再生を開始するとき、まずストリーム管理DBファイルから、撮影時にすでにファイルの指定フィールド位置に登録されている1チャプタ区間でのデプスマップのピーク値登録データを読み取り確認する。かかる処理は一瞬で完了する。そして、この映像ストリームのデプスマップストリームのピーク値登録データが、OverlayBitmapの付加情報表示するデプスマップで指定される画面上立体視表示位置、この場合は立体視画面視聴者が映像ストリームのオブジェクトに隠れていると判断された場合には、映像ストリームがOverlayBitmapの表示を妨げないよう、映像ストリームのオブジェクトの前方にOverlayBitmapの付加情報が表示されるように制御する。
特に望ましい実施形態としては、図6のデプスマップ映像レベル適応処理部192において、再生開始の最初にその1映像チャプタ開始から終了までの間での映像ストリームのデプスマップピーク値をストリーム管理DBファイルの登録フィールドから取得して、チャプタ再生中のデプスマップ最大ピーク値がOverlayBitmapの立体視映像表示での重ね表示デプスマップ値を超えないための映像ストリーム側のデプスマップ減少比率を決定する。そして、その比率で再生する映像ストリームのデプスマップ値を一定比率で減ずる設定をデプスマップ映像レベル適応処理部192により設定してから再生開始することにより、1映像チャプタの再生中はその比率が変わらない一定の減少比率でデプスマップストリーム値を減少させて出力することを実現できる。
ここで、表示制御部174は、ピーク値超過再生時間が第1の閾値時間を超えたか否かを判定する(ステップS108)。第1の閾値時間は、任意に設定することができる。EP(GOP)ごとのデプスマップのピーク値がOverlayBitmapのデプスマップ値を超えたのが第1の閾値時間より短い、僅かな時間であった場合にもOB表示領域252における立体視映像ストリーム内のオブジェクトをOverlayBitmapの表示位置より奥側に表示させるようにすると、主表示内容である立体視映像ストリームの視聴をかえって妨げることになりかねない。そこで、表示制御部174は、ピーク値超過再生時間が第1の閾値時間を超えていないと判定した場合には、映像ストリームおよびOverlayBitmapの奥行き方向の位置を変更せず、撮影時に記録された状態で立体視映像ストリームを再生する(ステップS120)。
一方、ピーク値超過再生時間が第1の閾値時間を超えたと判定した場合には、再生装置は、再生装置に接続された表示装置に対して、ユーザに対するアラートメッセージを表示する指示を出力する構成にしてもよい。アラートメッセージは、OverlayBitmapの付加情報が視認できるように、押さえ込み表示制御を実行するか否かをユーザに選択させるためのメッセージである。このとき、再生装置はアラートメッセージに対するユーザ操作の入力待ち状態となる(ステップS110)。表示装置は、再生装置からの指示にしたがってアラートメッセージを表示する。ユーザは、表示装置に表示されたアラートメッセージに対して、押さえ込み表示制御を実行するか否かを選択して、選択した結果をリモートコントローラ等の入力装置(図示せず。)を用いて入力する。
ユーザが入力装置から入力した選択結果は、入力情報として再生装置に入力される。入力情報を受信した再生装置は、ユーザ操作の入力待ち状態を解除し、入力情報に基づいて押さえ込み表示制御を実行するか否かを判定する(ステップS116)。ユーザにより押さえ込み表示制御の実行が選択されなかった場合には、再生装置は、映像ストリームおよびOverlayBitmapの奥行き方向の位置を変更せず、撮影時に記録された状態で立体視映像ストリームを再生する(ステップS120)。一方、ユーザにより押さえ込み表示制御の実行が選択された場合には、表示制御部174は、映像ストリームの押さえ込み表示制御を実行する(ステップS118)。
映像ストリームの押さえ込み表示制御が実行されることにより、図2に示したように、OB表示領域252に位置する映像ストリームのオブジェクトが、OB表示領域252の立体視表示の奥行き方向位置よりも視聴者側から立体視表示装置をみて常に奥に位置するように表示される。図8の表示制御部174は、設定されたOverlayBitmapのデプスマップ値よりOB表示領域252内の映像ストリームのオブジェクトのデプスマップ値が小さくなるように、映像ストリームのオブジェクトを含む映像画面全体の立体視表示装置の奥行き方向の表示位置を、デプスマップストリーム値の減少演算制御によって決定する。
このとき、映像ストリームのオブジェクトの、変更後のデプスマップ値は、例えば、減少処理後のデプスマップストリームのピーク値がOverlayBitmapのデプスマップ値より小さく、すなわち視聴者からみて立体視表示装置の奥行き方向の表示位置として、1映像チャプタ再生の開始から終了まで、OverlayBitmapが表示される立体視表示奥行き位置より常に奥に表示されるように、再生デコードデプスマップストリームに対する減少率を固定の値とすることができる。以上のように、図8の表示制御部174は、OB表示領域252内の映像ストリームのオブジェクトのデプスマップ値を一定比率で減少変更した状態に設定した後、立体視映像ストリームを再生する(ステップS120)。
また、図8のOBデコード部172のグラフィックコントローラ(GraphicController)は、OverlayBitmapの表示内容を変更することもできる。例えば、OverlayBitmapに字幕や時刻等の付加情報が表示される場合、文字以外の文字背景は透過率を高くして、背後にある立体視映像ストリームのオブジェクトをシースルーできるようにする。これにより、立体視映像ストリームよりも優先してOverlayBitmapを表示させつつ、情報性の低い背景部分については立体視映像ストリームの情報も表示されるようになる。
以上、図8の表示制御部174による映像ストリームの押さえ込み表示制御について説明した。押さえ込み表示制御処理を実行することにより、OverlayBitmapデータが映像ストリームのオブジェクトに隠れてしまうのを防止することができ、立体視映像ストリームを視聴するユーザに分かりやすく付加情報を提示できる。
(埋め込み表示制御モードでの表示制御処理)
次に、表示制御モードが埋め込み表示制御モードに設定されている場合には、表示制御部174により図11に示す表示制御処理が実行される。図8に示す表示制御部174は、まず、MoviePlayListファイルから動画チャプタごとのデプスマップのピーク値を取得する(ステップS200)。そして、この表示制御部174は、動画チャプタ単位で、デプスマップのピーク値がOverlayBitmapのデプスマップ値を超えているか否かを判定する(ステップS202)。1動画チャプタ内でOverlayBitmapのデプスマップ値をデプスマップのピーク値が一度も超えていなければ、埋め込み表示制御は実施する必要がないからである。
OverlayBitmapのデプスマップ値は、通常固定値とされる。ステップS202にて、デプスマップのピーク値がOverlayBitmapのデプスマップ値を超えていないと判定された場合には、再生装置は、図8の表示制御部174による表示制御をせずに、映像ストリームの再生を開始する(ステップS220)。ここまでの処理は、図10に示した押さえ込み表示制御モードでのステップS100およびS102の処理と同様である。
一方、ステップS202にて、デプスマップのピーク値がOverlayBitmapのデプスマップ値を超えたと判定された場合には、再生装置は、EP(GOP)ごとのデプスマップの平均値を、ClipInfoファイルからリスト取得する(ステップS204)。そして、EP(GOP)ごとのデプスマップの平均値がOverlayBitmapのデプスマップ値を超える平均値超過再生時間を取得する(ステップS206)。平均値超過再生時間は、EP(GOP)再生時間単位で取得される。
本実施形態にかかる再生装置は、立体視映像ストリームをユーザが視聴し易くするように表示制御する。ここで、OverlayBitmapは通常固定位置に表示されるが、映像ストリームのオブジェクトの表示位置は時間の経過とともに変動するのが通常である。このため、動画チャプタの再生時に映像ストリームのオブジェクトが、OverlayBitmapよりも手前に表示されたり奥に表示されたりする。そうすると、1動画チャプタ中においてユーザがOverlayBitmapの付加情報を視認できる場合と視認できない場合とが生じてしまい、立体視映像ストリームの視聴がし難い状態となる。そこで、図8の表示制御部174は、埋め込み表示制御モードにおいて、映像ストリームのオブジェクトと重なるOverlayBitmapに対しては、OB表示領域252のうち映像ストリームのオブジェクトとの重複部分を隠すように表示画像処理制御をする。
ここで、特に、OverlayBitmap表示モードを選択している埋め込みモードで、OverlayBitmap表示内容を映像で隠す時間が、1映像再生チャプタ再生時間中の人間の視聴者感覚的な設定値で比較的長い時間であった場合にもOverlayBitmapを立体視映像ストリーム内のオブジェクトに埋め込むように表示させると、OverlayBitmapの付加情報を視認できない時間が増加し、せっかくOverlayBitmapを表示する表示モードを選らんでいるにもかかわらず、OverlayBitmapで表示される付加情報を立体視表示装置を見ている視聴者に十分に伝えることができなくなる。
したがって、指定された映像チャプタを再生開始する際には、図8の表示制御部174は、再生映像ストリームの該当する映像チャプタ区間のデプスマップのピーク値が超えることをまず確認し、映像ストリームのデプスマップストリームのピーク値がOverlayBitmap表示のデプスマップ値を超えることを判断する。表示制御部174は、この映像ストリームのデプスマップストリームの平均値がOverlayBitmap表示のデプスマップ値を超える超過再生時間が第2の閾値時間を超えていると判断された場合には、この押え込み表示モードで再生を開始してよいか、再生開始まえに判定する必要がある。なお、第2の閾値時間は、OverlayBitmap表示に割り当てられるデプスマップ値が映像ストリームのオブジェクト群がもつデプスマップストリームを超えるために、OverlayBitmapの表示情報が表示隠し処理によって見えなくなる時間が、視聴者にとって感覚的に許容できるかどうかを映像再生時間割合で設定した時間である。
ここで、図8の表示制御部174は、平均値超過再生時間が第2の閾値時間を超えたか否かを判定する(ステップS208)。第2の閾値時間は、任意に設定することができる。押さえ込み表示制御モードのときと同様、EP(GOP)ごとのデプスマップの平均値がOverlayBitmapのデプスマップ値を超えたのが第2の閾値時間より短い、有意に僅かな時間であった場合ならOverlayBitmapを立体視映像ストリーム内のオブジェクトに埋め込むように表示させても、OverlayBitmapの付加情報を視認できない時間は視聴者の視聴の障害にならず、付加情報を十分に伝えることができる。したがって、表示制御部174は、平均値超過再生時間が第2の閾値時間を超えていないと判定した場合には、映像ストリームおよびOverlayBitmapの奥行き方向の位置を変更せず、そのまま撮影時に記録された状態で立体視映像ストリームを再生する(ステップS220)。
一方、有意に長い時間であった場合にOverlayBitmapを立体視映像ストリーム内のオブジェクトに埋め込むように表示させると、OverlayBitmapの付加情報を視認できない視聴者の視聴の障害になる時間期間が増加し、付加情報を十分に伝えることができなくなる。したがって、図8の表示制御部174は、平均値超過再生時間が第2の閾値時間を超えていると判定した場合には、OverlayBitmap表示モードの一つの埋め込みモードを選択しているのに、そのOverlayBitmap表示内容を視聴するのが妨げられるので、このままOverlayBitmap表示制御を埋め込みモードで再生開始してよいか、ユーザに確認をさせるのが望ましい。以下はその手順フローを説明する。
平均値超過再生時間が第2の閾値時間を超えたと判定した場合には、再生装置は、表示装置に対してユーザに対するアラートメッセージを表示する指示を出力する。アラートメッセージは、埋め込み表示制御を実行するか否かをユーザに選択させるためのメッセージとすることができる。このとき、再生装置はアラートメッセージに対するユーザ操作の入力待ち状態となる(ステップS210)。表示装置は、再生装置からの指示にしたがってアラートメッセージを表示する。ユーザは、表示装置に表示されたアラートメッセージに対して、埋め込み表示制御を実行するか否かを選択して、選択した結果を入力装置(図示せず。)を用いて入力する。
ユーザが入力装置から入力した選択結果は、入力情報として再生装置に入力される。入力情報を受信した再生装置は、ユーザ操作の入力待ち状態を解除し、入力情報に基づいて埋め込み表示制御を実行するか否かを判定する(ステップS216)。ユーザにより押さえ込み表示制御の実行が選択されなかった場合には、再生装置は、映像ストリームおよびOverlayBitmapの奥行き方向の位置を変更せず、撮影時に記録された状態で立体視映像ストリームを再生する(ステップS220)。一方、ユーザにより埋め込み表示制御の実行が選択された場合には、表示制御部174は立体視映像ストリームのオブジェクトに対する、OverlayBitmapの埋め込み表示制御を実行する(ステップS218)。
OverlayBitmapの埋め込み表示制御が実行されると、表示制御部174は、OBデコード部172のグラフィックコントローラ(GraphicController)にOverlayBitmapの画像処理を行わせる。グラフィックコントローラ(GraphicController)は、OverlayBitmapと映像ストリームのオブジェクトとの重複部分に対して陰像処理し、映像ストリームのオブジェクトと重複するOverlayBitmapを隠す。これにより、OverlayBitmapを、図3に示すようにOB表示領域252内の映像ストリームのオブジェクトに埋め込まれたように表示させることができる。
以上、埋め込み表示制御モードについて説明した。なお、ステップS212でのアラートメッセージは、例えば、押さえ込み表示制御モードと埋め込み表示制御モードとのうちいずれのモードで表示制御するか否かをユーザに選択させるためのメッセージとすることもできる。この場合、ユーザは、表示装置に表示されたアラートメッセージに対して、実行する表示制御モードを選択して、選択した結果を入力装置(図示せず。)を用いて入力する。
入力情報を受信した再生装置は、ユーザ操作の入力待ち状態を解除し、入力情報に基づいて実行する表示制御モードを判定する(ステップS216)。ユーザにより埋め込み表示制御の実行が選択された場合には、上記と同様、表示制御部は、OverlayBitmapの埋め込み表示制御を実行する(ステップS218)。一方、ユーザにより押さえ込み表示制御モードが選択された場合には、表示制御部は、上述した映像ストリームの押さえ込み表示制御を実行する。
また、上記で説明した、押さえ込み表示制御モードおよび埋め込み表示制御モードにおいては、アラートメッセージを表示させて、ユーザに対して表示制御処理を実行させるか否かを選択させることにより、ユーザの視聴しやすい形態を選択できるようにした。しかし、必ずしもアラートメッセージを表示させなくともよい。この場合、押さえ込み表示制御モードではピーク値超過再生時間が第1の閾値時間を超えた場合(S108)、埋め込み表示制御モードでは平均値超過再生時間が第2の閾値時間を超えた場合(S208)には、表示制御処理が実行される。
以上、本実施形態にかかる表示制御部174による表示制御処理について説明した。本実施形態にかかる再生装置によれば、映像ストリームの内容を考慮して、選択された表示制御モードに応じて、OverlayBitmapや映像ストリームの表示を処理し、ユーザの視聴しやすい立体視映像ストリームを提供することができる。
[立体視映像ストリームのAVCHDストリーム管理ファイルへの記録]
最後に、本実施形態における立体視映像ストリームのAVCHDストリーム管理ファイルへの記録方式について説明する。撮影時における記録やオーサリングにより、立体視映像ストリームはAVCHDフォーマットのストリーム管理ファイルに記録される。
ストリーム管理ファイルは、Indexファイル、MovieObjectファイル、MoviePlayListファイル、ClipInfoファイルの4つのファイルからなる。Indexファイルは、動画チャプタ記録を管理するファイルである。本実施形態では、Indexファイルは、立体視映像ストリームであることを識別するための立体属性フラグを管理している。MovieObjectファイルは、アプリケーション記録フォーマットで決められたファイルであって、動画チャプタ記録を管理するファイルである。MoviePlayListファイルは、動画チャプタへのコンテンツごとのアクセスを記録単位、IN点OUT点論理時刻指定で管理するファイルである。ClipInfoファイルは、クリップ情報ファイルで、立体視動画チャプタ内部ストリームへのアクセスを管理するファイルである。
このようなストリーム管理ファイルには、立体視映像ストリームに関するシステムデータが記録される。図12に、1つのストリームが記録される場合のストリーム管理ファイルへの記録方式を示す。すなわち、ストリーム管理ファイルに記録されている立体属性フラグの第1の立体属性情報はTRUEであり、第2の立体属性情報がFALSEであるときの記録方式である。図12に示すように、MoviePlayListファイルには、PAT(Program Association
Table)およびPMT(Program Map Table)が記録される。PMTは、MoviePlayListファイルのデプスマップデータの拡張定義フィールドに記録される。本例では、記録されるストリーム数が1つであるからPATは1となる。また、PMTは、MoviePlayListファイルに記録される各ストリームを特定する固有値となる。
また、ClipInfoファイルには、MoviePlayListファイルにも記録されたPATおよびPMTに加えて、立体視映像ストリームのビデオデータ、オーディオデータ、OverlayBitmapデータ、メニューデータ、およびデプスマップデータが記録される。ビデオデータには、PCR(Program Clock Reference)、I−Picture、MDP(ModifiedDVPack)、P−Picture、B−Picture等の情報が含まれる。オーディオデータには、AC−3、LPCM等の情報が含まれる。これらの情報は、ClipInfoファイルの拡張定義フィールドのEP_mapに登録される。
また、多数視点形式における立体視映像ストリームに対応する場合のストリーム管理ファイルへの記録方式を図13に示す。図13に示すストリーム管理ファイルには、2つのストリームが記憶されている。すなわち、ストリーム管理ファイルに記録されている立体属性フラグの第1の立体属性情報および第2の立体属性情報がともにTRUEであるときの記録方式である。
この場合も、MoviePlayListファイルに、PATおよびPMTが記録され、ClipInfoファイルに、PAT、PMT、立体視映像ストリームのビデオデータ、オーディオデータ、OverlayBitmapデータ、メニューデータ、およびデプスマップデータが記録される。本例では、記録されるストリーム数が2つであるからPATは2となる。立体視映像ストリームのビデオデータ、オーディオデータ、OverlayBitmapデータ、メニューデータ、およびデプスマップデータは、メインストリームおよびサブストリームのそれぞれについて記録される。
以上、本発明の第1の実施形態にかかる撮像記録装置100および、記録された立体視映像ストリームを再生する再生装置の構成とこれによる表示制御方法について説明した。本実施形態によれば、撮像記録装置100による撮影時に立体視方式で記録されたTSストリームを、本実施形態にかかる再生装置によりオーサリング出力するとき、映像ストリームのオブジェクトのデプスマップデータとOverlayBitmapのデプスマップ値に基づいて、映像ストリームおよびOverlayBitmapの表示を制御する。このように、映像ストリームの内容を考慮しながら映像ストリームおよびOverlayBitmapの表示を制御する。
本実施形態では、表示制御モードとして、OverlayBitmapの非表示モード、押さえ込み表示制御モード、埋め込み表示制御モードの3つのモードによって、ユーザにとって視聴しやすい表示となるように、表示制御する。これにより、OverlayBitmapが映像ストリームのオブジェクトに隠れてしまったり、OverlayBitmapが視認できたり隠れたりして表示状態が頻繁に切り替わったりするのを防止することができる。
また、本実施形態の記録再生装置100は、デプスマップの適度な距離位置を設定してOverlayBitmapを立体視表示できるように、AVCHDフォーマットを拡張定義して立体視映像ストリームを構成し、メディアに記録する。これにより、AVCHDフォーマットで記録した立体視映像ストリームを、違和感なく表示させることができる。
<2.第2の実施形態>
次に、図14に基づいて、第1の実施形態の拡張である、本発明の第2の実施形態にかかる立体視映像ストリームおよびOverlayBitmapのMP4立体視ストリームへの変換処理について説明する。なお、図14は、本実施形態にかかる立体視映像ストリームおよびOverlayBitmapのMP4立体視ストリームへの変換処理を示す説明図である。図14では、P4カムコーダのデプスマップ対応型MPEG−C part3映像をデプスマップ式のAVCHD立体視映像ストリームに変換する場合を示している。
[AVCHDフォーマットにより記録された立体視映像ストリームとMP4ストリームとの変換]
近年では、MP4からDVDやAVCHD、Blu−Ray(登録商標)など光ディスク用映像アプリケーションフォーマットへのフォーマット変換に関する技術開発がなされている。MP4は、MPEG−4形式の圧縮動画データを格納するファイル形式の1つであって、ISO/IEC14496規格で規定されている。しかし、今後、MP4カムコーダの映像をAVCHDフォーマットで記録された映像ストリームに変換して記録媒体に保存したり、高画質なAVCHDカムコーダのデプスマップ対応映像ストリームをMP4ストリームに変換して保存したりすることが想定される。
そこで、本実施形態の説明では、MP4カムコーダのデプスマップ対応型MPEG−C part3映像をデプスマップ式のAVCHD立体視映像ストリームに変換してディスク等の記録媒体に記録したり、あるいは逆に高画質なAVCHDカムコーダのデプスマップ対応立体視映像ストリームをMP4カムコーダのMPEG−Cpart3型のMP4ストリームに変換して記録したりする変換処理について説明する。
1フレームの左右分割で画面左側にカラー映像、画面右側にデプスマップを表す白黒映像を画像処理で配置したMP4映像ストリームを撮影するMP4カムコーダを定義する。このとき、MP4からAVCHD方向への変換、あるいはAVCHDからMP4方向への変換は、それぞれのカム専用クレイドル内部のコンバータで行われる。入力された左右分割の映像ストリームは、毎秒30Pの毎フレームごとに、カラー映像とデプスマップ映像に分離され、それぞれの映像について画面が水平伸長される。ここで、水平解像度不足を動きベクトルなどから補完する超解像技術をさらに適用してもよい。画面が水平伸長されると、対応する水平解像度ビット数に拡張され、それぞれ映像バッファ、デプスマップバッファに蓄積される。
映像バッファ、デプスマップバッファに蓄積に蓄積されたカラー映像およびデプスマップ映像をエンコードする際には、大別して2種類のファイルを保持するMP4ストリームに対して、MP4アプリケーションフォーマットで規定されているPPSやSPSという映像管理信号をAVCHDのストリームに埋め込み、PIDを打ち、エンコードする。ここで、スマートレンダリングと呼ばれる再MUX(Demux/Mux)を実施することにより、再エンコード処理による画質劣化を防ぐことができる。また、デプスマップデータストリームがエンコード後に記録される際に、撮影時刻データがMP4の管理情報から取得してAVCHDストリームに埋め込まれる。
また、高画質なAVCHD方式で撮影したデプスマップ方式の立体視映像ストリームをMP4映像ストリームに変換して記録するため、PIDでビデオデータ、オーディオデータ、およびデプスマップデータを抽出してデコードし、ESレベルでMP4にエンコードする。MP4では立体視ビデオにデプスマップを別データとして保持するフォーマット形式が決定されていないため、MPEG−C part3に指示される映像/DepthMapに画面分割で出力されたものを1画面エンコードする。もちろん、本形式のように、MP4でも立体視映像ストリームがデプスマップデータを別メディアデータとして保持する形式が定義され、かつ、MP4およびAVCHD双方でのH.264/AVC映像ストリーム圧縮方式に整合がとれれば、再エンコードが不要なスマートレンダリングでの再MUXダビングが可能になる。
ここで、MP4およびAVCHD双方でのH.264/AVC映像ストリーム圧縮方式に整合がとれるという意味について解説する。MP4はネットワーク流通コンテンツ用途を主に発達してきた経緯から、通信環境の短い断続欠落発生にも圧縮映像ストリームの映像伸長デコード処理が破たんせず耐え得るように、映像ストリームが新たに開始できるIピクチャフレーム(以下、これを「IDR」と称する。)特性のIピクチャを1、2秒に1個挿入して、ストリームデコードの破たんに耐え得るストリーム構成とされている。IDRとは、これに比較して、従来のBlu−Ray Disc(登録商標)に保存するためのAVCHDおよびBlu−Ray(登録商標)方式の映像アプリケーションフォーマットでのH.264/AVC方式映像圧縮ストリームでは、同じデータ転送ビットレートでより高い画質、より効率よい圧縮を実現するために、このIDRが10秒に1回程度しか挿入されていなかった。
本実施形態の説明では、アプリケーションフォーマットとしてMP4とAVCHD、Blu−Ray(登録商標)を使う例を説明している。なお、ここで、再生デコード、再エンコードしてメディア記録する、実再生時間をかけて撮影立体映像をダビングするよりは、ユーザの便宜を図るために実再生時間よりも短縮したパケットデータダビング処理のみでのダビングが可能な、スマートレンダリングが望ましい。スマートレンダリングとは、映像の再生デコード、エンコード記録をせずに、ストリームの圧縮状態のまま、TSストリームパケットのデマルチプレクス、マルチプレクスのみを行う方式である。H.264/AVC映像圧縮方式でスマートレンダリングを実現するためには、次の要件がMP4、AVCHD双方のアプリケーションフォーマット方式側の再生システム装置側で追加対応され記録再生されることを前提とする。IDR挿入区間のMP4とAVCHD、Blu−Ray(登録商標)双方のアプリケーションフォーマット方式でのIDRを対応させておくこととする。
ここで、IDRを説明すると、MPEG映像圧縮の一つ、H.264/AVCのIフレームは、動画映像ストリームを構成する、画面上の一枚の画である。PピクチャやBピクチャは、Iピクチャとの時間軸前後比較による差分映像成分である。Iピクチャは1画面空間内の圧縮映像である。あるピクチャを別ピクチャとの参照差分ピクチャで済ませることを時間軸圧縮といい、MPEGで使用されている。Pピクチャは自身のピクチャの前の時刻のピクチャを参照し、Bフレームは自身のピクチャの前と後の時刻のピクチャを参照する参照関係をもつ。Iピクチャ以外は、参照関係の元になるピクチャが存在している。フレーム間の依存関係を「参照(reference)」と呼び、Iピクチャと、それを映像差分参照し依存するピクチャの1群をまとめてGOP(Group of Pictures)と呼ぶ。
IDR(Instantaneous Decoder Refresh)フレームとは、MPEG圧縮の一つ、H.264/AVC映像圧縮規格で新しく追加されたフレームであり、特にそのフレームから再生できるIフレームとして機能し識別される。H.264/AVC方式では、時間軸圧縮率向上のために、新たに複数参照、マルチプル・リファレンス(Multiple reference pictures)が導入され使用されている。例えば、Pフレームは直前時刻のIフレームを参照するだけではなく、それ以前の時刻のIフレームも参照できる方式としている。この新定義方式によって、高い画質を保ったまま圧縮効率を向上することができるようになり、高画質HD動画圧縮に適する、とされ撮影、記録、映像コンテンツの圧縮ストリーム方式として広く使用されている。
しかし、このマルチプル・リファレンスの関係もはるか以前の時刻のフレームに参照関係をつくると、映像ストリームの途中が通信異常で壊れたときや編集カット作業で切断されたときに、それ以降デコードできなくなる影響を受ける期間が拡大し、参照関係のデータも膨大になる。このため、通信、メディア記録など使用用途に応じて、適切な所定の時間軸範囲でマルチリファレンスの参照関係を打ち切っておく必要がある。このマルチプル・リファレンス打ち切りフラグをもったIピクチャをIDRと呼び区別している。
また、MP4変換記録再生装置からAVCHD方式の記録再生装置への変換処理では、MP4の時刻情報を取得してOverlayBitmapを生成する。そして、OverlayBitmapにデプスマップ値を付与して、立体視画像の指定立体位置に固定配置する。
以上、本発明の第2の実施形態にかかる立体視映像ストリームおよびOverlayBitmapのMP4立体視ストリームへの変換処理について説明した。このように、AVCHDフォーマットにより記録された立体視映像ストリームとMP4ストリームとの変換を可能とすることも可能である。AVCHDフォーマットで記録された立体視映像ストリームが第1の実施形態で説明した記録方式であれば、表示制御部を備えた再生装置で再生する際に、立体視映像ストリームおよびOverlayBitmapの表示を上述の表示制御モードに応じて表示制御することができる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、上記実施形態では、撮像記録装置によって記録された映像を、表示制御部を備える再生装置によって立体視映像ストリームおよびOverlayBitmapの表示制御を行う公正としたが、本発明はかかる例に限定されない。例えば、図4および図6に示した記録再生装置の再生出力処理部に、本実施形態にかかる表示制御部を備えてもよい。この場合、例えば撮像記録装置であるカムコーダの表示部に表示される立体視映像ストリームおよびOverlayBitmapが、表示制御部により表示制御モードに応じて表示処理された状態で表示される。また、上記実施形態において表示制御部を備える装置は再生装置であったが、かかる例に限定されず、記録再生装置や、撮像記録再生装置等、立体視映像ストリームを再生可能な機能を有する装置に適用可能である。
100 撮像記録装置
110 カメラ制御部
120 マイク音声入力部
130 エンコード部
140 RUV作成記録処理部
142 記録部
150 デプスマップ処理部
160 RUV再生処理部
170 デコード部
171 主映像デコード部
172 OBデコード部
173 デプスマップ映像デコード部
174 表示制御部
200 表示装置
210、220、230 オブジェクト
250 表示領域
252 OB表示領域

Claims (12)

  1. 立体視映像データに含まれるオブジェクトの奥行き方向における位置を表す奥行き情報に基づいて、前記立体視映像データと重畳して表示する付加情報データの付加情報表示領域内における前記立体視映像データの前記オブジェクトの表示位置が最前方となる奥行き方向の位置を示すピーク値を検出する奥行き情報検出部と、
    前記付加情報データの奥行き情報と、前記立体視映像データのピーク値とを比較して、前記付加情報表示領域内における前記立体視映像データと前記付加情報の表示位置との奥行き方向における位置関係を検出する比較検出部と、
    前記立体視映像データと前記付加情報の表示位置との奥行き方向における位置関係に応じて、前記立体視映像データおよび前記付加情報の表示位置を制御する制御部と、
    を備える、情報処理装置。
  2. 前記制御部は、前記比較検出部により前記立体視映像データのオブジェクトが前記付加情報より前方に表示されると判断されたとき、前記付加情報表示領域内の前記立体視映像データのオブジェクトを前記付加情報より後方に表示する、請求項1に記載の情報処理装置。
  3. 前記比較検出部により前記立体視映像データのオブジェクトが前記付加情報より前方に表示される超過時間を検出する超過時間検出部をさらに備え、
    前記奥行き情報検出部は、前記立体視映像データの基本単位毎に、前記付加情報表示領域における前記オブジェクトの表示位置が最前方となる奥行き方向の位置を示す単位ピーク値として検出し、
    前記比較検出部は、前記付加情報データの奥行き方向の位置と前記単位ピーク値とを比較して、前記付加情報表示領域内における前記立体視映像データのオブジェクトと前記付加情報との位置関係を検出し、
    前記制御部は、前記超過時間が第1の閾値時間を超えた場合に、前記付加情報表示領域内の前記立体視映像データのオブジェクトを前記付加情報より後方に表示する、請求項2に記載の情報処理装置。
  4. 前記制御部は、前記超過時間が第1の閾値時間を超えた場合に、前記立体視映像データおよび前記付加情報データの表示制御の実行可否をユーザに選択させるメッセージを通知する、請求項3に記載の情報処理装置。
  5. 前記制御部は、前記付加情報データの背景映像を、当該背景映像と重複する前記立体視映像データのオブジェクトが視認できるように透過率を上げて表示する、請求項2に記載の情報処理装置。
  6. 前記制御部は、前記比較検出部により前記立体視映像データのオブジェクトが前記付加情報より前方に表示されると判断されたとき、前記立体視映像データのオブジェクトと重複する部分を当該オブジェクトに隠すように前記付加情報データを表示する、請求項1に記載の情報処理装置。
  7. 前記比較検出部により前記立体視映像データのオブジェクトが前記付加情報より前方に表示される超過時間を検出する超過時間検出部をさらに備え、
    前記奥行き情報検出部は、前記立体視映像データの基本単位毎に、前記付加情報表示領域における前記オブジェクトの表示位置の奥行き方向の位置の平均である単位平均値を検出し、
    前記比較検出部は、前記付加情報データの奥行き方向の位置と前記単位平均値とを比較して、前記付加情報表示領域内における前記立体視映像データのオブジェクトと前記付加情報との位置関係を検出し、
    前記制御部は、前記超過時間が第2の閾値時間を超えた場合に、前記立体視映像データのオブジェクトと重複する部分を当該オブジェクトに隠すように前記付加情報データを表示する、請求項6に記載の情報処理装置。
  8. 前記制御部は、前記超過時間が第2の閾値時間を超えた場合に、前記立体視映像データおよび前記付加情報データの表示制御の実行可否をユーザに選択させるメッセージを通知する、請求項7に記載の情報処理装置。
  9. 前記付加情報データの奥行き方向における表示位置は固定である、請求項1〜8のいずれか1項に記載の情報処理装置。
  10. 前記立体視映像データおよび前記付加情報データは、AVCHDフォーマットで記録されている、請求項1〜9のいずれか1項に記載の情報処理装置。
  11. 前記立体視映像データの基本単位ごとの奥行き情報は、当該基本単位ごとの前記立体視映像データとともに記録されている、請求項10に記載の情報処理装置。
  12. 立体視映像データに含まれるオブジェクトの奥行き方向における位置を表す奥行き情報に基づいて、前記立体視映像データと重畳して表示する付加情報データの付加情報表示領域内における前記立体視映像データの前記オブジェクトの表示位置が最前方となる奥行き方向の位置を示すピーク値を検出するステップと、
    前記付加情報データの奥行き情報と、前記立体視映像データのピーク値とを比較するステップと、
    前記付加情報データの奥行き情報と前記立体視映像データのピーク値との比較結果から、前記付加情報表示領域内における前記立体視映像データと前記付加情報の表示位置との奥行き方向における位置関係を検出するステップと、
    前記立体視映像データと前記付加情報の表示位置との奥行き方向における位置関係に応じて、前記立体視映像データおよび前記付加情報の表示位置を制御するステップと、
    を含む、情報処理方法。
JP2009164050A 2009-07-10 2009-07-10 情報処理装置および情報処理方法 Expired - Fee Related JP5369952B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009164050A JP5369952B2 (ja) 2009-07-10 2009-07-10 情報処理装置および情報処理方法
US12/803,536 US9071830B2 (en) 2009-07-10 2010-06-29 Information processing apparatus and information processing method
CN2010102247439A CN101951527B (zh) 2009-07-10 2010-07-07 信息处理设备和信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009164050A JP5369952B2 (ja) 2009-07-10 2009-07-10 情報処理装置および情報処理方法

Publications (3)

Publication Number Publication Date
JP2011019191A true JP2011019191A (ja) 2011-01-27
JP2011019191A5 JP2011019191A5 (ja) 2012-08-16
JP5369952B2 JP5369952B2 (ja) 2013-12-18

Family

ID=43427150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009164050A Expired - Fee Related JP5369952B2 (ja) 2009-07-10 2009-07-10 情報処理装置および情報処理方法

Country Status (3)

Country Link
US (1) US9071830B2 (ja)
JP (1) JP5369952B2 (ja)
CN (1) CN101951527B (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012169730A (ja) * 2011-02-10 2012-09-06 Nec Personal Computers Ltd 画像処理方法及び画像処理装置
JP2012191569A (ja) * 2011-03-14 2012-10-04 National Institute Of Information & Communication Technology 立体映像符号化装置およびその方法、ならびに、立体映像復号化装置およびその方法
TWI472864B (zh) * 2013-07-19 2015-02-11 Htc Corp 影像處理裝置及其控制方法
US9407897B2 (en) 2011-09-30 2016-08-02 Panasonic Intellectual Property Management Co., Ltd. Video processing apparatus and video processing method
JPWO2019230225A1 (ja) * 2018-05-29 2021-07-15 ソニーグループ株式会社 画像処理装置、画像処理方法、プログラム

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011136137A1 (ja) 2010-04-28 2011-11-03 富士フイルム株式会社 立体撮像装置及びその制御方法
KR20110138151A (ko) * 2010-06-18 2011-12-26 삼성전자주식회사 자막 서비스를 포함하는 디지털 방송 서비스를 제공하기 위한 비디오 데이터스트림 전송 방법 및 그 장치, 자막 서비스를 포함하는 디지털 방송 서비스를 제공하는 비디오 데이터스트림 수신 방법 및 그 장치
KR20120004203A (ko) * 2010-07-06 2012-01-12 삼성전자주식회사 디스플레이 방법 및 장치
IT1401367B1 (it) * 2010-07-28 2013-07-18 Sisvel Technology Srl Metodo per combinare immagini riferentesi ad un contenuto tridimensionale.
JP5250604B2 (ja) * 2010-10-26 2013-07-31 富士フイルム株式会社 立体画像表示装置、立体画像表示方法およびプログラム
JP2012124653A (ja) * 2010-12-07 2012-06-28 Canon Inc 符号化装置、符号化方法およびプログラム
WO2012101916A1 (ja) * 2011-01-25 2012-08-02 富士フイルム株式会社 立体動画処理装置、立体動画処理プログラム及びその記録媒体、立体撮像装置並びに立体動画処理方法
US9501834B2 (en) * 2011-08-18 2016-11-22 Qualcomm Technologies, Inc. Image capture for later refocusing or focus-manipulation
US20130057655A1 (en) * 2011-09-02 2013-03-07 Wen-Yueh Su Image processing system and automatic focusing method
JP2013055569A (ja) * 2011-09-06 2013-03-21 Sony Corp 撮像装置、情報処理装置、それらの制御方法、および、プログラム
KR101893771B1 (ko) 2012-05-10 2018-08-31 삼성전자주식회사 3d 정보 처리 장치 및 방법
JP6103827B2 (ja) * 2012-06-14 2017-03-29 オリンパス株式会社 画像処理装置および立体画像観察システム
WO2014005301A1 (en) * 2012-07-04 2014-01-09 Intel Corporation A region of interest based framework for 3d video coding
US10237528B2 (en) 2013-03-14 2019-03-19 Qualcomm Incorporated System and method for real time 2D to 3D conversion of a video in a digital camera
US10750198B2 (en) 2014-05-22 2020-08-18 Qualcomm Incorporated Maximum palette parameters in palette-based video coding
CN112511833A (zh) 2014-10-10 2021-03-16 索尼公司 再现装置
US20160165207A1 (en) * 2014-12-03 2016-06-09 Kabushiki Kaisha Toshiba Electronic device, method, and computer program product
CN104363430A (zh) * 2014-12-04 2015-02-18 高新兴科技集团股份有限公司 一种增强现实摄像机监控方法及其系统
CN105847722B (zh) * 2015-01-16 2019-04-12 杭州海康威视数字技术股份有限公司 一种视频存储方法和装置、读取方法和装置以及存取系统
US10397568B2 (en) * 2015-02-17 2019-08-27 Hfi Innovation Inc. Method and apparatus for palette coding of monochrome contents in video and image compression
KR102478952B1 (ko) 2016-01-05 2022-12-20 삼성전자주식회사 영상 저장을 위한 방법 및 그 장치
US10298853B2 (en) * 2016-01-13 2019-05-21 Canon Kabushiki Kaisha Image processing apparatus, method of controlling image processing apparatus, and imaging apparatus
CN106993227B (zh) * 2016-01-20 2020-01-21 腾讯科技(北京)有限公司 一种进行信息展示的方法和装置
CN111971955A (zh) * 2018-04-19 2020-11-20 索尼公司 接收装置、接收方法、发送装置和发送方法
JP7306323B2 (ja) 2020-05-14 2023-07-11 株式会社豊田自動織機 車両のバックドア空気抵抗低減構造

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004354540A (ja) * 2003-05-28 2004-12-16 Sanyo Electric Co Ltd 立体映像表示装置及びプログラム
JP2006325165A (ja) * 2005-05-20 2006-11-30 Excellead Technology:Kk テロップ発生装置、テロップ発生プログラム、及びテロップ発生方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6246415B1 (en) * 1998-04-30 2001-06-12 Silicon Graphics, Inc. Method and apparatus for culling polygons
ES2392244T3 (es) * 2002-09-27 2012-12-07 Sharp Kabushiki Kaisha Dìspositivo de visualización de imágenes en 3D
CN100551083C (zh) * 2003-01-20 2009-10-14 三洋电机株式会社 立体观察用图像提供方法和立体图像显示装置
JP2004274125A (ja) * 2003-03-05 2004-09-30 Sony Corp 画像処理装置および方法
US8009188B2 (en) * 2005-02-28 2011-08-30 Victor Company Of Japan, Ltd. Video data processing apparatus utilizing viewer influence, picture reproducing apparatus, and computer programs related thereto
EP1958149B1 (en) * 2005-12-02 2012-01-18 Koninklijke Philips Electronics N.V. Stereoscopic image display method and apparatus, method for generating 3d image data from a 2d image data input and an apparatus for generating 3d image data from a 2d image data input
TWI331872B (en) * 2006-12-29 2010-10-11 Quanta Comp Inc Method for displaying stereoscopic image
JP4958689B2 (ja) 2007-08-30 2012-06-20 学校法人早稲田大学 立体画像生成装置およびプログラム
US8269821B2 (en) * 2009-01-27 2012-09-18 EchoStar Technologies, L.L.C. Systems and methods for providing closed captioning in three-dimensional imagery

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004354540A (ja) * 2003-05-28 2004-12-16 Sanyo Electric Co Ltd 立体映像表示装置及びプログラム
JP2006325165A (ja) * 2005-05-20 2006-11-30 Excellead Technology:Kk テロップ発生装置、テロップ発生プログラム、及びテロップ発生方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012169730A (ja) * 2011-02-10 2012-09-06 Nec Personal Computers Ltd 画像処理方法及び画像処理装置
JP2012191569A (ja) * 2011-03-14 2012-10-04 National Institute Of Information & Communication Technology 立体映像符号化装置およびその方法、ならびに、立体映像復号化装置およびその方法
US9407897B2 (en) 2011-09-30 2016-08-02 Panasonic Intellectual Property Management Co., Ltd. Video processing apparatus and video processing method
TWI472864B (zh) * 2013-07-19 2015-02-11 Htc Corp 影像處理裝置及其控制方法
US9088708B2 (en) 2013-07-19 2015-07-21 Htc Corporation Image processing device and method for controlling the same
JPWO2019230225A1 (ja) * 2018-05-29 2021-07-15 ソニーグループ株式会社 画像処理装置、画像処理方法、プログラム
JP7272356B2 (ja) 2018-05-29 2023-05-12 ソニーグループ株式会社 画像処理装置、画像処理方法、プログラム

Also Published As

Publication number Publication date
CN101951527B (zh) 2013-09-04
CN101951527A (zh) 2011-01-19
US9071830B2 (en) 2015-06-30
US20110007131A1 (en) 2011-01-13
JP5369952B2 (ja) 2013-12-18

Similar Documents

Publication Publication Date Title
JP5369952B2 (ja) 情報処理装置および情報処理方法
DK2230844T3 (en) REGISTRATION MEDIUM, WHICH 3D VIDEO IS REGISTERED, REGISTRATION MEDIUM FOR REGISTERING 3D VIDEO AND REPLACEMENT DEVICE AND METHOD OF REPRESENTING 3D VIDEO
JP5293463B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP5236130B2 (ja) 記録媒体および情報処理方法
JP4847631B2 (ja) 記録媒体、再生装置、及び集積回路
RU2552137C2 (ru) Точки входа для ускоренного 3d-воспроизведения
JP2005094168A (ja) ファイル構造及びそれを用いる画像記録装置並びに画像再生装置
WO2012161077A1 (ja) 記録装置、記録方法、再生装置、再生方法、プログラム、および記録再生装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120628

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130902

R151 Written notification of patent or utility model registration

Ref document number: 5369952

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees