JP5274359B2 - 立体映像および音声記録方法、立体映像および音声再生方法、立体映像および音声記録装置、立体映像および音声再生装置、立体映像および音声記録媒体 - Google Patents

立体映像および音声記録方法、立体映像および音声再生方法、立体映像および音声記録装置、立体映像および音声再生装置、立体映像および音声記録媒体 Download PDF

Info

Publication number
JP5274359B2
JP5274359B2 JP2009107742A JP2009107742A JP5274359B2 JP 5274359 B2 JP5274359 B2 JP 5274359B2 JP 2009107742 A JP2009107742 A JP 2009107742A JP 2009107742 A JP2009107742 A JP 2009107742A JP 5274359 B2 JP5274359 B2 JP 5274359B2
Authority
JP
Japan
Prior art keywords
video
information
audio
stereoscopic
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009107742A
Other languages
English (en)
Other versions
JP2010258872A (ja
Inventor
雅人 長沢
裕一郎 春山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2009107742A priority Critical patent/JP5274359B2/ja
Priority to US12/765,513 priority patent/US9191645B2/en
Priority to EP16160547.2A priority patent/EP3059948B1/en
Priority to EP10004447.8A priority patent/EP2247116A3/en
Publication of JP2010258872A publication Critical patent/JP2010258872A/ja
Application granted granted Critical
Publication of JP5274359B2 publication Critical patent/JP5274359B2/ja
Priority to US14/882,257 priority patent/US10523915B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/002Eyestrain reduction by processing stereoscopic signals or controlling stereoscopic devices

Description

本発明は、立体映像および音声記録方法、立体映像および音声再生方法、立体映像および音声記録装置、立体映像および音声再生装置、立体映像および音声記録媒体に係る発明に関するものである。
ディジタル映像信号を圧縮する符号化技術が進むにつれ、圧縮された映像信号を光ディスクに記録することによって、検索性や操作性に優れた光ディスク装置を実現することが可能となった。このような光ディスク装置は、映像をディジタル信号として記録するため、アナログ映像信号を記録する場合に比べてダビングによる劣化が無い他、光記録再生であるため、非接触で信頼性に優れている。
一方、上記のようなディジタル映像信号をデータ圧縮する符号化方法としては、例えば、MPEG(Moving Picture coding Experts Group)方式によるものがあるが、この圧縮方法はモーションJPEG等の面内圧縮方法に比べ圧縮効率は良いものの、時間方向の動き補償予測を用いているため、複数枚の映像グループからなる(GOP)映像単位でしか検索できなかったり、ディスク上のアクセスも面内圧縮からなるIピクチャにまずアクセスしなければならない等の制約条件が存在していた。
また、特許文献1から特許文献5のデータフォーマットは、あくまで音声情報に関しては従来の2次元の平面映像と同じものを使用するものである。この際、立体映像視聴に連動した音像定位をつくりだす方法としては特許文献6ないし特許文献7に記載があるものの、複数のマイクを用いて録音したものを選択的に再生する方法に留まっている。一方、立体的に音像定位をもたせる方法としては、特許文献8に記載の方法があるが、本件では特にメディアへの記録再生を考慮したフォーマットについてはなんら記載されていない。
また、音声における立体音像については、例えば非特許文献1に記載があり、臨場感を出すためのサラウンドのしくみ等が解説されている。しかしながら、立体映像と連動した音声処理について記載したものはなく、立体映像視聴時の音響システムとしてより臨場感を向上する方法が望まれていた。また、これら1から8の特許文献においては後述するコンテンツ制作上簡単に製作できる立体視聴用音声をファイルしたり、視聴安全性への配慮を行うための、メディア上のフォーマットについて記載されておらず、また、映像に連動した音像定位について映像やOSDのどの部分にフォーカスするかなどより具体的に実現するための方法についての記載は行われていない。
特許3935507号 特開平11−191895号公報 特許4036239号 特許4124268号 特開2008−236757号公報 特開2006−128818号公報 特開2006−128816号公報 特開平6−105400号公報
NTT DOCOMO テクニカルジャーナルVol.11 No.1
映像の大画面化、高精細化に伴い、より臨場感の高い視聴を実現するために、音声処理においても5.1chサラウンドや、2chであっても臨場感のある音声視聴ができる擬似サラウンドが登場しているが、立体映像が視聴可能なTVが登場するにあたり、2D映像と3D映像とで、人物や物体の奥行き方向飛び出し感覚が異なるため、2D映像と3D映像それぞれで別々の音像感覚を提供できる音声再生が望まれていた。特に2D映像と3D映像が混在するメディアや配信コンテンツ情報において、2D視聴の場合と3D視聴の場合とで音声情報が同じものである場合、それぞれの音声視聴に見合った臨場感を出すために音声情報を最適化できない問題点があった。
また、映像の立体化に合わせ、音の定位や音像を映像の飛び出し量に同期させて視聴できない問題があった。
また、音像の処理において立体映像と同期した奥行き方向の定位をもたせた場合、立体映像のどの部分に合わせて音声の奥行き方向位置を定めるかが規定できず、より臨場感のある音声視聴ができない問題があった。
また、音像の処理において、立体画面に登場する人物の顔や口の位置を特定し立体映像と同期した奥行き方向の定位をもたせた場合、立体画面に登場する人物の顔や口の位置を特定する処理に時間がかかり、実時間処理が間に合わない場合があった。
また、立体映像ストリームを記載したメディアにおいて、立体映像に適した音声情報をさらに追加する場合、装置が立体映像に適した音声情報の内容を瞬時に判断でき、メニュー操作や再生のシーケンスがディスク情報管理情報によって把握できるフォーマットが必要となっていた。
また、立体映像ストリームを記載した映像および音声配信ストリームにおいて、立体映像に適した音声情報をさらに追加する場合、装置が立体映像に適した音声情報の内容を瞬時に判断できる管理情報からなるフォーマットが必要となっていた。
の発明にかかる立体映像および音声記録媒体は、視差映像を利用した左目映像と右目映像とからなる立体映像とサラウンド音声情報とを記録媒体に記録する立体映像および音声記録媒体であって、立体映像を含む映像コンテンツは、フレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを有するディジタル映像情報により構成されるとともに、前記映像コンテンツは、前記ディジタル映像情報においては左目映像もしくは右目映像の片方のみで構成される平面映像と、左目映像右目映像の両方を用いる立体映像とが混在し、前記立体映像の立体映像情報に関連するサラウンド音声情報において、平面視聴用のサラウンド音声記録領域に加え、コンテンツ制作時における視聴者と立体映像内の音源部分との空間位置関係を、あらかじめ録音された音源の音声信号からコンピュータを用いて変換することにより前記コンテンツ再生時において再現する立体視聴用のサラウンド音声を、立体映像内の音源部分の飛び出し量に応じて複数記録する立体サラウンド音声記録領域を有する。
また、この発明の第の態様にかかる立体映像および音声記録方法は、視差映像を利用した左目映像と右目映像とからなる立体映像とサラウンド音声情報とを記録媒体に記録する立体映像および音声記録方法であって、立体映像を含む映像コンテンツは、フレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを有するディジタル映像情報により構成されるとともに、前記映像コンテンツは、前記ディジタル映像情報においては左目映像もしくは右目映像の片方のみで構成される平面映像と、左目映像もしくは右目映像の両方を用いる立体映像とが混在し、前記立体映像の立体映像情報に関連するサラウンド音声情報において、平面視聴用のサラウンド音声に加え、コンテンツ制作時における視聴者と立体映像内の音源部分との空間位置関係を、あらかじめ録音された音源の音声信号からコンピュータを用いて変換することにより前記コンテンツ再生時において再現する立体視聴用のサラウンド音声を、立体映像内の音源の飛び出し量に応じて複数記録することを特徴とする。
また、この発明の第の態様にかかる立体映像および音声記録方法は、視差映像を利用した左目映像と右目映像とからなる立体映像とサラウンド音声情報とを記録媒体に記録する立体映像および音声記録方法であって、立体映像を含む映像コンテンツは、フレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを有するディジタル映像情報により構成されるとともに、前記映像コンテンツは、前記ディジタル映像情報においては左目映像もしくは右目映像の片方のみで構成される平面映像と、左目映像もしくは右目映像の両方を用いる立体映像とが混在し、前記映像情報に関連したOSD情報を設定するとともに、前記OSD情報においてはOSDの立体方向位置を特定するための情報も追記され、前記OSD表示の立体方向位置に連動した前記立体視聴用のサラウンド音声の音像定位可変情報を抽出し、前記立体映像情報および音声情報に加え、音像定位可変情報を付加させることを特徴とする。
また、この発明の第の態様にかかる立体映像および音声記録方法は、視差映像を利用した左目映像と右目映像とからなる立体映像とサラウンド音声情報とを記録媒体に記録する立体映像および音声記録方法であって、立体映像を含む映像コンテンツは、フレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを有するディジタル映像情報により構成されるとともに、前記映像コンテンツは、前記ディジタル映像情報においては左目映像もしくは右目映像の片方のみで構成される平面映像と、左目映像もしくは右目映像の両方を用いる立体映像とが混在し、前記映像情報に人間の顔が描写されている場合において、左目映像と右目映像の顔検知し、左右の顔検知情報から演算された顔の画面からの奥行きないし飛び出し方向の顔の位置情報を抽出し、前記顔の位置情報に基づき前記サラウンド音声における画面からの奥行きないし飛び出し方向の音像定位可変量を抽出することで、前記立体映像情報および音声情報に加え、音像定位可変情報を付加させることを特徴とする。
また、この発明の第の態様にかかる立体映像および音声再生方法は、視差映像を利用した左目映像と右目映像とからなる立体映像とサラウンド音声情報とが記録された記録媒体から再生する立体映像および音声再生方法であって、立体映像を含む映像コンテンツは、フレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを有するディジタル映像情報により構成されるとともに、前記映像コンテンツは、前記ディジタル映像情報においては左目映像もしくは右目映像の片方のみで構成される平面映像と、左目映像もしくは右目映像の両方を用いる立体映像とが混在し、前記立体映像の立体映像情報に関連するサラウンド音声情報において、平面映像視聴用のサラウンド音声データと、コンテンツ制作時における視聴者と立体映像内の音源部分との空間位置関係を、あらかじめ録音された音源の音声信号からコンピュータを用いて変換することにより前記コンテンツ再生時に再現する立体視聴用のサラウンド音声において、立体映像内の音源の奥行き方向や飛び出し方向の変移量の大きさや奥行き方向や飛び出し方向の音源の移動速度を緩和した複数の立体視聴用のサラウンド音声とを合わせて有し、いずれかを選択することを特徴とする。
また、この発明の第の態様にかかる立体映像および音声再生方法は、視差映像を利用した左目映像と右目映像とからなる立体映像とサラウンド音声情報とが記録された記録媒体から再生する立体映像および音声再生方法であって、立体映像を含む映像コンテンツは、フレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを有するディジタル映像情報により構成されるとともに、前記映像コンテンツは、前記ディジタル映像情報においては左目映像もしくは右目映像の片方のみで構成される平面映像と、左目映像もしくは右目映像の両方を用いる立体映像とが混在し、前記映像情報に関連したOSD情報を設定するとともに、前記OSD情報においてはOSDの立体方向位置を特定するための情報も追記され、前記OSD表示の立体方向位置に連動して前記立体視聴用のサラウンド音声における画面からの奥行きないし飛び出し方向の音像定位を可変させることを特徴とする。
また、この発明の第の態様にかかる立体映像および音声再生方法は、視差映像を利用した左目映像と右目映像とからなる立体映像とサラウンド音声情報とが記録された記録媒体から再生する立体映像および音声再生方法であって、立体映像を含む映像コンテンツは、フレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを有するディジタル映像情報により構成されるとともに、前記映像コンテンツは、前記ディジタル映像情報においては左目映像もしくは右目映像の片方のみで構成される平面映像と、左目映像もしくは右目映像の両方を用いる立体映像とが混在し、前記映像情報に人間の顔が描写されている場合において、左目映像と右目映像の顔検知し、左右の顔検知情報から演算された顔の画面からの奥行きないし飛び出し方向の顔の位置情報を抽出し、前記顔の位置情報に基づき前記サラウンド音声における画面からの奥行きないし飛び出し方向の音像定位を可変させることを特徴とする。
また、この発明の第の態様にかかる立体映像および音声再生装置は、記録媒体より立体映像および音声のデータを読み出す読取装置、読取装置で読み出した映像音声データ等のストリームを分離するためのシステムデコーダ、分離されたデータのうちの映像データをデコードする映像信号デコーダ、分離されたデータのうちの音声データをデコードする音声信号デコーダ、を有する視差映像を利用した左目映像と右目映像とからなる立体映像とサラウンド音声情報とが記録された記録媒体から立体映像および音声を再生する立体映像および音声再生装置であって、立体映像を含む映像コンテンツは、フレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを有するディジタル映像情報により構成されるとともに、前記映像コンテンツは、前記ディジタル映像情報においては左目映像もしくは右目映像の片方のみで構成される平面映像と、左目映像もしくは右目映像の両方を用いる立体映像とが混在し、前記立体映像の立体映像情報に関連するサラウンド音声情報において、平面映像視聴用のサラウンド音声の記録領域と、コンテンツ制作時における視聴者と立体映像内の音源部分との空間位置関係を、あらかじめ録音された音源の音声信号からコンピュータを用いて変換することにより前記コンテンツ再生時において再現する立体視聴用のサラウンド音声を、立体映像内の音源部分の飛び出し量に応じて複数記録された立体サラウンド音声の記録領域とを有し、再生時には前記立体映像のデータおよび選択された音声信号のデータを前記読取装置を使って読み出し、読み出したデータを前記システムデコーダで分離し、分離されたデータのうちの映像データを前記映像信号デコーダでデコードし、分離されたデータのうちの音声信号データを前記音声信号デコーダでデコードして、再生することを特徴とする。
また、この発明の第の態様にかかる立体映像および音声再生装置は、記録媒体より立体映像および音声のデータを読み出す読取装置、読取装置で読み出した映像音声データ等のストリームを分離するためのシステムデコーダ、分離されたデータのうちの映像データをデコードする映像信号デコーダ、分離されたデータのうちの音声データをデコードする音声信号デコーダ、を有する視差映像を利用した左目映像と右目映像とからなる立体映像とサラウンド音声情報とが記録された記録媒体から再生する立体映像および音声再生装置であって、立体映像を含む映像コンテンツは、フレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを有するディジタル映像情報により構成されるとともに、前記映像コンテンツは、前記ディジタル映像情報においては左目映像もしくは右目映像の片方のみで構成される平面映像と、左目映像もしくは右目映像の両方を用いる立体映像とが混在し、前記映像情報に関連したOSD情報を配置するとともに、前記OSD情報においてはOSDの立体方向位置を特定するための情報も追記され、前記立体映像の立体映像情報に関連するサラウンド音声再生時において前記OSD表示の立体方向位置抽出手段と、前記OSD表示の立体方向位置に連動して前記立体視聴用のサラウンド音声における画面からの奥行きないし飛び出し方向の音像定位を可変させる音像定位可変手段を有することを特徴とする。
また、この発明の第の態様にかかる立体映像および音声再生装置は、記録媒体より立体映像および音声のデータを読み出す読取装置、読取装置で読み出した映像音声データ等のストリームを分離するためのシステムデコーダ、分離されたデータのうちの映像データをデコードする映像信号デコーダ、分離されたデータのうちの音声データをデコードする音声信号デコーダ、を有する視差映像を利用した左目映像と右目映像とからなる立体映像とサラウンド音声情報とが記録された記録媒体から再生する立体映像および音声再生装置であって、立体映像を含む映像コンテンツは、フレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを有するディジタル映像情報により構成されるとともに、前記映像コンテンツは、前記ディジタル映像情報においては左目映像もしくは右目映像の片方のみで構成される平面映像と、左目映像もしくは右目映像の両方を用いる立体映像とが混在し、前記映像情報に人間の顔が描写されている場合において、左目映像と右目映像の顔検知手段と、左右の顔検知情報から演算された顔の画面からの奥行きないし飛び出し方向の顔の位置情報を抽出手段と、前記顔の位置情報に基づき前記サラウンド音声における画面からの奥行きないし飛び出し方向の音像定位を可変させる音像定位可変手段とを有することを特徴とする。
また、この発明にかかる立体映像および音声記録装置は、映像データをエンコードする映像信号エンコーダ、音声データをエンコードする音声信号エンコーダ、記録媒体に記録するためのデータ形式に整えるフォーマットエンコーダ、前記ストリームを記録媒体に書き込む書込装置、を有する視差映像を利用した左目映像と右目映像とからなる立体映像とサラウンド音声情報とを記録媒体に記録する立体映像および音声記録装置であって、立体映像を含む映像コンテンツは、フレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを有するディジタル映像情報により構成されるとともに、前記映像コンテンツは、前記ディジタル映像情報においては左目映像もしくは右目映像の片方のみで構成される平面映像と、左目映像もしくは右目映像の両方を用いる立体映像とが混在し、前記立体映像の立体映像情報に関連するサラウンド音声情報において、平面映像視聴用のサラウンド音声の記録領域と、コンテンツ制作時における視聴者と立体映像内の音源部分との空間位置関係を、あらかじめ録音された音源の音声信号からコンピュータを用いて変換することにより前記コンテンツ再生時において再現する立体視聴用のサラウンド音声を、立体映像内の音源部分の飛び出し量に応じて複数記録する立体サラウンド音声記録領域を有し、前記平面映像および前記立体映像は前記映像信号エンコーダでエンコードし、平面映像視聴用のサラウンド音声および立体サラウンド音声はそれぞれ前記音声信号エンコーダでエンコードし、エンコードされた映像信号と音声信号は前記フォーマットエンコーダで記録媒体に記録する形式に整え、前記書込装置を使って各々記録され、その際に平面視聴用のサラウンド音声は前記平面視聴用のサラウンド音声用の記録領域に、立体サラウンド音声は前記立体サラウンド音声記録領域にそれぞれ記録されることを特徴とする。
本発明に記載の立体映像および音声記録方法、再生方法、記録装置、記録媒体および再生装置では、通常の2次元映像用の音声情報とは別にあらかじめ3次元用の音声情報格納領域を設けることにより、平面映像視聴用のサラウンド音声と、立体視聴用サラウンド音声との両方を有することとなり、装置側では再生ファイルを選択するのみの操作でもって平面映像視聴時とはことなる3次元映像再生に適したより臨場感のある映像および音声視聴が可能となる。
また、本発明に記載の立体映像および音声記録方法、記録装置、記録媒体および再生装置では、この3次元用の音声情報格納領域を音像定位変化の大小により段階的に複数のファイルを用意することで、ユーザが好みの臨場感を選択したり、各々のファイルにパレンタルレベルを設定することで子供やお年寄りなどに対しあまり臨場感を強すぎないようにする制限を設けることが可能となる。
また、本発明に記載の立体映像および音声記録方法、再生方法、記録装置、記録媒体および再生装置では、あらかじめ人物および音を発する物体の立体方向位置情報を付帯させておき、この音声発生源の立体位置にあわせ、再生時に音声信号の音像処理もしくはサラウンド処理における奥行き方向位置を変化せしめるため、映像の登場人物の奥行き方向に同期した、奥行き方向の音声定位可変が可能となるため、より臨場感のある映像および音声視聴が可能となる。
また、立体映像を含む映像コンテンツの映像信号から、人物や音を発する物等の立体方向位置を特定するための飛び出し量計測手段を有し、計測された飛び出し量に基づき音像を可変せしめる音像制御手段によって、再生時に音声信号の音像処理もしくはサラウンド処理における奥行き方向位置を変化せしめるため、あらかじめ立体再生用の音声情報を配慮していなくても装置側で正確な奥行き方向の音声定位可変が可能なより臨場感のある映像および音声視聴が可能となる。
また、本発明に記載の立体映像および音声記録方法、再生方法および再生装置では、字幕などのOSD情報の奥行き位置情報を抽出する手段と、計測された奥行き情報に基づき音像を可変せしめる音像制御手段によって再生時に音声信号の音像処理もしくはサラウンド処理における奥行き方向位置を変化せしめるため、あらかじめ立体再生用の音声情報を配慮していなくても、より簡便な方法で装置側で奥行き方向の音声定位可変が可能なより臨場感のある映像および音声視聴が可能となる。
また、本発明に記載の立体映像および音声記録媒体および記録装置では、映像および音声の情報管理領域において、立体視聴専用の音声情報である事を示すフラグと、立体視聴専用の音声情報のファイルサイズ、再生時間情報、オーディオ圧縮フォーマットの種別、メディア上の配置情報、対応する映像との同期情報、再生可否を示す地域コード、立体方向の音像可変量の大小、などの音声情報格納領域を設けることにより、3D再生選択時に音声再生に関するプレーヤの設定を瞬時にできるほか、映像信号との同期や、身体への影響を配慮し音像可変量の小さい音声を選択する事や、まだ立体用音声信号の再生が許諾されていない地域にて再生ロックをかけ、2D用音声のみを再生可能にする等の設定が可能となる。
また、本発明に記載の立体映像および音声記録媒体および記録装置では、立体視聴専用の音声情報である事を示すフラグと、立体視聴専用の音声情報のファイルサイズ、再生時間情報、オーディオ圧縮フォーマットの種別、メディア上の配置情報、対応する映像との同期情報、再生可否を示す地域コード、立体方向の音像可変量の大小、などの音声情報格納領域を設けることにより、ネット配信からの3D映像および音声視聴時においても、3D再生選択時に音声再生に関するプレーヤの設定を瞬時にできるほか、映像信号との同期や、身体への影響を配慮し音像可変量の小さい音声を選択する事や、まだ立体用音声信号の再生が許諾されていない地域にて再生ロックをかけ、2D用音声のみを再生可能にする等の設定が可能となる。
また、本発明に記載の立体映像および音声記録方法、再生方法および再生装置では、人物の顔を検知し、得られた音像定位可変量等から音像を制御することにより、例えば人物がこちらに近づいてくるようなシーンにおいて奥行き方向音像定位を視聴者位置に徐々に近づけるように変化させ、より臨場感をアップさせることも可能になる。
また、本発明に記載の立体映像および音声再生方法では、音像の視聴者に対する奥行き方向や飛び出し方向の変移量の大きさや速度をある程度緩和したことにより、奥行き方向や飛び出し方向の変移や速度・加速度が小さくかつ変移がゆるやかな音声を提供できる。
本発明の実施の形態1に係るシャッタを用いた立体映像表示システムの概念図である。 本発明の実施の形態1に係る偏光フィルタを用いた立体映像表示システムの概念図である。 本発明の実施の形態1に係る回転偏光フィルタを用いた立体映像表示システムの概念図である。 本発明の実施の形態1に係る多重情報を用いた立体映像表示システムの概念図である。 本発明の実施の形態1に係る立体映像の模試図である。 本発明の実施の形態1に係る字幕表示を含む立体映像の模試図である。 本発明の実施の形態1に係る目の疲労度を説明するための図である。 本発明の実施の形態1に係る奥行き方向の加速度と目の疲労度を説明するための図である。 本発明の実施の形態1に係る字幕の表示範囲を説明するための図である。 本発明の実施の形態2に係る記録媒体上の情報記録領域を示す図である。 本発明の実施の形態2に係る映像タイトルの映像ストリーム構造を説明するための図である。 本発明の実施の形態2に係る映像タイトルの映像ストリーム構造を説明するための図である。 本発明の実施の形態2に係る映像タイトルの映像ストリーム構造を説明するための図である。 本発明の実施の形態2に係る付帯情報のコンテンツ情報を説明するための図である。 本発明の実施の形態2に係る付帯情報のタイムコード情報を説明するための図である。 本発明の実施の形態2に係る付帯情報の配置情報を説明するための図である。 本発明の実施の形態2に係る付帯情報の映像情報を説明するための図である。 本発明の実施の形態2に係る付帯情報を用いたTV表示の概念図である。 本発明の実施の形態2に係るマルチアングル情報の模試図である。 本発明の実施の形態2に係るOSD情報を説明するための図である。 本発明の実施の形態2に係る映像制御情報のGOPテーブル情報を説明するための図である。 本発明の実施の形態2に係る映像制御情報のGOPテーブル情報とOSD情報を説明するための図である。 本発明の実施の形態2に係る映像制御情報のシーケンス情報とOSD情報と映像属性情報を説明するための図である。 本発明の実施の形態3に係る立体映像記録装置のブロック図である。 本発明の実施の形態3に係る映像ストリーム構造を説明するための図である。 本発明の実施の形態3に係る映像ストリーム構造を説明するための図である。 本発明の実施の形態3に係る立体映像記録装置のブロック図である。 本発明の実施の形態3に係る差分情報の圧縮の原理を説明するための視差画像概念図である。 本発明の実施の形態3に係る立体映像記録装置のブロック図である。 本発明の実施の形態3に係る視差情報画像変換の圧縮を説明するための模試図である。 本発明の実施の形態3に係る映像ストリーム構造を説明するための図である。 本発明の実施の形態3に係る映像ストリーム構造を説明するための図である。 本発明の実施の形態3に係る立体映像記録装置のブロック図である。 本発明の実施の形態3に係る映像ストリーム構造を説明するための図である。 本発明の実施の形態3に係る映像ストリーム構造を説明するための図である。 本発明の実施の形態4に係る立体映像再生装置のブロック図である。 本発明の実施の形態4に係る立体映像再生装置のブロック図である。 本発明の実施の形態4に係る立体映像再生装置を説明する図である。 本発明の実施の形態4に係る立体映像再生装置を説明する図である。 本発明の実施の形態4に係る立体映像再生装置を説明する図である。 本発明の実施の形態5に係るバーチャルサラウンドの原理を説明するための図である。 本発明の実施の形態5に係るバーチャルサラウンドの原理を説明するための図である。 本発明の実施の形態5および実施の形態6に係るディスク内のデータ構造を説明するための図である。 本発明の実施の形態5に係るプレイアイテムテーブルの構造を説明するための図である。 本発明の実施の形態5に係るクリップ情報ファイルの構造を説明するための図である。 本発明の実施の形態6に係る立体映像および音声再生装置のブロック図である。 本発明の実施の形態6に係るOSDの立体化を説明するための図である。 本発明の実施の形態6に係る立体映像および音声再生装置のブロック図である。 本発明の実施の形態6に係る立体映像および音声再生装置のブロック図である。 本発明の実施の形態6に係る立体映像および音声再生装置のブロック図である。
(実施の形態1)
本発明の実施の形態1について、図に従い以下に説明する。図1は、本実施の形態に係る立体映像システムの全体構成を示すブロック図である。図1に示す立体映像システムでは、立体映像が記録されたメディアを再生して右目映像1及び左目映像2を出力する立体映像記録装置6(以下、単に記録装置6ともいう)、TVやプロジェクター等の表示装置3、液晶等で構成され2つの透過偏光を切り替える事ができるシャッタ4、シャッタ4を介したフレーム順からなる映像5A,5Bを見るために左右それぞれに液晶シャッタもしくは左右それぞれに異なる偏光板が構成されたメガネ7Aとで構成されている。図2は、本実施の形態1に係る立体映像システムの別の構成例を示している。図2に示す立体映像システムでは、図1と異なり2つの表示装置A,Bを備え、且つそれぞれ方向の異なる特定の偏光成分の光のみを通すための偏光板9,10、表示パネル12に投影させるための光学系11、偏光板9,10を介して得られるフレーム順からなる映像5C,5Dを見るために左右異なる偏光板を有するメガネ7Bとで構成されている。
図3は、本実施の形態1に係る立体映像システムのさらなる別の構成例を示している。図3に示す立体映像システムでは、図1と異なりそれぞれ方向の異なる特定の偏光成分の光のみを通す半円の偏光板を張り合わせた円形の回転円盤を有する同期回転部材13と、同期回転部材13に光を投射する光源14とを備えている。図4は、本実施の形態1に係る立体映像システムのさらなる別の構成例を示している。図4に示す立体映像システムでは、図1と異なり、映像信号22に基づく複数の映像を投影するための表示デバイス15〜19と、投影された立体映像を再現するための回転ミラー21とを備えている。
図5は、人間が知覚する立体映像を模試したものである。図5では、無限遠方111から順に奥行き位置112〜117として、奥行き位置117が一番飛び出した(目に近い)位置としている。さらに、図5では、奥行き位置115上に表示された人間118、奥行き114上に表示された人間119、遠方から流れてくる川120、遠方に見える山121が図示されている。図6は、図5の表示にさらに字幕表示を追加表示したもので、それぞれの奥行き位置に表示された字幕122A〜122Cと、当該字幕の奥行き範囲123A〜123Cとを図示している。
図7(a),図7(b)は、視差の角度変化加速度・変化にかかる時間・回数と目の疲労度を示した図である。図7(a)では、目の疲労度124を縦軸、角度変化加速度・変化の積125を横軸とし、注目点や字幕に対する目の疲労度126、注目点や字幕に対する最高疲労点127、背景画像の目の疲労度128、背景映像における酔いが発生する限界点129、人の目に対する安全領域130、人の目に対する危険領域131、人の目に対する3D酔いが発生する領域132をそれぞれ図示している。また、図7(b)は、目の視差運動を示すための模試図であり、注目点の遠くの映像126A、注目点の近くの映像126B、近くにある場合の視野角126D、遠くにある場合の視野角126E、人間の目126F、映像126Bが表示されている奥行き126G、映像126Aが表示されている奥行き126Hをそれぞれ図示している。
また、図8は、注目点の奥行き方向の加速度と移動時間×回数との関係を示したグラフである。図8に示すグラフでは、注目点の奥行き方向の加速度133を縦軸、移動時間と回数の積(移動時間×回数)134を横軸として、安全領域130と危険領域131の境界135、危険領域131と3D酔い発生領域132との境界136とを図示している。また、図9は、字幕表示における奥行き位置と奥行き位置変化量の関係を示したものである。図9では、奥行き位置137を縦軸、奥行き変化量140を横軸として、無限遠の位置138、目の位置(一番手前)139、奥行き変化量制限値141、手前の奥行き制限(飛び出し制限)142、遠方の奥行き制限143をそれぞれ示している。
ここで、一般的にTVやプロジェクターを用いた立体映像システムでは、図1から図3に示されるように、人間の目の視差情報を利用したものが多く、メガネによって左右にそれぞれの映像情報を投影し、立体に見せるものである。一般的には映像の撮影の際も2台のカメラを用いて、左右の目に入力させるための映像を撮影するため、2つのストリームが構成させることになる。ここではまず記録装置6に蓄積された左右の映像情報を、TVやプロジェクターの表示装置に入力させる。この際、記録装置6と表示装置間の情報インターフェイスとしてアナログ方式の場合は、左右それぞれ別々の情報伝送が必要となるが、HDMI等のディジタルインターフェイスの場合は左右の情報を交互にシリアル伝送させることも可能である他、記録装置6側で圧縮して伝送し、TV側で解凍させる方法もある。また。左右の映像情報はTV表示の場合フィールド毎に、左と右を切り替えて表示する事となるが、近年の倍スキャン表示を用いたTVを用いれば再生映像を、フィールド毎に左右に分けるにあたり、フリッカ等の問題を解消する事ができ、スムーズな立体映像再生が可能になっている。
さらに、図1に示すように液晶等で構成され2つの透過偏光を切り替える事ができるシャッタ4を構成した場合は、透過するフィールド映像5Aを例えば縦偏光、映像5Bを横偏光とするように、シャッタ4を制御する事でフィールド毎の光の偏光角を変える事ができる。この場合はメガネ7A側は左右異なる偏光板(縦偏光と横偏光)を貼り付けたものでよく、ケーブル3Aを介して表示装置3がシャッタ4を制御するタイミングに対応する信号を表示装置3からメガネ7Aに供給するケーブル3Bが不要となる。一方、シャッタ4を用いない場合は、メガネ7A側に液晶シャッタを設ける必要があり、ケーブル3Bのフィールド同期信号ケーブルが必要となる。メガネ7A側の液晶シャッタで対応する場合は偏光を用いていないため、首を傾けたりする等のメガネの角度が変わっても立体表示に対する影響は小さく抑えられる効果がある。
また、図2の方式では、PLD素子や透過型液晶タイプを有する表示デバイスを2つ有することにより、それぞれに左右別々の映像を表示させる方法である。この場合は表示装置(A,B)7,8の前面に異なる偏光方向を持つ偏光板9,10を取りつけておく。このことで、それぞれの表示発光部分から出射される光が異なる偏光となっており、これを光学系11を介して表示パネル12に投影する事で、例えば右目は縦偏光の映像5C、左目は横偏光の映像5Dを映し出す事が可能となる。ここではさらに、偏光メガネ7Bを用いてそれぞれの目に視差のある映像情報を入力させる。
また、図3の方式ではPLD等の光学素子に入射させる光源の部分において、TVのフィールド表示のタイミングに同期して回転する同期回転部材13を有する偏光切換え機構を構成し、フィールド表示のタイミングにあわせた偏光を有する光をPLD素子等に入射させる方式である。この場合、映像表示パネル上にはフィールド毎に異なる偏光を有する映像が投射される。これを図2と同様な方式の偏光メガネ7で見ることにより視差映像を目に入れることが可能となる。また、図4のように複数の表示デバイス15〜19によって複数角度から撮影した映像を投影し、立体映像を再現する方法もある。この場合は立体用の映像ストリームは2本ではなく複数本のストリームを蓄積し再生しなければならない。
さらに、TVのフィールド表示のタイミングに同期して回転する上記同期回転部材13をRGBの特定の波長のみを通す光学フィルタにて構成し、円盤の半分を左目用残りの半分を右目用として、それぞれのRGBの波長をずらす事によって、右目用の光と左目用に光の波長を変え、またメガネ7をそれぞれ右目用と左目用の波長しか通さない光学フィルタから構成する事によっても左右の映像をそれぞれの目に入射させる事ができる。この場合、左右のRGBのずれはTVの表示側の色調整によって補正し、色再現上遜色ないようにする事が可能で、またこのRGB波長を左右でずらす方式ではメガネを傾けてもメガネ7からの光が減衰したりする事がない。
また、図4の回転ミラー21を用いた方式では、複数の視点による映像を表示デバイス15〜19によって、回転ミラー21に立体映像が投影されるため、実際の立体映像においてみる側の視点を変えても実物のように見える(極端な場合は裏側等隠れて見えなかった部分も見えるようになる。)ものである。
次に、実際の立体映像について説明する。視差を利用した映像再現の場合であっても、人間の目においては図5のように知覚される。この場合、奥行き位置の無限遠111から目の位置117までの奥行きを分解表現すると、奥行き位置112〜115までの奥行き平面上にそれぞれの画像が表示されている事となる。例えば、注目点となる登場人物は手前にあれば大きく人間118のように見え、離れると人間119のように見える。背景情報である川121などは手前に近づけば大きく遠くなれば小さく見え、大きな山121などは背景であっても大きく見える。例えば、図5に示すような立体映像に字幕を表示させた場合、図6のように表現される。近くにある字幕122Aは、字幕122B,122Cと表示が少しずつ遠ざかっていく。この注目点である登場人物である人間119A〜119Cはシーンにより奥行き位置が変化しているとすると、字幕もそれにあわせて変化させれば目の焦点の動きを少なくさせるため疲れにくくなる。そのため、登場人物である人間119Aのシーンでは字幕122Aを、登場人物である人間119Bのシーンでは字幕122Bを、登場人物である人間119Cのシーンでは字幕122Cを表示させる事が望ましい。従来の2D映像においてはもともと奥行き位置の変化がないため、ユーザとTVとの距離が人間の目の焦点であり、目の焦点方向の筋肉を動かすことはないが、立体映像では視差を利用したものであっても視差分の目の移動が必要となるためである。
また、図7(a)に示すように登場人物等の注目点の焦点方向の移動においては、その視差角度の変化速度や変化にかかる時間やその回数に比例して目の疲れが発生する。特に注目点においては目が追随しなければならないため、目の疲労は激しく、視差角度の変化速度や変化にかかる時間やその回数が少ない段階で疲労のピークに達するものと考えられる。特に、図7(b)に示す視野角126Dのように手前の映像は視差角度が大きく、遠くのものは視野角126Eのように視差角度が小さい。遠近が変化すると視差角度が変化し両目126Fはこの角度をつけて目標に焦点を合わせる必要が生じ、遠近の変化に伴う視差角の変化に追従しなければならない。従来の平面映像を表示するTVは遠近の映像がないため目の奥行き方向認知に必要な視差角は常に一定であるが立体映像の場合は、平面内の目の動きの他に奥行き方向(視差角をもたせる)の目の動きをつけなければならないため、目の負担は増大する。ただし、目の応答よりも早い動きをした場合は追従できないので逆に疲労も減少するため目の疲労度126のカーブのようになるものと予想される。また、背景情報については元々目が追随していないものの、遠近の変化に伴う視差角度の変化速度や変化にかかる時間やその回数が増えると、疲労度が増加傾向にあるものと推定される。これを奥行き方向加速度と、移動時間と回数の積の関係で表したものが図8であり、奥行き方向の加速度が小さくても回数や距離が増えると危険領域や酔いの発生が見られるが、あるレベルを下回った場合、移動時間と回数の積が増えても疲れない状態になると推定する。
ここで、評価値としての目の疲労度は、画面サイズが大きくなると面内方向の目の移動も大きくなり疲労も増大する事から、これを配慮した場合とそうでない場合とで2つの評価関数が考えられる。まず、評価関数1は、目の追従が無視できる値a<注目点の視差角変化速度<目の追従範囲bとして、評価値(目の疲労度)が視差角変化速度×変化にかかる時間×変化した回数に比例する。評価関数2は、目の追従が無視できる値a<注目点の視差角変化速度<目の追従範囲bとして、評価値(目の疲労度)が視差角変化速度×変化にかかる時間×変化した回数×画面サイズに比例する。TV画面のサイズが検知できる場合は評価関数2を、できない場合は評価関数1を用いる。なお、実施の形態2以降では上記評価値(目の疲労度)は奥行き変化度として記載している。
1本の立体映像を製作する際、1本の映像コンテンツにおける立体映像の視差角変化量と変化に関わる時間と変化した回数を評価係数としてもっておき、これが図7の危険領域131に入らないように再エンコードする事で立体映像コンテンツを製作する事ができる。また、この立体映像コンテンツにおいても評価関数としての奥行き変化度を記述しておくことで、映画視聴前に目の疲労度を提示しユーザに2D再生とするか3D再生とするかの選択をさせる事ができる。この際、再エンコードの方法としては視差映像を撮影するカメラの視差間隔を小さくする(2台のカメラの距離を小さくする)といった撮影上の工夫や、後述する視差情報を用いた画素変換処理によって視差を小さくするような画像処理を行う方法、アニメーション等ではCG等でのコンテンツ制作時に飛び出し量を制限させる方法等が行われる。
このような映画等のストーリを把握するため、ユーザが必ず読まなければならない字幕表示については、図9に示すように奥行き方向の変化量を制限する必要がある。あまり目の焦点方向の追従速度が速くなると図7や図8のように目の疲れが増大し3D酔いが発生しやすくなるからである。また、あまり遠方すぎる位置の字幕は、字幕の大きさと背景との関係で、図6にあるように違和感があるため遠方位置についても制限を加えたほうがよいと思われる。また、目に近い手前側についても制限が必要である。これは特に目に近すぎる位置は視野角の関係で目の角度変化量が大きくなるため元々目の疲労が大きくなるほか、飛び出し量が大きいと「びっくりする」,「おどろく」といった影響を及ぼす場合もあるからである。また、表示するTV画面が大きくなる場合、面内方向の目の動き量も増大するとともに、上述する「びっくりする」,「おどろく」といった心理的効果も増大するため、より制限を大きくする事が望ましい。再生装置とTVがリンク接続されている場合、TV画面の大きさに関する情報を再生装置との間でやりとりし、字幕等の飛び出し範囲制限をきびしくする。また、飛び出し量の異なる複数のストリームが配置されている場合、TV画面の大きい場合は飛び出し量の小さいストリームを選択し、TV画面が小さい場合は飛び出し量の大きなストリームを選択する等の構成が考えられる。また、後述する装置側の設定によって飛び出し量が可変できる場合には、TVのサイズ情報やユーザの状態(年齢等)を配慮し自動設定する事も考えられる。
この際、上記評価値や視野角である最大飛び出し量からなる立体映像パレンタルレベルを規定し、立体映像パレンタルレベルに応じて、視聴する年齢の制限やお年寄りや病人に対する危険告知を行う事が可能となる。例えば、立体映像パレンタルレベルとして、レベル1は疲労・危険が大として、評価値(目の疲労度)>c,最大飛び出し量>d,通常のパレンタルレベルが高い場合とする。レベル2は疲労・危険がやや大として、評価値(目の疲労度)>c,最大飛び出し量>d,通常のパレンタルレベルが普通以下の場合、又は評価値(目の疲労度)>e,最大飛び出し量>f,通常のパレンタルレベルが高いの場合とする。レベル3は疲労・危険が中として、評価値(目の疲労度)>e,最大飛び出し量>f,通常のパレンタルレベルが普通以下の場合とする。レベル4は疲労・危険なしとして、評価値(目の疲労度)>g,最大飛び出し量>h,通常のパレンタルレベルが普通以下とする。
なお、上記の立体映像パレンタルレベルの例では、c>e>g,d>f>hの関係を有し、通常のパレンタルレベル(平面画像パレンタルレベル)が、ホラー映画等に対し現行の2D映像のDVD等で規定されている安全のための視聴制限を指すものとする。また、このような立体映像パレンタルレベルの設定は製品購入時や、初期設定時に設定・変更する事ができ、例えば暗証番号等を記憶させる事によって、後での解除変更をできるようにしておけばより有用である。
(実施の形態2)
次に、本実施の形態2について、図に従い以下に説明する。図1から図3のような特に視差情報を用いた立体映像においては、そのままTV放送すると2重写しのような画面になり、上述したような専用の立体表示装置を構成しなければ見ることができない。従って、放送において立体映像を行う事は視聴者側の機器のインフラにも左右されるため、一般には視聴できない専用のチャンネルを設けるか、3D映像である事のフラグを放送の情報に重畳する等が必要となる。そのため、通常では記録メディア等で配信され、専用のプレーヤもしくは本機能が搭載されたプレーヤで見るのが都合が良い。このような状況から、上記のような立体映像を記録メディアに保存するための方法やフォーマットを、以下に説明する。
図10は、本実施の形態2に係る記録媒体26である。本発明に係る記録媒体(映像メディア)は、DVDやBD、HD−DVD、MO等の光ディスク媒体の他、HDD媒体であっても良いことはいうまでもない。HDDの場合はそれ自体可搬できない場合が多いものの、放送された立体映像情報を記録する際には容量の点からも有利である。一方、ROMメディア等の光ディスク媒体においては、放送される前の立体のキラーコンテンツや、立体有料コンテンツを配信するのに有効である。図10に示す円盤状の記録媒体26では、映像情報に関する制御情報を確認している領域(映像制御情報23)、立体映像が格納されている領域(映像タイトル24)、通常の2D映像が格納されている領域(映像タイトル25)に分けられている。
図11は、図10の映像タイトル(映像コンテンツ)24部分の映像ストリームの構造例を示したものである。図11では、映像タイトル27が2D映像情報28、ユーザの選択が可能な2D映像情報30,31、表示装置が立体映像表示可能な場合に自動的に選択もしくはユーザの選択により選ばれる3D映像情報29、上記映像情報29〜31に引き続いて再生される2D映像情報32、映像タイトル27の最後の2D映像情報33で構成されている。また、図11では、GOPレイヤのストリーム情報として、後に続くGOP映像情報35,36の先頭に配置されGOP映像情報に関連した付帯情報が記述された付帯情報領域34、GOP映像情報38の先頭に配置されGOP映像情報に関連した付帯情報が記述された付帯情報領域37、GOP映像情報40,41の先頭に配置されGOP映像情報に関連した付帯情報が記述された付帯情報領域39が図示されている。
また、図11では、ピクチャレイヤのストリーム情報として、付帯情報を記載したパケットデータ部42、面内符号化データから構成されたIピクチャデータ43、Iピクチャデータ43とPピクチャ45とから時間方向に予測された符号化データであるBピクチャ44、Iピクチャデータ43から片方向のみの時間方向に予測された符号化データであるPピクチャ45が図示されている。また、図11では、トランスポートパケットデータのレイヤとして、付帯情報を記載したトランスポートパケットデータ部でパケットデータ部42と同じパケット46、Iピクチャデータ43をトランスポートパケットで分割した先頭のパケット47、Iピクチャデータ43の最後のデータが格納されたトランスポートパケット48、トランスポートパケット48の中のIピクチャデータの最後の部分49、トランスポートパケット48の中のパディング処理された部分50が図示されている。
また、図12は、映像タイトル(映像コンテンツ)27における3D映像情報29、2D映像情報30,31とが選択的に選べる領域の階層のデータ構造を示したものである。図12では、3D映像情報29、2D映像情報30,31とが選択的に選べる領域における先頭に配置された本映像列に関連した情報が格納された付帯情報51、当該領域におけるGOP映像情報列52、GOP映像情報列54に関連した情報が格納されている付帯情報53、当該領域の最後のGOP映像情報列56に関連した情報が格納されている付帯情報55が図示されている。また、図12では、ピクチャレイヤのストリーム情報として、面内符号化データから構成されたIピクチャデータ57、Iピクチャデータ57とPピクチャ59とから時間方向に予測された符号化データであるPピクチャ58、Iピクチャデータ57から片方向のみの時間方向に予測された符号化データであるBピクチャ59が図示されている。
また、図12では、トランスポートパケットデータのレイヤとして、Iピクチャデータ57をトランスポートパケットで分割した先頭のパケット60、Iピクチャデータ57の最後のデータが格納されたトランスポートパケット61、トランスポートパケット61の中のIピクチャデータの最後の部分62、トランスポートパケット61の中のパディング処理された部分63が図示されている。また、図12に示す矢印Aは再生部分、矢印Bは3D再生を行った場合にジャンプする部分、矢印Cは3D再生を行うために再生する部分であり、右目映像のGOP映像情報と左目映像のGOP映像情報とが配置されているものである。図13では、映像タイトル27における3D映像情報29、2D映像情報31とが選択的に選べる領域の階層のデータ構造を示したものであり、基本的に図12と同じであるため同じ構成要素については同符号を付して説明を省略する。
光ディスクやHDD媒体に記録されるデータの構造としては、図10に示されるように映像関連の付帯情報やシーケンス等を記録した映像制御情報23の領域と実際の映像タイトル(映像コンテンツ)24,25の領域とから構成される。この時、3D映像は必ずしも全編が3D映像となっているわけではなく、2D映像との混在である場合や、これら映像がユーザの選択により切り替えられる場合が想定される。特に、DVD規格においてはマルチアングルといったユーザの選択可能な映像情報列を切り替えて表示できるようになっており、3D映像情報の場合も、ユーザの機器がすべて3D映像対応になっていない事を考慮すると、2D映像ストリームの上に、追加的に3D映像ストリームが構築される。そして、ユーザの表示機器が3D対応の場合、HDMI端子のリンク機能等により自動的に識別し3D映像ストリームを選択的に表示させるか、ユーザのボタン操作により選択的に3D映像側に決定し動作させる方法が考えられる。もちろん、全てのコンテンツが2D映像のみもしくは3D映像のみの形態もある事はいうまでもないが、フォーマットとしてはこのような複合形態への配慮が必要である。
また、映像タイトル24の映像情報ストリームにおいても、映像情報ストリーム上にこれに関連する付帯情報領域を設け、情報のアクセスと管理や、機器の設定切換えの対応等を行う事が望ましい。特に、2D映像と3D映像とが混在するコンテンツにおいては、TV側で映像ストリームの2D映像か3D映像かの判定を行う必要があり、ストリーム上に付帯情報領域があればこの情報に基づき、TV側の設定を簡便にかつ自動的に切り替える事が可能となる。記録媒体を再生もしくは記録するプレーヤ・レコーダですべての設定を閉じて行う場合、制御情報をディスクの一部に集約して配置する映像制御情報23に記載するのみでも良い。しかし、TVとの接続連携を行う場合では、特に再生中にTVを切り替える等の処置を行う場合は、映像情報自体に、必要最低限の制御情報を重畳させておくことで、TV側の自動切換え設定等が行えるようになる。上記映像情報中の制御情報がない場合は、TVの接続切換えを検出し、別途制御情報をプレーヤ・レコーダから送出しTV側の設定を変更した後、映像情報を送出する事となる。これらTV側の設定変更については、立体映像再生の処理自体が偏光を切り替える等表示装置側で行われるため、表示装置の設定変更処理を迅速に行うようなしくみが必要となる事はいうまでもない。
付帯情報51は、情報のアクセス管理にも使用する事が可能であり、DVD規格ではNavi情報として定着しているものである。ここで、2D映像と3D映像とが混在している場合、図11に示す3D映像情報29,2D映像情報30,31のようにコンテンツの時系列上は並列する形となる。そこで、先頭にある付帯情報34はGOPデータ情報群の頭に配置される必要があり、まず付帯情報の内容を読み取る事により、次のGOP列の情報が2D映像なのか、3D映像なのか、3D映像であれば左目映像なのか右目映像なのか、またGOP映像情報群におけるそれらの配置情報(どこにアクセスすれば良いか)を判断する事ができる。ここで、付帯情報51を先頭に含むGOP映像情報群はビデオユニットとしてGOP映像情報よりもさらに大きな映像単位として定義される。
また、MPEG等の時間方向にも圧縮をかけた映像情報データの場合は、Iピクチャを先頭とするGOP映像情報単位で情報が存在するため、映像データのアクセスはこのGOP映像情報単位となる事はいうまでもない。また、付帯情報は最初に読み取る必要があるためGOP映像情報群の先頭に配置しなければならず、例えば図12のように3D映像情報部分を再生する場合は、まず付帯情報51を再生(図中矢印A)した後、2D映像情報30,31をジャンプして、3D映像情報29を再生する。この際、2D映像情報30,31は図中矢印Bのようにジャンプし再生機器のメモリに不要な情報(この場合は2D映像情報30,31)を取り込まないようにして不要なメモリの増大を回避するとともに、映像の途切れが生じないように図中矢印Cの3D映像情報29を再生する。
また、上記GOP映像情報の先頭の付帯情報51は、その下のピクチャレイヤの状態で示すと、Iピクチャ57の先頭位置に配置されている。さらに、地上波や衛星・ケーブル等のディジタル放送等との親和性を持たせるため、これら圧縮映像データはトランスポートパケットで分割しておく事が便利であるため、最下層のデータとしては図12のようにトランスポートパケット60,61に分割する。この場合でも付帯情報51はGOP映像情報群52の先頭のトランスポートパケットにて記載される事となる。なお、トランスポートパケットにおける新たに定義されたプライベートパケットを使用する事はいうまでもない。さらに、上記GOP映像情報群の最後のトランスポートパケット61は、必ずしも一定のトランスポートパケット単位でデータが切れるわけではないので、最後の部分63を「00」や「FF」でパディングしてGOP映像情報単位でパケットのデータが完結するようにしておく事が良い。また、図13のように1つの2D映像31と1つの3D映像29との2本に分岐している場合は、図12と比べ図中矢印BのジャンプするGOP映像情報量が少ないだけであり、基本的な動作は図11と変わらない。
なお、上記付帯情報の内容についてさらに説明する。図14に示す付帯情報51は、コンテンツ情報64、タイムコード65、配置情報66、映像情報に関する情報67、音声情報に関する情報68、OSD情報に関する情報69で構成されている。そして、図14に示すコンテンツ情報64は、コンテンツ名70、著作権71、暗号情報72、3D映像の有無73、有効地域情報74で構成されている。
また、図15に示すタイムコード情報領域65は、プレゼンテーションタイム65A、同期情報65Bで構成されている。図16に示す配置情報66は、シームレス情報75、ジャンプ先情報76、アングル情報77、GOP内配置情報78で構成されている。図17に示す映像情報67は、解像度情報79、フレームレート情報80、3D映像情報81、パレンタル情報82、アングル情報83、暗号情報84、3D映像方式及び有無に関する情報85、3D映像フレームレートに関する情報86、3D映像情報数87、奥行き解像度に関する情報88、奥行き変化度に関する情報89、字幕許可の奥行きに関する情報90、奥行き制限に関する情報100、視差量制限に関する情報101で構成されている。
また、図18は、上記付帯情報を表示装置であるTVに表示させた場合の模試図である。図19(a),図19(b)は、複数のカメラからマルチアングル撮影した場合の模試図である。また、図20に示すOSD情報69は、OSD配置情報69A、OSD格納先の情報69B、フォントや字体の大きさ指定69C、面内のOSD配置情報69D、奥行き方向のOSD配置情報69E、奥行き位置69F、奥行き許可制限69G、奥行きズーミング速度69Hで構成されている。
ここで、図14における付帯情報51は、まずストリーム上のGOP映像情報群毎に記述されたものであり、TV等にHDMI伝送された場合でも、映像情報ともに伝送されるものである。従って、特に3D映像表示に関するTV側の設定にも必要な情報も含まれることはいうまでもない。
次に、図14に示すコンテンツ情報64について説明する。コンテンツ名70は、(1)コンテンツ名,(2)出演者名,(3)製作時期,(4)配給会社,(5)関連する作品名,(6)あらましをTV側のOSD情報として表示させる場合がある。当該コンテンツ名70は、映像ストリーム上に重畳された付帯情報51が含まれるのであれば、途中でTV側の入力を3D映像情報に切り替えた場合でも、コンテンツ名70の内容を表示する事が可能となる。
図14に示す著作権情報71として、(7)著作権者,(8)配給会社,(9)輸入業者,(10)資本参加社を記載しておくことで、映像ストリームの著作権所有者の情報も同時に配信する事ができ、本再生データを用いて不正な使用を行った場合でも著作権者の権利を主張する事ができる。また、本情報は映像ストリームに重畳されるため、TVをつなぎかえた場合においても常にTV側に情報配信されるため、著作権に関する表示を行う事も可能となる。
また、図14に示す暗号情報72は、(11)暗号の有無,(12)暗号方式を記載しておく事で、暗号化された機密性の高い情報なのか、コマーシャル等の機密性の無い情報なのか伝送先の機器へ送付する事ができる。
また、図14に示す3D映像情報73は、(13)3D映像対応の有無,(14)全2D映像対応かどうか(2D映像表示のみで最後まで再生できるかどうか?),(15)3D映像対応の場合、3D映像再生が優先かどうかを記載する事で、3D映像対応でないTVと接続した場合には非対応である事をユーザに表示させる事ができるようになる。また、TVとHDMIでリンク接続している場合は、TV側を自動的に3D映像設定に切り替えたり(例えば、図1から図3に示すように自動的に2映像ストリームをフィールド毎に表示させる)、TV側に3D映像機能が無い場合は、TVや再生装置側でTVが未対応と表示させたり、ディスクを吐き出す等の処置を行う事ができる。
また、図14に示す有効地域74は、(16)2D映像の再生許可地域,(17)3D映像の再生許可地域を記述する事で、本ディスクの再生許可地域を限定するだけではなく、2D映像のみ許可し3D映像対応の表示を許可する地域を限定して指定する事もできる。これは、3D映像再生に関するライセンス条件が整っていない場合に、特定の地域で2D映像再生のみを許可するケースが生じるからである。3D映像の再生許可地域が許可されていない地域であれば、3D映像表示装置と接続してあっても2D映像のみの再生となったり、ディスクを吐き出す等の処置が行われる事となる。
次に、図15に示すタイムコード情報65について説明する。2D映像と3D映像とが混在する映像コンテンツにおいては、ユーザによって途中の切換え(例えば3D映像から2D映像)が発生した場合でも、映像情報の流れを途切れたり省略したりする事なく連続的に再生させなければならない。また、ユーザの指示から例えば10分前に戻る・進む等のタイムサーチが発生する場合がある。そのためGOP映像情報群の先頭には以下に示す、その映像のタイトル開始時点からの再生時間情報であるプレゼンテーションタイム65Aを記録しておく必要がある。なお、タイトル再生終了までの残り時間情報もしくはタイトル再生全時間を記載しておく事でTV側で残時間表示等を行う事が可能となる。
また、3D映像は実施の形態1で説明した目の疲れ等を誘発しやすいため、3D映像再生開始からのタイムコード(連続してどれだけの3D映像を視聴したか)や、本映像コンテンツのトータルでどれだけの3D映像を視聴したかについて表示し、目の疲れを防ぐための休憩の指示や危険表示を行う事ができる。また、3D映像における右目・左目それぞれのGOP映像情報があった場合、その再生順序に対応するフィールド指定を行う事が可能となる。つまり、プレゼンテーションタイム65Aには、(18)タイトル開始時点からのタイムコード(プレゼンテーションタイム),(19)タイトル再生終了までの残り時間情報もしくはタイトル再生全時間,(20)3D映像再生開始からのタイムコード(3Dプレゼンテーションタイム),(23)トータル3D再生時間,(24)左右映像の再生順もしくはフィールド指定を記載しておく。また、同期情報65Bは、映像コンテンツの同期を規定し左右映像の再生順もしくはフィールドを指定して行う。
次に、図16に示す配置情報66について説明する。特に2D映像コンテンツと3D映像コンテンツとが混在する場合、再生に不要な情報を飛ばしたり、必要なデータの先頭位置にGOP映像情報群における配置情報の記述が必要となる。また、特殊再生動作を行う場合はMPEG等の時間軸方向の圧縮映像の特性からまず面内圧縮画像からアクセスが必要となる点も配慮しなければならない。そのため、シームレス情報75には、(25)シームレス再生の有無(次のGOP映像情報群までの)が記録される。また、ジャンプ先情報76には、(26)ジャンプ先(正方向と逆方向)アドレス1、アドレス2等,(27)ジャンプ先のタイムコード情報1、タイムコード情報2等(複数のジャンプ先情報をテーブル情報として有する),(28)ジャンプ先の3D映像情報有無が記録される。なお、(28)ジャンプ先の3D映像情報有無の情報に基づきジャンプ先に3D映像情報が無い場合、ストリーム再生中にTVの設定を2D映像に戻すことができる。
アングル情報77には、(29)複数のアングルに対応したGOP映像情報のアドレス1、アドレス2等,(30)複数のアングルに対応したGOP映像情報のタイムコード情報1、タイムコード情報2等が記録される。GOP内配置情報78には、(31)各GOP内のPピクチャの配置情報としてのアドレス情報1、アドレス情報2等が記録されることになる。以上のように、シームレス情報75を有することにより、必要なアングルをつなぎながら順次再生する事も可能になるほか、GOP内の配置情報によりIピクチャのみを再生したり、IとPピクチャのみを再生する事による早送りや早戻し際再生が可能となる。
次に、図17に示す映像情報67について説明する。映像情報67において立体映像情報として特に必要となるものを以下に示す。まず、解像度情報79には、(32)2D映像再生の場合の解像度(面内方向)、PinP画像の解像度(面内方向),(33)3D再生時の解像度(面内方向)を記憶する。3D映像有無方式85には、(34)3Dの有無,(35)3D映像方式指定(倍スキャンレート指定,偏光メガネありなし,液晶シャッタありなし)が記録される。3Dフレームレート86には、(36)2D映像再生時のフレームレート、3D映像再生時のフレームレートが記録される。
3D映像情報数87には、(37)平行して再生される独立した3D映像情報ストリーム数が記録される。なお、別々のアングルがn本ある場合は、n=アングル番号と記載される。本情報に基づき、再生中にアングル数を表示し、ユーザからの選択によるアングルの切換えとともに、アングル番号の表示による認識を行わせる事が可能となる。3D映像情報数87には、(38)左右映像を順次切換える場合の3D映像ストリーム数とカメラ情報も記録される。例えば、図19(a)に示すように、5本の視差分だけずれたカメラD〜Hを用いて映像を撮影、もしくは、アニメ画像等をCGによって5本の視差映像情報にして記録した場合、これらの本数と、各カメラの間隔もしくは角度を記載する。付帯情報の記載一例としては、総合情報−映像本数5−カメラ間隔**mm,カメラDによる映像1−角度1,カメラEによる映像2−角度2,カメラFによる映像3−角度3,カメラGによる映像4−角度4,カメラHによる映像5−角度5となる。
視差分だけずれた映像が5本あった場合、実際のアングル映像としては、アングルDは映像1が左、映像2が右,アングルEは映像2が左、映像3が右,アングルFは映像3が左、映像4が右,アングルGは映像4が左、映像5が右と5本の視差映像情報で、図19(b)に示すように少しずつアングルの異なる4つの立体アングル映像を再生する事ができる。このとき順次アングル情報をずらす事で映像を回転させたりする事も可能である。従って、各映像ストリームが1つのアングル情報を指すのではなく、隣接する視差角を持った映像との組み合わせで新たなアングル情報が構築できる。近年、CG技術の進化により、アニメーション映像では容易に立体映像を作る事が可能となっており、このような複数アングルの視差情報を準備し、ユーザからのリモコンの指定によりおのおのにアクセスする事で、アングルずらしによる視点変更も可能になる。
奥行き解像度88には、(39)3D映像における奥行き解像度1、解像度2等が記録される。なお、3D映像ストリームが複数本あった場合、複数本奥行き方向解像度を記載する。例えば、CG映像等により極端に奥行き解像度が低く、時間的にもカクカク動くような場合は、本情報に基づき、時間方向に奥行きを補完して、なめらかに表示させる事も可能になる。奥行き変化度89には、(40)3D映像における奥行き変化度1、変化度2等が記録される。なお、3D映像ストリームが複数本あった場合、複数本奥行き方向変化度を記載する。特に、変化度については実施の形態1に示すような人間の目の疲れに関連するため、安全性を確保するために、記載しておき、ユーザへの警告や休憩指示等に用いる事ができる。
字幕許可奥行き90には、(41)字幕許可奥行き範囲(最大視野角1、最小視野角1、最大視野角2、最小視野角2等)が記録される。なお、3D映像ストリームが複数本あった場合、複数本奥行き方向変化度を記載する。字幕情報については、後述する立体映像視聴の際に、字幕焦点位置と注目点とで焦点を頻繁に合わせる必要がある事から、目の疲れに影響しやすく、表示範囲を十分限定しておくことが必要となる。また、奥行き情報の記載は、実距離にした場合、遠い方が無限遠になるため数値化しづらく、視野角情報で記載する事が望ましい。また、無限遠に近い場合は詳細数値を記載する事に意味をなさないため、例えば視野角1deg以下は省略する等の下限を設けても良い。プレーヤではこれら情報に基づいて、OSDの表示における字幕の奥行き位置を設定する。
奥行き制限100には、(42)奥行き制限(最大視野角1、最大視野角2等)が記録される。あまり近くに飛び出してくる立体映像においては、心理的な効果からびっくりする等の感覚を与える。そのため、字幕ではなく立体映像そのものの飛び出し量を制限し、目にやさしい効果や、あまりびっくりさせないような配慮を行う。この場合プレーヤでは、図17に示すように映像コンテンツで予め飛び出しの最大量となる視野角を記録しておく事により、図18のように小さなお子さま等の視聴者に警告したり視聴制限させる事が可能となる。
視差量制限101には、(43)視差量制限(撮影時の最大視野角1、最小視野角1、最大視野角2、最小視野角2等)を記載する。なお、3D映像ストリームが複数本あった場合、複数本奥行き方向変化度を記載する。本情報は撮影時の2つのカメラの距離である視差基準量は人の目の間隔によって異なるため、この基準角度のずれ量の範囲を規定したものである。これにより両目の間隔の小さな子供等が視聴した場合の違和感を予め把握する事ができる。
このように、違和感の解消のために、同一映像コンテンツにおいて視差基準量の異なる複数立体映像を用意し、視聴者の目の間隔に合わせて選択する方法等も考えられる。複数の視差基準量については、近年CG技術が革新し、アニメーション映像等においてはコンピュータにより容易に変更できるようになっている。この場合、このような視差量制限情報を付帯情報に記載することによって、プレーヤでは図18に示すように**才〜**才、大人等の選択キーを用意し、これを選択する事で元の映像コンテンツにおける視差基準量を視聴者にあわせて、正確な立体視聴が可能となる。また、視差のずれた映像を長時間見る事による目の疲れ等も回避できる。さらに、パレンタル82においては、通常の平面映像2Dパレンタルレベル以外に3D映像対応した立体映像パレンタルレベルが規定される。パレンタル82には、(44A)平面映像パレンタルレベル(現行DVD等と同等のパレンタル表記),(44B)立体映像パレンタルレベル(実施の形態1にて説明した立体映像パレンタルレベル)とを記録する。
また、図20に示すようにOSD情報69には、まずOSD自体の付帯情報となる配置情報69Aと、OSDそのものの情報が格納されているアドレスを記載したOSD情報格納先69Bとを記録する。OSD表示69には、まずこの付帯情報を取り込みマイコン等で理解した上で、この格納先情報により実際のOSDを取得し表示させる事となる。
ここで、字体の大きさ等の情報69Cには、(45)字体フォント、字体大きさを記録する。面内配置情報69Dには、(46)字体の配置情報(X位置、Y位置)を記録する。
奥行き方向OSD配置情報69Eには、(47)奥行き位置69F,(48)奥行き許可制限69G(遠方制限位置、手前制限位置、奥行き変化量制限等の実施の形態1における目の疲れを軽減するための制限),(49)奥行きズーミング速度69H(ズーミングありなし、ズーミング速度)が記録される。なお、奥行きズーミング速度69Hでズーミングを規定する事により、ある字幕から次の字幕に切りかわる際に、瞬時に奥行き位置を変化させるのではなく、すこしずつズームするように変化させ、目の疲れを軽減させるためのものである。
なお、上記(1)から(43)までの3D映像情報における付帯情報は、映像情報ストリームに重畳されたものとして、映像情報とともに配信されるが、以下に述べる映像情報そのものとは別の領域に記載された映像制御情報23にも同様な記載を行う事ができる。また、プレーヤ起動時の最初にすべての情報を読み込めるため、各種初期設定を行う事が可能である他、ビットレートやメモリの制限にかかる事なく映像情報に重畳するよりも多くの情報を記述できるため、より詳細な制御情報を記述する事が可能である。
次に、記録媒体のある領域に映像情報とは別に配置されている制御情報の構造について説明する。図21は、まとめて配置されている映像制御情報23のGOPテーブル部分とその中の映像関連情報について詳細に説明するための図である。図21に示す映像制御情報23は、コンテンツ情報64、著作権71、暗号情報72、3D映像の有無73、有効地域情報74、GOPテーブル情報102、シーケンス情報103、メニュー情報104、メニューのOSDデータ105を備えている。そして、GOPテーブル情報102は、図21に示すように表形式となっており、GOP番号、論理アドレス、タイムコード、シーケンス、配置、映像、音声、OSDの各欄が設けられている。
図21では、特に映像欄の構成が図示されており、解像度情報79、フレームレート情報80、3D映像情報81、パレンタル情報82、アングル情報83、暗号情報84で構成されている。さらに、図21では、3D映像情報81が3D映像方式及び有無に関する情報85、3D映像フレームレートに関する情報86、3D映像情報数87、奥行き解像度に関する情報88、奥行き変化度に関する情報89、字幕許可の奥行きに関する情報90、奥行き制限に関する情報100、視差量制限に関する情報101で構成されていることが図示されている。
また、図22も、まとめて配置されている映像制御情報23のGOPテーブル部分とその中の映像関連情報について詳細に説明するための図である。図22では、特にOSD欄の構成が図示されており、字幕の有無106とOSD情報69とで構成されている。OSD情報69は、OSD配置情報69A、OSD格納先の情報69Bで構成され、OSD配置情報69Aは、フォントや字体の大きさ指定69C、面内のOSD配置情報69D、奥行き方向のOSD配置情報69Eで構成され、奥行き方向のOSD配置情報69Eは、奥行き位置69F、奥行き許可制限69G、奥行きズーミング速度69Hで構成されている。
また、図23は、記録媒体のある領域に映像情報とは別にまとめて配置されている映像制御情報のシーケンス情報の構造について説明したもので、シーケンス情報103が表形式で記録されていることを示している。図23の映像欄には、解像度情報79、フレームレート情報80、アングル情報83、3D映像情報81、パレンタル情報82が記録されている。なお、3D映像情報81は、3D映像方式及び有無に関する情報85、3D映像フレームレートに関する情報86、3D映像情報数87、奥行き制限に関する情報100、視差量制限に関する情報101で構成されている。一方、図23のOSD欄には、字幕の有無106、字幕フォント・色107、字幕表示方法108、字幕表示奥行制限109、字幕データアドレス110とが記録されている。
記録媒体のある領域に映像情報とは別に配置されている制御情報については、映像情報ストリーム上に重畳された付帯情報34、51の情報を含めてすべての情報が記載されている。これはプレーヤ・レコーダの立ち上げ時にまず制御情報を読みこみ、各種初期設定を行うためである。
まず、映像制御情報23は図21のように記載されており、図14の映像情報中に重畳された付帯情報51と同じくコンテンツ情報64、タイムコード65、配置情報66、映像情報に関する情報67、音声情報に関する情報68、OSD情報に関する情報69を含んでいる。しかしながら、より多くの情報を格納できる映像制御情報23においては、GOPテーブル102といった全GOPに関するテーブル情報を記載する事ができ、映像再生しなくてもGOP映像情報単位での情報内容を把握する事が可能となる。ここでGOPテーブル102は図21中の表のように記載され、論理アドレスがある事から、所定のセクタ領域から読み出された信号から上記データ・ファイル識別情報を検出し、検出された上記データ・ファイル識別情報にもとづいて、上記位置識別信号によって示された位置にある上記符号化単位に対応した上記データ・ファイルがディスク媒体上に記録されている位置を識別する。識別された上記ディスク媒体上の位置にもとづいて上記データ・ファイルを読み出し、読み出された上記データ・ファイルに含まれる上記符号化単位で符号化された信号を復号化して画像信号を再生する事ができる。これにより、所望の時点にある符号化単位が記録されている位置を容易にしかも即座に特定して再生することを可能にする。
また、上記GOPテーブル102においては映像に関する付帯情報において3D映像情報を含み上記(32)〜(43)の映像ストリーム中に記述された項目と同じ項目の付帯情報をGOP映像情報毎に記述する事が可能となる。また、字幕情報に関しても、図23に示すように字幕の有無106、字幕フォント・色107、字幕表示方法108、字幕表示奥行制限109、字幕データアドレス110を記述する事で(44)〜(49)に示す情報と同様な情報をGOP映像情報単位に字幕の付帯情報を記載可能となる。
また、上記映像制御情報23には図23に示すようにGOP映像情報単位のシーケンス情報を記載する事も可能である。これにより再生開始時に、データ・ファイルの再生順序を示す情報が記録された所定のセクタ領域のセクタ・アドレスを生成し、データ読み出し手段によって読み出されたデータから再生順序情報を読む事によって再生順序情報が検出され、その後再生順序情報にもとづいてセクタ・アドレスを生成する。これにより、記録媒体上に分散したセクタに記録された画像信号も再生することが可能となっている。このようなシーケンステーブル情報にも上記(32)〜(49)に示す付帯情報を記載することが可能となる。
(実施の形態3)
次に、本実施の形態3について以下に説明する。図24は、本実施の形態3に係る立体映像記録装置のブロック図である。図24に示す立体映像記録装置は、視差情報を利用した立体映像の右目映像と左目映像のそれぞれの映像信号をディジタル化するためのADコンバータ146と、時間方向に画像圧縮するために必要な動きベクトル検出(動き検出)147と、面内圧縮に必要なDCT変換回路148と、面内圧縮に必要な適応量子化回路149、ローカルデコーダにおける逆量子化回路150とを備えている。さらに、図24に示す立体映像記録装置は、面内圧縮に必要な可変長符号化回路151と、ローカルデコーダにおけるDCT逆変換回路152と、ローカルデコーダにおけるフレームメモリ153と、圧縮後のデータを格納するバッファメモリ154と、OSD情報のエンコーダ155と、音声エンコーダ156と、フォーマットエンコーダ157と、光ディスク165に書き込む信号を生成するための変調手段158と、LD変調回路159とを備えている。さらに、図24に示す立体映像記録装置は、光ディスク165に記録するアドレスを抽出するためのアドレスヘッダ認識回路160と、光ヘッド164からの信号を再生するための再生アンプ161と、光ヘッド164や送りモータ163や回転モータ166を制御するためのサーボ回路162と、装置全体のシーケンスを制御管理するためのシステムコントローラ167とを備えている。
また、図25は、図24の立体映像記録装置に基づいて生成した立体映像信号のストリーム構造を示した図である。図25に示す立体映像信号のストリーム構造は、付帯情報51以降に、右目映像のGOP168、左目映像のGOP169、情報に関する情報68、OSD情報69の構成が順に繰り返す構造である。また、図25に示す右目映像のGOP168は、GOPヘッダ170、ピクチャヘッダ171,173、Iピクチャデータ172、Bピクチャデータ174で構成されている。さらに、図25に示すGOPヘッダ170は、GOPヘッダ170内にあるユーザデータスタートコード175、GOPヘッダ170内にある3D映像情報176で構成されている。さらに、図25に示す3D映像情報176は、左目映像か右目映像かを記載した情報177、3D映像方式及び有無に関する情報85、3D映像フレームレートに関する情報86、3D映像情報数87、奥行き制限に関する情報100、視差量制限に関する情報101で構成されている。
また、図26は、図24の立体映像記録装置に基づいて生成した立体映像信号のストリーム構造において下位の構造部分を図示したものである。図26では、右目映像のGOP168のトランスポートストリームパケット178〜182で示しており、左目映像のGOP169のトランスポートストリームパケット185〜188で示している。GOP映像情報の最後のデータが記述されたトランスポートパケット182,188の最後のデータがそれぞれデータ183,189であり、データ183,189のそれぞれにパディング処理された部分184,190が付加されている。
ここで、図24に示す立体映像記録装置は、左目と右目のそれぞれで同じ映像圧縮を行うようにしたものであり、ADコンバータ146でディジタル化された右目映像は動き検出147の処理によって各映像マクロブロック単位での動きベクトルが抽出される。また、映像データの最初は面内符号化処理されているため、DCT変換回路148にてDCT変換した後、適応量子化回路149で量子化され、可変長符号化回路151にて可変長符号化してバッファメモリへと送付される。この時、適応量子化後の映像データは逆量子化回路150、DCT逆変換回路152によるローカルデコーダによって元の映像信号が復元され、さらにフレームメモリ153にて動き補償した映像と比較する事で、以降の時間軸方向の圧縮を行う画面において差分情報のみを使用して圧縮していく事が可能となっている。このような圧縮方式はMPEGやH.264等の圧縮方法において基本的な方式となっており広く用いられているものである。
ここで、図24では右目映像と左目映像とをそれぞれ独立した映像ストリームとして入力し、それぞれ別々のエンコードブロックにてエンコードされる。そのため図24では右目及び左目が同じブロックをそれぞれ並列に配した構造となっている。ただし、入力部分にメモリを配置し、一旦左目映像と右目映像とを蓄積した上で、同じエンコード回路を倍の速度で処理し、1つのエンコードブロックで同様に処理を行う事も可能である。これらエンコードされた立体映像情報は、バッファメモリ154でOSDエンコーダ155からのOSD情報、音声エンコーダ156からの音声情報、フォーマットエンコーダ157からのフォーマットに必要な付帯情報を追記し、記録媒体である光ディスク165に記録するデータ形式に整えられる。ここで、フォーマットエンコーダ157は、従来の光ディスクフォーマットに必要とされるNavi情報やメニュー情報に加えて、本発明に係る3D映像情報の記録に必要な付帯情報も追記する。
なお、光ディスクに記録される形式の映像データは、変調手段158で光ディスク165に物理的に書き込むための情報として誤り訂正符号を付加するとともに変調処理され、LD変調回路159にて光ヘッド164に搭載されたレーザを変調させるための信号を生成する。この際、光ディスク165に安定的に記録させるためのサーボ回路162によって、光ヘッド164を移動させる送りモータ163やディスク165を回転させる回転モータ166や光ヘッド164内の対物レンズアクチュエータを制御しトラックあわせや焦点あわせを行っている。また記録時には光ディスク165上のアドレスを読み込む必要があり、光ヘッドにて受光した信号を光電変換した微小信号を再生アンプ161で再生し、アドレスヘッダ認識回路160でアドレス情報を生成する。これらアドレス情報はシステムコントローラ167で各ブロックの起動設定とあわせシーケンス処理され、特に高速なタイミングが必要とられる書き込みタイミング処理等は専用のハードウェアで行われ、プログラミングが必要なシーケンス設定部分はCPU等で行われる。
ここで、立体映像記録装置によって生成される映像ストリームは、図25に示す構造となる。まずMPEG等の時間軸方向の圧縮映像を含む圧縮映像データは一般的にGOPと呼ばれる面内圧縮符号映像を含む。例えば15ピクチャ単位程度の映像ブロックとして構成される。ここでは視差情報を利用した右目映像ブロックと左目映像ブロックとの2つあるため、付帯情報51を先頭とし右目映像のGOP168と左目映像のGOP169とがシーケンシャルに配置させる。なお、右目映像及び左目映像がそれぞれ1GOPの例を示しているが、映像条件が変わらない範囲で同一GOP数であれば複数個のGOPから構成してもよい。また、付帯情報51については実施の形態2で説明した通りであるが、ここではさらにGOPヘッダ部分に新たなユーザデータスタートコードを定義し、その後ろに3D映像情報176を記載する事も可能である。
まず、3D映像情報176には左目映像か右目映像かを識別するための情報(フラグでもよい)177を配置するとともに、実施の形態2にて説明した3D映像方式の有無85や、3D映像フレームレート86、3D映像情報87、奥行き情報100、視差量制限情報101を記録する。また、図26に示すように付帯情報51は、トランスポートパケットのレイヤにおいてプライベートパケット(TSP1)178を設け、これをトランスポートデコーダの部分で分離抽出する事になる。図25のように構成する事でMPEGデータの階層レベルでも同じ3D情報を抽出する事が可能となる。これらは再生装置とTVがリンク接続され自動的に3D映像設定する場合や、映像再生中にTVを切り替えたりする場合に、TV側にトランスポートデコーダでの付帯情報抽出設定が有効であれば付帯情報51が有効になるし、MPEGレイヤでの立体映像付帯情報が有効であれば3D映像情報176が有効になってくる。
また、図25の映像ストリームはMPEG情報レイヤの単位で記載したものであるが、もう1段下のトランスポートパケットの単位で記述したものが図26である。図26において、右目及び左目映像のGOP168,169のブロック単位での映像データは、トランスポートパケット178の先頭からスタートしGOP映像情報の終端では必ずしもトランスポートパケットの整数倍のデータには収まらないため、最終のトランスポートパケット182内の残りをパディングし、最終データ183に対しパディングデータ184で情報を埋める処理を行う。これによりトランスポートパケット179からトランスポートパケット182までを取り出すことにより右目映像のGOP168のみを抽出する事が可能となる。左目映像のGOP169においても右目と同様な処理が行われ、トランスポートパケット185を先頭に、パディングデータ190を含むトランスポートパケット188までを抽出する事により左目映像のみを取り出す事が可能となる。
なお、図24の立体映像記録装置においては、左目映像と右目映像とをそのままエンコードしていたが、左目映像と右目映像とは基本的には視差分だけずれた映像情報であり相関性が非常に高いものであるから、例えば左目映像については右目映像からの差分情報のみを記録するように構成すれば、全体の情報量も圧縮が可能である。そのための立体映像記録装置のブロック図を図27に示す。図27に示す立体映像記録装置は、右目映像のブロック部分を主映像として図24で示した映像圧縮のブロック構成と同じ構成を採用している。しかし、左目映像においては、左目映像の動き検出147の出力を右目映像のフレームメモリ153の出力と差分を取り、左目映像と右目映像との差分情報のみを抽出する。この差分情報は、左目映像のラインにおけるDCT変換148及び適応量子化149の処理を経て、可変長符号化処理151を行う事で左目映像の差分情報のみをバッファメモリ154に記録させる。以降の光ディスクに書き込むまでの処理は図24と同じである。なお、図27に示す例では、右目映像を主映像とし、左目映像を差分をとる副映像としたが、左右が逆(左目映像が主映像で右目映像が差分をとる副映像)であっても良いことはいうまでもない。
また、図27に示す立体映像記録装置では、左目映像と右目映像との差分をとることで、片方の映像情報量をさらに圧縮する方法について述べたが、本映像情報が視差情報によるものである事からさらに情報圧縮をかける事が可能である。図28(a),図28(b)に視差映像の原理を模式的に示した図である。図28(a)では、奥行き位置126Mにある手前の映像物126Gと、奥行き位置126Lにある奥の映像物126H、両目126Fまでの奥行き位置(一番手前)126Nとし、映像物126Hの視野角126D、映像物126Gの視野角126Eとしている。また、図28(b)では、映像物126Gの左目映像126GA、映像物126Gの右目映像126GB、左目映像126GAと右目映像126GBとの視差量126I、左目映像と右目映像との同一画素点126Kとしている。さらに、図27(b)では、映像物126Hの左目映像126HA、映像物126Hの右目映像126HB、左目映像126HAと右目映像126HBとの視差量126J、左目映像と右目映像との同一画素点126Lとしている。
図29は、片方の映像をさらに圧縮する立体映像記録装置のブロック図である。図29に示す立体映像記録装置は、左目映像と右目映像とからの視差量を演算するための視差情報演算回路191Aと、奥行き方向の動き検出回路191Cと、推定視差情報生成回路191Dとを備えている。さらに、図29に示す立体映像記録装置は、推定視差情報から元の左目映像を右目映像に変換するための逆視差演算処理回路191Bと、右目映像と逆視差演算処理回路191Bによって生成した右目映像とを比較した結果よりDCT変換するDCT変換回191Eと、適応量子化回路191Fと、可変長符号化191Gとを備えている。なお、視差情報演算回路191Aから可変長符号化191Gまでが立体映像圧縮処理を行う部分である。
また、図30は、図29の立体映像記録装置による圧縮方法での映像ストリームのエンコードとデコードを説明するための図である。図30では、右目映像192A〜192G、左目映像右目映像の視差情報演算値193、左目映像194A〜194G、奥行き方向動きベクトル演算値196、推定視差情報197、右目主映像の圧縮映像195A〜195Gが図示されている。さらに、図30では、右目主映像の圧縮映像195A〜195Gに基づく再生主映像198A〜198G、再生主映像198A〜198Gにそれぞれ対応する推定視差情報204〜210、再生副映像211〜217とが図示されている。また、図31は、図27もしくは図29に示す立体映像記録装置による圧縮方法で生成された映像ストリーム構造を示した図である。図31に示す映像ストリーム構造は、基本的に図25と同じであるが、左目映像のGOP169に代えて差分映像情報218である点と、3D映像方式の有無85にGOP映像情報か差分情報かの情報219が追加されている点とが異なる。また、図32は、図29に示す立体映像記録装置による圧縮方法で生成された映像ストリーム構造におけるトランスポートレベルの階層でのストリーム構造を示したものである。図32は、基本的に図26と同じであるが、左目映像のGOP169に代えて差分映像情報218である点が異なる。
ここで、視差を利用した右目映像と左目映像とから立体方向を図示すると図28(a)のようになる。図28(a)では、両目126Fから見た視差角度が奥行きに応じて異なって見える。そのため、左右の視差映像となった場合は図28(b)のように手前の映像物126Gは大きく、左目映像126GAと右目映像126GBとが離れて見え、視差量126Iも大きくなる。一方、遠方にある映像物126Hは小さく、左目映像126HAと右目映像126HBとが離れて見え、視差量126Jも小さくなる。
そのため、視差量(126Iもしくは126J)又は視差角情報(126Dもしくは126E)の情報があれば、図28(b)のように左目映像から右目映像を推定(視差情報変換による映像生成)する(126K及び126L)事が可能である。この条件としては、見る角度によって輝度や色が変わらない事が前提となるため、角度による映像の回り込みや影等の変化については本推定では推定できない情報となる。
ここで、図29に示す立体映像記録装置では、左目映像及び右目映像の動き検出ブロック147から得られる映像物の面内位置情報から視差角を抽出し、視差情報演算回路191Aによってマクロブロック単位もしくは画素単位での視差情報を演算する。さらに、時間軸方向での圧縮を行うため奥行き方向動き検出回路191Cにおいて、画面単位での奥行き方向の動きベクトルを抽出する。推定視差情報生成回路191Dでは、この奥行き方向の動き情報と視差情報をもって推定視差情報として生成する。また、上述したように片方の映像(ここでは右目映像として説明)情報から視差情報だけで逆側(ここでは左目映像として説明)の映像を完全に再現できるわけではなく、画像の回り込みによる変化(隠れた部分が見えてくる等)等については推定できない情報として残ってしまう。
そのため、図29に示す立体映像記録装置では、立体映像圧縮において推定視差情報から逆視差演算処理回路191Bによってまず不完全ながら逆側(ここでは左目映像として説明)の映像を視差情報を利用しローカルデコード再現し、これと実際に撮影した逆側の映像を圧縮処理したもの(ローカルデコーダにおけるフレームメモリ153上の映像)との差分をとる。この差分をとった情報が上述した画像の回り込みによる変化した再現できない部分の情報であり、視差情報を利用した圧縮ストリームにおいても視差情報で完全に再現できない部分をカバーする事ができる。また、図示していないが、奥行き方向の動きベクトルを抽出した場合、さらに視差の変化量も情報として利用するため、通常の情報圧縮のローカルデコーダと同じく、逆量子化回路とDCT逆変換回路、フレームメモリを用い、奥行き方向の動きベクトルから元の映像をローカルデコーダにより再現し再比較する事で、奥行き方向の動きベクトルを利用し圧縮効率をアップさせる事ができるようになる。
ここで、画面単位での映像データは図30のように示される。図30にある右目カメラから右目主映像192A〜192G、左目カメラから左目副映像194A〜194Gが取り出される。ここで、図29の視差情報演算回路191Aにより、右目主映像192A〜192Gと左目副映像194A〜194Gとから視差情報193が演算される。また、奥行き方向の動きベクトル演算191Cは、視差情報193の画面単位での変化から奥行き方向動きベクトル演算値196が抽出され推定視差情報197として生成される。この推定視差情報197自体は、画像のマクロブロック単位であったり画素単位であってもよい。
一方、映像の再生時には、右目主映像192A〜192Gは映像圧縮により符号化され右目主映像の圧縮映像195A〜195Gとなっている。具体的に右目主映像の圧縮映像は、面内圧縮映像のIピクチャ195Aと、面内動きベクトルを用いた時間方向の圧縮を行ったPピクチャ195D及び195Gと、Bピクチャ195B,195C,195E,195Fから構成されている。この右目主映像の圧縮映像は、通常の圧縮映像伸張回路により再生主映像198A〜198Gとして右目映像に再現される。そして、それぞれの再生主映像(右目映像)198A〜198Gと、画面毎の推定視差情報204〜210と、画面毎の差分情報を逆量子化し逆DCT変換した情報とで再生副映像(左目映像)211〜217が復元される。ここで、差分情報からの復元映像部分は、画像の回りこみ等推定視差情報では再現できない部分を補完する役割を担っている。
図29又は図27に示す立体映像記録装置での圧縮映像を用いた映像ストリームは、図31のように示され、あくまでもGOP映像情報単位のデータとして単位化される。これは右目映像が元々GOP映像情報単位で単位化されており、左目の差分圧縮データもこの右目映像を利用する関係で画像の単位化レベルを合わせこむ必要があるからである。ここでは右目映像のGOP168内のGOPヘッダ170において、図25で説明したような立体映像に関する付帯情報が付加される。ただし、左目映像に関し図29に示した推定視差情報197を用いた圧縮情報なのか、図27に示した差分圧縮情報なのか、図24に示した立体映像としての圧縮は行わない方式であるか等の識別情報を図31に示すように3D映像方式の有無85にGOP映像情報か差分情報かの情報219を記述しておく必要がある。また、トランスポートパケットのレベルでストリーム構造を見た場合、図32のように示され、図26と同様にGOP映像データの終端部分はトランスポートパケット内でパディングさせるほか、立体方向の圧縮映像データであっても終端部分はトランスポートパケット内でパディングさせる。なお、上述は右目映像が主映像、左目映像が立体方向に圧縮をかけた副映像としているが、逆であってもまったく問題なく、右目映像が主映像で左目映像が副映像、左目映像が主映像で右映像が副映像と混在した映像ストリームであってもよい。ただし、規格上混在を許可させる場合は、どちらの映像が主映像でどちらが副映像であるかの識別情報の記述が必要となる。
また、左目及び右目の立体映像をもっと簡便に映像ストリーム化することも可能である。例えば、図33に示す立体映像記録装置は、簡便に映像ストリーム化する画像構成処理部である合成回路220を備えている。また、図34は、図33に示す立体映像記録装置における映像ストリームの構造を示したもので、左目又は右目映像のGOP221が1つのGOP映像情報単位となっている。また、図35は、図33に示す立体映像記録装置における映像ストリームのトランスポートパケットレベル階層での構造を示したものである。
ここで、入力される左目及び右目の視差映像は一旦合成回路220に入力され、図33に示すように1つの画面内に縦長の2つの画面として挿入される。この際、各映像の画素は単に映像ラインで間引かれるのではなく、フィルタ処理を施され水平方向に圧縮された後、左目右目映像に合成される。このように各画面は縦長の2枚の左目映像と右目映像とで構成されることになるが、以降は通常の画像圧縮処理の方法を用いてストリーム生成される。この場合でも図34に示す映像ストリームにおいては付帯情報51もしくはGOPヘッダ170内の3D情報領域176において、水平方向に圧縮された映像情報である事が記述され、通常のTVでそのまま再生されないようにする事が必要である。また、図34に示す映像ストリーム構造を採用する場合でも、トランスポートパケットのレベルにおいては図26や図32と同様に、GOP映像情報の終端におけるトランスポートパケットの最終データ183に対しパディングデータ184で情報を埋める処理を行う。なお、本発明では光ディスクに記録された立体映像記録装置や立体映像記録方法について記載したが、記録媒体としてハードディスクであってもまったく同様の効果が得られることはいうまでもない。
(実施の形態4)
次に、本実施の形態4について、図に従い以下に説明する。実施の形態3においては、立体映像記録装置について説明したが、本実施の形態では立体映像再生装置について説明する。図36は、本実施の形態に係る立体映像再生装置のブロック図である。図36に示す立体映像再生装置では、復調訂正回路222と、アドレスヘッダ認識回路223、光ディスクドライブ部分と映像音声処理部分であるバックエンドとを接続するためのIF(インターフェイス)224と、光ディスクドライブ部分からのデータを一旦蓄えるためのデータバッファ225とを備えている。また、図36に示す立体映像再生装置では、映像音声データ等のストリームを分離するためのシステムデコーダ226と、圧縮映像を伸張するためのMPEG,H264デコーダ227と、オーディオデコーダ228と、字幕表等のためのOSDデコーダ229と、OSD情報の奥行き生成回路229Aとを備えている。さらに、図36に示す立体映像再生装置では、3D映像処理回路230と、映像にOSD情報をかぶせるためのブレンディング処理回路229Bと、外部との汎用IF231と、右目専用IF232と、左目専用IF233と、バッファ回路234と、バックエンド全体のシステムコントローラ235とを備える。
また、図37は、実施の形態3で示した立体方向の圧縮映像から左目映像をデコードする部分を示したブロック図である。図37では、映像ストリームの視差情報や奥行き動きベクトル情報を抽出するためのシステムデコーダ236と、MPEGやH264等の圧縮映像ストリームをデコードするMPEG、H264デコーダ237と、視差情報238と、動きベクトル情報239と、視差情報演算回路240と、左目映像再現回路241とを備えている。なお、視差情報238、動きベクトル情報239、視差情報演算回路240及び左目映像再現回路241が3D映像処理回路230を構成している。
ここで、図36に示す立体映像再生装置では、まず光ディスクドライブ内の復調訂正回路222よって光ディスク165に記載された映像音声データや付帯データが再生される。この際、サーボ回路162は光ヘッド164からの再生信号を高品位に抽出し続けるように作用し、アドレスヘッダ認識回路223は所定のアドレスの瞬時にアクセスするために作用する。ここで、光ディスクドライブから再生されたデータはIF回路224を介して一旦データバッファ回路225に入力された後、システムデコーダ226に入力される。システムデコーダ226では、映像音声データ等のストリームを分離し、音声情報はオーディオデコーダ228、OSD情報はOSDデコーダ229、映像情報はMPEG,H264デコーダ227に入力される。
なお、OSD情報はOSD奥行き設定回路229Aでシステムデコーダ226から得られる付帯情報により奥行きをもったOSD情報として生成される。また、MPEG,H264デコーダ227でデコードされた映像ストリームは3D映像処理回路230にて3D映像情報として処理され、ブレンディング回路229Bで奥行きをもったOSD映像とブレンディングされ、転送レートが低い場合はHDMI等の汎用IFで出力したり、左目映像を左目専用IF233で、右目映像を右目専用IF232で、それぞれ出力させる事が可能となる。
また、実施の形態3で示したような片側映像が視差情報を用いた圧縮をさらに行っている場合、立体映再生装置における3D映像処理230は図37のように構成される。ここで、システムデコーダ236で抽出した左目の圧縮映像情報である視差情報238と奥行き動きベクトル239を用いて各画素もしくはマクロブロック単位での視差情報演算を視差情報演算回路240で行い、右目映像から左目映像を生成するための変換係数を生成する。この変換係数を用いてMPEG,H264デコーダで生成した右目映像から、左目映像再現回路241にて左目映像を再現する。ここで、圧縮された左目映像が視差情報による圧縮のみであれば視差情報演算回路240の出力に基づく再変換のみであるが、図33に示す立体映像記録装置のようにDCT変換と適応量子化を行った圧縮情報であれば、逆量子化と逆変換回路とを左目映像再現回路241内に内蔵する必要がある。
次に、左目及び右目の立体映像から立体でない2D映像を再現する立体再生装置について説明する。図38(a)は、2D映像を再現する立体再生装置のブロック図である。図38(a)では、視差情報に基づく合成処理回路242を備えている。また、図38(b)は、合成処理回路242で構成される映像を模式的に説明する図であり、左目映像232Aと、右目映像233Aとが合成された映像が2D映像231Aである。ここで、一般的なTV等の表示装置においては、必ずしも3D映像対応であるとは限らず、むしろ2D映像対応である事の方が多い。従って3D映像のみが記載されたメディアを再生する場合、2D映像でも再生できるようにしておく事が望ましい。最も簡単な方法としては、右目映像もしくは左目映像のみを表示させる事で2D映像を再現できる。例えば、TVが2D映像しか対応していない場合は、プレーヤとTVの間でのリンク接続処理において自動検知し、片方の映像のみを常に再生しておく事となる。
しかしながらこの方法では、奥行きが目に近い(飛び出して見える)映像の場合、視差量が大きく、図38(b)に示す左目映像232Aや右目映像233Aのように、左右位置が大きくずれた映像となってしまう問題があった。そのため、左目及び右目映像における視差情報を用いてこれを合成し、2D映像231Aのような中間位置の映像を再現する事で違和感のない2D映像を再現する事ができる。ただし、この場合の画面の両サイドは、視差量が大きいと演算できないため、元の映像が左目映像の場合は左側に広く、右目映像の場合は右側に広く撮影されていないと、映像241Aの部分(画面の両サイド)がカットされたような映像となる。
さらに、実施の形態2で示したように画面の飛び出し量が大きいと目の疲れやびっくりした感じを増大する懸念がある。そのため、飛び出し量を可変できるようにした立体映像再生装置のブロック図を図39(a)に示す。図39(a)では、係数変更視差による左目映像再現回路243と、係数変視差による右目映像変換処理回路244と、飛び出し量可変のためのユーザインターフェイス245と、視差情報係数変更部246とを備えている。また、図39(b)は、立体映像再生装置の飛び出し量の可変を説明するための図である。さらに、図39(c)は、図39(a)の回路により飛び出し量を変化させた場合の結果を説明する図である。また、図39(d)は、立体映像再生装置を接続した表示装置に表示されている飛び出し量を可変するためのOSDバー246Aを図示している。
図29に示す立体映像記録装置のように片側映像を視差情報により圧縮した方式においては、画素もしくはマクロブロック単位でそのまま飛び出し量と関連している視差情報がリンクされている。そのため、ユーザからの飛び出し量可変指示があった場合、図39(d)のユーザインターフェイス245に、例えばTV画面のOSDバー246Aに示されるようなOSD画面を使って指示を入力させ、視差情報係数変更部246にてどの程度飛び出し度合いを減衰させるのか変換係数を決定する。この変換係数によって視差情報演算回路240での視差演算量を決定し、左目映像であれば係数変更視差による左目映像再現回路243により、右目映像であれば係数変視差情報に基づく画像変換処理回路244により左目映像と右目映像との視差量を、図39(b)に示すよう左目映像126GAと右目映像126GBとが波線から実線となるように小さく変換して表示させる。結果的には、専用IF232,233の出力から得られる立体映像は図39(c)の立体視された三角図形のように飛び出し量が小さく再現される。
また、図39(a)に示す立体映像再生装置では、あくまで映像ストリーム上に視差情報が記録されている場合にこれを用いて飛び出し量の変換を行うものであったが、視差情報がない場合で考えられる。そこで、図40に示す立体映像再生装置では、映像ストリーム上に視差情報が記録されていない場合でも飛び出し量を制御できる構成を示す。図40に示す立体映像再生装置では、左目映像と右目映像とにそれぞれMPEG,H264デコーダ237A,237Bと、視差情報抽出部247と、右目映像の視差変換部248と、左目映像の視差変換部249とを備えている。図40に示す立体映像再生装置では、視差映像抽出部247にて左目映像及び右目映像のデコード映像から、新たに視差情報を検出すればよい。また、この視差情報は図39(a)の場合と同様にユーザインターフェイス245を介し、視差情報係数変更部246を介して新たな視差情報を視差情報演算部240で生成し、右目映像の視差変換部248及び左目映像の視差変換部249に供給される。
なお、本実施の形態では光ディスクに記録された立体映像情報を再生する装置や再生方法について記載したが、記憶媒体としてハードディスクであってもまったく同様の効果が得られることはいうまでもない。
(実施の形態5)
本実施の形態5は、前述の実施の形態1〜4の場合の平面映像、立体映像が混在している場合に、さらに音声についても平面映像視聴用の音声と、立体映像視聴用の音声とを備えることで、より臨場感のある映像、音声の視聴が可能になるものである。よって、以下の説明においては、平面映像と立体映像とに関する詳細な記載は省略されているが、実施の形態1〜4における平面映像、立体映像の実施形態と組み合わせて実施することが可能である。
図41は5.1CHサラウンド音声を擬似視聴するシステムを模式化したもので、図41において、実際のスタジオ録音時の音源250と、音源250からの音が到達するスタジオ録音時の仮想人間251と、スタジオ録音時のマイクで仮想人間にある鼓膜部分252と、スタジオ録音時の音源から仮想人間にある鼓膜部分までの伝達関数253と、スタジオ録音された音声信号を録音したディスク254と、録音された音声信号をサラウンド再生するための逆システム255と、オーディオ再生ルームにおけるスピーカ256と、視聴しているユーザ257とが示されている。
また、図42は5.1CHサラウンド音声を本格的に視聴するシステムを模式化したもので、図42において、実際のスタジオ録音時の音源250と、スタジオ録音時のサラウンド用マイク258と、スタジオ録音時の音源から仮想マイクまでの伝達関数259と、スタジオ録音された音声信号を録音したディスク254と、録音された音声信号をサラウンド再生するための逆システム255と、オーディオ再生ルームにおけるスピーカ256と、視聴しているユーザ257と、再現音場で再現させる仮想的な音源260と、奥行き方向の音源位置261とが示されている。
また図43は立体映像および音声が格納されたディスクもしくは立体映像および音声情報をネットワーク等で配信する際の信号フォーマットを示したもので、ディスクAは通常の2次元映像用の音声情報とは別にあらかじめ3次元用の音声情報格納領域を設ける信号フォーマットを示したものである。
図43において、映像および音声等に関する制御情報262と、右目映像263と、左目映像264と、2D再生用の音声情報エリア265と、3D再生用の音声情報エリア266と、OSD情報エリア267とが示されている。
また図44は立体映像および音声が格納されたディスクにおける、映像および音声に関する制御情報を格納する領域および制御情報内の映像および音声データテーブルを表したもので、図44において、映像および音声の制御情報が記述されたプレイアイテムテーブル270と、ディスク271と、プレイアイテムのデータサイズ272と、映像および音声等のストリームに関する情報を管理しているクリップ情報のファイル名273と、マルチアングルの有無274と、アングル数275と、現在のプレイアイテムのINタイムと前のプレイアイテムのOUTタイムとの接続状態276と、現在のプレイアイテムの開始時間であるINタイム277と、現在のプレイアイテムの終了時間であるOUTタイム278と、ユーザ操作の制限状態を示すユーザ操作マスクテーブル279と、ユーザ操作によるランダムアクセスの制限状態を示すランダムアクセスフラグ280と、スチル表示を実行するかどうかを示すスチルモード281と、ストリームリスト282と、またストリームリスト282内の情報として映像ストリーム情報283と、音声ストリーム情報284と、テキストサブタイトルストリーム情報285と、グラフィックスストリーム情報286と、また映像ストリーム情報283内の情報として映像ストリームのストリームタイプ287と、映像ストリームのコーディングタイプ288と、映像ストリームの映像フォーマット289と、映像ストリームのフレームレート290と、また音声ストリーム情報284内の情報として音声ストリームのストリームタイプ291と、音声ストリームのコーディングタイプ292と、音声ストリームの音声タイプ293と、音声ストリームのサンプリング周波数294と、音声ストリームの言語コード295と、立体視聴専用の音声情報である事を示す立体音声フラグ296と、音声情報のファイルサイズ297と、論理アドレス298と、再生時間情報を表すタイムレコード299と、メディア上の配置情報300と、立体方向の音像可変量の大小に関する情報記載部分301と、再生可否を示す地域コード302と、パレンタルレベル303と、対応する映像との同期情報304と、暗号情報305と、またテキストサブタイトルストリーム情報285内の情報としてテキストサブタイトルストリームのストリームタイプ306と、テキストサブタイトルストリームのコーディングタイプ307と、テキストサブタイトルストリームの文字コード308と、テキストサブタイトルストリームの言語コード309と、またグラフィックスストリーム情報286内の情報としてグラフィックスストリームのストリームタイプ310と、グラフィックスストリームのコーディングタイプ311と、グラフィックスストリームの言語コード312とが示されている。
また図45は立体映像および音声が格納されたディスクにおける、映像および音声に関する制御情報を格納する領域および制御情報内の映像および音声データテーブルを表したもので、図45において、映像および音声の制御情報が記述されたプレイアイテムテーブル270と、プレイアイテムテーブル270内の映像および音声等のストリームに関する情報を管理しているクリップ情報のファイル名273から参照されたクリップ情報ファイル313と、クリップ情報のデータサイズ314と、クリップ情報ファイルに関連したストリーム情報のタイプを示すクリップストリームタイプ315と、クリップ情報を使用しているアプリケーションのタイプ316と、クリップ情報に関連したストリームのトランスポートストリームのデータレート317と、クリップ情報ファイルに関連したストリーム内のパケット数318と、クリップ情報ファイルに関連したストリームのトランスポートストリームタイプ319とが示されている。
ここで、図41はバーチャルサラウンドの原理を示したもので、図41において、音源250からの音波は部屋の空間を介し、人間の頭の構造である耳の穴を介して鼓膜に到達する。ここで音源から鼓膜までの音声信号における伝達関数253を定義し、録音された音声情報にこの逆特性を乗じることで、実際の視聴時において、あたかも録音時に聞いたような臨場感を得る事ができる。このような方法をトランスオーラルシステムと呼び、ヘッドフォンの場合はバイノーラルシステムと呼ばれる。しかしながらこの場合視聴時の位置が録音時の位置と異なっていたり、録音時の空間と再生時の空間とで伝達関数が異なる場合、臨場感が減じてしまう事はいうまでもない。一方、図42は複数のマイクロフォンを用いてサラウンド音声を再現させるもので、この場合例えばマイクロフォンで構成された領域と同じ領域内に録音時の音場を再現させる事ができる。マイクロフォンは例えばサラウンド用マイク258のような構造をしており、図42の例では4chの音声が録音される事となる。この場合も同様に録音時の境界領域における録音空間の伝達関数259を定義しその逆特性を乗じる事で音場再現が可能になるが、再現範囲が広く取れる特徴がある。
本発明においては例えば視聴者の前面にスクリーンもしくはTVがあり、ここでは立体映像を視聴する場合であり、当然立体映像の場合は奥行き方向や飛び出し方向にも画像が変移し、視聴者に高い臨場感を提供している。しかしながら従来の2次元画像と3次元画像とでは、奥行き方向や飛び出し方向の映像表現が異なっている場合が多く、製作者が意図的に奥行き方向や飛び出し方向に主人公や物体を変移させ飛び出し感を強調する場合があったり、通常の2次元映像におけるズームアップで視聴者に近づくような映像表現をした場合でも、立体映像の方が奥行き方向や飛び出し方向の変移量においてより強調されて感じられる事は言うまでもない。従ってユーザから見た場合、2D映像と3D映像とでは奥行き方向や飛び出し方向の変移感覚が異なって感じられる事となる。しかしながら、現状の音声録音においては、サラウンド処理を駆使しながら臨場感をアップさせているものの、あくまでも2次元映像において視聴者が感覚的に感じる立体感を奥行き方向や飛び出し方向の音像として表現されているにすぎず、3次元映像の視聴感覚に合わせたものではない。
そこで本発明では、平面映像視聴用のサラウンド音声に加え3D用の新たなサラウンド音声を録音時に用意し、これを立体映像フォーマットに加えることで、立体視聴時により臨場感のある音響再生を行うものである。すなわち、平面映像視聴用のサラウンド音声抽出手段、立体視聴用のサラウンド音声抽出手段とをそれぞれ有することで、立体映像視聴時のサラウンド音声情報において、平面映像視聴用のサラウンド音声と、立体視聴用のサラウンド音声との両方を有し、またそのいずれかを選択して再生可能である。
また、図43のディスクAの映像および音声信号フォーマットのように配置し、図43のディスクAの制御情報262もしくは図44のプレイアイテムテーブル270に記載された配置情報300もしくは図45のクリップ情報ファイルに記載された配置情報300を読み取る事によって、2D映像視聴時は2Dの映像と音声のみを再生し、3D用の部分をスキップする事によって、再生時のメモリ負担を軽くする事ができる。また、メモリに多少余裕のある場合は、比較的データ量の小さい音声情報はすべて読み込み、2D部分のみを抽出してデコードさせる事も可能である。一方3D視聴の場合は、右目映像と左目映像の両方を読み込むとともに、3D用の音声情報のみを抽出しデコードすることによって、より臨場感のある再生が可能になる。この際2D用の部分をスキップする事によって、再生時のメモリ負担を軽くする事ができるが、メモリに多少余裕のある場合は、音声情報は比較的データ量が小さいためすべて読み込み、2D部分のみを抽出してデコードさせる事も可能である。なお、ここでは音声情報において立体映像用の音声情報を用意した場合の制御情報や付帯情報を記載したものの、音声が従来の平面映像用と同じものしか準備されていない場合は、実施の形態2にて説明した内容と同じである。なお、詳細については前述の実施の形態において説明しており省略する。
また、図44のプレイアイテムテーブル270もしくは図45のクリップ情報ファイル313もしくは図43の制御情報エリア262に立体視聴専用の音声情報である事を示すフラグ296を記述することで本データに立体用の音声データがあるかどうかをデコーダが知りメディア上の配置情報300とあわせて、必要な選択と抽出処理ができるようになるほか、立体視聴専用の音声情報のファイルサイズ297を記述することでメモリ領域の確保をあらかじめ行うほか、再生時間情報299を記載することで再生時間の確認やタイムサーチ(時間によるスキップや戻し)が可能になるほか、映像との同期情報304とあわせての映像と音声の時間を合わせることができるようになるほか、オーディオ圧縮フォーマットの種別292を記載することで装置側のデコード処理の切り替えを行うことができるほか、再生可否を示す地域コード302を記載することで、本立体用オーディオ視聴がライセンスされていない地域では本立体用の音声再生をブロックし通常の2D再生用のものに切り替えて視聴することができる。ここでも、音声が従来の平面映像用と同じものしか準備されていない場合は、実施の形態2にて説明した内容と同じである。
またさらに、上記付帯情報は実際にユーザがハンドリングする再生時間情報としてのデータとして再生リスト形式のファイルとして保有し、さらに、実際のメディア上に格納されているファイルのアドレス位置を特定するため時間情報からアドレス情報に変換させるGOP単位もしくはGOPの整数倍単位の情報テーブルとを別々に設ける方法もある。この場合、ユーザのオペレーションはまず上記時間情報の再生リストをアクセスし、この再生リストからGOP単位もしくはGOPの整数倍単位の情報テーブルを再度アクセスすることで、実際のメディア上のアドレスを取得して所望のデータをメディア上から取り出すこととなる。
また、光ディスクのようなストレージ媒体で立体映像および音声が供給される場合は、図44のようにディスクの特定領域にある制御情報エリアにおいて立体音声データに関する情報を記載することができるが、ネット配信等のサービスや地上ディジタル放送等の番組放送として立体映像や音声を配信し視聴する場合においては、できれば映像データ内にこれら付帯情報を入れておくことが必要となり、この場合は図43の制御情報エリア262の部分にて記述された領域もしくは別の情報記録領域である新たなファイル領域に、上記立体視聴専用の音声情報である事を示すフラグ296、立体視聴専用の音声情報のファイルサイズ297、再生時間情報299、オーディオ圧縮フォーマットの種別292、メディア上の配置情報300、対応する映像との同期情報304、再生可否を示す地域コード302などが、GOP単位もしくはGOPの整数倍の単位にて記述され配信される。
また、上述したケースでは3D用の音声信号を2D用の音声信号とは別に設ける場合について記載したが、3D用に奥行き方向や飛び出し方向を強調した音像をもたせた場合、この音像の視聴者に対する奥行き方向や飛び出し方向の変移量の大きさや速度をある程度緩和した第二の3D視聴用音声データを合わせてファイルすることも可能となる。すなわち、立体視聴用のサラウンド音声において視聴者に対する奥行き方向や飛び出し方向の変移量の大きさや速度をある程度緩和した複数の3D視聴用音声データを有することになる。立体映像および音声視聴の場合は、あまりにも奥行き方向や飛び出し方向の変移が大きかったり、臨場感が強すぎる場合に、実施の形態1の立体映像の場合で説明した通り子供やお年寄りで健康を害する可能性もありこれらの方々には奥行き方向や飛び出し方向の変移や速度・加速度が小さくかつ変移がゆるやかな音声を提供すべきである。
またこれら奥行き方向や飛び出し方向の変移や速度・加速度等臨場感の強調度合いを段階的にもたせた、すなわち、平面映像視聴用のサラウンド音声の記録領域とは別に、視聴者に対する音像定位変化度合いの異なる複数の立体視聴用のサラウンド音声の記録領域である第三、第四のファイルを併記し、視聴時にユーザに選択させたり、暗証番号を入力しないと視聴できないような、サラウンド音声視聴時における視聴安全性を確保するためのパレンタルレベルを記載し、設定を行うことも可能である。当該パレンタルレベルの記録は、付帯情報領域において行うことが可能である。
例えばこのパレンタルレベルの設定については、映像と音声とで個別に設定する方法もあるが、実施の形態1に記載した映像の立体映像の立体視聴時におけるパレンタルレベル設定と組み合わせ、映像および音声と、立体映像とでもっとも臨場感が強すぎるものから順に設定していくことが望ましい。また、映像と音声を含むトータルのパレンタルレベル設定としては、例えば、映像と音声のパレンタルレベルが大中小の3段階で表される場合、映像か音声のどちらかいずれかが大を含む場合のトータルのパレンタルレベルは大とし、映像か音声のいずれかもしくは両方での最大が中である場合はトータルのパレンタルレベルを中とし、映像と音声がすべて小の場合は小とし、すべて安全サイドに規定することで人体への影響を最小限に抑えることが可能である。すなわち、本コンテンツ選択時の映像および音声全体のパレンタルレベルとして、トータルのパレンタルレベルを設定する。
(実施の形態6)
では次に、立体視聴用に専用音声があらかじめ準備されていない場合の、音声臨場感向上について述べる。なお、実施の形態1〜4との組み合わせによる実施も可能であることは、実施の形態5において述べたとおりである。
図43のディスクBは映像信号に含まれる人間の顔の部分や、音声発生源となる物体の奥行き方向や飛び出し方向に関し立体音像の定位をどの位置に持っていけばよいかの情報をあらかじめ定義するもので、図43のディスクBにおいて268は奥行き方向音像定位情報である。また、図46は上記奥行き方向音像定位情報に基づき、サラウンド音声処理での奥行き方向音像定位を変化させるための奥行き音像定位可変部(視聴者から画面を見た場合の奥行きもしくは飛び出し方向の音源発生位置を変化させるための回路)である。
また、図43のディスクBは奥行き方向音像定位情報268を有する映像および音声信号フォーマットである。また、図43のディスクCはOSDの奥行き方向や飛び出し方向の配置情報269を有する映像および音声信号フォーマットである。
また、図43のディスクBは通常の2D映像視聴用音声情報に、奥行き方向の音像付加情報を付加したもので、図43のディスクBにおいて、2D再生用の音声情報エリア265と、奥行き方向の音像付加情報268とが示されている。また、図43のディスクCはOSD情報に奥行き方向のオフセット量をもたせ3次元表示させるもので、図43のディスクCにおいて、OSD情報エリア267と、OSD情報の奥行き方向オフセット量269とが示されている。
また図47はOSD情報に関する立体表記の方法を示したもので、図48において、基準OSD情報に対し奥行き方向のオフセット量を記載する方法330と、OSD情報自体を立体データ331とする方法が示されている。
通常の立体映画等においては、3D専用の音声を新たに設けることは、コンテンツ制作側の負担が増大するため、特別な場合を除き通常の2D再生用の音声信号で3D視聴を行う場合が多いものと思われる。しかしながら、5.1CHサラウンドや7.1CHサラウンド音声においては、図41に記載されているように視聴者の後方にもスピーカがあり奥行き方向音像定位をよりはっきりと可変できるため、コンテンツ制作側の負担を軽減しながら高臨場感音声が楽しめる方法が求められていた。
ここでは、図43のディスクBの映像信号フォーマットにおける268の部分に奥行き方向音像定位情報のみを記述し、元々ある2D視聴用の音声情報から奥行き方向音像定位をどの程度可変すべきかの相対量、もしくは視聴空間における奥行き方向音像定位の絶対位置情報を記述し、これにあわせ、図46の再生装置の奥行き音像定位可変部325にて奥行き音像定位を可変せしめるものである。
この場合、コンテンツ制作側は3D視聴時に、すでに製作した2D用音声情報の奥行き音像定位を3D視聴時にどの程度可変すべきかどうかの差分のみをクリエートする。その結果に基づいて元々ある2D視聴用の音声情報から奥行き方向音像定位をどの程度可変すべきかの相対量、もしくは視聴空間における奥行き方向音像定位の絶対位置情報を定義するだけで済むからである。またこの場合、あらたな立体視聴用の録音作業は不要になることは言うまでもない。
この場合、立体映像に合わせた画面に対し前後方向音像定位を変化させるだけでなく、コンテンツ制作者の映像・音声表現において必要とあれば左右や上下の音像定位変化、またその大小、をもたせる情報を付加情報として記述しておき、付加情報抽出手段と音像定位可変手段にて、サラウンド音声の音像定位を可変させ、これに基づきあらゆる方向の音像定位変化をつけることが可能となる。また、プレーヤでの実際の信号処理としては、メディア上にあらかじめ記載された音像定位可変情報に基づき、例えばサラウンド処理を行うDSP(デジタルシグナルプロセッサ)で音像定位の可変を行うが、音像定位の可変を行う際に、あらかじめメディアに記録された音像定位可変情報の所定の係数をかけて動作させることで、音像定位の可変量を強調したり、弱めたりすることも可能となる。
この場合、たとえば音像定位の可変量を弱める処理を行うことで、上述したパレンタルレベルで設定した臨場感が強すぎる状況を信号処理回路上で弱めて、例えば子供やお年寄りでの視聴を可能にすることが可能である。すなわち、映像の飛び出し量を可変したり、音声の音像定位の強弱を可変することで、パレンタルレベル設定を変更し、視聴者に適応した音像定位を実現することが可能である。
また、あらかじめ記録された立体映像視聴用の音声情報もしくは音像定位を可変させる付帯情報に基づく立体映像視聴用の音声情報を視聴する際、音声映像情報におけるパレンタルレベル設定情報と、立体映像のパレンタルレベル設定情報との両方における最も危険側のレベルを、本コンテンツ選択時の映像および音声全体のパレンタルレベルとして、上記のような視聴者に適応した視聴制限することが可能である。また、音像定位を可変させる付帯情報に基づく立体映像視聴用の音声情報を再記録する際、音像定位の変化量を強めたり弱めたりしたものを記録すると同時に、パレンタルレベル設定も変更することも可能である。
またさらに、実施の形態4で説明した立体映像の飛び出し量を可変する信号処理回路と組み合わせることによって、映像と音声の両方の臨場感を可変し、映像と音声の両方での視聴安全性を向上させることが可能となる。また、場合によっては臨場感を強調した視聴も可能となる。
例えば図46において、光ディスク320から入力された3D映像信号は、システムデコーダ321で映像信号および音声信号および音像定位情報に分離され、映像信号の右目映像はMPEG/H.264デコーダ322に出力され、映像信号の左目映像は差分デコード処理部324に出力され、音声信号はオーディオデコーダ323に出力され、音像定位情報は音像定位制御部325に出力される。基準となる右目映像はMPEG/H.264デコーダ322で解凍される。左目映像については右目映像からの差分情報で構成されているため、差分デコード処理部324にて解凍された信号をベースにMPEG/H.264デコーダ322にて左目映像が再現される。すなわち実施の形態1〜4に示すように、立体映像の右目映像の映像情報と立体映像の左目映像の映像情報とが交互に配置され、右目映像と左目映像とのいずれか一方が平面映像であり、立体映像視聴に必要となる残り一方の映像情報が、平面映像の情報と立体映像の情報との両方を用いて生成されるもう片方の目の映像情報が再現される。この場合、本実施の形態6における右目映像と左目映像に関連するサラウンド音声信号の群も合わせて配置されるように記録することが可能である。
音像定位制御部325では、入力された音声信号の音像定位を入力された音像定位情報を使って制御し、HDMI情報伝送部326あるいは光出力部327に出力する。HDMI情報伝送部326は入力された信号を3D視聴用TVに出力する。
またさらに、図50のブロック図に示すように、奥行きないし飛び出し方向音像定位情報さえも記載していない場合に、より簡便に奥行きないし飛び出し方向音像定位を可変する方法として、図43のディスクCに示す字幕の奥行き方向や飛び出し方向の位置情報269に基づき、奥行きないし飛び出し方向音像定位を可変する方法もある。字幕やOSD情報等は一般的にはテキスト情報やビットマップ等の静止画情報として与えられるため、立体視聴時にこのテキストやビットマップ情報をどの奥行き方向や飛び出し方向に表示するかの立体方向配置情報を持つ場合がある。この場合本情報に比例した奥行きないし飛び出し方向音像定位の変化を与えることでより音声の臨場感をアップさせることが可能となる。なお、2D音声における奥行きないし飛び出し方向音像定位に対しどのような変化を加味させるかどうかについては、立体方向配置情報に基づき比例させる方法もあるが、元の2D音声の奥行き方向音像定位に対しOSDの立体方向配置情報による一定係数を乗じたオフセットを加える方法や、OSDの立体方向は配置情報の影響をより強調したい場合は、OSDの立体方向は配置情報を2乗して加える等の方法もある。
またさらに、実施の形態1に示すように字幕情報などのOSD情報の表示位置が立体映像における音声発生源(主人公や音を発する物体)の奥行きないし飛び出し位置に連動している場合は、このようにOSDの立体方向配置を特定する情報を追記し、OSDの奥行きないし飛び出し位置に連動した、付加された音像定位可変情報を立体方向位置抽出手段にて抽出し、奥行きないし飛び出し方向音像定位を音像定位可変手段にて変化させることで、間接的に立体映像における音声発生源(主人公や音を発する物体)の奥行きないし飛び出し位置に音像定位も連動させることができる。
例えば図50において、光ディスク320から入力された3D映像信号は、システムデコーダ321で映像信号および音声信号およびOSD信号に分離され、映像信号の右目映像はMPEG/H.264デコーダ322に出力され、映像信号の左目映像は差分デコード処理部324に出力され、音声信号はオーディオデコーダ323に出力され、OSD信号はOSDデコーダ333に出力される。基準となる右目映像はMPEG/H.264デコーダ322により表示可能な映像情報にデコードされる。左目映像については右目映像からの差分情報で構成されているため、差分デコード処理部324にて解凍された信号をベースにMPEG/H.264デコーダ322にて左目映像が再現される。OSDデコーダ333では、解凍した字幕情報を映像・OSD合成部334に出力し、また字幕の飛び出し量を算出し、字幕飛び出し量の情報を音像定位制御部325に出力する。映像・OSD合成部334では入力された映像信号と、OSD信号を合成し、HDMI情報伝送部326に出力する。音像定位制御部325では、入力された音声信号の音像定位を字幕飛び出し量の情報を使って制御し、HDMI情報伝送部326あるいは光出力部327に出力する。HDMI情報伝送部326は入力された信号を3D視聴用TVに出力する。
またさらに、OSDに立体方向は配置情報が存在しない場合や、映像コンテンツの人物位置等によるより正確な奥行き方向音像定位の再現を行いたい場合は、図48の立体映像および音声再生装置もしくは図49の立体映像および音声再生装置に示すような顔検知処理を用いる方法もある。顔検知処理はすでにデジタルスチルカメラなどに搭載され、人間の顔の部分を検知し目や鼻や口等を特定し映像表現を工夫することができるようになっている。たとえば図48の立体映像および音声再生装置および図49の立体映像および音声再生装置において、立体映像および音声データを有する光ディスク320と、システムデコーダ321と、MPEG/H.264デコーダ322と、差分デコード処理部324と、オーディオデコーダ323と、音像定位制御部325と、HDMI情報伝送部326と、光出力部327と、3D視聴用TV328と、AVアンプ329と、顔検知および飛び出し量抽出部332とが示されている。
ここで、図48において、光ディスク320から入力された3D映像信号は、システムデコーダ321で映像信号と音声信号に分離され、映像信号の右目映像はMPEG/H.264デコーダ322に入力され、映像信号の左目映像は差分デコード処理部324に入力され、音声信号はオーディオデコーダ323に入力される。基準となる右目映像はMPEG/H.264デコーダ322で解凍される。左目映像については右目映像からの差分情報で構成されているため、差分デコード処理部324にて解凍された信号をベースにMPEG/H.264デコーダ322にて左目映像が再現される。
またこの際、顔検知および飛び出し量抽出部332において、まず右目映像における人物の顔部分を検知するとともに、左目映像の人物の顔を検知する。次にこの左右両方の顔検知情報の特に顔の画面内位置を比較することで、視差量を算出し奥行きもしくは飛び出し量を抽出手段にて抽出する。ここで得られた音像定位可変量、および奥行き方向音像定位を音像定位制御部325に入力し音像を制御することで、例えば人物がこちらに近づいてくるようなシーンにおいて奥行き方向音像定位を視聴者位置に徐々に近づけるように音像定位可変手段にて変化させ、より臨場感をアップさせることも可能になる。また、音像定位可変量を抽出することで、立体映像情報および音声情報に加え、音像定位可変情報を付加して記録することが可能となる。
また、顔検知アルゴリズムにおいて、顔全体ではなく口元部分を抽出その視差量を算出し奥行きもしくは飛び出し量を抽出すれば、より正確な奥行き方向音像定位が得られる。
図49においては、顔検知および飛び出し量抽出部332に右目映像のみを入力し、右目映像内で顔検知を行い、顔検知情報をMPEG/H.264デコーダ322に戻す。そしてMPEG/H.264デコーダにおいて、右目映像と左目映像の視差量から抽出した奥行きもしくは飛び出し量および顔検知情報を元に奥行き方向音像定位情報を算出し、音像定位制御部325に出力する。音像定位制御部325において、入力された奥行き方向音像定位情報を利用し、入力された音声信号の音像定位を制御する。
また、人物が複数いた場合、口元が動いているかどうかを判別し、口元が動いている人物の奥行きもしくは飛び出し位置にあわせ奥行き方向音像定位を可変せしめることも可能である。この場合、しゃべっていない人物に反応する事がなくなり、より正確な動作が可能になる。
なお、映画コンテンツのようにあらかじめ臨場感を考慮し奥行き方向音像定位が変化している場合、本顔検知で奥行き方向音像定位にオフセットを加えるとかえって実際とずれる場合もあるが、どのような変化を加味させるかどうかについては、立体方向は顔の奥行きもしくは飛び出し量に基づき比例させる方法もあるが、元の2D音声の奥行き方向音像定位に対し奥行きもしくは飛び出し量による一定係数を乗じたオフセットを加える方法や、顔検知の奥行きもしくは飛び出し量の影響をより強調したい場合は、顔検知の奥行きもしくは飛び出し量を2乗して加える等の方法もある。
また、顔検知が検出しない場合(画面内に人物がいない場合)は、元の2D音声映像をそのまま再生させることで、人物の声に関する臨場感のみをアップさせ、不要な誤動作を回避することができる。この場合、立体映像に人物が登場したシーンでのみ音像定位の可変処理が動作し、より臨場感をアップさせる。
1 右目映像、2 左目映像、3,8 表示装置、4 シャッタ、5 映像、6 記録装置、7 メガネ、9,10 偏光板、11 表示光学系、12 表示パネル、13 同期回転部材、14 光源、15〜19 表示デバイス、21 回転ミラー、22 像信号、23 映像制御情報、24,25 映像タイトル、26 記録媒体、146 ADコンバータ、147 動き検出回路、148 DCT変換回路、149 適応量子化回路、150 逆量子化回路、151 可変長符号化回路、152 DCT逆変換回路、153 フレームメモリ、154 バッファメモリ、155 OSDエンコーダ、156 音声エンコーダ、157 フォーマットエンコーダ、158 変調回路、159 LD変調回路、160 アドレスヘッダ認識回路、161 再生アンプ、162 サーボ回路、163 送りモータ、164 光ヘッド、165 光ディスク、166 回転モータ、167 システムコントローラ、191A 視差情報演算回路、191B 逆視差演算処理回路、191C 奥行き方向動き検出回路、191D 推定視差情報生成回路、191E DCT変換回路、191F 適応量子化回路、191G 可変長符号化回路、222 復調訂正回路、223 アドレスヘッダ認識回路、224 インターフェイス回路、225 データバッファ、226,236 システムデコーダ、227,237 MPEG・H264デコーダ、228 オーディオデコーダ、229 OSDデコーダ、229A OSD奥行き生成回路、229B ブレンディング回路、230 3D映像処理回路、231 汎用IF、232,233 専用IF、234 バッファ、235 システムデコーダ、238 視差情報生成回路、239 動きベクトル生成回路、240 視差情報演算回路、241 左目映像再現回路、242,244 視差情報に基づく合成処理回路、243 左目映像再現回路、245 ユーザインターフェイス、245A OSDバー、246 視差情報係数変更部、247 視差情報抽出部、248 右目映像視差変換回路、249 左目映像視差変換回路、250 スタジオ録音時の音源、251 仮想人間、252 マイク、253 伝達関数、254 ディスク、255 逆システム、256 スピーカ、257 ユーザ、258 サラウンド用マイク、259 伝達関数、260 仮想的な音源、261 奥行き方向の音源位置、262 映像および音声等の制御情報、263 右目映像、264 左目映像、265 2D再生用音声情報、266 3D再生用音声情報、267 OSD情報、268 音像制御情報、269 飛び出しオフセット、270 プレイアイテムテーブル、271 ディスク、272 プレイアイテムデータサイズ、273 クリップ情報ファイル名、274 マルチアングル有無、275 アングル数、276 接続状態、277 INタイム、278 OUTタイム、279 ユーザ操作マスクテーブル、280 ランダムアクセスフラグ、281 スチルモード、282 ストリームリスト、283 映像ストリーム情報、284 音声ストリーム情報、285 テキストサブタイトルストリーム情報、286 グラフィックスストリーム情報、287 ストリームタイプ、288 コーディングタイプ、289 映像フォーマット、290 フレームレート、291 ストリームタイプ、292 コーディングタイプ、293 音声タイプ、294 サンプリング周波数、295 言語コード、296 立体音声フラグ、297 データサイズ、298 論理アドレス、299 タイムコード、300 配置情報、301 音像可変量、302 有効地域、303 パレンタルレベル、304 同期情報、305 暗号情報、306 ストリームタイプ、307 コーディングタイプ、308 文字コード、309 言語コード、310 ストリームタイプ、311 コーディングタイプ、312 言語コード、313 クリップ情報ファイル、314 クリップ情報データサイズ、315 クリップストリームタイプ、316 アプリケーションタイプ、317 データレート、318 パケット数、319 TSタイプ情報、320 ディスク、321 システムデコーダ、322 MPEG/H.264デコーダ、323 オーディオデコーダ、324 差分デコード処理部、325 音像定位制御部、326 HDMI情報伝送部、327 光出力部、328 3D視聴用TV、329 AVアンプ、330 基準OSD情報に対し奥行き方向のオフセット量を記載する方法、331 OSD情報自体を立体データとして持つ方法、332 顔検知および飛び出し量抽出部、333 顔検知部、334 OSDデコーダ、335 映像・OSD合成部。

Claims (40)

  1. 視差映像を利用した左目映像と右目映像とからなる立体映像とサラウンド音声情報とを記録媒体に記録する立体映像および音声記録媒体であって、
    立体映像を含む映像コンテンツは、フレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを有するディジタル映像情報により構成されるとともに、
    前記映像コンテンツは、前記ディジタル映像情報においては左目映像もしくは右目映像の片方のみで構成される平面映像と、左目映像右目映像の両方を用いる立体映像とが混在し、
    前記立体映像の立体映像情報に関連するサラウンド音声情報において、平面視聴用のサラウンド音声記録領域に加え、コンテンツ制作時における視聴者と立体映像内の音源部分との空間位置関係を、あらかじめ録音された音源の音声信号からコンピュータを用いて変換することにより前記コンテンツ再生時において再現する立体視聴用のサラウンド音声を、立体映像内の音源部分の飛び出し量に応じて複数記録する立体サラウンド音声記録領域を有することを特徴とする、立体映像および音声記録媒体。
  2. 前記映像コンテンツは、前記ディジタル映像情報の単位又は前記ディジタル映像情報の整数倍の単位で、平面映像の情報と立体映像の情報とが混在し、且つ立体映像の前記右目映像と立体映像の前記左目映像とが交互に配置され、
    前記右目映像と前記左目映像とのいずれか一方が平面映像であり、立体映像視聴に必要となる残り一方の映像情報が、片側の目の平面映像の情報と、当該片側の目の平面映像の情報と当該片側の目とは反対側の目の平面映像の情報との差分情報からなる立体映像を生成するための情報との両方を用いて視聴時に生成される、もう片方の目の映像情報であり、
    前記右目映像と前記左目映像に関連する前記サラウンド音声信号群も合わせて配置されるように記録することを特徴とする請求項1に記載の立体映像および音声記録媒体。
  3. 前記映像コンテンツは、前記ディジタル映像情報の単位又は前記ディジタル映像情報の整数倍の単位で平面映像の情報と立体映像と音声の情報とが混在するとともに、
    前記映像および音声情報記録領域とは別の情報記録領域に前記立体映像情報に関連する映像および音声情報の付帯情報が記載される領域があり、本付帯情報領域において、立体視聴専用の音声情報である事を示すフラグ、立体視聴専用の音声情報のファイルサイズ、再生時間情報、オーディオ圧縮フォーマットの種別、対応する映像との同期情報、再生可否を示す地域コードを記載することを特徴とする請求項1または2に記載の立体映像および音声記録媒体。
  4. 前記映像コンテンツは、前記ディジタル映像情報の単位又は前記ディジタル映像情報の整数倍の単位で平面映像の情報と立体映像と音声の情報とが混在するとともに、
    前記映像および音声情報記録領域とは別の情報記録領域に前記立体映像情報に関連する映像および音声情報の付帯情報が記載される領域があり、前記音声情報の付帯情報が記載される領域において、前記サラウンド音声視聴時における画面からの奥行きないし飛び出し方向の音像定位の音像可変量の大小を記載することを特徴とする請求項1から3のいずれかに記載の立体映像および音声記録媒体。
  5. 前記映像コンテンツは、前記ディジタル映像情報の単位又は前記ディジタル映像情報の整数倍の単位で平面映像の情報と立体映像と音声の情報とが混在するとともに、
    前記映像および音声情報記録領域とは別の情報記録領域に前記立体映像情報に関連する映像および音声情報の付帯情報が記載される領域があり、前記音声情報の付帯情報が記載される領域において、前記サラウンド音声視聴時における視聴安全性を確保するためのパレンタルレベルが記載されていることを特徴とする請求項1から4のいずれかに記載の立体映像および音声記録媒体。
  6. 前記サラウンド音声視聴時における視聴安全性を確保するためのパレンタルレベルが、立体映像のパレンタルレベルと立体映像視聴時の音声情報のパレンタルレベルの2つの情報を含むことを特徴とする請求項5に記載の立体映像および音声記録媒体。
  7. 前記サラウンド音声視聴時における視聴安全性を確保するためのパレンタルレベルが、立体映像のパレンタルレベルと立体映像視聴時の音声情報のパレンタルレベルの2つの情報を含む場合、安全から危険までにいたるパレンタルレベルにおいて、映像と音声の両方における最も危険側のレベルを、本コンテンツ選択時の映像および音声全体のパレンタルレベルとすることを特徴とする請求項6に記載の立体映像および音声記録媒体。
  8. 前記音声情報の付帯情報が記載される領域において、メディア上の配置情報をGOP単位に記述したGOPテーブル情報を有し、
    データアクセス時に時間情報を有する前記映像および音声情報から前記GOPテーブルをアクセスすることで、実際のメディア上のデータを取得することを特徴とする請求項3から7のいずれかに記載の立体映像および音声記録媒体。
  9. 視差映像を利用した左目映像と右目映像とからなる立体映像とサラウンド音声情報とを記録媒体に記録する立体映像および音声記録方法であって、
    立体映像を含む映像コンテンツは、フレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを有するディジタル映像情報により構成されるとともに、
    前記映像コンテンツは、前記ディジタル映像情報においては左目映像もしくは右目映像の片方のみで構成される平面映像と、左目映像もしくは右目映像の両方を用いる立体映像とが混在し、
    前記立体映像の立体映像情報に関連するサラウンド音声情報において、平面視聴用のサラウンド音声に加え、コンテンツ制作時における視聴者と立体映像内の音源部分との空間位置関係を、あらかじめ録音された音源の音声信号からコンピュータを用いて変換することにより前記コンテンツ再生時において再現する立体視聴用のサラウンド音声を、立体映像内の音源の飛び出し量に応じて複数記録することを特徴とする、立体映像および音声記録方法
  10. 視差映像を利用した左目映像と右目映像とからなる立体映像とサラウンド音声情報とを記録媒体に記録する立体映像および音声記録方法であって、
    立体映像を含む映像コンテンツは、フレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを有するディジタル映像情報により構成されるとともに、
    前記映像コンテンツは、前記ディジタル映像情報においては左目映像もしくは右目映像の片方のみで構成される平面映像と、左目映像もしくは右目映像の両方を用いる立体映像とが混在し、
    前記映像情報に関連したOSD情報を設定するとともに、前記OSD情報においてはOSDの立体方向位置を特定するための情報も追記され、前記OSD表示の立体方向位置に連動した前記立体視聴用のサラウンド音声の音像定位可変情報を抽出し、前記立体映像情報および音声情報に加え、音像定位可変情報を付加させることを特徴とする立体映像および音声記録方法
  11. 視差映像を利用した左目映像と右目映像とからなる立体映像とサラウンド音声情報とを記録媒体に記録する立体映像および音声記録方法であって、
    立体映像を含む映像コンテンツは、フレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを有するディジタル映像情報により構成されるとともに、
    前記映像コンテンツは、前記ディジタル映像情報においては左目映像もしくは右目映像の片方のみで構成される平面映像と、左目映像もしくは右目映像の両方を用いる立体映像とが混在し、
    前記映像情報に人間の顔が描写されている場合において、左目映像と右目映像の顔検知し、左右の顔検知情報から演算された顔の画面からの奥行きないし飛び出し方向の顔の位置情報を抽出し、前記顔の位置情報に基づき前記サラウンド音声における画面からの奥行きないし飛び出し方向の音像定位可変量を抽出することで、前記立体映像情報および音声情報に加え、音像定位可変情報を付加させることを特徴とする立体映像および音声記録方法
  12. 前記映像情報に人間の顔が描写されている場合において、前記飛び出し方向の顔の位置情報が、前記顔検知する場合における口の位置検出に基づくことを特徴とする請求項11に記載の立体映像および音声記録方法。
  13. あらかじめ記録された前記立体映像視聴用の音声情報もしくは前記音像定位を可変させる付帯情報に基づく立体映像視聴用の音声情報を視聴する際、前記立体映像視聴用の音声情報におけるパレンタルレベル設定情報と、前記立体映像のパレンタルレベル設定情報との両方における最も危険側のレベルを、本コンテンツ選択時の映像および音声全体のパレンタルレベルとして付帯情報に記述することにより、当該コンテンツの視聴制限することを可能とする請求項9から12のいずれかに記載の立体映像および音声記録方法。
  14. 前記音像定位を可変させる付帯情報に基づく立体映像視聴用の音声情報を再記録する際、音像定位を変化させる前記付帯情報に所定の係数を乗じることで、音像定位の変化量を強めたり弱めたりしたものを記録することを特徴とする請求項9から13のいずれかに記載の立体映像および音声記録方法。
  15. 前記音像定位を可変させる付帯情報に基づく立体映像視聴用の音声情報を再記録する際、前記音像定位の変化量を強めたり弱めたりしたものを記録すると同時に、パレンタルレベル設定も変更することを特徴とする請求項14に記載の立体映像および音声記録方法。
  16. 前記映像コンテンツは、前記ディジタル映像情報の単位又は前記ディジタル映像情報の整数倍の単位で平面映像の情報と立体映像の情報とが混在し、且つ立体映像の前記右目映像と立体映像の前記左目映像とが交互に配置され、前記右目映像と前記左目映像とのいずれか一方が平面映像であり、立体映像視聴に必要となる残り一方の映像情報が、片側の目の平面映像の情報と、当該片側の目の平面映像の情報と当該片側の目とは反対側の目の平面映像の情報との差分情報からなる立体映像を生成するための情報との両方を用いて視聴時に生成される、もう片方の目の映像情報であり、
    前記右目映像と前記左目映像に関連する前記サラウンド音声信号群も合わせて配置されるように前記記録媒体に記録することを特徴とする請求項9から15のいずれかに記載の立体映像および音声記録方法。
  17. 視差映像を利用した左目映像と右目映像とからなる立体映像とサラウンド音声情報とが記録された記録媒体から再生する立体映像および音声再生方法であって、
    立体映像を含む映像コンテンツは、フレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを有するディジタル映像情報により構成されるとともに、
    前記映像コンテンツは、前記ディジタル映像情報においては左目映像もしくは右目映像の片方のみで構成される平面映像と、左目映像もしくは右目映像の両方を用いる立体映像とが混在し、
    前記立体映像の立体映像情報に関連するサラウンド音声情報において、平面映像視聴用のサラウンド音声データと、コンテンツ制作時における視聴者と立体映像内の音源部分との空間位置関係を、あらかじめ録音された音源の音声信号からコンピュータを用いて変換することにより前記コンテンツ再生時に再現する立体視聴用のサラウンド音声において、立体映像内の音源の奥行き方向や飛び出し方向の変移量の大きさや奥行き方向や飛び出し方向の音源の移動速度を緩和した複数の立体視聴用のサラウンド音声とを合わせて有し、いずれかを選択することを特徴とする立体映像および音声再生方法
  18. 前記映像コンテンツは、前記ディジタル映像情報の単位又は前記ディジタル映像情報の整数倍の単位で平面映像の情報と立体映像の情報とが混在し、且つ立体映像の前記右目映像と立体映像の前記左目映像とが交互に配置され、前記右目映像と前記左目映像とのいずれか一方が平面映像であり、立体映像視聴に必要となる残り一方の映像情報が、片側の目の平面映像の情報と、当該片側の目の平面映像の情報と当該片側の目とは反対側の目の平面映像の情報との差分情報からなる立体映像を生成するための情報との両方を用いて視聴時に生成される、もう片方の目の映像情報であり、
    前記右目映像と立体映像の前記左目映像に関連する前記サラウンド音声信号群も配置されるように前記記録媒体に記録し、再生することを特徴とする請求項17に記載の立体映像および音声再生方法
  19. 視差映像を利用した左目映像と右目映像とからなる立体映像とサラウンド音声情報とが記録された記録媒体から再生する立体映像および音声再生方法であって、
    立体映像を含む映像コンテンツは、フレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを有するディジタル映像情報により構成されるとともに、
    前記映像コンテンツは、前記ディジタル映像情報においては左目映像もしくは右目映像の片方のみで構成される平面映像と、左目映像もしくは右目映像の両方を用いる立体映像とが混在し、
    前記映像情報に関連したOSD情報を設定するとともに、前記OSD情報においてはOSDの立体方向位置を特定するための情報も追記され、前記OSD表示の立体方向位置に連動して前記立体視聴用のサラウンド音声における画面からの奥行きないし飛び出し方向の音像定位を可変させることを特徴とする立体映像および音声再生方法
  20. 視差映像を利用した左目映像と右目映像とからなる立体映像とサラウンド音声情報とが記録された記録媒体から再生する立体映像および音声再生方法であって、
    立体映像を含む映像コンテンツは、フレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを有するディジタル映像情報により構成されるとともに、
    前記映像コンテンツは、前記ディジタル映像情報においては左目映像もしくは右目映像の片方のみで構成される平面映像と、左目映像もしくは右目映像の両方を用いる立体映像とが混在し、
    前記映像情報に人間の顔が描写されている場合において、左目映像と右目映像の顔検知し、左右の顔検知情報から演算された顔の画面からの奥行きないし飛び出し方向の顔の位置情報を抽出し、前記顔の位置情報に基づき前記サラウンド音声における画面からの奥行きないし飛び出し方向の音像定位を可変させることを特徴とする立体映像および音声再生方法
  21. 前記映像情報に人間の顔が描写されている場合において、前記飛び出し方向の顔の位置情報が、前記顔検知する場合における口の位置検出に基づくことを特徴とする請求項20に記載の立体映像および音声再生方法
  22. あらかじめ記録された前記立体映像視聴用の音声情報もしくは前記音像定位を可変させる付帯情報に基づく立体映像視聴用の音声情報を視聴する際、前記立体映像視聴用の音声情報におけるパレンタルレベル設定情報と、前記立体映像のパレンタルレベル設定情報との両方における最も危険側のレベルを、本コンテンツ選択時の映像および音声全体のパレンタルレベルとして視聴制限することを可能とする請求項17から21のいずれかに記載の立体映像および音声再生方法。
  23. あらかじめ記録された前記立体映像視聴用の音声情報もしくは前記音像定位を可変させる付帯情報に基づく立体映像視聴用の音声情報を視聴する際に設定される前記パレンタルレベルを、映像の飛び出し量を可変したり前記音声の音像定位の強弱を可変することで、映像、音声の安全性の変化に応じ、前記パレンタルレベル設定を変更することを可能とする請求項22に記載の立体映像および音声再生方法。
  24. 前記映像コンテンツは、前記ディジタル映像情報の単位又は前記ディジタル映像情報の整数倍の単位で平面映像の情報と立体映像の情報とが混在し、且つ立体映像の前記右目映像と立体映像の前記左目映像とが交互に配置され、前記右目映像と前記左目映像とのいずれか一方が平面映像であり、立体映像視聴に必要となる残り一方の映像情報が、片側の目の平面映像の情報と、当該片側の目の平面映像の情報と当該片側の目とは反対側の目の平面映像の情報との差分情報からなる立体映像を生成するための情報との両方を用いて視聴時に生成される、もう片方の目の映像情報であり、
    前記右目映像と立体映像の前記左目映像に関連する前記サラウンド音声信号群も配置された映像および音声情報を再生することを特徴とする請求項17から23のいずれかに記載の立体映像および音声再生方法。
  25. 記録媒体より立体映像および音声のデータを読み出す読取装置、読取装置で読み出した映像音声データ等のストリームを分離するためのシステムデコーダ、分離されたデータのうちの映像データをデコードする映像信号デコーダ、分離されたデータのうちの音声データをデコードする音声信号デコーダ、を有する視差映像を利用した左目映像と右目映像とからなる立体映像とサラウンド音声情報とが記録された記録媒体から立体映像および音声を再生する立体映像および音声再生装置であって、
    立体映像を含む映像コンテンツは、フレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを有するディジタル映像情報により構成されるとともに、
    前記映像コンテンツは、前記ディジタル映像情報においては左目映像もしくは右目映像の片方のみで構成される平面映像と、左目映像もしくは右目映像の両方を用いる立体映像とが混在し、
    前記立体映像の立体映像情報に関連するサラウンド音声情報において、平面映像視聴用のサラウンド音声の記録領域と、コンテンツ制作時における視聴者と立体映像内の音源部分との空間位置関係を、あらかじめ録音された音源の音声信号からコンピュータを用いて変換することにより前記コンテンツ再生時において再現する立体視聴用のサラウンド音声を、立体映像内の音源部分の飛び出し量に応じて複数記録された立体サラウンド音声の記録領域とを有し、再生時には前記立体映像のデータおよび選択された音声信号のデータを前記読取装置を使って読み出し、読み出したデータを前記システムデコーダで分離し、分離されたデータのうちの映像データを前記映像信号デコーダでデコードし、分離されたデータのうちの音声信号データを前記音声信号デコーダでデコードして、再生することを特徴とする立体映像および音声再生装置
  26. 記録媒体より立体映像および音声のデータを読み出す読取装置、読取装置で読み出した映像音声データ等のストリームを分離するためのシステムデコーダ、分離されたデータのうちの映像データをデコードする映像信号デコーダ、分離されたデータのうちの音声データをデコードする音声信号デコーダ、を有する視差映像を利用した左目映像と右目映像とからなる立体映像とサラウンド音声情報とが記録された記録媒体から再生する立体映像および音声再生装置であって、
    立体映像を含む映像コンテンツは、フレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを有するディジタル映像情報により構成されるとともに、
    前記映像コンテンツは、前記ディジタル映像情報においては左目映像もしくは右目映像の片方のみで構成される平面映像と、左目映像もしくは右目映像の両方を用いる立体映像とが混在し、
    前記映像情報に関連したOSD情報を配置するとともに、前記OSD情報においてはOSDの立体方向位置を特定するための情報も追記され、前記立体映像の立体映像情報に関連するサラウンド音声再生時において前記OSD表示の立体方向位置抽出手段と、前記OSD表示の立体方向位置に連動して前記立体視聴用のサラウンド音声における画面からの奥行きないし飛び出し方向の音像定位を可変させる音像定位可変手段を有することを特徴とする立体映像および音声再生装置
  27. 記録媒体より立体映像および音声のデータを読み出す読取装置、読取装置で読み出した映像音声データ等のストリームを分離するためのシステムデコーダ、分離されたデータのうちの映像データをデコードする映像信号デコーダ、分離されたデータのうちの音声データをデコードする音声信号デコーダ、を有する視差映像を利用した左目映像と右目映像とからなる立体映像とサラウンド音声情報とが記録された記録媒体から再生する立体映像および音声再生装置であって、
    立体映像を含む映像コンテンツは、フレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを有するディジタル映像情報により構成されるとともに、
    前記映像コンテンツは、前記ディジタル映像情報においては左目映像もしくは右目映像の片方のみで構成される平面映像と、左目映像もしくは右目映像の両方を用いる立体映像とが混在し、
    前記映像情報に人間の顔が描写されている場合において、左目映像と右目映像の顔検知手段と、左右の顔検知情報から演算された顔の画面からの奥行きないし飛び出し方向の顔の位置情報を抽出手段と、前記顔の位置情報に基づき前記サラウンド音声における画面からの奥行きないし飛び出し方向の音像定位を可変させる音像定位可変手段とを有することを特徴とする立体映像および音声再生装置
  28. 前記映像情報に人間の顔が描写されている場合において、前記飛び出し方向の顔の位置情報抽出手段が、前記顔検知手段における口の位置検出に基づくことを特徴とする請求項27に記載の立体映像および音声再生装置
  29. 前記音像定位を可変させる付帯情報に基づく立体映像視聴用の音声情報を視聴もしくはOSDの立体方向位置に連動した音像定位可変もしくは顔検知情報に基づく音像定位可変を行う際、音像定位を変化させる前記付帯情報に所定の係数を乗じることで、音像定位の変化量を強めたり弱めたりすることを特徴とする請求項26から28のいずれかに記載の立体映像および音声再生装置
  30. あらかじめ記録された前記立体映像視聴用の音声情報もしくは前記音像定位を可変させる付帯情報に基づく立体映像視聴用の音声情報を視聴する際、前記立体映像視聴用の音声情報におけるパレンタルレベル設定情報と、前記立体映像のパレンタルレベル設定情報との両方における最も危険側のレベルを、本コンテンツ選択時の映像および音声全体のパレンタルレベルとして視聴制限することを可能とする請求項25から29のいずれかに記載の立体映像および音声再生装置
  31. あらかじめ記録された前記立体映像視聴用の音声情報もしくは前記音像定位を可変させる付帯情報に基づく立体映像視聴用の音声情報を視聴する際に設定される前記パレンタルレベルを、映像の飛び出し量を可変したり前記音声の音像定位の強弱を可変することで、映像、音声の安全性の変化に応じ、前記パレンタルレベル設定を変更することを可能とする請求項30に記載の立体映像および音声再生装置
  32. 前記映像コンテンツは、前記ディジタル映像情報の単位又は前記ディジタル映像情報の整数倍の単位で平面映像の情報と立体映像の情報とが混在し、且つ立体映像の前記右目映像と立体映像の前記左目映像とが交互に配置され、前記右目映像と前記左目映像とのいずれか一方が平面映像であり、立体映像視聴に必要となる残り一方の映像情報が、片側の目の平面映像の情報と、当該片側の目の平面映像の情報と当該片側の目とは反対側の目の平面映像の情報との差分情報からなる立体映像を生成するための情報との両方を用いて視聴時に生成される、もう片方の目の映像情報であり、
    前記右目映像と立体映像の前記左目映像に関連する前記サラウンド音声信号群も配置された立体映像および音声記録媒体より、立体映像および前記サラウンド音声信号群の中から選択されたサラウンド音声信号を前記読取装置を使って読み出し、読み出したデータを前記システムデコーダで分離し、分離されたデータのうちの映像データを前記映像信号デコーダでデコードし、分離されたデータのうちの音声信号データを前記音声信号デコーダでデコードして、再生することを特徴とする請求項25から31のいずれかに記載の立体映像および音声再生装置。
  33. 映像データをエンコードする映像信号エンコーダ、音声データをエンコードする音声信号エンコーダ、記録媒体に記録するためのデータ形式に整えるフォーマットエンコーダ、前記ストリームを記録媒体に書き込む書込装置、を有する視差映像を利用した左目映像と右目映像とからなる立体映像とサラウンド音声情報とを記録媒体に記録する立体映像および音声記録装置であって、
    立体映像を含む映像コンテンツは、フレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを有するディジタル映像情報により構成されるとともに、
    前記映像コンテンツは、前記ディジタル映像情報においては左目映像もしくは右目映像の片方のみで構成される平面映像と、左目映像もしくは右目映像の両方を用いる立体映像とが混在し、
    前記立体映像の立体映像情報に関連するサラウンド音声情報において、平面映像視聴用のサラウンド音声の記録領域と、コンテンツ制作時における視聴者と立体映像内の音源部分との空間位置関係を、あらかじめ録音された音源の音声信号からコンピュータを用いて変換することにより前記コンテンツ再生時において再現する立体視聴用のサラウンド音声を、立体映像内の音源部分の飛び出し量に応じて複数記録する立体サラウンド音声記録領域を有し、
    前記平面映像および前記立体映像は前記映像信号エンコーダでエンコードし、平面映像視聴用のサラウンド音声および立体サラウンド音声はそれぞれ前記音声信号エンコーダでエンコードし、エンコードされた映像信号と音声信号は前記フォーマットエンコーダで記録媒体に記録する形式に整え、前記書込装置を使って各々記録され、その際に平面視聴用のサラウンド音声は前記平面視聴用のサラウンド音声用の記録領域に、立体サラウンド音声は前記立体サラウンド音声記録領域にそれぞれ記録されることを特徴とする、立体映像および音声記録装置
  34. 前記映像コンテンツは、前記ディジタル映像情報の単位又は前記ディジタル映像情報の整数倍の単位で、平面映像の情報と立体映像の情報とが混在し、且つ立体映像の前記右目映像と立体映像の前記左目映像とが交互に配置され、
    前記右目映像と前記左目映像とのいずれか一方が平面映像であり、立体映像視聴に必要となる残り一方の映像情報が、片側の目の平面映像の情報と、当該片側の目の平面映像の情報と当該片側の目とは反対側の目の平面映像の情報との差分情報からなる立体映像を生成するための情報との両方を用いて視聴時に生成される、もう片方の目の映像情報であり、
    前記右目映像と前記左目映像に関連する前記サラウンド音声信号群も合わせて配置されるように記録することを特徴とする請求項33に記載の立体映像および音声記録装置
  35. 前記映像コンテンツは、前記ディジタル映像情報の単位又は前記ディジタル映像情報の整数倍の単位で平面映像の情報と立体映像と音声の情報とが混在するとともに、
    前記映像および音声情報記録領域とは別の情報記録領域に前記立体映像情報に関連する映像および音声情報の付帯情報が記載される領域があり、本付帯情報領域において、立体視聴専用の音声情報である事を示すフラグ、立体視聴専用の音声情報のファイルサイズ、再生時間情報、オーディオ圧縮フォーマットの種別、対応する映像との同期情報、再生可否を示す地域コードを記載することを特徴とする請求項33または34のいずれかに記載の立体映像および音声記録装置
  36. 前記映像コンテンツは、前記ディジタル映像情報の単位又は前記ディジタル映像情報の整数倍の単位で平面映像の情報と立体映像と音声の情報とが混在するとともに、
    前記映像および音声情報記録領域とは別の情報記録領域に前記立体映像情報に関連する映像および音声情報の付帯情報が記載される領域があり、前記音声情報の付帯情報が記載される領域において、前記サラウンド音声視聴時における画面からの奥行きないし飛び出し方向の音像定位の音像可変量の大小を記載することを特徴とする請求項33から35のいずれかに記載の立体映像および音声記録装置
  37. 前記映像コンテンツは、前記ディジタル映像情報の単位又は前記ディジタル映像情報の整数倍の単位で平面映像の情報と立体映像と音声の情報とが混在するとともに、
    前記映像および音声情報記録領域とは別の情報記録領域に前記立体映像情報に関連する映像および音声情報の付帯情報が記載される領域があり、前記音声情報の付帯情報が記載される領域において、前記サラウンド音声視聴時における視聴安全性を確保するためのパレンタルレベルが記載されていることを特徴とする請求項33から36のいずれかに記載の立体映像および音声記録装置
  38. 前記サラウンド音声視聴時における視聴安全性を確保するためのパレンタルレベルが、立体映像のパレンタルレベルと立体映像視聴時の音声情報のパレンタルレベルの2つの情報を含むことを特徴とする請求項37に記載の立体映像および音声記録装置
  39. 前記サラウンド音声視聴時における視聴安全性を確保するためのパレンタルレベルが、立体映像のパレンタルレベルと立体映像視聴時の音声情報のパレンタルレベルの2つの情報を含む場合、安全から危険までにいたるパレンタルレベルにおいて、映像と音声の両方における最も危険側のレベルを、本コンテンツ選択時の映像および音声全体のパレンタルレベルとすることを特徴とする請求項38に記載の立体映像および音声記録装置
  40. 前記音声情報の付帯情報が記載される領域において、メディア上の配置情報をGOP単位に記述したGOPテーブル情報を有し、
    データアクセス時に時間情報を有する前記映像および音声情報から前記GOPテーブルをアクセスすることで、実際のメディア上のデータを取得することを特徴とする請求項35から39のいずれかに記載の立体映像および音声記録装置
JP2009107742A 2009-04-27 2009-04-27 立体映像および音声記録方法、立体映像および音声再生方法、立体映像および音声記録装置、立体映像および音声再生装置、立体映像および音声記録媒体 Expired - Fee Related JP5274359B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2009107742A JP5274359B2 (ja) 2009-04-27 2009-04-27 立体映像および音声記録方法、立体映像および音声再生方法、立体映像および音声記録装置、立体映像および音声再生装置、立体映像および音声記録媒体
US12/765,513 US9191645B2 (en) 2009-04-27 2010-04-22 Stereoscopic video and audio recording method, stereoscopic video and audio reproducing method, stereoscopic video and audio recording apparatus, stereoscopic video and audio reproducing apparatus, and stereoscopic video and audio recording medium
EP16160547.2A EP3059948B1 (en) 2009-04-27 2010-04-27 Stereoscopic video and audio recording method, stereoscopic video and audio reproducing method
EP10004447.8A EP2247116A3 (en) 2009-04-27 2010-04-27 Stereoscopic video and audio recording method, stereoscopic video and audio reproducing method, stereoscopic video and audio recording apparatus, stereoscopic video and audio reproducing apparatus, and stereoscopic video and audio recording medium
US14/882,257 US10523915B2 (en) 2009-04-27 2015-10-13 Stereoscopic video and audio recording method, stereoscopic video and audio reproducing method, stereoscopic video and audio recording apparatus, stereoscopic video and audio reproducing apparatus, and stereoscopic video and audio recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009107742A JP5274359B2 (ja) 2009-04-27 2009-04-27 立体映像および音声記録方法、立体映像および音声再生方法、立体映像および音声記録装置、立体映像および音声再生装置、立体映像および音声記録媒体

Publications (2)

Publication Number Publication Date
JP2010258872A JP2010258872A (ja) 2010-11-11
JP5274359B2 true JP5274359B2 (ja) 2013-08-28

Family

ID=42320911

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009107742A Expired - Fee Related JP5274359B2 (ja) 2009-04-27 2009-04-27 立体映像および音声記録方法、立体映像および音声再生方法、立体映像および音声記録装置、立体映像および音声再生装置、立体映像および音声記録媒体

Country Status (3)

Country Link
US (2) US9191645B2 (ja)
EP (2) EP2247116A3 (ja)
JP (1) JP5274359B2 (ja)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100955578B1 (ko) * 2007-12-18 2010-04-30 한국전자통신연구원 스테레오스코픽 콘텐츠 장면 재생 방법 및 그 장치
WO2011118215A1 (ja) * 2010-03-24 2011-09-29 パナソニック株式会社 映像処理装置
JP5672741B2 (ja) * 2010-03-31 2015-02-18 ソニー株式会社 信号処理装置および方法、並びにプログラム
KR101717787B1 (ko) * 2010-04-29 2017-03-17 엘지전자 주식회사 디스플레이장치 및 그의 음성신호 출력 방법
KR101764175B1 (ko) 2010-05-04 2017-08-14 삼성전자주식회사 입체 음향 재생 방법 및 장치
US9053562B1 (en) * 2010-06-24 2015-06-09 Gregory S. Rabin Two dimensional to three dimensional moving image converter
JP5573426B2 (ja) * 2010-06-30 2014-08-20 ソニー株式会社 音声処理装置、音声処理方法、およびプログラム
US9699438B2 (en) * 2010-07-02 2017-07-04 Disney Enterprises, Inc. 3D graphic insertion for live action stereoscopic video
JP2012053165A (ja) * 2010-08-31 2012-03-15 Sony Corp 情報処理装置、プログラムおよび情報処理方法
JP5668385B2 (ja) * 2010-09-17 2015-02-12 ソニー株式会社 情報処理装置、プログラムおよび情報処理方法
KR101640404B1 (ko) * 2010-09-20 2016-07-18 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
WO2012037713A1 (en) * 2010-09-20 2012-03-29 Mediatek Singapore Pte. Ltd. Method for performing display management regarding three-dimensional video stream, and associated video display system
US8693687B2 (en) * 2010-10-03 2014-04-08 Himax Media Solutions, Inc. Method and apparatus of processing three-dimensional video content
KR101896570B1 (ko) * 2010-11-18 2018-09-11 엘지전자 주식회사 입체 동영상에 동기화된 입체 음향을 생성할 수 있는 전자 기기
EP2464127B1 (en) * 2010-11-18 2015-10-21 LG Electronics Inc. Electronic device generating stereo sound synchronized with stereoscopic moving picture
JP5786315B2 (ja) * 2010-11-24 2015-09-30 セイコーエプソン株式会社 表示装置、表示装置の制御方法、及び、プログラム
JP5699566B2 (ja) 2010-11-29 2015-04-15 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
KR101831775B1 (ko) 2010-12-07 2018-02-26 삼성전자주식회사 멀티미디어 컨텐츠를 송수신하는 송신 장치 및 수신 장치와, 그 재생 방법
WO2012077981A2 (ko) 2010-12-07 2012-06-14 삼성전자 주식회사 컨텐츠를 구성하는 데이터를 송신하는 송신 장치와 그 데이터를 수신하여 처리하는 수신 장치 및 그 방법
JP5741076B2 (ja) 2010-12-09 2015-07-01 ソニー株式会社 画像処理装置及び画像処理方法
JP4989760B2 (ja) * 2010-12-21 2012-08-01 株式会社東芝 送信装置、受信装置および伝送システム
JP2012147160A (ja) * 2011-01-11 2012-08-02 Nec Personal Computers Ltd 立体画像処理装置
KR101814798B1 (ko) * 2011-01-26 2018-01-04 삼성전자주식회사 입체영상 처리 장치 및 방법
JP5075996B2 (ja) * 2011-02-23 2012-11-21 株式会社東芝 映像表示方法および映像表示装置
JP5776223B2 (ja) * 2011-03-02 2015-09-09 ソニー株式会社 音像制御装置および音像制御方法
JP2012199784A (ja) * 2011-03-22 2012-10-18 Mitsubishi Electric Corp 音響再生装置
JP2012213070A (ja) * 2011-03-31 2012-11-01 Toshiba Corp 映像信号生成装置、映像信号生成方法及び制御プログラム
CN103493513B (zh) 2011-04-18 2015-09-09 杜比实验室特许公司 用于将音频上混以便产生3d音频的方法和系统
JP5159911B2 (ja) * 2011-04-19 2013-03-13 株式会社東芝 再生装置、再生方法、およびプログラム
JP2013016116A (ja) * 2011-07-06 2013-01-24 Sony Corp 情報処理装置、画像表示装置、および情報処理方法
JP5679578B2 (ja) * 2011-08-05 2015-03-04 株式会社ソニー・コンピュータエンタテインメント 画像処理装置
US9418436B2 (en) * 2012-01-27 2016-08-16 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus, imaging apparatus, and image processing method
JP2013157961A (ja) * 2012-01-31 2013-08-15 Toshiba Corp 映像出力装置、映像出力方法、映像出力装置の制御プログラム
JP2013165331A (ja) * 2012-02-09 2013-08-22 Panasonic Corp 3d映像再生装置
KR101981813B1 (ko) 2012-02-16 2019-08-28 소니 주식회사 송신 장치, 송신 방법 및 수신 장치
JP6307213B2 (ja) * 2012-05-14 2018-04-04 サターン ライセンシング エルエルシーSaturn Licensing LLC 画像処理装置、画像処理方法およびプログラム
US9648299B2 (en) * 2013-01-04 2017-05-09 Qualcomm Incorporated Indication of presence of texture and depth views in tracks for multiview coding plus depth
TW201429228A (zh) * 2013-01-14 2014-07-16 Hon Hai Prec Ind Co Ltd 影片傳輸系統及方法
US20140212115A1 (en) * 2013-01-31 2014-07-31 Hewlett Packard Development Company, L.P. Optical disc with three-dimensional viewing depth
US10283013B2 (en) * 2013-05-13 2019-05-07 Mango IP Holdings, LLC System and method for language learning through film
JP6168453B2 (ja) * 2013-09-19 2017-07-26 パナソニックIpマネジメント株式会社 信号記録装置、カメラレコーダおよび信号処理装置
US9888333B2 (en) * 2013-11-11 2018-02-06 Google Technology Holdings LLC Three-dimensional audio rendering techniques
US9986225B2 (en) * 2014-02-14 2018-05-29 Autodesk, Inc. Techniques for cut-away stereo content in a stereoscopic display
US10659755B2 (en) * 2015-08-03 2020-05-19 Sony Corporation Information processing device, information processing method, and program
WO2017045077A1 (en) * 2015-09-16 2017-03-23 Rising Sun Productions Limited System and method for reproducing three-dimensional audio with a selectable perspective
US10225351B2 (en) * 2015-12-14 2019-03-05 Facebook, Inc. Intersession communications
US10616551B2 (en) * 2017-01-27 2020-04-07 OrbViu Inc. Method and system for constructing view from multiple video streams
JP2018137505A (ja) * 2017-02-20 2018-08-30 セイコーエプソン株式会社 表示装置およびその制御方法
CN109819313B (zh) * 2019-01-10 2021-01-08 腾讯科技(深圳)有限公司 视频处理方法、装置及存储介质

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62236294A (ja) * 1986-04-08 1987-10-16 Hitachi Ltd 3次元画像信号記録装置
JPS63122897A (ja) 1986-11-11 1988-05-26 石川島建材工業株式会社 コンクリ−トセグメントの連結方法
JPH06105400A (ja) 1992-09-17 1994-04-15 Olympus Optical Co Ltd 3次元空間再現システム
JP3309443B2 (ja) * 1992-10-28 2002-07-29 ソニー株式会社 眼鏡型ビューワー
JP3777202B2 (ja) 1994-08-15 2006-05-24 株式会社リコー 情報記録再生装置
US6009433A (en) * 1995-04-14 1999-12-28 Kabushiki Kaisha Toshiba Information storage and information transmission media with parental control
JPH0946630A (ja) 1995-07-28 1997-02-14 Matsushita Electric Ind Co Ltd 画像情報記録装置及び画像情報再生装置及び光ディスク
TW436777B (en) 1995-09-29 2001-05-28 Matsushita Electric Ind Co Ltd A method and an apparatus for reproducing bitstream having non-sequential system clock data seamlessly therebetween
EP2259586B1 (en) * 1996-02-28 2013-12-11 Panasonic Corporation High-resolution optical disk for recording stereoscopic video, optical disk reproducing device and optical disk recording device
JP2857121B2 (ja) 1996-04-11 1999-02-10 株式会社東芝 パレンタル制御を採用した情報保持・情報伝達媒体
CA2208950A1 (en) * 1996-07-03 1998-01-03 Xuemin Chen Rate control for stereoscopic digital video encoding
EP2180717B1 (en) 1996-12-04 2012-11-14 Panasonic Corporation Optical disk for high resolution and three-dimensional video recording, optical disk reproduction apparatus, and optical disk recording apparatus
JPH10191393A (ja) 1996-12-24 1998-07-21 Sharp Corp 多視点画像符号化装置
JPH10243419A (ja) * 1997-02-26 1998-09-11 Toshiba Corp 立体視画像符号化・復号化方法及び装置
JPH1191895A (ja) 1997-09-22 1999-04-06 Tokico Ltd 積込制御装置
JP3511571B2 (ja) 1998-03-13 2004-03-29 松下電器産業株式会社 光ディスク媒体および記録装置
JPH11289555A (ja) 1998-04-02 1999-10-19 Toshiba Corp 立体映像表示装置
JP3162053B1 (ja) 1999-07-09 2001-04-25 松下電器産業株式会社 光ディスク、その記録装置、再生装置、記録方法および再生方法
JP4369604B2 (ja) 1999-09-20 2009-11-25 パナソニック株式会社 シームレス再生に適した光ディスク記録装置、再生装置及び記録方法
US6829018B2 (en) * 2001-09-17 2004-12-07 Koninklijke Philips Electronics N.V. Three-dimensional sound creation assisted by visual information
JP2003132624A (ja) 2001-10-24 2003-05-09 Matsushita Electric Ind Co Ltd 記録媒体及びその記録装置
JP3673217B2 (ja) * 2001-12-20 2005-07-20 オリンパス株式会社 映像表示装置
US8046792B2 (en) * 2002-03-20 2011-10-25 Tvworks, Llc Multi-channel audio enhancement for television
EP1501316A4 (en) 2002-04-25 2009-01-21 Sharp Kk METHOD FOR GENERATING MULTIMEDIA INFORMATION, AND DEVICE FOR REPRODUCING MULTIMEDIA INFORMATION
JP3992533B2 (ja) 2002-04-25 2007-10-17 シャープ株式会社 立体視を可能とする立体動画像用のデータ復号装置
KR20040000290A (ko) * 2002-06-24 2004-01-03 엘지전자 주식회사 고밀도 광디스크의 멀티 경로 데이터 스트림 관리방법
JP4222817B2 (ja) * 2002-09-27 2009-02-12 シャープ株式会社 立体画像表示装置、記録方法、及び伝送方法
JP4188968B2 (ja) * 2003-01-20 2008-12-03 三洋電機株式会社 立体視用映像提供方法及び立体映像表示装置
JP4324435B2 (ja) 2003-04-18 2009-09-02 三洋電機株式会社 立体視用映像提供方法及び立体映像表示装置
KR100565058B1 (ko) * 2003-08-22 2006-03-30 삼성전자주식회사 최적의 디스플레이 환경을 설정하는 dvd 플레이어 및그 동작 방법
JP2005094168A (ja) * 2003-09-12 2005-04-07 Sharp Corp ファイル構造及びそれを用いる画像記録装置並びに画像再生装置
JP2005202037A (ja) * 2004-01-14 2005-07-28 Fuji Photo Film Co Ltd 立体カメラ
US7369100B2 (en) * 2004-03-04 2008-05-06 Eastman Kodak Company Display system and method with multi-person presentation function
JP2006128816A (ja) 2004-10-26 2006-05-18 Victor Co Of Japan Ltd 立体映像・立体音響対応記録プログラム、再生プログラム、記録装置、再生装置及び記録メディア
JP2006128818A (ja) * 2004-10-26 2006-05-18 Victor Co Of Japan Ltd 立体映像・立体音響対応記録プログラム、再生プログラム、記録装置、再生装置及び記録メディア
US8009188B2 (en) * 2005-02-28 2011-08-30 Victor Company Of Japan, Ltd. Video data processing apparatus utilizing viewer influence, picture reproducing apparatus, and computer programs related thereto
JP2006325165A (ja) * 2005-05-20 2006-11-30 Excellead Technology:Kk テロップ発生装置、テロップ発生プログラム、及びテロップ発生方法
KR100813961B1 (ko) 2005-06-14 2008-03-14 삼성전자주식회사 영상 수신장치
KR101185870B1 (ko) * 2005-10-12 2012-09-25 삼성전자주식회사 3d 입체 영상 처리 장치 및 방법
WO2008035275A2 (en) * 2006-09-18 2008-03-27 Koninklijke Philips Electronics N.V. Encoding and decoding of audio objects
RU2505870C2 (ru) * 2008-01-17 2014-01-27 Панасоник Корпорэйшн Носитель записи, на который записано трехмерное видео, носитель записи для записи трехмерного видео и устройство воспроизведения и способ воспроизведения трехмерного видео
JP4956843B2 (ja) * 2008-06-06 2012-06-20 Necカシオモバイルコミュニケーションズ株式会社 端末装置及びプログラム
WO2010095381A1 (ja) * 2009-02-20 2010-08-26 パナソニック株式会社 記録媒体、再生装置、集積回路
WO2010108024A1 (en) * 2009-03-20 2010-09-23 Digimarc Coporation Improvements to 3d data representation, conveyance, and use
US8477970B2 (en) * 2009-04-14 2013-07-02 Strubwerks Llc Systems, methods, and apparatus for controlling sounds in a three-dimensional listening environment
US9307224B2 (en) * 2009-11-23 2016-04-05 Samsung Electronics Co., Ltd. GUI providing method, and display apparatus and 3D image providing system using the same

Also Published As

Publication number Publication date
EP2247116A2 (en) 2010-11-03
EP3059948A1 (en) 2016-08-24
JP2010258872A (ja) 2010-11-11
US10523915B2 (en) 2019-12-31
EP2247116A3 (en) 2013-11-13
US20100272417A1 (en) 2010-10-28
US9191645B2 (en) 2015-11-17
US20160037150A1 (en) 2016-02-04
EP3059948B1 (en) 2020-07-22

Similar Documents

Publication Publication Date Title
JP5274359B2 (ja) 立体映像および音声記録方法、立体映像および音声再生方法、立体映像および音声記録装置、立体映像および音声再生装置、立体映像および音声記録媒体
US10951876B2 (en) Stereoscopic video reproducing method, stereoscopic video reproducing apparatus and optical disc
JP5627860B2 (ja) 立体映像配信システム、立体映像配信方法、立体映像配信装置、立体映像視聴システム、立体映像視聴方法、立体映像視聴装置
US20090220213A1 (en) Information recording medium, device and method for playing back 3d images
JP5377589B2 (ja) 再生方法、再生装置、光ディスク
JP6016860B2 (ja) 立体映像配信システム、立体映像配信方法、立体映像配信装置
JP6585199B2 (ja) 映像再生方法及び映像再生装置
JP6280260B2 (ja) 映像再生方法、映像再生装置、光ディスク
JP6109371B2 (ja) 映像再生方法、映像再生装置、光ディスク
JP6732079B2 (ja) 映像再生方法
JP6049794B2 (ja) 映像再生方法、映像再生装置、光ディスク
JP5383833B2 (ja) 映像情報記録方法、映像情報再生方法、映像情報記録装置、映像情報再生装置、光ディスク
JP2016015766A (ja) 立体映像配信システム、立体映像配信方法、立体映像配信装置、立体映像視聴システム、立体映像視聴方法、立体映像視聴装置
JP2014042308A (ja) 映像再生方法、映像再生装置、光ディスク

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130514

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5274359

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees