JP5644862B2 - 立体視動画像生成装置、立体視動画像生成方法、立体視動画像生成プログラム - Google Patents

立体視動画像生成装置、立体視動画像生成方法、立体視動画像生成プログラム Download PDF

Info

Publication number
JP5644862B2
JP5644862B2 JP2012547665A JP2012547665A JP5644862B2 JP 5644862 B2 JP5644862 B2 JP 5644862B2 JP 2012547665 A JP2012547665 A JP 2012547665A JP 2012547665 A JP2012547665 A JP 2012547665A JP 5644862 B2 JP5644862 B2 JP 5644862B2
Authority
JP
Japan
Prior art keywords
image
moving image
eye
moving
new
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012547665A
Other languages
English (en)
Other versions
JPWO2012077238A1 (ja
Inventor
敏郎 大櫃
敏郎 大櫃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2012077238A1 publication Critical patent/JPWO2012077238A1/ja
Application granted granted Critical
Publication of JP5644862B2 publication Critical patent/JP5644862B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • H04N13/264Image signal generators with monoscopic-to-stereoscopic image conversion using the relative movement of objects in two video frames or fields
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、立体視動画像生成装置、立体視動画像生成方法、立体視動画像生成プログラムに関する。
隣接した2つのカメラで撮影した画像の視差を利用して立体視が可能な画像を生成する立体視画像生成装置がある。立体視画像生成装置は、例えば、隣接した2つのカメラで撮影した画像のうち、一方のカメラによる画像を左眼用画像として、他方のカメラによる画像を右眼用画像として、生成して表示し、視聴者に立体的な画像を感じさせる。
同一の対象物に対して、左眼用画像における位置と、右眼用画像における位置との差を、視差という。画像内に存在する2つの対象物で、視差量が異なることにより、一方の対象物が他方の対象物に対して手前または奥に存在するように見える。視差量は、視差の大きさである。
図1は、立体視画像の例を示す図である。図1において、画像910が左眼用画像であり、画像920が右眼用画像である。ここで、左眼用画像である画像910、及び、右眼用画像である画像920には、それぞれ、物体A、物体B、物体Cが存在する。画像910及び画像920との間における、これらの物体の視差により、図1の立体視画像を見る者には、手前から、物体A、物体B、物体Cが存在するように見える。
特開2008−92555号公報 特開2000−78611号公報 特開2004−207773号公報
動画像が視聴される際、動きのある対象物が注目されることが多い。隣接した2つのカメラで撮影した動画像の視差を利用した立体視画像(立体視動画像)では、動きのある対象物が左右方向や上下方向に動いてもこの対象物の視差量はほとんど変化しない。この対象物の視差量は、カメラとこの対象物と間の距離に依存するからである。この場合、視聴者の眼は疲れにくい。しかし、この動きのある対象物が、奥行き方向に動くと、この対象物の視差量が変化する。視聴者がこのような動画像を長時間視聴すると、視聴者の眼が疲れやすくなる。
また、注目される動きのある対象物に対して、一旦、視差量がゼロになるように調整されたとしても、注目される動きのある対象物とカメラとの距離が変化することにより、この対象物の視差量が変化し、視聴者の目が疲れやすくなる。
よって、立体視動画像において、注目される動きのある対象物の視差量の変化を緩和することが求められる。例えば、立体視動画像において、注目する対象物の視差量を所定値未満に調整することが求められる。
本件開示の装置は、右眼用動画像と左眼用動画像との間の視差量を動的に調整する立体視動画像生成装置を提供することを課題とする。
開示の立体視動画像生成装置は、上記課題を解決するために、以下の手段を採用する。
即ち、開示の一態様は、
それぞれ時刻情報と対応付けられる複数の画像を含む第1動画像、それぞれ前記時刻情報と対応付けられる複数の画像を含む第2動画像、および、所定画像を格納する格納部と、
同一の時刻情報と対応付けられる第1動画像の第1画像および第2動画像の第2画像と、前記所定画像とを前記格納部から抽出し、前記第1画像における前記所定画像の存在位置である第1位置を算出し、前記第2画像における前記所定画像の存在位置である第2位置を算出し、前記第1位置と前記第2位置との差分である第1差分量を算出し、前記第1画像における前記所定画像の第1位置および前記第2画像における前記所定画像の第2位置のうち少なくとも一方を、前記第1差分量に基づいて平行移動し、新たな第1画像および新たな第2画像を生成する演算部と、
を備える立体視動画像生成装置とする。
開示の装置によれば、右眼用動画像と左眼用動画像との間の視差量を動的に調整する立体視動画像生成装置を提供することができる。
図1は、立体視画像の例を示す図である。 図2は、立体視画像における視差を説明する図である。 図3は、MPEG2データの構造の例を示す図である。 図4は、Iピクチャ、Pピクチャ、Bピクチャの関係を示す図である。 図5は、立体視動画像生成装置の例を示す図である。 図6は、情報処理装置のハードウェア構成例を示す図である。 図7は、立体視動画像生成装置の動作フローの例(1)を示す図である。 図8は、立体視動画像生成装置の動作フローの例(2)を示す図である。 図9は、ステップS104の処理を説明する図である。 図10は、ステップS107の処理を説明する図である。
以下、図面を参照して実施形態について説明する。実施形態の構成は例示であり、開示の実施形態の構成に限定されない。
ここでは、主として、隣接する2つのカメラで撮影された画像による立体視動画像を使用して説明しているが、立体視動画像は、これに限定されず、例えば、人工的に生成された2つの動画像によるもの等であってもよい。
〔実施形態1〕
(視差)
図2は、立体視画像における視差を説明する図である。図2において、例えば、同一の対象物に対して、隣接する2つのカメラで撮影された画像のうち、左眼用画像を画像10、右眼用画像を画像20とする。図2の例では、画像10及び画像20に、同一の対象物である、物体1が含まれている。ここで、点P1は、画像10において物体1の位置を代表する点とする。点P2は、画像20において、物体1の位置を代表する点とする。物体1の位置を代表する点は、例えば、物体1の中心点としてもよいし、物体1の右端かつ下端の点としてもよい。物体1の位置を代表する点は、これらに限定されない。点P1及び点P2は、それぞれ、物体1において同一位置を示す点である。点P1および点P2は、それぞれ、画像10における物体1の位置および画像20における物体1の位置ともいう。
立体視画像における視差は、同一の対象物の、左眼用画像における位置と右眼用画像における位置との差である。視差量は、視差の大きさである。
図2の画像10及び画像20において、物体1の視差量は、画像10における物体1の位置(点P1)と、画像20における物体1の位置(点P2)との差である。即ち、画像10における点P1の座標を(XL,YL)、画像20における点P2の座標を(XR,YR)とすると、物体1の視差量は、次のように表される。
Figure 0005644862
ここで、ΔXは、横方向の視差量を示し、ΔYは縦方向の視差量を示す。
例えば、右眼用画像を、この視差量分、平行移動することにより、立体視画像における物体1の視差がなくなる。
(データ構造の例)
〈MPEG2〉
ここでは、MPEG2フォーマットについて説明する。
MPEG2フォーマットでは、動画像は、時間情報を有する複数の画像(静止画像)を含む。この動画像は、時間情報の時間順に再生される。MPEG2フォーマットにおける各画像データは、所定の数の画像データ毎に圧縮される。
図3は、MPEG2データの構造の例を示す図である。図3のMPEG2データは、階層構造になっている。図3のMPEG2データは、画像出力フレームレイヤ、GOP(Group of Pictures)レイヤ、ピクチャレイヤ、ラインレイヤ、MB(Micro Block)レイヤを含む。
画像出力フレームレイヤは、1つの映像に対応するMPEG2データである。画像フレームレイヤは、GOP(Group of Pictures)、及び、これに対応するSH(Sequence Header;シーケンスヘッダ)を含む。画像出力フレームレイヤは、複数のGOPおよびSHを含む。
GOPは、フレームを効率的に管理するために必要なフレーム(ピクチャ)の集合である。フレームは、動画データにおいて編集可能な最小単位である。SHは、GOPの画像の開始ポイント等の情報を含む。SHには、時間情報やフレームレートが含まれ得る。
GOPレイヤは、単独で再生可能なI(Intra-coded)ピクチャ、過去のIピクチャまたはPピクチャを用いて再生されるP(Predicted)ピクチャ、及び、過去及び未来のIピクチャまたはPピクチャを用いて再生されるB(Bi-directional Predicted)ピクチャを含む。Iピクチャは、最初に符号化されるフレームである。復号は、Iピクチャから始められる。
ピクチャレイヤは、複数のラインブロックを含む。図3の例では、ピクチャレイヤはn個のラインブロックを含む。ピクチャレイヤに含まれるラインブロックの数は、ピクチャのサイズに依存する。
ラインレイヤは、複数のマクロブロック(MB;Macro Block)を含む。マクロブロックは、輝度情報(Y情報)、色差情報(Cr情報、Cb情報)を含む。
図4は、Iピクチャ、Pピクチャ、Bピクチャの関係を示す図である。図4の例では、左のピクチャから順に、時間が古い(過去の)ピクチャである。Iピクチャは、単独で再生可能である。Pピクチャは、過去のIピクチャまたはPピクチャから情報を得て再生される。Bピクチャは、過去のIピクチャまたはPピクチャ、および、未来のPピクチャから情報を得て再生される。ここで、情報とは、ピクチャ内の領域(例えば、マクロブロック)、および、この領域の動き予測(動きベクトル)である。
Iピクチャのデータには、移動する画像および移動しない画像のデータが含まれる。Iピクチャのデータでは、移動する画像と移動しない画像とが区別される。移動しない画像は、このピクチャの次の時刻のピクチャでも変化しない背景等である。移動しない画像は、動きベクトルがゼロベクトルである領域の画像である。移動する画像は、このピクチャの次の時刻のピクチャにおいて移動する物体等を含む画像である。移動する画像は、動きベクトルがゼロベクトルでない領域の画像である。Pピクチャのデータには、移動する画像および移動しない画像のデータが含まれる。Pピクチャのデータでは、移動する画像と移動しない画像とが区別される。Bピクチャのデータには、移動する画像のデータが含まれる。即ち、Bピクチャのデータには、動きベクトルがゼロベクトルでない領域の画像が含まれる。各ピクチャのデータは、移動する画像のデータを含む。ただし、画像全体で動きがない場合は、各ピクチャのデータは、移動する画像のデータを含まない。
〈AVI〉
ここでは、AVIフォーマットについて説明する。
AVIフォーマットでは、動画像は、時間情報を有する複数の画像(静止画像)を含む。この動画像は、時間情報の時間順に再生される。AVIフォーマットにおける各画像データは、画像データ毎に圧縮される。AVIフォーマットにおける各画像データは、先に説明したIピクチャのように単独で再生可能である。また、各画像データは、移動する画像と移動しない画像との区別を有しない。
処理しようとする画像とこの画像の直前の時刻の画像とで差分を取り、差分が0である領域が移動しない画像であり、差分が0でない領域が移動する領域とすることができる。あらかじめ、時間的に隣接する画像同士で差分を算出しておくことにより、動画像が、AVIフォーマットであっても、画像全体を、移動する画像と、移動しない画像とに、分けることができる。移動する画像(領域)と移動しない画像(領域)とは、あらかじめ算出されて、格納部等に格納されてもよい。
(構成)
図5は、立体視画像生成装置の例を示す図である。立体視画像生成装置100は、取得部110、演算部120、格納部130を含む。
取得部110は、外部または内部の入力装置から、動画像を取得する。取得部110が取得する動画像は、立体視動画像の、左眼用動画像、及び、右眼用動画像である。取得部110が取得した動画像は、格納部130に格納される。左眼用動画像及び右眼用動画像は、それぞれ、対応付けられて、格納部130に格納される。動画像は、例えば、連続する、複数の、時間情報が付加された画像(静止画像)を含む。動画像に含まれる各画像は、画像内の点毎に画素値を有する。画素値は、点の色などを示す情報である。画素値は、例えば、RGB表色系のR(Red)値、G(Green)値、B(Blue)値で表される。RGB表色系の代わりに、他の表色系(例えば、YUV表色系)によるパラメータ(値)が使用されてもよい。YUV表色系によるパラメータが使用された場合、輝度値として、Y(Yellow)値が使用されてもよい。
演算部120は、取得部110が取得した動画像に含まれる1つ1つの画像に対して、視差量の算出を行い、立体視画像を生成する。演算部120が生成した立体視画像は、格納部130に格納される。
格納部130は、取得部110が取得した動画像、及び、演算部120が生成した立体視画像、演算部120が算出した視差量、基準オブジェクト等を格納する。
表示部140は、格納部130に格納される動画像等を表示する。
受信部150は、基準オブジェクトの選択等の、ユーザからの入力を受け付ける。
図6は、情報処理装置300のハードウェア構成例を示す図である。立体視画像生成装置100は、例えば、図6に示すような情報処理装置300によって、実現される。情報処理装置300は、CPU(Central Processing Unit)302、メモリ304、記憶部306、入力部308、出力部310、通信部312を含む。
情報処理装置300は、CPU302が記録部306に記憶されたプログラムをメモリ304の作業領域にロードして実行し、プログラムの実行を通じて周辺機器が制御されることによって、所定の目的に合致した機能を実現することができる。
CPU302は、記憶部306に格納されるプログラムに従って処理を行う。メモリ304は、CPU302がプログラムやデータをキャッシュしたり作業領域を展開したりする。メモリ304は、例えば、例えば、RAM(Random Access Memory)やROM(Read Only Memory)を含む。
記憶部306は、各種のプログラム及び各種のデータを読み書き自在に記録媒体に格納する。記憶部306としては、ソリッドステートドライブ装置、ハードディスクドライブ装置、CD(Compact Disc)ドライブ装置、DVD(Digital Versatile Disk)ドライブ装置、+R/+RWドライブ装置、HD DVD(High-Definition Digital Versatile Disk)ドライブ装置、または、BD(Blu-ray Disk)ドライブ装置がある。また、記録媒体としては、不揮発性半導体メモリ(フラッシュメモリ)を含むシリコンディスク、ハードディスク、CD、DVD、+R/+RW、HD DVD、または、BDがある。CDとしては、CD−R(Recordable)、CD−RW(Rewritable)、CD−ROMがある。DVDとしては、DVD−R、DVD−RAM(Random Access Memory)がある。BDとしては、BD−R、BD−RE(Rewritable)、BD−ROMがある。
入力部308は、ユーザ等からの操作指示等を受け付ける。入力部308は、キーボード、ポインティングデバイス、ワイヤレスリモコン、マイクロフォン、複数のカメラ等の入力デバイスである。入力部308から入力された情報は、CPU302に通知される。
出力部310は、CPU302で処理されるデータやメモリ304に記憶されるデータを出力する。出力部310は、CRT(Cathode Ray Tube)ディスプレイ、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、EL(Electroluminescence)パネル、プリンタ、スピーカ等の出力デバイスである。
通信部312は、外部装置とデータの送受信を行う。通信部312は、例えば、信号線を介して、外部装置と接続される。通信部312は、例えば、LAN(Local Area Network)インタフェースボードや、無線通信のための無線通信回路である。
情報処理装置300は、記憶部306に、オペレーティングシステム、各種プログラム、各種テーブル、を記憶している。
オペレーティングシステムは、ソフトウェアとハードウェアとの仲介、メモリ空間の管理、ファイル管理、プロセスやタスクの管理等を行うソフトウェアである。オペレーティングシステムは、通信インタフェースを含む。通信インタフェースは、通信部312を介して接続される他の外部装置等とデータのやり取りを行うプログラムである。
立体視画像生成装置100を実現できる情報処理装置300は、CPU302が記憶部306に記憶されているプログラムをメモリ304にロードして実行することによって、取得部110、演算部120、受信部150としての機能を実現する。また、格納部130は、メモリ304、記憶部306等の記憶領域に設けられる。表示部140は、CPU302、出力部310等によって実現される。受信部150は、CPU302、入力部308等によって実現される。
(動作例)
立体視動画像生成装置100の動作例について説明する。以下の説明では、左眼用動画像および右眼用動画像が使用されるが、左眼用動画像と右眼用動画像との間には、優劣はなく、互いに入れ替えることができる。同様に、左眼用画像および右眼用画像が使用されるが、左眼用画像と右眼用画像との間には、優劣はなく、互いに入れ替えることができる。
図7および図8は、立体視動画像生成装置100の動作フローの例を示す図である。図7の「A」は、図8の「A」と接続する。図7の動作フローは、例えば、立体視道画像生成装置100の電源が投入されることを契機に開始される。
立体視動画像生成装置100は、左眼用動画像および右眼用動画像を取得し、基準オブジェクトを選択させ、先頭の画像の基準オブジェクトの視差量を算出する。また、立体視動画像生成装置100は、当該視差量に基づいて、動画像に含まれるすべての画像について、画像全体を平行移動する(S101〜S104)。動画像は、連続した複数の静止画像(フレーム、ピクチャ)を含む。さらに、立体視動画像生成装置100は、静止画像毎に基準オブジェクトの視差量を算出し、当該視差量に基づいて、基準オブジェクトを平行移動し基準オブジェクトの視差量を調整する(S105〜S108)。立体視画像生成装置100は、調整後の画像を立体視動画像の画像として出力する左眼用画像および右眼用画像は、通常、時刻情報の時刻順に再生される。動画像は、例えば、MPEG2フォーマットにより圧縮される。ただし、立体視動画像生成装置100の処理は、これらのような処理に限定されるものではない。
左眼用動画像および右眼用動画像は、それぞれに含まれる1つ1つの画像(静止画像)毎に、時刻情報に対応付けられる。左眼用動画像および右眼用動画像は、それぞれに含まれる画像毎に、共通する時間情報に対応付けられる。画像と時間情報との対応付けは、例えば、各画像が時間情報を有することにより実現される。また、画像と時間情報との対応付けは、例えば、各画像に振られる再生順の通し番号と、先頭画像の時間情報と、フレームレート(単位時間あたりの画像数)とにより、実現される。さらに、画像と時間情報との対応付けは、例えば、再生順に並べられた各画像と、先頭画像の時間情報と、フレームレート(単位時間あたりの画像数)とにより、実現される。また、先頭画像の時間情報はなくてもよい。
図7および図8の動作フローについて、詳細に説明する。
取得部110は、左眼用動画像および右眼用動画像を取得する(S101)。取得部110は、左眼用動画像および右眼用動画像を、立体視動画像生成装置100に内蔵されるカメラから取得してもよいし、外部装置から取得してもよい。取得された左眼用動画像および右眼用動画像は、格納部130に格納される。左眼用動画像および右眼用動画像は、あらかじめ、格納部130に格納されていてもよい。
演算部120は、基準となるオブジェクト(基準オブジェクト)を特定する(S102)。
例えば、演算部120は、取得した左眼用動画像から、時刻情報の時刻が最も古い、画像(左眼用画像)を取り出す。また、同様に、演算部120は、時刻情報の時刻が最も古い、画像(右眼用画像)を取り出す。これらの最も古い時刻情報の時刻は、同じである。ここで取り出される画像は、動画像の先頭の画像である。演算部120は、表示部140に、取り出した左眼用画像および右眼用画像を表示する。演算部120は、ユーザに対し、表示部140に表示された画像から、基準オブジェクトとする範囲を選択させる。ユーザは、表示部140に表示された画像から、基準オブジェクトとする範囲を選択し、受付部150により選択した範囲を入力する。演算部120は、選択された範囲の画像を抽出し、基準オブジェクトとして、格納部130に格納する。これにより、演算部120は、基準オブジェクトを特定できる。また、基準オブジェクトしての画像が、あらかじめ、格納部130に格納されていてもよい。左眼用画像と、右眼用画像とで、それぞれ、基準オブジェクトの範囲が選択されてもよい。このとき、ユーザは、左眼用画像と、右眼用画像とで、同一の対象物について、基準オブジェクトの範囲として選択する。基準オブジェクトは、所定画像の一例である。
演算部120は、ステップS102で特定した基準オブジェクトの、左眼用画像と右眼用画像との間の視差量を算出する(S103)。演算部120は、取得した左眼用動画像から、時刻情報の時刻が最も古い、画像(左眼用画像)を取り出す。また、同様に、演算部120は、時刻情報の時刻が最も古い、画像(右眼用画像)を取り出す。即ち、演算部120は、取得した動画像から、最初の左眼用画像および最初の右眼用画像を取り出す。演算部120は、左眼用画像と右眼用画像とで、同一の時刻情報の画像について視差量の算出を行う。ここで処理する画像は、例えば、MPEG2フォーマットでは動画像ファイルの先頭のIピクチャの画像である。また、ここで処理する画像は、例えば、AVIフォーマットでは動画像ファイルの先頭の画像である。
演算部120は、左眼用画像における基準オブジェクトの位置を求める。また、演算部120は、右眼用画像における基準オブジェクトの位置を求める。画像における基準オブジェクトの位置は、例えば、基準オブジェクトの中心の座標である。左眼用画像および右眼用画像の基準オブジェクトは、ステップS102で特定されている。
演算部120は、例えば、格納部130に格納される基準オブジェクトの画像と、左眼用画像(または右眼用画像)とを、パターンマッチングすることにより、左眼用画像(または右眼用画像)における基準オブジェクトの位置を求めることができる。左眼用画像(または右眼用画像)における基準オブジェクトの位置の情報は、時刻情報と対応付けられて格納部130に格納される。
パターンマッチングは、例えば、次のように実行される。演算部120が、左眼用画像と基準オブジェクトの画像とをある位置で重ねあわせ、両画像の基準オブジェクトの画像の範囲における画素値の差分をとる。演算部120は、左眼用画像上で基準オブジェクトを任意に平行移動させて、同様に、各位置で差分を取る。演算部120は、差分が0または所定値未満である基準オブジェクトの位置を、左眼用画像における基準オブジェクトの位置とすることができる。右眼用画像についても同様である。なお、パターンマッチングの手法として、上記に限定されず他の周知の方法が適用されうる。
演算部120は、左眼用画像における基準オブジェクトの位置と右眼用画像における基準オブジェクトの位置との差を、算出する。この求めた差が、視差量となる。この求めた差のうち、横方向の差が視差量ΔX、縦方向の差が視差量ΔYである。演算部120は、この横方向の視差量ΔXおよび縦方向の視差量ΔYを、格納部130に格納する。
また、演算部120は、左眼用画像と右眼用画像とを重ねあわせ、ステップS102で特定した基準オブジェクトの範囲が、左眼用画像と右眼用画像とで一致するように、一方の画像(例えば、右眼用画像)を平行移動させて、視差量を求めてもよい。視差量は、当該一方の画像(例えば、右眼用画像)の平行移動した距離(X軸方向の移動量及びY軸方向の移動量)となる。このとき、演算部120は、平行移動した距離の、横方向の距離を横方向の視差量ΔX、縦方向の距離を縦方向の視差量ΔYとして、格納部130に格納する。視差量は、正負号を含む。即ち、例えば、−X方向に平行移動した場合は、視差量ΔXは、負の量になる。
さらに、演算部120は、次のように視差量を求めてもよい。演算部120は、左眼用画像と右眼用画像とを重ねあわせて表示部140に表示する。ユーザが、表示部140に表示された画像を見ながら、受付部150により一方の画像を平行移動して、ステップS102で特定した基準オブジェクトの範囲が、左眼用画像と右眼用画像とで一致するようする。視差量は、当該一方の画像(例えば、右眼用画像)の平行移動した距離となる。演算部120は、平行移動した距離の、横方向の距離を横方向の視差量ΔX、縦方向の距離を縦方向の視差量ΔYとして、格納部130に格納する。
演算部120は、立体視動画像を生成する(S104)。S104の処理では、演算部120は、例えば、格納部130から右眼用動画像を取り出す。そして、演算部120は、右眼用動画像において、すべての時刻の画像について、画像全体を、視差量分だけ平行移動した画像を、新たな右眼用動画像とする。視差量として、ステップS103で格納部130に格納した視差量(ΔXおよびΔY)が使用される。このように、右眼用動画像の画像全体を、S103の処理で求めた視差量分(ΔXおよびΔY)だけ平行移動すると、画像の最初の時刻の右眼用画像における基準オブジェクトの位置が、同じ時刻の左眼用画像における基準オブジェクトの位置と同一になる。即ち、最初の時刻における左眼用画像と右眼用画像との間の基準オブジェクトの視差が、ほぼなくなる。演算部120は、左眼用動画像および新たな右眼用動画像を、立体視動画像として、格納部130に格納する。ここで格納される左眼用動画像を、新たな左眼用動画像と称してもよい。 格納された左眼用動画像及び右眼用動画像は、立体視用の表示装置において、表示されうる。立体視用の表示装置は、左眼用動画像を左眼に、右眼用動画像を右眼に入力するような、表示装置である。また、格納された左眼用動画像及び右眼用動画像は、表示部140に表示されてもよい。
図9は、ステップS104の処理を説明する図である。図9には、最初の時刻における左眼用画像、最初の時刻における処理前の右眼用画像、最初の時刻における処理後の右眼用画像が示されている。ここで、図9の各画像における中心付近の三角形形状のオブジェクトを基準オブジェクトとする。左眼用画像における基準オブジェクトの位置は、(XL,YL)である。処理前の右眼用画像における処理前の基準オブジェクトの位置は、(XR,YR)である。ここで、横方向の視差量は、ΔX=XL−XRであり、縦方向の視差量は、ΔY=YL−YRである。ここで、右眼用画像を視差量だけ平行移動すると、処理後の右眼用画像のようになる。処理後の右眼用画像における基準オブジェクトの位置は、(XL,YL)であり、左眼用画像における基準オブジェクトの位置と同一になる。処理前の右眼用画像と処理後の右眼用画像との間で、基準オブジェクトと他のオブジェクト等との位置関係は、変わらない。即ち、処理前の右眼用画像と処理後の右眼用画像との間で、基準オブジェクトと他のオブジェクト等との横方向の距離および縦方向の距離は変わらない。
また、上記の説明では、一方の画像全体を平行移動して新たな画像としている。ここで、演算部120は、それぞれの動画像(左眼用動画像、右眼用動画像)において、基準オブジェクトの視差量の1/2の量で動画像の画像全体を平行移動することにより、基準オブジェクトの位置を最初の時刻の左眼用画像と右眼用画像とで同一にしてもよい。即ち、演算部120は、視差量をΔX及びΔYとすると、左眼用画像の点のX座標及びY座標をそれぞれ−ΔX/2及び−ΔY/2だけ平行移動した点を新たな左眼用画像の点とする。同様に、演算部120は、右眼用画像の点のX座標及びY座標をそれぞれ+ΔX/2及び+ΔY/2だけ平行移動した点を新たな右眼用画像の点とする。また、演算部120は、一方の動画像において基準オブジェクトの視差量の1/3の量で動画像の画像全体を平行移動し、他方の動画像において基準オブジェクトの視差量の2/3の量で動画像の画像全体を平行移動してもよい。この平行移動する際の視差量に対する割合は、自由に設定され得る。ただし、左眼用動画像と右眼用動画像とにおける平行移動の量が、全体として基準オブジェクトの視差量に一致することが求められる。このとき、演算部120は、新たな左眼用動画像および新たな右眼用動画像を生成し、格納部130に格納することになる。
演算部120は、ステップ103で格納部130に格納された左眼用画像および右眼用画像の基準オブジェクトの位置の情報を、ステップS104での処理を加味して、変更する。
ステップS104では、動画像におけるすべての時刻の画像が、ステップS103で求められた視差量(ΔXおよびΔY)に基づいて、処理される。
以降の処理において、ステップS104で処理された左眼用動画像、および、右眼用動画像が使用される。
ステップS105では、演算部120は、直前に処理した画像(直前のステップS103または直前のステップS105で処理した画像)と、この画像の次の時刻の画像とで、基準オブジェクトが移動したか否かを判定する(図8:S105)。即ち、演算部120は、直前に処理した左眼用画像と、この画像の次の時刻の左眼用画像とで、基準オブジェクトが移動したか否かを判定する。また、演算部120は、直前に処理した右眼用画像と、この画像の次の時刻の右眼用画像とで、基準オブジェクトが移動したか否かを判定する。
演算部120は、直前に処理した画像の次の時刻の画像(左眼用画像および右眼用画像)を、格納部130から取り出す。取り出された、左眼用画像および右眼用画像は、既に、ステップS103で算出された視差量に基づいて、処理されている。
演算部120は、取り出された左眼用画像における基準オブジェクトの位置を求める。演算部120は、求めた左眼用画像における基準オブジェクトの位置を、時刻情報と対応付けて格納部130に格納する。基準オブジェクトは、ステップS102で特定されている。演算部120は、ステップS103における処理と同様に、格納部130に格納される基準オブジェクトの画像と、左眼用画像とを、パターンマッチングすることにより、左眼用画像における基準オブジェクトの位置を求めることができる。演算部120は、ここで求められた基準オブジェクトの位置と、直前に処理した左眼用画像の基準オブジェクトの位置との距離を算出する。演算部120は、右眼用画像についても同様に処理する。演算部120は、左眼用画像および右眼用画像のうち、少なくとも一方の画像の基準オブジェクトの位置と直前の画像の基準オブジェクトの位置との距離が、所定値以上である場合、基準オブジェクトが移動したと判定する。演算部120は、左眼用画像および右眼用画像の両方の画像の基準オブジェクトの位置と直前の画像の基準オブジェクトの位置との距離が0または所定値未満である場合、基準オブジェクトが移動していないと判定する。
また、演算部120は、直前に処理した画像の次の時刻の画像のデータに含まれる、移動する画像(領域)に、基準オブジェクトの画像が含まれるか否かを判定することにより、基準オブジェクトが移動したか否かを判定してもよい。この判定には、パターンマッチングが使用されてもよい。移動する画像(領域)は、移動している物体等を含む画像である。よって、移動する画像に基準オブジェクトの画像が含まれる場合、演算部120は、基準オブジェクトが移動していると判定する。
基準オブジェクトが移動していると判断された場合(S105;YES)、演算部120は、ステップS105で取り出された左眼用画像および右眼用画像において、基準オブジェクトの、左眼用画像と右眼用画像との間の視差量を算出する(S106)。演算部120は、ステップS105で求めた、左眼用画像の基準オブジェクトの位置と、右眼用画像の基準オブジェクトの位置との差を算出する。この求めた差が、ここでの視差量となる。この求めた差のうち、横方向の差を視差量ΔX1、縦方向の差を視差量ΔY1とする。演算部130は、この横方向の視差量ΔX1および縦方向の視差量ΔY1を、格納部130に格納する。視差量ΔX1および視差量ΔY1の初期値は、共に、0である。
基準オブジェクトが移動していないと判断された場合(S105;NO)、処理がステップS107に進む。
ステップS107では、演算部120は、立体視画像を生成する(S107)。演算部120は、取り出された右眼用画像において、基準オブジェクトを、X軸(横)方向、および、Y軸(縦)方向に、それぞれ、格納部130に格納される視差量ΔX1、および、視差量ΔY1分だけ平行移動した画像を、新たな右眼用画像とする。視差量として、格納部130に格納される視差量(ΔX1およびΔY1)が使用される。右眼用画像の基準オブジェクトを、視差量(ΔX1およびΔY1)分だけ平行移動すると、右眼用画像における基準オブジェクトの位置が、同じ時刻の左眼用画像における基準オブジェクトの位置と同一になる。即ち、左眼用画像と右眼用画像との間の基準オブジェクトの視差が、ほぼなくなる。演算部120は、左眼用動画像および新たな右眼用動画像を、立体視動画像の1つ(1組)の画像として、ステップS105で処理した画像の時刻情報と対応付けて格納部130に格納する。基準オブジェクト以外の部分についての視差量は、変更されない。ここで格納される左眼用動画像を、新たな左眼用動画像と称してもよい。
図10は、ステップS107の処理を説明する図である。図10には、左眼用画像、処理前の右眼用画像、処理後の右眼用画像が示されている。ここで、図10の各画像における中心付近の三角形形状のオブジェクトを基準オブジェクトとする。左眼用画像における基準オブジェクトの位置は、(XL1,YL1)である。処理前の右眼用画像における処理前の基準オブジェクトの位置は、(XR1,YR1)である。基準オブジェクトの横方向の視差量は、ΔX1=XL1−XR1であり、縦方向の視差量は、ΔY1=YL1−YR1である。ここで、右眼用画像における基準オブジェクトを視差量(横方向にΔX1、横方向にΔY1)だけ平行移動すると、処理後の右眼用画像のようになる。処理後の右眼用画像における基準オブジェクトの位置は、(XL1,YL1)であり、左眼用画像における基準オブジェクトの位置と同一になる。処理前の右眼用画像と処理後の右眼用画像との間で、基準オブジェクト以外のオブジェクト等の位置は、変わらない。即ち、例えば、処理前の右眼用画像と処理後の右眼用画像との間で、四角形形状や円形形状のオブジェクトの位置は、変わらない。
また、上記の説明では、一方の画像の基準オブジェクトを平行移動して新たな画像としている。ここで、演算部120は、それぞれの画像(左眼用画像、右眼用画像)において、基準オブジェクトの視差量(ΔX1およびΔY1)の1/2の量で画像の基準オブジェクトを平行移動することにより、基準オブジェクトの位置を左眼用画像と右眼用画像とで同一にしてもよい。即ち、演算部120は、視差量をΔX1及びΔY1とすると、左眼用画像の基準オブジェクトの点のX座標及びY座標をそれぞれ−ΔX1/2及び−ΔY1/2だけ平行移動した点を新たな左眼用画像の基準オブジェクトの点とする。同様に、演算部120は、右眼用画像の基準オブジェクトの点のX座標及びY座標をそれぞれ+ΔX1/2及び+ΔY1/2だけ平行移動した点を新たな右眼用画像の基準オブジェクトの点とする。また、演算部120は、一方の動画像において基準オブジェクトの視差量の1/3の量で当該基準オブジェクトを平行移動し、他方の動画像において基準オブジェクトの視差量の2/3の量で当該基準オブジェクトを平行移動してもよい。この平行移動する際の視差量に対する割合は、自由に設定され得る。ただし、左眼用動画像と右眼用動画像とにおける平行移動の量が、全体として基準オブジェクトの視差量に一致することが求められる。全体として基準オブジェクトの視差量に一致しないと、基準オブジェクトの位置が左眼用画像と右眼用画像とで同一にならないからである。このとき、演算部120は、新たな左眼用画像および新たな右眼用画像を生成し、立体視動画像の1つ(1組)の画像として、ステップS105で処理した画像の時刻情報と対応付けて格納部130に格納することになる。
演算部120は、ステップS105で処理した画像の時刻情報の時刻の次の時刻情報の時刻を有する画像が存在するかを確認する。即ち、演算部120は、ステップS105で処理した画像が、最後の画像であるか否かを判断する(S108)。ステップS105で処理した画像が最後の画像である場合(S108;YES)、演算部120は、処理を終了する。ステップS105で処理した画像が最後の画像でない場合(S108;NO)、演算部120は、処理をステップS105に戻す。
上記の例では、画像の右眼用画像における基準オブジェクトの位置が、同じ時刻の左眼用画像における基準オブジェクトの位置と同一となるようにしている。ここで、画像の右眼用画像における基準オブジェクトの位置と同じ時刻の左眼用画像における基準オブジェクトの位置とが、所定の位置関係を所定の範囲に維持するようにしてもよい。例えば、画像の右眼用画像における基準オブジェクトの位置と同じ時刻の左眼用画像における基準オブジェクトの位置とが、ステップS103で算出した視差量(ΔXおよびΔY)を維持するようにしてもよい。ステップS103で算出した視差量(ΔXおよびΔY)を維持する場合、ステップS104で平行移動をしなくてもよい。
(実施形態の作用効果)
立体視動画像生成装置100は、左眼用動画像および右眼用動画像の最初の時刻の画像について、画像全体を平行移動することにより、基準オブジェクトの左眼用画像と右眼用画像との間の視差量を所定値未満又は所定の範囲にするようにする。立体視動画像生成装置1100は、基準オブジェクトが移動した場合、基準オブジェクトを平行移動することにより、基準オブジェクトの視差量が所定値未満又は所定の範囲になるようにする。
立体視動画像生成装置100は、最初の時刻の画像について基準オブジェクトの視差量を所定値未満又は所定の範囲にした後は、左眼用動画像と右眼用動画像との間で、基準オブジェクの以外の部分についての視差量を変更しない。
立体視動画像生成装置100によれば、基準オブジェクトが奥行方向に動いた場合でも、基準オブジェクト以外の領域の立体感を変えることなく、左眼用動画像と右眼用動画像との間における基準オブジェクトの視差量を所定値未満又は所定の範囲に維持することができる。立体視動画像生成装置100は、右眼用動画像と左眼用動画像との間の視差量を動的に調整することができる。
100 立体視動画像生成装置
110 取得部
120 演算部
130 格納部
140 表示部
150 受信部
300 情報処理装置
302 CPU
304 メモリ
306 記憶部
308 入力部
310 出力部
312 通信部

Claims (3)

  1. それぞれ時刻情報と対応付けられる複数の画像を含む第1動画像、それぞれ前記時刻情報と対応付けられる複数の画像を含む第2動画像、および、所定画像を格納する格納部と、
    同一の時刻情報と対応付けられる第1動画像の第1画像および第2動画像の第2画像と、前記所定画像とを前記格納部から抽出し、前記第1画像における前記所定画像の存在位置である第1位置を算出し、前記第2画像における前記所定画像の存在位置である第2位置を算出し、前記第1位置と前記第2位置との差分である第1差分量を算出し、前記第1画像における前記所定画像の第1位置および前記第2画像における前記所定画像の第2位置のうち少なくとも一方を、前記第1差分量が所定の範囲内となるように平行移動し、新たな第1画像および新たな第2画像を生成する演算部と、を備え
    前記演算部は、前記新たな第1画像および前記新たな第2画像を生成する前に、時刻情報の時刻が先頭の時刻である前記第1動画像の第3画像、時刻情報の時刻が先頭の時刻である前記第2動画像の第4画像を前記格納部から抽出し、前記第3画像における前記所定画像の存在位置である第3位置を算出し、前記第4画像における前記所定画像の存在位置である第4位置を算出し、前記第3位置と前記第4位置との差分である第2差分量を算出し、前記第1動画像に含まれるすべての画像および前記第2動画像に含まれるすべての画像のうち少なくとも一方について、それぞれの画像全体を前記第2差分量に基づいて平行移動し、新たな第1動画像および新たな第2動画像とし、当該新たな第1動画像を前記第1動画像とし、当該新たな第2動画像を前記第2動画像として前記格納部に格納する、
    立体視動画像生成装置。
  2. コンピュータが、
    それぞれ時刻情報と対応付けられる複数の画像を含む第1動画像、それぞれ前記時刻情報と対応付けられる複数の画像を含む第2動画像、および、所定画像を格納する記憶装置から、同一の時刻情報と対応付けられる第1動画像の第1画像および第2動画像の第2画像と、前記所定画像とを抽出し、
    前記第1画像における前記所定画像の存在位置である第1位置を算出し、前記第2画像における前記所定画像の存在位置である第2位置を算出し、前記第1位置と前記第2位置との差分である第1差分量を算出し、前記第1画像における前記所定画像の第1位置およ
    び前記第2画像における前記所定画像の第2位置のうち少なくとも一方を、前記第1差分量が所定の範囲内となるように平行移動し、新たな第1画像および新たな第2画像を生成し、
    前記新たな第1画像および前記新たな第2画像を生成する前に、時刻情報の時刻が先頭の時刻である前記第1動画像の第3画像、時刻情報の時刻が先頭の時刻である前記第2動画像の第4画像を前記記憶装置から抽出し、
    前記第3画像における前記所定画像の存在位置である第3位置を算出し、前記第4画像における前記所定画像の存在位置である第4位置を算出し、前記第3位置と前記第4位置との差分である第2差分量を算出し、前記第1動画像に含まれるすべての画像および前記第2動画像に含まれるすべての画像のうち少なくとも一方について、それぞれの画像全体を前記第2差分量に基づいて平行移動し、新たな第1動画像および新たな第2動画像とし、当該新たな第1動画像を前記第1動画像とし、当該新たな第2動画像を前記第2動画像として前記記憶装置に格納することを実行する立体視動画像生成方法。
  3. コンピュータが、
    それぞれ時刻情報と対応付けられる複数の画像を含む第1動画像、それぞれ前記時刻情報と対応付けられる複数の画像を含む第2動画像、および、所定画像を格納する記憶装置から、同一の時刻情報と対応付けられる第1動画像の第1画像および第2動画像の第2画像と、前記所定画像とを抽出し、
    前記第1画像における前記所定画像の存在位置である第1位置を算出し、前記第2画像における前記所定画像の存在位置である第2位置を算出し、前記第1位置と前記第2位置との差分である第1差分量を算出し、前記第1画像における前記所定画像の第1位置および前記第2画像における前記所定画像の第2位置のうち少なくとも一方を、前記第1差分量が所定の範囲内となるように平行移動し、新たな第1画像および新たな第2画像を生成し、
    前記新たな第1画像および前記新たな第2画像を生成する前に、時刻情報の時刻が先頭の時刻である前記第1動画像の第3画像、時刻情報の時刻が先頭の時刻である前記第2動画像の第4画像を前記記憶装置から抽出し、
    前記第3画像における前記所定画像の存在位置である第3位置を算出し、前記第4画像における前記所定画像の存在位置である第4位置を算出し、前記第3位置と前記第4位置との差分である第2差分量を算出し、前記第1動画像に含まれるすべての画像および前記第2動画像に含まれるすべての画像のうち少なくとも一方について、それぞれの画像全体を前記第2差分量に基づいて平行移動し、新たな第1動画像および新たな第2動画像とし、当該新たな第1動画像を前記第1動画像とし、当該新たな第2動画像を前記第2動画像として前記記憶装置に格納することを実行するための立体視動画像生成プログラム。
JP2012547665A 2010-12-10 2010-12-10 立体視動画像生成装置、立体視動画像生成方法、立体視動画像生成プログラム Expired - Fee Related JP5644862B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/072281 WO2012077238A1 (ja) 2010-12-10 2010-12-10 立体視動画像生成装置、立体視動画像生成方法、立体視動画像生成プログラム

Publications (2)

Publication Number Publication Date
JPWO2012077238A1 JPWO2012077238A1 (ja) 2014-05-19
JP5644862B2 true JP5644862B2 (ja) 2014-12-24

Family

ID=46206757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012547665A Expired - Fee Related JP5644862B2 (ja) 2010-12-10 2010-12-10 立体視動画像生成装置、立体視動画像生成方法、立体視動画像生成プログラム

Country Status (5)

Country Link
US (1) US20130271569A1 (ja)
JP (1) JP5644862B2 (ja)
KR (1) KR101479435B1 (ja)
CN (1) CN103262552A (ja)
WO (1) WO2012077238A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3685587B1 (en) * 2017-09-22 2021-07-28 Dolby Laboratories Licensing Corporation Backward compatible display management metadata compression
KR20240015633A (ko) * 2021-06-03 2024-02-05 소니 세미컨덕터 솔루션즈 가부시키가이샤 표시 장치, 표시 시스템 및 표시 구동 방법

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10188034A (ja) * 1996-12-28 1998-07-21 Olympus Optical Co Ltd 立体画像生成装置および距離演算装置
JP2000078563A (ja) * 1998-09-03 2000-03-14 Sony Corp 被写体認識装置及び自動追尾装置
JP2000209614A (ja) * 1999-01-14 2000-07-28 Sony Corp 立体映像システム
JP2003209858A (ja) * 2002-01-17 2003-07-25 Canon Inc 立体画像生成方法及び記録媒体
JP2004348575A (ja) * 2003-05-23 2004-12-09 Foundation For The Promotion Of Industrial Science 3次元モデル構築システム及び3次元モデル構築プログラム
JP2010152521A (ja) * 2008-12-24 2010-07-08 Toshiba Corp 画像立体化処理装置及び方法
JP2010278878A (ja) * 2009-05-29 2010-12-09 Fujifilm Corp 立体画像表示装置及びその表示画像切替方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09322199A (ja) * 1996-05-29 1997-12-12 Olympus Optical Co Ltd 立体映像ディスプレイ装置
JPH11164328A (ja) * 1997-11-27 1999-06-18 Toshiba Corp 立体映像表示装置
JP4148811B2 (ja) * 2003-03-24 2008-09-10 三洋電機株式会社 立体画像表示装置
JP4027268B2 (ja) * 2003-05-29 2007-12-26 株式会社ソフィア 遊技機
CN101237590B (zh) * 2007-02-01 2010-05-19 广达电脑股份有限公司 立体影像显示方法
JP2009055380A (ja) * 2007-08-28 2009-03-12 Mitsubishi Electric Corp 画像信号処理装置および画像信号処理方法
WO2010058546A1 (ja) * 2008-11-18 2010-05-27 パナソニック株式会社 立体視再生を行う再生装置、再生方法、プログラム
JP4995854B2 (ja) * 2009-03-11 2012-08-08 富士フイルム株式会社 撮像装置、画像補正方法および画像補正プログラム
JP5185202B2 (ja) * 2009-06-03 2013-04-17 キヤノン株式会社 画像処理装置及び画像処理装置の制御方法
JP5491786B2 (ja) * 2009-07-21 2014-05-14 富士フイルム株式会社 画像再生装置及び方法
JP4482657B1 (ja) * 2009-09-25 2010-06-16 学校法人 文教大学学園 3次元コンテンツを立体コンテンツに自動変換するステレオビューア
CN101729918A (zh) * 2009-10-30 2010-06-09 无锡景象数字技术有限公司 一种实现双目立体图像校正和显示优化的方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10188034A (ja) * 1996-12-28 1998-07-21 Olympus Optical Co Ltd 立体画像生成装置および距離演算装置
JP2000078563A (ja) * 1998-09-03 2000-03-14 Sony Corp 被写体認識装置及び自動追尾装置
JP2000209614A (ja) * 1999-01-14 2000-07-28 Sony Corp 立体映像システム
JP2003209858A (ja) * 2002-01-17 2003-07-25 Canon Inc 立体画像生成方法及び記録媒体
JP2004348575A (ja) * 2003-05-23 2004-12-09 Foundation For The Promotion Of Industrial Science 3次元モデル構築システム及び3次元モデル構築プログラム
JP2010152521A (ja) * 2008-12-24 2010-07-08 Toshiba Corp 画像立体化処理装置及び方法
JP2010278878A (ja) * 2009-05-29 2010-12-09 Fujifilm Corp 立体画像表示装置及びその表示画像切替方法

Also Published As

Publication number Publication date
JPWO2012077238A1 (ja) 2014-05-19
WO2012077238A1 (ja) 2012-06-14
CN103262552A (zh) 2013-08-21
KR101479435B1 (ko) 2015-01-05
US20130271569A1 (en) 2013-10-17
KR20130083929A (ko) 2013-07-23

Similar Documents

Publication Publication Date Title
JP5406269B2 (ja) 奥行き検知装置及び方法
JP5638974B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2007295559A (ja) ビデオ処理および表示
JP5644862B2 (ja) 立体視動画像生成装置、立体視動画像生成方法、立体視動画像生成プログラム
JP5127973B1 (ja) 映像処理装置、映像処理方法および映像表示装置
WO2012120880A1 (ja) 立体画像出力装置及び立体画像出力方法
JP5655862B2 (ja) 立体視動画像生成装置、立体視動画像生成方法、立体視動画像生成プログラム
JP5765418B2 (ja) 立体視画像生成装置、立体視画像生成方法、立体視画像生成プログラム
JP2014072809A (ja) 画像生成装置、画像生成方法、画像生成装置用プログラム
JP6021063B2 (ja) 動画編集装置、動画編集方法、プログラムおよび集積回路
JP4892105B1 (ja) 映像処理装置、映像処理方法および映像表示装置
JP2005275765A (ja) 画像処理装置、画像処理方法、画像処理プログラムおよびそのプログラムを記録した記録媒体
US9247229B2 (en) Temporal cadence perturbation for time-division stereoscopic displays
US9219903B2 (en) Temporal cadence perturbation for time-division stereoscopic displays
US9621870B2 (en) Temporal cadence perturbation for time-division stereoscopic displays
JP2011142410A (ja) 画像処理装置
KR20110091377A (ko) 최적시차 3d 영상물 제작방법, 그리고, 기록매체
JP6056459B2 (ja) 奥行き推定データ生成装置、擬似立体画像生成装置、奥行き推定データ生成方法及び奥行き推定データ生成プログラム
TW201310967A (zh) 立體影像處理裝置與方法
JP5395884B2 (ja) 映像処理装置、映像処理方法および映像表示装置
JP2012142852A (ja) 擬似立体画像生成装置、擬似立体画像生成プログラム及び擬似立体画像表示装置
JP2005234680A (ja) 画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体
JP2013090170A (ja) 立体視映像再生装置
JP2011146830A (ja) 映像処理装置、映像識別方法、映像表示装置及びコンピュータプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141007

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141020

R150 Certificate of patent or registration of utility model

Ref document number: 5644862

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees