JP5655862B2 - 立体視動画像生成装置、立体視動画像生成方法、立体視動画像生成プログラム - Google Patents

立体視動画像生成装置、立体視動画像生成方法、立体視動画像生成プログラム Download PDF

Info

Publication number
JP5655862B2
JP5655862B2 JP2012548604A JP2012548604A JP5655862B2 JP 5655862 B2 JP5655862 B2 JP 5655862B2 JP 2012548604 A JP2012548604 A JP 2012548604A JP 2012548604 A JP2012548604 A JP 2012548604A JP 5655862 B2 JP5655862 B2 JP 5655862B2
Authority
JP
Japan
Prior art keywords
image
moving
predetermined
moving image
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012548604A
Other languages
English (en)
Other versions
JPWO2012081127A1 (ja
Inventor
敏郎 大櫃
敏郎 大櫃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2012081127A1 publication Critical patent/JPWO2012081127A1/ja
Application granted granted Critical
Publication of JP5655862B2 publication Critical patent/JP5655862B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、立体視動画像生成装置、立体視動画像生成方法、立体視動画像生成プログラムに関する。
隣接した2つのカメラで撮影した画像の視差を利用して立体視が可能な画像を生成する立体視画像生成装置がある。立体視画像生成装置は、例えば、隣接した2つのカメラで撮影した画像のうち、一方のカメラによる画像を左眼用画像として、他方のカメラによる画像を右眼用画像として、生成して表示し、視聴者に立体的な画像を感じさせる。
同一の対象物に対して、左眼用画像における位置と、右眼用画像における位置との差を、視差という。画像内に存在する2つの対象物で、視差量が異なることにより、一方の対象物が他方の対象物に対して手前または奥に存在するように見える。視差量は、視差の大きさである。
図1は、立体視画像の例を示す図である。図1において、画像910が左眼用画像であり、画像920が右眼用画像である。ここで、左眼用画像である画像910、及び、右眼用画像である画像920には、それぞれ、物体A、物体B、物体Cが存在する。画像910及び画像920との間における、これらの物体の視差により、図1の立体視画像を見る者には、手前から、物体A、物体B、物体Cが存在するように見える。
国際公開第2004/043079号 特開2009−135686号公報 特開2008−160382号公報
動画像が視聴される際、動きのある対象物(オブジェクト、物体)が注目されることが多い。この動きのある対象物の視差量が、動画像の再生時もしくは生成(録画)時の異常等により、大きくなる場合がある。このとき、立体視動画像を視聴するユーザは、この視差量が大きい対象物を、右眼用動画像と左眼用動画像とで、同一の対象物として、認識できなくなることがある。
本件開示の装置は、右眼用動画像と左眼用動画像との間の視差量を動的に調整する立体視動画像生成装置を提供することを課題とする。
開示の立体視動画像生成装置は、上記課題を解決するために、以下の手段を採用する。
即ち、開示の一態様は、
それぞれ時刻情報と対応付けられる複数の画像を含む第1動画像、それぞれ前記時刻情報と対応付けられる複数の画像を含む第2動画像、所定画像、および、所定値を格納する格納部と、
第1時刻情報と対応付けられる第1動画像の第1画像および第2動画像の第2画像と、前記所定画像とを前記格納部から抽出し、前記第1画像における前記所定画像の存在位置である第1位置を算出し、前記第2画像における前記所定画像の存在位置である第2位置を算出し、前記第1位置と前記第2位置との差分である第1差分量を算出し、
前記第1動画像における前記第1時刻情報の次の時刻である第2時刻情報と対応付けられる第1動画像の第3画像および第2動画像の第4画像と、前記所定値を前記格納部から抽出し、前記第3画像における前記所定画像の存在位置である第3位置を算出し、前記第4画像における前記所定画像の存在位置である第4位置を算出し、前記第3位置と前記第4位置との差分である第2差分量を算出し、
前記第2差分量の大きさが前記所定値以上である場合、前記第2画像、前記第3画像、および、前記第1差分量に基づいて、新たな第4画像を生成する演算部と、
を備える立体視動画像生成装置とする。
開示の装置によれば、右眼用動画像と左眼用動画像との間の視差量を動的に調整する立体視動画像生成装置を提供することができる。
図1は、立体視画像の例を示す図である。 図2は、立体視画像における視差を説明する図である。 図3は、MPEG2データの構造の例を示す図である。 図4は、Iピクチャ、Pピクチャ、Bピクチャの関係を示す図である。 図5は、立体視動画像生成装置の例を示す図である。 図6は、情報処理装置のハードウェア構成例を示す図である。 図7は、立体視動画像生成装置の動作フローの例(1)を示す図である。 図8は、立体視動画像生成装置の動作フローの例(2)を示す図である。 図9は、立体視動画像生成装置の動作フローの例(3)を示す図である。 図10は、ステップS108の処理を説明する図である。
以下、図面を参照して実施形態について説明する。実施形態の構成は例示であり、開示の実施形態の構成に限定されない。
ここでは、主として、隣接する2つのカメラで撮影された画像による立体視動画像を使用して説明しているが、立体視動画像は、これに限定されず、例えば、人工的に生成された2つの動画像によるもの等であってもよい。
〔実施形態1〕
(視差)
図2は、立体視画像における視差を説明する図である。図2において、例えば、同一の対象物に対して、隣接する2つのカメラで撮影された画像のうち、左眼用画像を画像10、右眼用画像を画像20とする。図2の例では、画像10及び画像20に、同一の対象物である、物体1が含まれている。ここで、点P1は、画像10において物体1の位置を代表する点とする。点P2は、画像20において、物体1の位置を代表する点とする。物体1の位置を代表する点は、例えば、物体1の中心点としてもよいし、物体1の右端かつ下端の点としてもよい。物体1の位置を代表する点は、これらに限定されない。点P1及び点P2は、それぞれ、物体1において同一位置を示す点である。点P1および点P2は、それぞれ、画像10における物体1の位置および画像20における物体1の位置ともいう。
立体視画像における視差は、同一の対象物の、左眼用画像における位置と右眼用画像における位置との差である。視差量は、視差の大きさである。
図2の画像10及び画像20において、物体1の視差量は、画像10における物体1の位置(点P1)と、画像20における物体1の位置(点P2)との差である。即ち、画像10における点P1の座標を(XL,YL)、画像20における点P2の座標を(XR,YR)とすると、物体1の視差量は、次のように表される。
Figure 0005655862
ここで、ΔXは、横方向の視差量を示し、ΔYは縦方向の視差量を示す。
例えば、右眼用画像を、この視差量分、平行移動することにより、立体視画像における物体1の視差がなくなる。
(データ構造の例)
〈MPEG2〉
ここでは、MPEG2フォーマットについて説明する。
MPEG2フォーマットでは、動画像は、時間情報を有する複数の画像(静止画像)を含む。この動画像は、時間情報の時間順に再生される。MPEG2フォーマットにおける各画像データは、所定の数の画像データ毎に圧縮される。
図3は、MPEG2データの構造の例を示す図である。図3のMPEG2データは、階層構造になっている。図3のMPEG2データは、画像出力フレームレイヤ、GOP(Group of Pictures)レイヤ、ピクチャレイヤ、ラインレイヤ、MB(Micro Block)レイヤを含む。
画像出力フレームレイヤは、1つの映像に対応するMPEG2データである。画像フレームレイヤは、GOP(Group of Pictures)、及び、これに対応するSH(Sequence Header;シーケンスヘッダ)を含む。画像出力フレームレイヤは、複数のGOPおよびSHを含む。
GOPは、フレームを効率的に管理するために必要なフレーム(ピクチャ)の集合である。フレームは、動画データにおいて編集可能な最小単位である。SHは、GOPの画像の開始ポイント等の情報を含む。SHには、時間情報やフレームレートが含まれ得る。
GOPレイヤは、単独で再生可能なI(Intra-coded)ピクチャ、過去のIピクチャまたはPピクチャを用いて再生されるP(Predicted)ピクチャ、及び、過去及び未来のIピクチャまたはPピクチャを用いて再生されるB(Bi-directional Predicted)ピクチャを含む。Iピクチャは、最初に符号化されるフレームである。復号は、Iピクチャから始められる。
ピクチャレイヤは、複数のラインブロックを含む。図3の例では、ピクチャレイヤはn個のラインブロックを含む。ピクチャレイヤに含まれるラインブロックの数は、ピクチャのサイズに依存する。
ラインレイヤは、複数のマクロブロック(MB;Macro Block)を含む。マクロブロックは、輝度情報(Y情報)、色差情報(Cr情報、Cb情報)を含む。
図4は、Iピクチャ、Pピクチャ、Bピクチャの関係を示す図である。図4の例では、左のピクチャから順に、時間が古い(過去の)ピクチャである。Iピクチャは、単独で再生可能である。Pピクチャは、過去のIピクチャまたはPピクチャから情報を得て再生される。Bピクチャは、過去のIピクチャまたはPピクチャ、および、未来のPピクチャから情報を得て再生される。ここで、情報とは、ピクチャ内の領域(例えば、マクロブロック)、および、この領域の動き予測(動きベクトル)である。
Iピクチャのデータには、移動する画像および移動しない画像のデータが含まれる。Iピクチャのデータでは、移動する画像と移動しない画像とが区別される。移動しない画像は、このピクチャの次の時刻のピクチャでも変化しない背景等である。移動しない画像は、動きベクトルがゼロベクトルである領域の画像である。移動する画像は、このピクチャの次の時刻のピクチャにおいて移動する物体等を含む画像である。移動する画像は、動きベクトルがゼロベクトルでない領域の画像である。Pピクチャのデータには、移動する画像および移動しない画像のデータが含まれる。Pピクチャのデータでは、移動する画像と移動しない画像とが区別される。Bピクチャのデータには、移動する画像のデータが含まれる。即ち、Bピクチャのデータには、動きベクトルがゼロベクトルでない領域の画像が含まれる。各ピクチャのデータは、移動する画像のデータを含む。ただし、画像全体で動きがない場合は、各ピクチャのデータは、移動する画像のデータを含まない。
〈AVI〉
ここでは、AVIフォーマットについて説明する。
AVIフォーマットでは、動画像は、時間情報を有する複数の画像(静止画像)を含む。この動画像は、時間情報の時間順に再生される。AVIフォーマットにおける各画像データは、画像データ毎に圧縮される。AVIフォーマットにおける各画像データは、先に説明したIピクチャのように単独で再生可能である。また、各画像データは、移動する画像と移動しない画像との区別を有しない。
処理しようとする画像とこの画像の直前の時刻の画像とで差分を取り、差分が0である領域が移動しない画像であり、差分が0でない領域が移動する領域とすることができる。あらかじめ、時間的に隣接する画像同士で差分を算出しておくことにより、動画像が、AVIフォーマットであっても、画像全体を、移動する画像と、移動しない画像とに、分けることができる。移動する画像(領域)と移動しない画像(領域)とは、あらかじめ算出されて、格納部等に格納されてもよい。
(構成)
図5は、立体視画像生成装置の例を示す図である。立体視画像生成装置100は、取得部110、演算部120、格納部130を含む。
取得部110は、外部または内部の入力装置から、動画像を取得する。取得部110が取得する動画像は、立体視動画像の、左眼用動画像、及び、右眼用動画像である。取得部110が取得した動画像は、格納部130に格納される。左眼用動画像及び右眼用動画像は、それぞれ、対応付けられて、格納部130に格納される。動画像は、例えば、連続する、複数の、時間情報が付加された画像(静止画像)を含む。動画像に含まれる各画像は、画像内の点毎に画素値を有する。画素値は、点の色などを示す情報である。画素値は、例えば、RGB表色系のR(Red)値、G(Green)値、B(Blue)値で表される。RGB表色系の代わりに、他の表色系(例えば、YUV表色系)によるパラメータ(値)が使用されてもよい。YUV表色系によるパラメータが使用された場合、輝度値として、Y(Yellow)値が使用されてもよい。
演算部120は、取得部110が取得した動画像に含まれる1つ1つの画像に対して、視差量の算出を行い、立体視画像を生成する。演算部120が生成した立体視画像は、格納部130に格納される。
格納部130は、取得部110が取得した動画像、及び、演算部120が生成した立体視画像、演算部120が算出した視差量、生成する立体視動画像に対してあらかじめ定められたオフセット量等を格納する。
表示部140は、格納部130に格納される動画像等を表示する。
受信部150は、基準オブジェクトの選択等の、ユーザからの入力を受け付ける。
図6は、情報処理装置300のハードウェア構成例を示す図である。立体視画像生成装置100は、例えば、図6に示すような情報処理装置300によって、実現される。情報処理装置300は、CPU(Central Processing Unit)302、メモリ304、記憶部306、入力部308、出力部310、通信部312を含む。
情報処理装置300は、CPU302が記録部306に記憶されたプログラムをメモリ304の作業領域にロードして実行し、プログラムの実行を通じて周辺機器が制御されることによって、所定の目的に合致した機能を実現することができる。
CPU302は、記憶部306に格納されるプログラムに従って処理を行う。メモリ304は、CPU302がプログラムやデータをキャッシュしたり作業領域を展開したりする。メモリ304は、例えば、例えば、RAM(Random Access Memory)やROM(Read Only Memory)を含む。
記憶部306は、各種のプログラム及び各種のデータを読み書き自在に記録媒体に格納する。記憶部306としては、ソリッドステートドライブ装置、ハードディスクドライブ装置、CD(Compact Disc)ドライブ装置、DVD(Digital Versatile Disk)ドライブ装置、+R/+RWドライブ装置、HD DVD(High-Definition Digital Versatile Disk)ドライブ装置、または、BD(Blu-ray Disk)ドライブ装置がある。また、記録媒体としては、不揮発性半導体メモリ(フラッシュメモリ)を含むシリコンディスク、ハードディスク、CD、DVD、+R/+RW、HD DVD、または、BDがある。CDとしては、CD−R(Recordable)、CD−RW(Rewritable)、CD−ROMがある。DVDとしては、DVD−R、DVD−RAM(Random Access Memory)がある。BDとしては、BD−R、BD−RE(Rewritable)、BD−ROMがある。
入力部308は、ユーザ等からの操作指示等を受け付ける。入力部308は、キーボード、ポインティングデバイス、ワイヤレスリモコン、マイクロフォン、複数のカメラ等の入力デバイスである。入力部308から入力された情報は、CPU302に通知される。
出力部310は、CPU302で処理されるデータやメモリ304に記憶されるデータを出力する。出力部310は、CRT(Cathode Ray Tube)ディスプレイ、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、EL(Electroluminescence)パネル、プリンタ、スピーカ等の出力デバイスである。
通信部312は、外部装置とデータの送受信を行う。通信部312は、例えば、信号線を介して、外部装置と接続される。通信部312は、例えば、LAN(Local Area Network)インタフェースボードや、無線通信のための無線通信回路である。
情報処理装置300は、記憶部306に、オペレーティングシステム、各種プログラム、各種テーブル、を記憶している。
オペレーティングシステムは、ソフトウェアとハードウェアとの仲介、メモリ空間の管理、ファイル管理、プロセスやタスクの管理等を行うソフトウェアである。オペレーティングシステムは、通信インタフェースを含む。通信インタフェースは、通信部312を介して接続される他の外部装置等とデータのやり取りを行うプログラムである。
立体視画像生成装置100を実現できる情報処理装置300は、CPU302が記憶部306に記憶されているプログラムをメモリ304にロードして実行することによって、取得部110、演算部120、受信部150としての機能を実現する。また、格納部130は、メモリ304、記憶部306等の記憶領域に設けられる。表示部140は、CPU302、出力部310等によって実現される。受信部150は、CPU302、入力部308等によって実現される。
(動作例)
立体視動画像生成装置100の動作例について説明する。以下の説明では、左眼用動画像および右眼用動画像が使用されるが、左眼用動画像と右眼用動画像との間には、優劣はなく、互いに入れ替えることができる。同様に、左眼用画像および右眼用画像が使用されるが、左眼用画像と右眼用画像との間には、優劣はなく、互いに入れ替えることができる。
図7、図8および図9は、立体視動画像生成装置100の動作フローの例を示す図である。図7の「A」は、図8の「A」と接続する。図8の「B」及び「C」は、それぞれ、図9の「B」及び「C」と接続する。図7の動作フローは、例えば、立体視動画像生成装置100の電源が投入されることを契機に開始される。
立体視動画像生成装置100は、左眼用動画像および右眼用動画像を取得する。立体視動画像生成装置100は、生成しようとする立体視動画像に対して定められたオフセット量がある場合には、当該オフセット量に基づいて、動画像に含まれるすべての画像について、画像全体を平行移動する(S101〜S103)。動画像は、連続した複数の静止画像(フレーム、ピクチャ)を含む。さらに、立体視動画像生成装置100は、静止画像毎に移動しているオブジェクトの視差量を算出する。当該視差量が、所定値未満でない場合、例えば、左眼用画像等に基づいて、右眼用画像を生成する(S104〜S110)。立体視画像生成装置100は、調整後の画像を立体視動画像の画像として出力する。左眼用画像および右眼用画像は、通常、時刻情報の時刻順に再生される。動画像は、例えば、MPEG2フォーマットにより圧縮される。ただし、立体視動画像生成装置100の処理は、これらのような処理に限定されるものではない。
左眼用動画像および右眼用動画像は、それぞれに含まれる1つ1つの画像(静止画像)毎に、時刻情報に対応付けられる。左眼用動画像および右眼用動画像は、それぞれに含まれる画像毎に、共通する時間情報に対応付けられる。画像と時間情報との対応付けは、例えば、各画像が時間情報を有することにより実現される。また、画像と時間情報との対応付けは、例えば、各画像に振られる再生順の通し番号と、先頭画像の時間情報と、フレームレート(単位時間あたりの画像数)とにより、実現される。さらに、画像と時間情報との対応付けは、例えば、再生順に並べられた各画像と、先頭画像の時間情報と、フレームレート(単位時間あたりの画像数)とにより、実現される。また、先頭画像の時間情報はなくてもよい。
図7、図8および図9の動作フローについて、詳細に説明する。
取得部110は、左眼用動画像および右眼用動画像を取得する(S101)。取得部110は、左眼用動画像および右眼用動画像を、立体視動画像生成装置100に内蔵されるカメラから取得してもよいし、外部装置から取得してもよい。取得された左眼用動画像および右眼用動画像は、格納部130に格納される。左眼用動画像および右眼用動画像は、あらかじめ、格納部130に格納されていてもよい。
演算部120は、生成しようとする立体視動画像に対してあらかじめ定められているオフセット量を取得する。(S102)。演算部120は、例えば、格納部130から、生成しようとする立体視動画像に対してあらかじめ定められているオフセット量を抽出する。オフセット量は、一方又は両方の動画像の全体を、あらかじめ移動させる量である。オフセット量を定めることにより、例えば、画像内の特定のオブジェクトの最初の画像における視差量を0にすることができる。また、オフセット量を定めることにより、例えば、左眼用画像と右眼用画像とで、高さを揃えることができる。当該オフセット量が格納部に格納されていない場合、当該オフセット量は0であるとする。演算部120は、ユーザに対し、オフセット量を入力させ、この入力された値をオフセット量としてもよい。ここで、横方向のオフセット量をΔX0、縦方向のオフセット量をΔY0とする。
演算部120は、立体視動画像を生成する(S103)。S103の処理では、演算部120は、例えば、格納部130から右眼用動画像を取り出す。そして、演算部120は、右眼用動画像において、すべての時刻の画像について、画像全体を、ステップS102で取得したオフセット量分だけ平行移動した画像を、新たな右眼用動画像とする。視差量として、ステップS102で取得したオフセット量(ΔX0およびΔY0)が使用される。演算部120は、左眼用動画像および新たな右眼用動画像を、立体視動画像として、格納部130に格納する。ここで格納される左眼用動画像を、新たな左眼用動画像と称してもよい。
また、上記の説明では、一方の画像全体を平行移動して新たな画像としている。ここで、演算部120は、それぞれの動画像(左眼用動画像、右眼用動画像)において、オフセット量の1/2の量で動画像の画像全体を平行移動してもよい。また、演算部120は、一方の動画像においてオフセット量の1/3の量で動画像の画像全体を平行移動し、他方の動画像においてオフセット量の2/3の量で動画像の画像全体を平行移動してもよい。この平行移動する際のオフセット量に対する割合は、自由に設定され得る。ただし、左眼用動画像と右眼用動画像とにおける平行移動の量が、全体としてオフセット量に一致することが求められる。このとき、演算部120は、新たな左眼用動画像および新たな右眼用動画像を生成し、格納部130に格納することになる。
格納された左眼用動画像及び右眼用動画像は、立体視用の表示装置において、表示されうる。立体視用の表示装置は、左眼用動画像を左眼に、右眼用動画像を右眼に入力するような、表示装置である。また、格納された左眼用動画像及び右眼用動画像は、表示部140に表示されてもよい。
ステップS103では、動画像におけるすべての時刻の画像が、ステップS102で取得したオフセット量(ΔX0およびΔY0)に基づいて、処理される。
以降の処理において、ステップS103で処理された左眼用動画像、および、右眼用動画像が使用される。スッテプS103におけるオフセット量分だけ平行移動する処理は、ステップS104において、画像毎に処理されてもよい。
ステップS104では、演算部120は、直前に処理した画像の次の時刻の画像(左眼用画像および右眼用画像)を、格納部130から取り出す。取り出された左眼用画像および右眼用画像は、既に、ステップS102で取得されたオフセット量に基づいて、処理されている。演算部120は、直前に処理した画像(直前のステップS103または直前のステップS104で処理した画像)と、この画像の次の時刻の画像とで、画像内のいずれかのオブジェクトが移動したか否かを判定する(図8:S104)。即ち、演算部120は、直前に処理した左眼用画像と、この画像の次の時刻の左眼用画像とで、いずれかのオブジェクトが移動したか否かを判定する。また、演算部120は、直前に処理した右眼用画像と、この画像の次の時刻の右眼用画像とで、いずれかのオブジェクトが移動したか否かを判定する。
具体的には、演算部120は、例えば、直前に処理した画像の次の時刻の画像のデータに、移動する画像(領域)が存在するか否かにより、いずれかのオブジェクトが移動したか否かを判定する。移動する画像(領域)は、移動している物体(オブジェクト)等を含む画像である。移動する画像(領域)が存在しない場合、画像内に移動している部分はない。よって、移動する画像(領域)が存在しない場合、画像内のいずれのオブジェクトも移動していないと考えられる。また、移動する画像が存在する場合、演算部120は、いずれかのオブジェクトが移動していると判定する。
また、演算部120は、例えば、直前に処理した画像とこの次の時刻の画像との間で、各画素の差分をとり、差分が0でない領域が存在するか否かにより、いずれかのオブジェクトが移動したか否かを判定してもよい。差分が0でない領域は、移動している物体(オブジェクト)等を含む画像である。演算部120は、直前に処理した画像上で、差分が0でない領域を、移動している物体の画像としてもよい。差分が0でない領域が存在しない場合、画像内に移動している部分はない。よって、差分が0でない領域が存在しない場合、画像内のいずれのオブジェクトも移動していないと考えられる。また、差分が0でない領域が存在する場合、演算部120は、いずれかのオブジェクトが移動していると判定する。
いずれかのオブジェクトが移動していると判断された場合(S104;YES)、演算部120は、ステップS104で取り出された左眼用画像および右眼用画像において、2つの移動する画像内で共通する物体(オブジェクト)を抽出する(S105)。また、一方の画像(左眼用画像または右眼用画像)内にのみ移動する画像が存在する場合、演算部120は、当該移動する画像と、移動する画像が存在しない画像とで、共通する物体(オブジェクト)を抽出する。これらの共通するオブジェクトは、移動するオブジェクトである。共通するオブジェクトの抽出には、例えば、パターンマッチングが使用される。演算部120は、共通する物体(移動するオブジェクト)のそれぞれの画像(左眼用画像及び右眼用画像)における位置を、格納部130に格納する。また、演算部120は、共通するオブジェクトの画像を格納部130に格納する。
パターンマッチングは、例えば、次のように実行される。演算部120が、左眼用画像の移動する画像と右眼用画像の移動する画像とをある位置で重ね合わせ、重ね合わせられた領域の画素値の差分をとる。演算部120は、重ね合わせられた領域のうち差分が0である領域の位置及びその大きさを求める。領域の位置は、例えば、各画像における領域の中心位置とすることができる。また、演算部120は、重ね合わせる位置を任意に平行移動させて、同様に、各位置で重ね合わされた領域の差分をとり、重ね合わせられた領域のうち差分が0である領域の位置及びその大きさを求める。演算部120は、差分が0である領域の大きさが最も大きいものを抽出する。演算部120は、差分が0である領域の大きさが最も大きい領域(差分が0である領域)が、移動するオブジェクト(共通する物体)であり、その領域(差分が0である領域)の位置が移動するオブジェクトの位置であるとすることができる。この領域は、左眼用画像と右眼用画像とで、同一の形態の同一のオブジェクトであると考えられる。なお、パターンマッチングの手法として、上記に限定されず他の周知の方法が適用されうる。これらの共通する物体(移動するオブジェクト)は、立体視動画像において同一のオブジェクトとして、立体視動画像を視聴するユーザに認識されるものである。
ここで、共通する物体の画像(所定画像とする)は、あらかじめ格納部130に格納されていてもよい。このとき、演算部120は、格納部130に格納される所定画像と、左眼用画像および右眼用画像とを、パターンマッチングして、共通する物体を抽出してもよい。また、一度抽出された共通する物体の画像が、所定画像として格納部130に格納されてもよい。
ステップS106では、演算部120は、移動するオブジェクトの間の視差量を算出する(S106)。演算部120は、ステップS105で求めた、左眼用画像の移動するオブジェクトの位置と、右眼用画像の移動するオブジェクトの位置との差を算出する。この求めた差が、ここでの視差量となる。この求めた差のうち、横方向の差を視差量ΔX1、縦方向の差を視差量ΔY1とする。演算部120は、この横方向の視差量ΔX1および縦方向の視差量ΔY1を、時刻情報と共に格納部130に格納する。視差量ΔX1および視差量ΔY1の初期値は、共に、0である。
演算部120は、ステップS106で算出された視差量の大きさが所定値未満であるか否かを判定する(S107)。視差量の大きさAは、次の式で示される。
Figure 0005655862
演算部120は、視差量の大きさAが、所定値未満であるか否かを判定する。当該所定値は、あらかじめ、格納部130に格納される。当該所定値は、適宜、演算部120によって格納部130から取り出される。当該所定値は、立体視動画像を視聴するユーザが、左眼用画像および右眼用画像に表示される共通する物体を同一のオブジェクトとして認識できるか否かに基づいて定められる。当該所定量は、例えば、画像(左眼用画像または右眼用画像)の横幅に対して3%の量とすることができる。左眼用画像および右眼用画像に表示される共通する物体の視差量の大きさが画像の横幅の3%以内であれば、ユーザは、左眼用画像および右眼用画像に表示される共通する物体を同一の物体と認識できる。当該所定量は、画像の横幅の3%に限定されるものではなく、他の値であってもよい。ここで想定される画像は、横と縦との比率が16:9程度の画像である。したがって、横と縦との比率がこの比率から離れた画像である場合、当該所定値は、画像の横幅の3%よりも大きくなったり、小さくなったりし得る。また、当該所定値は、画像の縦幅に対する比率であってもよい。視差量の大きさAが所定値未満であれば、ユーザは左眼用画像および右眼用画像に表示される共通する物体を同一のオブジェクトとして認識できる。視差量の大きさAが所定値以上の場合、ユーザは左眼用画像および右眼用画像に表示される共通する物体を同一のオブジェクトとして認識できないおそれがある。
視差量の大きさが所定値以上である場合(S107;YES)、演算部120は、右眼用画像を新たに生成する(S108)。演算部120は、ステップS104における直前に処理した右眼用画像の移動しない画像と、ステップS104で処理した左眼用画像の移動するオブジェクトと、直前の画像における視差量とにより、新たな右眼用画像を生成する。即ち、演算部120は、直前に処理した右眼用画像の移動しない画像に、ステップS104で処理した左眼用画像の移動するオブジェクトを重ね合わせて新たな右眼用画像とする。重ねあわせる位置は、ステップS104で処理した左眼用画像の移動するオブジェクトの、左眼用画像における位置から、直前に処理した画像における移動するオブジェクトの視差量分、平行移動した位置となる。演算部120は、右眼用画像の代わりに左眼用画像を新たに生成してもよい。また、演算部120は、共通する物体の移動量を算出し、移動量が大きい方の画像(左眼用画像または右眼用画像)を新たに生成する画像としてもよい。逆に、演算部120は、共通する物体の移動量を算出し、移動量が小さい方の画像(左眼用画像または右眼用画像)を新たに生成する画像としてもよい。共通する物体の移動量は、ステップS104における直前に処理した画像とこの次の時刻の画像とにおける移動するオブジェクトの位置の差によって算出される。
図10は、ステップS108を説明する図である。図10では、時刻t=t1における左眼用画像1001L及び右眼用画像1001R、時刻t=t2における左眼用画像1002L、右眼用画像1002R及び新たな右眼用画像1002R1が示される。時刻t1における画像は、時刻t2における画像の直前の画像である。ここで、物体1011L、物体1011R、物体1012L、物体1012Rは、同一の移動しない物体である。同様に、物体1021L、物体1021R、物体1022L、物体1022Rは、同一の移動しない物体である。これらの移動しない物体は、それぞれの画像(左眼用画像1001L等)の移動しない画像に存在する。また、物体1031L、物体1031R、物体1032L、物体1032Rは、同一の移動する物体である。これらの移動する物体は、それぞれの画像(左眼用画像1001L等)の移動する画像に存在する。
時刻t1における移動する物体1031Lの左眼用画像1001Lにおける位置を(XL1,YL1)、物体1031Rの右眼用画像1001Rにおける位置を(XR1,YR1)とする。この移動する物体の視差量は、次のように求められる。
Figure 0005655862
同様にして、時刻t2における移動する物体1032Lの左眼用画像1002Lにおける位置を(XL2,YL2)、物体1032Rの右眼用画像1002Rにおける位置を(XR2,YR2)とする。この移動する物体の視差量は、次のように求められる。
Figure 0005655862
また、これから、時刻t2における移動する物体1032(物体1032L及び物体1032R)の視差量の大きさA(t2)は、次のように求まる。
Figure 0005655862
ここで、視差量の大きさA(t2)が所定値以上である場合、演算部120は、右眼用画像を新たに生成する。演算部120は、時刻t1における右眼用画像1001Rの移動しない画像と、時刻t2における左眼用画像の移動する物体1032Lと、時刻t1における物体1031(物体1031L及び物体1031R)の視差量とにより、新たな右眼用画像を生成する。即ち、演算部120は、時刻t1における右眼用画像1001Rの移動しない画像に、時刻t2における左眼用画像の移動する物体1032Lを重ね合わせて新たな右眼用画像1002R1とする。重ねあわせる位置は、時刻t2における左眼用画像の移動する物体1032Lの位置(XL1,YL2)から、時刻t1における移動する物体1031(物体1031L及び物体1031R)の視差量分(ΔX1(t1)及びΔY1(t1))、平行移動した位置となる。時刻t2の右眼用画像における移動後の物体1032の位置は、新たな右眼用画像1002R1の物体1032R1の位置となる。また、ここで、演算部120は、視差量の大きさA(t2)はA(t1)であるとして、格納部130に格納する。この視差量の大きさA(t2)(=A(t1))は、時刻t2における左眼用画像の移動する物体の位置と新たな右眼用画像の移動する物体の位置との間の視差量の大きさである。
図8に戻って、いずれかのオブジェクトが移動していないと判断された場合(S104;NO)、または、視差量の大きさが所定値未満である場合(S107;YES)、処理がステップS109に進む。
ステップS109では、演算部120は、立体視画像を生成する(S109)。演算部120は、ステップS104で抽出した左眼用画像及び右眼用画像を、立体視動画像の1つ(1組)の画像として、ステップS104で処理した時刻情報と対応づけて、格納部130に格納する。演算部120は、ステップS108で、右眼用画像(または、左眼用画像)を生成した場合は、演算部120は、この画像を、右眼用画像(または、左眼用画像)とする。
ステップS110では、演算部120は、ステップS104で処理した画像の時刻情報の時刻の次の時刻情報の時刻を有する画像が存在するかを確認する。即ち、演算部120は、ステップS104で処理した画像が、最後の画像であるか否かを判断する(S110)。ステップS104で処理した画像が最後の画像である場合(S110;YES)、演算部120は、処理を終了する。ステップS104で処理した画像が最後の画像でない場合(S110;NO)、演算部120は、処理をステップS104に戻す。
(実施形態の作用効果)
立体視動画像生成装置100は、移動するオブジェクトの左眼用画像と右眼用画像との間の視差量を算出する。立体視動画像生成装置100は、算出した視差量の大きさが所定値未満でない場合、直前に処理した画像、直前に処理した画像における視差量、及び、移動するオブジェクトに基づいて、新たな画像を生成する。
立体視動画像生成装置100は、画像処理の異常等により、左眼用画像と右眼用画像とで共通するオブジェクトが同一のオブジェクトとして認識できない可能性がある場合、新たな画像を生成する。立体視動画像生成装置100は、新たな画像を生成することで、共通するオブジェクトが同一のオブジェクトとして認識できる違和感のない立体視動画像を生成できる。
100 立体視動画像生成装置
110 取得部
120 演算部
130 格納部
140 表示部
150 受信部
300 情報処理装置
302 CPU
304 メモリ
306 記憶部
308 入力部
310 出力部
312 通信部

Claims (9)

  1. それぞれ時刻情報と対応付けられる複数の画像を含む第1動画像、それぞれ前記時刻情報と対応付けられる複数の画像を含む第2動画像、所定画像、および、所定値を格納する格納部と、
    第1時刻情報と対応付けられる第1動画像の第1画像および第2動画像の第2画像と、前記所定画像とを前記格納部から抽出し、前記第1画像における前記所定画像の存在位置である第1位置を算出し、前記第2画像における前記所定画像の存在位置である第2位置を算出し、前記第1位置と前記第2位置との差分である第1差分量を算出し、
    前記第1動画像における前記第1時刻情報の次の時刻である第2時刻情報と対応付けられる第1動画像の第3画像および第2動画像の第4画像と、前記所定値を前記格納部から抽出し、前記第3画像における前記所定画像の存在位置である第3位置を算出し、前記第4画像における前記所定画像の存在位置である第4位置を算出し、前記第3位置と前記第4位置との差分である第2差分量を算出し、
    前記第2差分量の大きさが前記所定値以上である場合、前記第4画像における前記所定画像の存在位置が前記第3位置から前記第1差分量だけ平行移動した位置になるように、新たな第4画像を生成する演算部と、
    を備える立体視動画像生成装置。
  2. 前記所定画像は、前記第1画像上で、前記第1画像と前記第3画像との間で、各画素の差分が0でない領域の画像、または、前記第2画像上で、前記第2画像と前記第4画像との間で、各画素の差分が0でない領域の画像である、
    請求項1に記載の立体視画像生成装置。
  3. 前記所定値は、前記第1画像の横幅に対する所定の割合の大きさとする、
    請求項1または2に記載の立体視画像生成装置。
  4. コンピュータが、
    それぞれ時刻情報と対応付けられる複数の画像を含む第1動画像、それぞれ前記時刻情報と対応付けられる複数の画像を含む第2動画像、所定画像、および、所定値を格納する記憶装置から、第1時刻情報と対応付けられる第1動画像の第1画像および第2動画像の
    第2画像と、前記所定画像とを抽出し、前記第1画像における前記所定画像の存在位置である第1位置を算出し、前記第2画像における前記所定画像の存在位置である第2位置を算出し、前記第1位置と前記第2位置との差分である第1差分量を算出し、
    前記記憶装置から、前記第1動画像における前記第1時刻情報の次の時刻である第2時刻情報と対応付けられる第1動画像の第3画像および第2動画像の第4画像と、前記所定値を抽出し、前記第3画像における前記所定画像の存在位置である第3位置を算出し、前記第4画像における前記所定画像の存在位置である第4位置を算出し、前記第3位置と前記第4位置との差分である第2差分量を算出し、
    前記第2差分量の大きさが前記所定値以上である場合、前記第4画像における前記所定画像の存在位置が前記第3位置から前記第1差分量だけ平行移動した位置になるように、新たな第4画像を生成することを実行する、
    立体視動画像生成方法。
  5. 前記所定画像は、前記第1画像上で、前記第1画像と前記第3画像との間で、各画素の差分が0でない領域の画像、または、前記第2画像上で、前記第2画像と前記第4画像との間で、各画素の差分が0でない領域の画像である、
    請求項4に記載の立体視画像生成方法。
  6. 前記所定値は、前記第1画像の横幅に対する所定の割合の大きさとする、
    請求項4または5に記載の立体視画像生成方法。
  7. コンピュータが、
    それぞれ時刻情報と対応付けられる複数の画像を含む第1動画像、それぞれ前記時刻情報と対応付けられる複数の画像を含む第2動画像、所定画像、および、所定値を格納する記憶装置から、第1時刻情報と対応付けられる第1動画像の第1画像および第2動画像の第2画像と、前記所定画像とを抽出し、前記第1画像における前記所定画像の存在位置である第1位置を算出し、前記第2画像における前記所定画像の存在位置である第2位置を算出し、前記第1位置と前記第2位置との差分である第1差分量を算出し、
    前記記憶装置から、前記第1動画像における前記第1時刻情報の次の時刻である第2時刻情報と対応付けられる第1動画像の第3画像および第2動画像の第4画像と、前記所定値を抽出し、前記第3画像における前記所定画像の存在位置である第3位置を算出し、前記第4画像における前記所定画像の存在位置である第4位置を算出し、前記第3位置と前記第4位置との差分である第2差分量を算出し、
    前記第2差分量の大きさが前記所定値以上である場合、前記第4画像における前記所定画像の存在位置が前記第3位置から前記第1差分量だけ平行移動した位置になるように、新たな第4画像を生成することを実行するための、
    立体視動画像生成プログラム。
  8. 前記所定画像は、前記第1画像上で、前記第1画像と前記第3画像との間で、各画素の差分が0でない領域の画像、または、前記第2画像上で、前記第2画像と前記第4画像との間で、各画素の差分が0でない領域の画像である、
    請求項7に記載の立体視画像生成プログラム。
  9. 前記所定値は、前記第1画像の横幅に対する所定の割合の大きさとする、
    請求項7または8に記載の立体視画像生成プログラム。
JP2012548604A 2010-12-17 2010-12-17 立体視動画像生成装置、立体視動画像生成方法、立体視動画像生成プログラム Expired - Fee Related JP5655862B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/072814 WO2012081127A1 (ja) 2010-12-17 2010-12-17 立体視動画像生成装置、立体視動画像生成方法、立体視動画像生成プログラム

Publications (2)

Publication Number Publication Date
JPWO2012081127A1 JPWO2012081127A1 (ja) 2014-05-22
JP5655862B2 true JP5655862B2 (ja) 2015-01-21

Family

ID=46244254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012548604A Expired - Fee Related JP5655862B2 (ja) 2010-12-17 2010-12-17 立体視動画像生成装置、立体視動画像生成方法、立体視動画像生成プログラム

Country Status (5)

Country Link
US (1) US20130278717A1 (ja)
JP (1) JP5655862B2 (ja)
KR (1) KR101512255B1 (ja)
CN (1) CN103262545B (ja)
WO (1) WO2012081127A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG10201510773PA (en) * 2015-12-30 2017-07-28 Creative Tech Ltd A method for creating a stereoscopic image sequence

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11164328A (ja) * 1997-11-27 1999-06-18 Toshiba Corp 立体映像表示装置
JP2003018619A (ja) * 2001-07-03 2003-01-17 Olympus Optical Co Ltd 立体映像評価装置およびそれを用いた表示装置
JP2005142819A (ja) * 2003-11-06 2005-06-02 Univ Waseda 立体映像評価装置および立体映像チューナ
JP2010086228A (ja) * 2008-09-30 2010-04-15 Fujifilm Corp 3次元表示装置および方法並びにプログラム
JP2011055421A (ja) * 2009-09-04 2011-03-17 Canon Inc 映像処理装置及びその制御方法
JP2012054836A (ja) * 2010-09-02 2012-03-15 Olympus Imaging Corp 撮像装置および画像通信システム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3150446B2 (ja) * 1992-09-29 2001-03-26 富士通株式会社 画像高能率符号化方式
JP2000209614A (ja) * 1999-01-14 2000-07-28 Sony Corp 立体映像システム
JP4148811B2 (ja) * 2003-03-24 2008-09-10 三洋電機株式会社 立体画像表示装置
JP4027268B2 (ja) * 2003-05-29 2007-12-26 株式会社ソフィア 遊技機
KR100679740B1 (ko) * 2004-06-25 2007-02-07 학교법인연세대학교 시점 선택이 가능한 다시점 동영상 부호화/복호화 방법
JP4877090B2 (ja) * 2007-06-18 2012-02-15 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
US20090146961A1 (en) * 2007-12-05 2009-06-11 David Shun-Chi Cheung Digital image editing interface
KR20110063615A (ko) * 2008-09-30 2011-06-13 파나소닉 주식회사 3d 영상이 기록된 기록매체, 3d 영상을 재생하는 재생장치 및 시스템 lsi
JP4995854B2 (ja) * 2009-03-11 2012-08-08 富士フイルム株式会社 撮像装置、画像補正方法および画像補正プログラム
JP5293463B2 (ja) * 2009-07-09 2013-09-18 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
WO2011014419A1 (en) * 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for creating three-dimensional (3d) images of a scene

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11164328A (ja) * 1997-11-27 1999-06-18 Toshiba Corp 立体映像表示装置
JP2003018619A (ja) * 2001-07-03 2003-01-17 Olympus Optical Co Ltd 立体映像評価装置およびそれを用いた表示装置
JP2005142819A (ja) * 2003-11-06 2005-06-02 Univ Waseda 立体映像評価装置および立体映像チューナ
JP2010086228A (ja) * 2008-09-30 2010-04-15 Fujifilm Corp 3次元表示装置および方法並びにプログラム
JP2011055421A (ja) * 2009-09-04 2011-03-17 Canon Inc 映像処理装置及びその制御方法
JP2012054836A (ja) * 2010-09-02 2012-03-15 Olympus Imaging Corp 撮像装置および画像通信システム

Also Published As

Publication number Publication date
US20130278717A1 (en) 2013-10-24
CN103262545B (zh) 2015-10-14
JPWO2012081127A1 (ja) 2014-05-22
CN103262545A (zh) 2013-08-21
KR101512255B1 (ko) 2015-04-14
WO2012081127A1 (ja) 2012-06-21
KR20130117816A (ko) 2013-10-28

Similar Documents

Publication Publication Date Title
JP5406269B2 (ja) 奥行き検知装置及び方法
US9210398B2 (en) Method and apparatus for temporally interpolating three-dimensional depth image
JP5638974B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US20120098932A1 (en) Disparity estimation system, apparatus, and method for estimating consisten disparity from multi-viewpoint video
US20120307023A1 (en) Disparity distribution estimation for 3d tv
WO2016047073A1 (ja) 画像接合装置、撮像装置、画像接合方法、及び画像接合プログラム
JP5644862B2 (ja) 立体視動画像生成装置、立体視動画像生成方法、立体視動画像生成プログラム
JP5655862B2 (ja) 立体視動画像生成装置、立体視動画像生成方法、立体視動画像生成プログラム
JP5765418B2 (ja) 立体視画像生成装置、立体視画像生成方法、立体視画像生成プログラム
WO2012120880A1 (ja) 立体画像出力装置及び立体画像出力方法
JP6021063B2 (ja) 動画編集装置、動画編集方法、プログラムおよび集積回路
JP4235209B2 (ja) 動きベクトル検出装置および動きベクトル検出方法
JP4892105B1 (ja) 映像処理装置、映像処理方法および映像表示装置
JP2005275765A (ja) 画像処理装置、画像処理方法、画像処理プログラムおよびそのプログラムを記録した記録媒体
JP2011142410A (ja) 画像処理装置
JP2017005480A (ja) 立体動画像処理装置、立体動画像処理方法、立体動画像処理プログラム、および記録媒体
JP6056459B2 (ja) 奥行き推定データ生成装置、擬似立体画像生成装置、奥行き推定データ生成方法及び奥行き推定データ生成プログラム
JP5395884B2 (ja) 映像処理装置、映像処理方法および映像表示装置
TW201310967A (zh) 立體影像處理裝置與方法
JP2007019796A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2005234680A (ja) 画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体
JP2011146830A (ja) 映像処理装置、映像識別方法、映像表示装置及びコンピュータプログラム
JP2012222373A (ja) 立体映像表示装置、立体映像信号処理方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141028

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141110

R150 Certificate of patent or registration of utility model

Ref document number: 5655862

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees