JP2013135277A - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP2013135277A
JP2013135277A JP2011283374A JP2011283374A JP2013135277A JP 2013135277 A JP2013135277 A JP 2013135277A JP 2011283374 A JP2011283374 A JP 2011283374A JP 2011283374 A JP2011283374 A JP 2011283374A JP 2013135277 A JP2013135277 A JP 2013135277A
Authority
JP
Japan
Prior art keywords
image data
image
parallax amount
switching point
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011283374A
Other languages
English (en)
Other versions
JP5899910B2 (ja
Inventor
Yoshiro Murakami
芳郎 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2011283374A priority Critical patent/JP5899910B2/ja
Publication of JP2013135277A publication Critical patent/JP2013135277A/ja
Application granted granted Critical
Publication of JP5899910B2 publication Critical patent/JP5899910B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】2D画像データと3D画像データとが混在した画像データを出力する際に、観察者の負担を減少させる。
【解決手段】切換点検出部201は、2D画像データから3D画像データに切り換わる切り換わり点を検出する。視差量導出部202は、切り換わり点以後の所定の3D画像データにおける視差量を導出する。視差量判定部203は、視差量が所定値を超えているか否かを判定する。奥行き推定データ生成部204が、切り換わり点より後の所定の3D画像データについて左右眼画像データの何れかから奥行き推定データを生成する。画像変換部103は、視差量が所定値を超えていると判断された場合は、切り換わり点より後の所定時間に亘って、3D画像データのかわりにその3D画像データの左右眼用画像データの何れかを、奥行き推定データから導出される視差量よりも小さい視差量を有する3D画像データに変換する。
【選択図】図1

Description

本発明は画像処理装置及び画像処理方法に関し、より詳細には2D画像データと3D画像データとが混在した画像データを出力する際に、観察者の負担を減少させることができる画像処理装置及び画像処理方法に関する。
近年、水平方向に視差を有する2つの画像が左眼用画像及び右眼用画像として同一ディスプレイ上に表示され、観察者が左眼用画像を左眼で、右眼用画像を右眼でそれぞれ独立して観察することで、ディスプレイ上に表示された画像があたかも立体的に存在するかのように知覚できる3D画像に関する技術の開発が盛んに行われている。
3D画像の表示及び観察方式としては、互いに直交する直線偏光を有する左眼用画像及び右眼用画像が同一ディスプレイ上に重ねて表示され、観察者が偏光フィルタの付いた眼鏡を用いて各画像を左右眼で独立して観察する方式がよく知られている。
また、左眼用画像及び右眼用画像それぞれが交互にディスプレイ上に表示され、観察者が左右の視界が交互に遮蔽される液晶シャッタの付いた眼鏡を用いて各画像を左右眼で独立して観察する方式等もよく知られている。
これらの3D画像に関する技術では、被写体画像が観察者から見てディスプレイ面に対しどの程度前方に飛び出しているように知覚されるか、又は被写体画像が観察者から見てディスプレイ面に対しどの程度後方に引き込んでいるように知覚されるかは、左眼用画像におけるその被写体画像と右眼用画像におけるその被写体画像との間の水平方向の視差(以下、単に「視差」と記載することもある。)によって決定される。
なお、以下では、3D画像において、被写体画像が観察者からみてディスプレイ面に対しどの程度前方に飛び出しているように知覚されるか、及びディスプレイ面に対しどの程度後方に引き込んでいるように知覚されるかを、立体感と呼ぶこととする。
また、以下では、上記の通り左眼用画像と右眼用画像との間の視差に立体感を有する視覚効果のある画像を3D画像というのに対し、このような立体感を有する視覚効果のない画像を2D画像という。
ここで、2D画像と3D画像とが混在している画像コンテンツがディスプレイ等で、順次再生表示されている場合、表示される画像が2D画像から3D画像に切り換わってすぐのタイミングで、その3D画像に観察者から見て飛び出し過ぎているように知覚される画像又は引き込み過ぎているように知覚される画像、すなわち立体感の大き過ぎる画像が存在すると、観察者に負担を掛ける可能性があるという問題が有る。
それまで2D画像の観察に慣れていて、観察者がまだ3D画像の観察に慣れていない段階で立体感が大き過ぎる画像が表示されると、その観察者の目に負担を与える可能性があるからである。
上記問題を解決する手段として、例えば特許文献1には、2D画像を放送しているチャンネルから3D画像を放送しているチャンネルに切り換った場合に、3D画像を構成する左眼用画像と右眼用画像との間の視差量が、時間を掛けて順次大きくなるように制御することで、急激な変化を抑圧し、自然な切り換りを実現する立体映像表示装置が記載されている。
また、特許文献2には、2D画像と3D画像とが混在した画像を順次入力して再生する際に、入力された画像が2D画像であると判定されると、その入力された2D画像を所定の視差の大きさだけ一律に左右方向にシフトしてなる複数の視差画像を生成し、表示することで立体的な視覚的効果を有する画像のみを再生して観察者の疲労感を軽減することができる3次元画像表示装置が記載されている。
特開平11−164328号公報 特開2010−183267号公報
しかし、上記特許文献1には、立体映像表示装置が、如何にして時間をかけて順次視差量が増加していく3D画像を生成するかの詳細について具体的な開示がない。
一方で、単に3D画像を構成する左眼用画像と右眼用画像との間の視差量を順次増加させるだけでは、変化させている間の3D画像が違和感のある画像となる可能性がある。例えば、切り換わり後の本来の被写体画像の視差量が所定時間かけて減少する変化をするような場合に、上記立体映像表示装置では本来の3D画像と制御された3D画像との間で視差量の増減変化が逆になり、表示される3D画像が違和感を持ったものとなってしまうという問題が推察される。
また、上記特許文献2に記載の3次元画像表示装置では、本来2D画像として再生されるべき画像を全て擬似的な3D画像に変換しているため、観察者は全ての2D画像を3D画像としてしか観察できないという問題がある。
そこで、本発明は、2D画像データと3D画像データとが混在した画像データを出力する際に、2D画像データから3D画像データへの切り換わり以後の所定時間について、違和感なく立体感を抑えた3D画像データを出力して観察者の目を慣れさせることで、その観察者の負担を減少させることができることができる画像処理装置及び画像処理方法を提供することを目的とする。
上記課題を解決するため、本発明は、2D画像データと3D画像データとが混在した画像データにおいて、その画像データが2D画像データから3D画像データに切り換わる切り換わり点を検出する切換点検出部(201)と、前記切換点検出部(201)が検出した切り換わり点以後の所定の3D画像データにおける左眼用画像データと右眼用画像データとの間の視差量を導出する視差量導出部(202)と、前記視差量導出部(202)が導出した視差量が所定値を超えているか否かを判定する視差量判定部(203)と、前記切り換わり点検出部(201)が検出した切り換わり点より後の所定の前記3D画像データについて、その3D画像データにおける左眼用画像データ及び右眼用画像データのうちの少なくとも何れかから奥行き推定データを生成する奥行き推定データ生成部(204)と、前記視差量判定部(203)が、前記視差量導出部(202)が導出した視差量が所定値を超えていると判定をした場合に、前記切換点検出部(201)が検出した切り換わり点より後の所定時間に亘って、前記3D画像データのかわりにその3D画像データにおける左眼用画像データ又は右眼用画像データの何れかを、前記奥行き推定データから導出される視差量よりも小さい視差量を有する3D画像データに変換する画像変換部(103)とを有することを特徴とする画像処理装置を提供する。
上記画像処理装置(1)において、上記画像変換部(103)は、上記切換点検出部(201)が検出した切り換わり点より後の所定時間に亘って、上記奥行き推定データから導出される視差量を一定の割合に減じた視差量を有するように前記左眼用画像データ又は右眼用画像データの何れかを3D画像データに変換するようにしても良い。
上記課題を解決するため、本発明はさらに、2D画像データと3D画像データとが混在した画像データにおいて、その画像データが2D画像データから3D画像データに切り換わる切り換わり点を検出する切換点検出ステップと、前記切換点検出ステップで検出された切り換わり点以後の所定の3D画像データにおける左眼用画像と右眼用画像との間の視差量を導出する視差量導出ステップと、前記視差量導出ステップで導出された視差量が所定値を超えているか否かを判定する視差量判定ステップと、前記切り換わり点検出ステップで検出された切り換わり点より後の所定の前記3D画像データについて、その3D画像データにおける左眼用画像データ及び右眼用画像データのうちの少なくとも何れかから奥行き推定データを生成する奥行き推定データ生成ステップと、前記視差量判定ステップにおいて、前記視差量導出ステップで導出された視差量が所定値を超えていると判定がなされた場合に、前記切換点検出ステップで検出された切り換わり点より後の所定時間に亘って、前記3D画像データのかわりにその3D画像データにおける左眼用画像データ又は右眼用画像データの何れかを、前記奥行き推定データから導出される視差量よりも小さい視差量を有する3D画像データに変換する画像変換ステップとからなる画像処理方法を提供する。
上記画像処理方法において、上記画像変換ステップは、上記切換点検出ステップで検出された切り換わり点より後の所定時間に亘って、上記奥行き推定データから導出される視差量を一定の割合に減じた視差量を有するように上記左眼用画像データ又は右眼用画像データの何れかを3D画像データに変換するようにしても良い。
本発明に係る画像処理装置及び画像処理方法によれば、2D画像データと3D画像データとが混在した画像データを出力する際に、2D画像データから3D画像データへの切り換わり以後の所定時間について、違和感なく立体感を抑えた3D画像データを出力して観察者の目を慣れさせることで、その観察者の負担を減少させることができる。
本発明の実施形態に係る画像処理装置1の概略的な内部構成を示すブロック図である。 画像処理装置1の視差量導出部202による左眼用画像及び右眼用画像の視差ベクトルの導出について説明するための概念図である。 左眼用画像中の被写体画像と右眼用画像中の被写体画像との間の視差と、その被写体画像の表示面に対する前方への飛び出し又は後方への引き込み等の関係を示す概念図である。 画像処理装置1の画像変換部103が元の画像データを3D画像データに変換する際に使用する基本奥行きモデルの模式図である。 画像変換部103が各被写体画像データに係るテクスチャを配置する際に使用する視差量について説明するための図である。 画像処理装置1が行う本発明の実施形態にかかる画像処理を説明するためのフローチャートである。 画像処理装置1の一時記憶部102が一時記憶する画像データの概念図である。 表示される画像が2D画像から3D画像に切り換わる様子の模式図である。
以下に図面を参照しながら、本発明に係る画像処理装置及び画像処理方法の好適な実施形態を説明する。かかる実施形態に示す具体的な数値等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書及び図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。
(画像処理装置1)
本実施形態の画像処理装置1は、2D画像データと3D画像データとが混在した画像データを出力する際に、2D画像データから3D画像データへの切り換わり以後の所定時間について、違和感なく立体感を抑えた3D画像データを出力して観察者の目を慣れさせることで、その観察者の負担を減少させることができる。以下、このような画像処理装置1について詳述する。
図1は、画像処理装置1の概略的な内部構成を示すブロック図である。図1では、処理信号が実線で、データの流れが破線で示されている。
図1に示すように、画像処理装置1は、画像データ入力部101、一時記憶部102、画像変換部103、画像データ出力部104、操作部110、及び中央制御部200を含んで構成される。
中央制御部200は、CPU(Central Processing Unit)、各種プログラム等が格納されたROM(Read Only Memory)、及びワークエリアとしてのRAM(Random Access Memory)等を含む半導体集積回路により構成され、画像データの入出力処理、2D画像データから3D画像データへの切り換わり点の検出処理、3D画像の視差の導出及び判定処理、及び左右眼画像データの何れかの画像データの3D画像データへの変換処理等を統括的に制御する。
操作部110は、電源スイッチ、操作キー、十字キー、ジョイスティック等で構成され、ユーザの操作入力を受付ける。操作部110は、3D画像処理装置の本体に設けてもよいし、本体と赤外線通信等を行うリモコン等でもよい。
画像データ入力部101には、例えばDVD、BD(Blu-ray Disc)、若しくはフラッシュメモリ等の各種記録媒体、デジタルテレビチューナ、又は外部の撮像装置(デジタルカメラ)等から、2D画像データ及び3D画像データが混在した画像データが入力される。
画像データ入力部101は、例えばHDMI(High-Definition Multimedia Interface)端子、USB(Universal Serial Bus)端子、IEEE 1394規格に準拠した各種入力端子等で構成される。
画像データ入力部101に入力される画像データは、少なくとも2D画像データから3D画像データへの切り換わり点(以下、単に「切り換わり点」という。)が特定されるための、そのシーン(場面)が2D画像のシーンであるか3D画像のシーンであるかを示す情報である制御情報が含まれている。
画像データ入力部101に入力された画像データは、一時記憶部102に送られ、その一時記憶部102内で順次一時的に記憶される。一時記憶部102は、例えばEPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable PROM)、不揮発性RAM、フラッシュメモリ、又はHDD(Hard Disk Drive)等の記憶媒体で構成される。
一時記憶部102に一時記憶された画像データは、画像変換部103が、後述する切り換わり点以後の所定の時間分の3D画像データのかわりに、その3D画像データを構成する左右眼画像データの何れかを3D画像データに変換する画像処理を行った場合は、その処理を施した3D画像データとして、当該画像処理を行わなかった場合は一時記憶された2D画像データ又は3D画像データとして、画像データ出力部104により所定の復号処理を施されて出力される。
画像データ出力部104は、画像データ入力部101と同様に、HDMI(High-Definition Multimedia Interface)端子、USB(Universal Serial Bus)端子、IEEE 1394規格に準拠した各種出力端子等で構成される。
上記中央制御部200はまた、2D画像データから3D画像データへの切り換わり点の検出を行う切換点検出部201、3D画像データの視差量を導出する視差量導出部202、導出された視差量が所定の大きさを上回るか否かを判定する視差量判定部203、及び左右眼画像データの何れかを3D画像データに変換する際のその何れかの画像データの奥行き推定データを生成する奥行き推定データ生成部204として機能する。各部の機能について、以下に説明する。
切換点検出部201は、一時記憶部102に一時記憶された画像データから、出力されることになる画像データが2D画像データから3D画像データへ切り換わる時点を切り換わり点として検出する。
画像データは上述の通り、各シーンが2D画像のシーンであるか3D画像のシーンであるかを示す制御情報を有している。切換点検出部201は、この制御情報に基づき画像データが2D画像データから3D画像データへ切り換わる時点を切り換わり点として検出する。
切換点検出部201はまた、画像データに上記制御情報がない場合、2D画像データ及び3D画像データ各々のデータ構造の相違から、2D画像データから3D画像データへ切り換わる切り換わり点を検出することもできる。
視差量導出部202は、3D画像データにおける左眼用画像と右眼用画像との間の視差量を導出する。
視差量導出部202による視差量の導出は既知の様々な手法を採用することができる。例えば、視差量導出部202は、左眼用画像のフレーム及び右眼用画像のフレームに対しパターンマッチングを実行し、両フレーム間における視差ベクトルを導出する。ここでフレームとは、左眼用画像データ及び右眼用画像データ各々の画像データを構成する時系列に並べられた静止画データをいう。
視差量導出部202によるパターンマッチングに基づく視差ベクトルの導出について図2を参照して説明する。図2は、画像処理装置1の視差量導出部202による左眼用画像及び右眼用画像の視差ベクトルの導出について説明するための概念図である。
視差量導出部202は、左眼用画像のフレーム及び右眼用画像のフレームの2つのフレームのうち一方のフレームを所定の大きさの領域のブロックに分割する。図2(a)では、1,920画素×1,080画素の左眼用画像のフレームL200を、240画素×135画素のブロックL201に計64分割している。
視差量導出部202は、分割した画像のフレームの各ブロックに関し、他方の画像のフレームの中から同一の大きさで相関値の高いブロックを抽出する。図2(b)では、図2(a)のブロックL202(図中にハッチングで示したブロック)と同一の大きさで相関値の高いブロックとして、右眼用画像のフレームからR202が抽出されている。
視差量導出部202は、分割した画像のフレームのブロックと、そのブロックに対応する他方の画像のフレームのブロックとの位置関係から両者の差分ベクトルを視差ベクトルとして導出する。図2では、左眼用画像L200中のブロックL202と、対応する右眼用画像中のブロックR202から、視差ベクトル203が算出されている。
上記のようなパターンマッチングの手法としては、例えば、輝度値の差分をとるSAD(Sum of Absolute Difference)、差分を2乗して用いるSSD(Sum of Squared intensity Difference)や、各画素の輝度値から平均値を引いた分散値の類似度をとるNCC(Normalized Cross Correlation)等、既存の様々な手法を採用することが可能である。
ここで、導出された視差ベクトルは、原則として水平方向にのみ生じるため、その方向は単純に正負の符号(+又は−)で表すことができる。ここでは、被写体画像が観察者から見てディスプレイ面に対し前方に飛び出しているように知覚される場合の視差ベクトルの方向を正(+)とし、被写体画像が観察者から見てディスプレイ面に対し後方に引き込んでいるように知覚される場合の視差ベクトルの方向を負(−)とする。
以上のようにして、視差量導出部202は画像のフレームを格子状に分割した複数のブロックから視差ベクトルを導出する。さらに視差量導出部202は、左眼用画像データ及び右眼用画像データの空間周波数等にかかるデータから、各画像からオブジェクト(被写体画像)データを特定し、特定したオブジェクト毎の視差ベクトルを導出する。
また、視差量導出部202は、左眼用画像データ及び右眼用画像データの空間周波数等からオブジェクトを特定し、特定したオブジェクトごとに直接パターンマッチングを実行して視差ベクトルを算出するようにしてもよい。
視差導出部202は、上記のようにして導出した視差ベクトルの大きさを、左眼用画像と右眼用画像との間の視差量として導出する。
図1に戻り、視差量判定部203は、視差量導出部202が導出した、3D画像における右眼用画像と左眼用画像との間の視差量が所定の大きさを上回っているかどうかを判定する。
ここで先ず、図3を参照して、ディスプレイ等の表示面に表示される左眼用画像中の被写体画像と右眼用画像中の被写体画像との間の視差と、その被写体画像の飛び出し又は引き込みの度合い等を説明する。図3は左眼用画像中の被写体画像と右眼用画像中の被写体画像との間の視差と、その被写体画像の表示面に対する前方への飛び出し又は後方への引き込み等の関係を示す概念図である。
図3において、画像データ出力部104から出力された、左眼用画像データ及び右眼用画像データを表示する外部ディスプレイ装置等の表示面をDP30、観察者の左眼をLE30、観察者の右眼をRE30、及び観察者と表示面DP30との間の距離をDとする。
(前方へ飛び出しているように知覚される場合)
図3(a)において、表示面DP30上の左眼用画像中の被写体画像の位置をLf、右眼用画像中の被写体画像の位置をRfとすると、観察者が左眼LE30でLf、右眼RE30でRfを観察した場合、被写体画像はPfの位置で結像する。これにより観察者からは被写体画像が表示面DP30に対して前方に飛び出しているかのように知覚されることになる。
ここで、観察者の左眼LE30と右眼RE30の距離をE、像LfとRfの視差量をVfとすると、表示面DP30から結像位置までの距離Zfは以下の式(1)の通りとなる。
(E+Vf)Zf=D・Vf ・・・(1)
ここで、観察者は被写体画像を表示面D30とは異なる位置Pfで知覚することになる。一方で、観察者の目のピントは表示面DP30にあっている。従って、この両者の乖離が大きいと、観察者の目に負担を与えたり、観察者に不快感を引き起こしたりするおそれがある。
上記観察者の左眼LE30と右眼RE30の距離Eを一般的な人の瞳孔間隔である6.5cmとし、上記観察者から表示面DP30までの視聴距離Dを標準観視距離である表示面の長辺の3倍距離とした場合に、観察者の眼に負担をかけず、快適に3D画像として認識できる左眼用画像と右眼用画像との間の視差量として、例えば表示面の短辺(幅)の2.9%(視差角にして約1度)以下とすることが望ましい旨が報告されている(「人に優しい3D普及のための3DC安全ガイドライン」 3Dコンソーシアム安全ガイドライン部会発行 2010年4月20日改訂版)。
そこで、視差量判定部203は、視差量導出部202が導出した視差量Vfが以下の式(2)で表される閾値VSfを上回る場合に、前方への飛び出し方向の、すなわち正の方向の視差ベクトルの視差が観察者の目に負担をかける可能性がある大きさになっていると判定する。
VSf=0.029×DW・・・(2)
ここで、上記表示面の幅DWには、操作部110からユーザが所有しているTVディスプレイ等の外部モニタの幅の大きさが入力され、その大きさの値を採用する。また、操作部110から、事前にその値や閾値VSfを調整することでさらに好みの値として変更することができるようにしてもよい。
(表示面上にあるかのように知覚される場合)
図3(b)において、表示面DP30上の左眼用画像中の被写体の位置と、右眼用画像中の被写体の位置が同一となった場合、被写体画像は表示面D30上のPcの位置で結像する。これにより観察者からは被写体画像が表示面DP30上にあるかのように知覚されることになる。このとき、視差量導出部202が導出する視差量はゼロとなる。
(後方へ引き込んでいるかのように知覚される場合)
図3(c)において、表示面DP30上の左眼用画像中の被写体画像の位置をLb、右眼用画像中の被写体画像の位置をRbとすると、観察者が左眼LE30でLb、右眼RE30でRbを観察した場合、被写体はPbの位置で結像する。これにより観察者からは被写体画像が表示面DP30に対して後方に引き込んでいるかのように知覚されることになる。
ここで、観察者の左眼LE30と右眼RE30の距離をE、像LbとRbの視差量をVbとすると、表示面DP30から結像位置までの距離Zbは以下の式(3)の通りとなる。
(E−Vb)Zb=D・Vb ・・・(3)
ここで、被写体画像が後方に引き込んでいるかのように知覚される場合においても、観察者が被写体画像を表示面D30とは異なる位置Pbで知覚することになるのは、前方に飛び出しているかのように知覚される場合と同様である。従って、前方に飛び出しているかのように知覚される場合と同様に、観察者の目に負担を与えたり、観察者に不快感を引き起こしたりするおそれがある。
そこで、視差量判定部203は、視差量導出部202が導出した視差量Vbが以下の式(4)で表される閾値VSbを上回る場合に、後方への引き込み方向の、すなわち負の方向の視差ベクトルの視差が観察者の目に負担をかける可能性がある大きさになっていると判定する。
VSb=0.029×DW・・・(4)
ここで、上記表示面の幅DWには、操作部110からユーザが所有しているTVディスプレイ等の外部モニタの幅の大きさが入力され、その大きさの値を採用するのは、上記前方に飛び出しているかのように知覚される場合と同様である。また、ユーザが操作部110を使用して、事前にその値や閾値VSbを調整することでさらに好みの値として変更することができるようにしてもよく、その値を前方に飛び出しているかのように知覚される場合と異なる値に設定してもよい。
また、表示面から後方に引き込んでいるかのように知覚される3D画像では、表示面上における水平方向の視差が5cmを超えないようにすることが望ましい旨が方向されている(「人に優しい3D普及のための3DC安全ガイドライン」 3Dコンソーシアム安全ガイドライン部会発行 2010年4月20日改訂版)。人の両眼は外側には開かないことから、両眼の瞳孔間隔以上に離れた被写体を左眼及び右眼でそれぞれ独立して観察することは、観察者の目により大きな負担をかけるおそれがあるためである。
そこで、上記式(4)で導き出されるVSbを5cmに設定しても良い。VSbが5cm以上かどうかの判定及び、5cmとする設定は、予め設定又は入力されているDWの値から5cm相当のピクセル数を算出することで行われる。
以上のようにして、視差量判定部203は、3D画像における左眼用画像と右眼用画像との間の視差量が、観察者の目に負担をかける可能性のある所定の大きさを上回るか否かの判定を行う。
ここで、視差量判定部203は、切換点検出部201が2D画像データから3D画像データへの切り換わり点を検出した、その時点における3D画像データに関し導出された視差の判定を行なう。または、切り替わり点から所定時間(例えば、5秒間)の3D画像データに関し導出された視差の判定を継続することもできる。以下では、この視差量判定部203が判定を行う所定時間を視差量判定時間という。
奥行き推定データ生成部204は、画像変換部103が左眼用画像データ又は右眼用画像データの少なくとも何れかを3D画像データに変換する画像変換を行う際に使用する奥行き推定データを生成する。
奥行き推定データ生成部204は、予め記録している複数の奥行き感を有する画像のモデル(以下、「基本奥行きモデル」という。)及び左右眼画像データのうちの何れかの画像データの輝度信号の高域成分に基づいて、各被写体画像の飛び出し及び引き込みの度合いに関する奥行き推定データを生成する。
上記基本奥行きモデルとして、図4に例示した3モデルが中央制御部200のROM又は画像処理装置1の図示しない記録部に記録されている。図4(a)に示した基本奥行きモデルaは、球面状の凹面による奥行きモデルである。図4(b)に示した基本奥行きモデルbは、基本奥行きモデルaの上部を球面状ではなくアーチ型の円筒面に置き換えたもので、上部を円筒面とし下部を凹面としたモデルである。図4(c)に示した基本奥行きモデルcは、上部を平面、下部をその平面から連続し、下に向かうほど手前側に向かう円筒面状をしたもので、上部を平面とし下部を円筒面としたモデルである。
奥行き推定データ生成部204は、左眼用画像データ又は右眼用画像データの何れかの画像データの輝度信号の高域成分を算出する。そして、算出された値から上記3種類の基本奥行きモデルの合成比率を決定し、その合成比率から奥行き推定データを生成する。
図1に戻り、画像変換部103は、奥行き推定データ生成部204が生成した奥行き推定データに基づき元の左眼用画像データ又は右眼用画像データの何れかの画像データ(以下、この画像データを「元の画像データ」という。)に対して視差を有する別の視点の2D画像データを生成する(以下、この別の視点の2D画像データを「別視点画像データ」という。)。
画像変換部103は、奥行き推定データに基づいて、元の画像データに含まれる各被写体画像データに係るテクスチャを左方向ないし右方向にシフトさせて配置していくことで、別視点画像データを生成する。
このとき、画像変換部103は、奥行き推定データから導出された視差量そのものを有するように各被写体画像データに係るテクスチャを配置するのではなく、奥行き推定データから導出された視差量よりも小さい視差量を有するように各テクスチャを配置する。以下に図5を参照して、画像変換部103が各被写体画像データに係るテクスチャを配置する際に使用する視差量について説明する。
図5は、元の画像データに含まれる所定の被写体画像データと、別視点画像データに含まれる対応する被写体画像データとの間の、奥行き推定データから導出された視差量V501及び、画像変換部103が元の画像データを変換して生成した3D画像データ中における視差量V502の時間ごとの変化を例示する図である。図5では、奥行き推定データから導出された視差量V501を破線で、画像変換部103が元の画像データを変換して生成した3D画像データ中における視差量V502を実線で示す。
図5に例示する被写体画像データでは、切換点検出部201が検出した切り換わり点であるt50からt51までの間、当該被写体画像データの奥行き推定データに基づく視差量V501はV56となっている。そこで、画像変換部103は、視差量V502としてV56を所定の割合に減じた大きさのV53を算出し、この算出されたV53を有するようにこの被写体画像のテクスチャを配置する。
図5では、視差量V501を50%に減じた視差量V502が算出されている場合を例にあげて説明する。V53はV56の50%の大きさとなっている。この所定の割合は、ユーザが操作部110を使用して、好みに合わせて設定することができるものとする。
次に、図5に例示する被写体画像データでは、t51からt53までの間、視差量V501はV56からV54まで減少する変化をする。そこで、画像変換部103は、t51からt53までの間、上記と同じ割合で視差量V501を減じた視差量V502を算出し、この算出された視差量V502の大きさの視差を有するように当該被写体画像のテクスチャを配置する。
すなわちt51ではV56の50%の大きさのV53、t52ではV55の50%の大きさのV52、そしてt53ではV54の50%の大きさのV51の視差量を有するように上記被写体画像データに係るテクスチャが配置される。
そして、t53からt54までの間、上記被写体画像データの視差量V501は、V54からV56まで増加する変化をする。そこで、画像変換部103は、t53からt54までの間、視差量V501を同じく50%に減じた視差量V502を算出し、各時点で上記被写体画像のテクスチャを配置する。
以上のようにして画像変換部103が元の画像データ中の各被写体画像データのテクスチャを、奥行き推定データに基づく視差を一定の割合に減じた視差を有するように、切り換わり点から所定時間の間にわたって配置する。以下、この所定時間を画像変換時間という。
上記のテクスチャの配置において、画像変換部103は奥行き推定データに基づく視差が、被写体画像が観察者から見てディスプレイ面に対し前方に飛び出しているように知覚される方向のベクトルを有しているか、又は被写体画像が観察者から見てディスプレイ面に対し後方に引き込んでいるように知覚される方向のベクトルを有しているかを考慮して、テクスチャを左方向ないし右方向に上述の視差量に応じた配置を行う。
以上述べたように、画像変換部103は、元の画像データを、奥行き推定データに基づく視差量を減じた視差量を有する3D画像データに変換することで、立体感を抑え、それによって3D画像の観察に慣れていない観察者が3D画像の観察に慣れる為の画像を生成することができる。
また、画像変換部103は、画像変換時間に亘って、奥行き推定データに基づく視差量を一定の割合で減じた視差量を有する3D画像データに変換することで、上記観察者が慣れるための3D画像を違和感のない立体感を有するものとすることができる。
すなわち、本来の3D画像データにおける被写体画像の視差量が増加するときは変換された3D画像データにおける被写体画像の視差量も増加し、本来の3D画像データにおける被写体画像の視差量が減少するときは変換された3D画像データにおける被写体画像の視差量も減少するように画像変換を行うことができる。
従って、切り換り後の3D画像データにおける被写体画像の視差量が所定時間かけて減少する変化をするのに、変換された3D画像データにおける被写体画像の視差量は増加する変化をするといった、違和感のある画像が表示されてしまう事態の発生を抑制することができる。
以上のようにして生成された、元の画像データ、及び別視点画像データの2つの画像データが、画像変換部103によって左眼用画像データ又は右眼用画像データの何れかの画像データから変換された3D画像データとして画像データ出力部104に送られる。そして、画像データ出力部104からこの変換された3D画像データが外部のディスプレイ装置等に出力される。
以上に述べたように本発明の実施形態に係る画像処理装置1によれば、2D画像データと3D画像データとが混在した画像データを出力する際に、2D画像データから3D画像データへの切り換わり以後の所定時間について、違和感なく立体感を抑えた3D画像データを出力して観察者の目を慣れさせることで、その観察者の負担を減少させることができる。
(画像処理)
次に、本実施形態の画像処理装置1による、2D画像データと3D画像データとが混在した画像データを出力する際に、2D画像データから3D画像データへの切り換わり以後の所定時間について、違和感なく立体感を抑えた3D画像データを出力する画像処理の手順について説明する。
図6は、画像処理装置1が行う本発明の実施形態にかかる画像処理を説明するためのフローチャートである。
操作部110の操作に応じて、各種記録媒体、デジタルテレビチューナ、又は撮像装置等から2D画像データと3D画像データとが混在した画像データが順次、画像データ入力部101に入力される(ステップS101)。
画像データ入力部101に画像データが入力されると、一時記憶部102が順次、その画像データを一時記憶する(ステップS102)。図7に一時記憶部102が一時記憶する画像データの概念図を示す。
図7には、時点t71までは2D画像データD701、時点t71以降で時点t72までは3D画像データD702、時点t72以降で時点t73までは2D画像データD703、そして時点t73以降は3D画像データD704が、一時記憶部102に一時記憶されている様子を示す。このように、一時記憶部102には、2D画像データと3D画像データとが混在した画像が順次、一時記憶される。
図6に戻り、ステップS102で画像データが一時記憶されると、切換点検出部201が、一時記憶されていく画像データが2D画像データから3D画像データに切り換わる時点を、切り換わり点として検出する(ステップS103)。
切換点検出部201は、画像データの有する、各シーンが2D画像のシーンであるか3D画像のシーンであるかを示す制御情報から切り換わり点を検出する。又は、2D画像データと3D画像データのデータ構造の相違から切り換わり点を検出する。
図7では、2D画像データD701が3D画像データD702に切り換わる時点t71が切り換わり点P1として検出される。同様に、2D画像データD703が3D画像データ704に切り換わる時点t73が切り換わり点P2として検出される。
なお、切換点検出部201が2D画像データから3D画像データへの切り換わり点を検出しなかった場合(ステップS103でNO)、一時記憶部102に一時記憶された画像データが、そのまま画像データ出力部104から復号等された後に、出力される(ステップS107)。
切換点検出部201が2D画像データから3D画像データへの切り換わり点を検出した場合(ステップS103でYES)、視差量導出部202は切り換わり点における、又は切り換わり点以降の視差量判定時間分の3D画像データにおける左眼用画像と右眼用画像との間の視差量を導出する(ステップS104)。なお、この視差量の導出は、上述の通りテンプレートマッチングを利用した手法等により行われる。
図7では、視差量導出部202は、時点t71における又は時点t71から所定時間後までの間(例えば、5秒間)における3D画像データD702の視差量の導出を行なう。同様に、視差量導出部202は、t73における又はt73から所定時間後までの間における3D画像データD704の視差量の導出を行なう。
図6のステップS104で、視差量導出部202が上記視差量の導出を行なうと、視差量判定部203が導出された視差量が所定の大きさを上回っているかどうかを判定する(ステップS105)。
切り換わり点直後に、又は切り換わり点から所定時間以内に表示される3D画像中に、観察者に負担を与える可能性のある視差量を有する被写体画像が含まれていた場合、そのままその3D画像が表示されると、それまで2D画像を観察していて、3D画像の観察に目が慣れていない観察者に負担を与える可能性がある。
図8に、表示される画像が2D画像から3D画像に切り換わる様子の模式図を示す。この図8では観察者の左眼をLE30及び右眼をRE30としている。
図8(a)は、時点t71まで2D画像であるD81が表示され、時点t71で3D画像として左眼用画像LD81及び右眼用画像RD81が表示される様子を模式的に示している。
ここで観察者は、時点t71までは被写体画像G81を2D画像として、表示画像D81内に知覚している。ところが、時点t71で3D画像に切り換わり、左眼用画像LD81と右眼用画像RD81との間の視差に基づき、被写体画像TG81を表示面からZf801だけ飛び出して知覚している。
この被写体画像TG81の飛び出しの大きさZf801に係る視差量が、上述した閾値VSfを上回っていた場合、まだ3D画像の知覚になれていない観察者の目に負担を掛ける可能性がある。
このとき、視差量判定部203は、3D画像に切り換わる時点t71において、左眼用画像と右眼用画像との間に、所定の閾値VSfを上回る、すなわち観察者に負担を与える可能性のある視差量を有する被写体画像がある旨の判定を行う。
図8(b)は、時点t73まで2D画像であるD82が表示され、時点t73で3D画像として左眼用画像LD82及び右眼用画像RD82が表示され、そして時点t73から所定時間Δt後に、同じく3D画像として左眼用画像LD83及びRD83が表示される様子を模式的に示している。
ここで、観察者は時点t73までは被写体画像G82を2D画像として、表示画像D82内に知覚している。そして、時点t73で3D画像に切り換わり、左眼用画像LD82と右眼用画像RD82との間の視差に基づき、被写体画像TG82を表示面からZf802だけ飛び出していると知覚している。
この切り換わり点である時点t73では、被写体画像TG82の飛び出しの大きさZf802に係る視差量が上述した閾値VSfを下回っている場合、視差判定部203は、左眼用画像LD82と右眼用画像RD82との間に、観察者に負担を与える可能性のある視差量を有する被写体画像がある旨の判定は行わない。
一方で、時点t73からΔt経過して表示されることになる左眼像画像LD83と右眼用画像RD83との間では、被写体画像TG83がZf802よりも大きなZf803だけ飛び出しているように知覚される。
この被写体画像TG83の飛び出しの大きさZf803に係る視差量が、上述した閾値VSfを上回っていた場合、視差判定部203は観察者に負担を与える可能性のある視差量を有する被写体画像がある旨の判定を行う。
2D画像から3D画像に切り換わった時点では、観察者に負担を与える可能性がある視差量を有する被写体画像が含まれていない場合でも、それまで2D画像を観察していた観察者が3D画像の知覚に慣れる前に、上述した閾値VSfを上回る視差量を有する被写体画像が表示されると、観察者の目に負担を掛ける可能性があるからである。
なお、視差判定部203が、切り換わり点直後に、又は視差量判定時間以内に表示される3D画像中に、観察者に負担を与える可能性のある視差量を有する被写体画像が含まれている旨の判定をしなかった場合(S105でNO)、画像処理装置1は以降の処理を実施しない。
図6に戻り、ステップS105で視差判定部203が、左眼用画像と右眼用画像との間の視差量が所定の値を上回ると判定した場合(ステップS105でYES)、画像変換部103は一時記憶部に一時記憶された画像データにおける3D画像データの左眼用画像データ又は右眼用画像データの何れかの画像データを、立体感を抑えた3D画像データに変換する(S106)。
画像変換部103は、上述の通り、奥行き推定データ生成部204が生成した奥行き推定データに基づき、その奥行き推定データから導出された視差量よりも小さい視差量を有するように、元の画像データを立体感を抑えた3D画像データに変換する。
ステップS106で、画像変換部103が元の画像データを3D画像データに変換すると、変換された3D画像データに係る左眼用画像データ及び右眼用画像データがそれぞれ、画像変換時間に亘って画像データ出力部104から外部のディスプレイ装置等に出力される(ステップS107)。
ここで、上記画像変換時間は、視差量判定部203が、3D画像データに観察者の目に負担をかける可能性のある所定の大きさを上回る視差量を有する被写体画像があると判断した時点までとしても良い。或は、視差量判定時間よりも長い時間としても良い。視差量判定時間及び画像変換時間は、操作部110を使用してユーザが好みに応じて設定することができる。
以上、本発明によれば、2D画像データと3D画像データとが混在した画像データを出力する際に、2D画像データから3D画像データへの切り換わり以後の所定時間について、違和感なく立体感を抑えた3D画像データを出力することができる。
これにより、2D画像データが3D画像データに切り換わってすぐのタイミングで、違和感なく立体感を抑えた3D画像データを観察させて、観察者の目を3D画像の観察になれさせ、その観察者の負担を減少することができる。
1 画像処理装置
101 画像データ入力部
102 一時記憶部
103 画像変換部
104 画像データ出力部
110 操作部
200 中央制御部
201 切換点検出部
202 視差導出部
203 視差判定部
204 奥行き推定データ生成部

Claims (4)

  1. 2D画像データと3D画像データとが混在した画像データにおいて、その画像データが2D画像データから3D画像データに切り換わる切り換わり点を検出する切換点検出部と、
    前記切換点検出部が検出した切り換わり点以後の所定の3D画像データにおける左眼用画像データと右眼用画像データとの間の視差量を導出する視差量導出部と、
    前記視差量導出部が導出した視差量が所定値を超えているか否かを判定する視差量判定部と、
    前記切り換わり点検出部が検出した切り換わり点より後の所定の前記3D画像データについて、その3D画像データにおける左眼用画像データ及び右眼用画像データのうちの少なくとも何れかから奥行き推定データを生成する奥行き推定データ生成部と、
    前記視差量判定部が、前記視差量導出部が導出した視差量が所定値を超えていると判定をした場合に、前記切換点検出部が検出した切り換わり点より後の所定時間に亘って、前記3D画像データのかわりにその3D画像データにおける左眼用画像データ又は右眼用画像データの何れかを、前記奥行き推定データから導出される視差量よりも小さい視差量を有する3D画像データに変換する画像変換部とを有することを特徴とする画像処理装置。
  2. 前記画像変換部は、前記前記切換点検出部が検出した切り換わり点より後の所定時間に亘って、前記奥行き推定データから導出される視差量を一定の割合に減じた視差量を有するように前記左眼用画像データ又は右眼用画像データの何れかを3D画像データに変換することを特徴とする請求項1に記載の画像処理装置。
  3. 2D画像データと3D画像データとが混在した画像データにおいて、その画像データが2D画像データから3D画像データに切り換わる切り換わり点を検出する切換点検出ステップと、
    前記切換点検出ステップで検出された切り換わり点以後の所定の3D画像データにおける左眼用画像と右眼用画像との間の視差量を導出する視差量導出ステップと、
    前記視差量導出ステップで導出された視差量が所定値を超えているか否かを判定する視差量判定ステップと、
    前記切り換わり点検出ステップで検出された切り換わり点より後の所定の前記3D画像データについて、その3D画像データにおける左眼用画像データ及び右眼用画像データのうちの少なくとも何れかから奥行き推定データを生成する奥行き推定データ生成ステップと、
    前記視差量判定ステップにおいて、前記視差量導出ステップで導出された視差量が所定値を超えていると判定がなされた場合に、前記切換点検出ステップで検出された切り換わり点より後の所定時間に亘って、前記3D画像データのかわりにその3D画像データにおける左眼用画像データ又は右眼用画像データの何れかを、前記奥行き推定データから導出される視差量よりも小さい視差量を有する3D画像データに変換する画像変換ステップとからなる画像処理方法。
  4. 前記画像変換ステップは、前記切換点検出ステップで検出された切り換わり点より後の所定時間に亘って、前記奥行き推定データから導出される視差量を一定の割合に減じた視差量を有するように前記左眼用画像データ又は右眼用画像データの何れかを3D画像データに変換することを特徴とする請求項1に記載の画像処理方法。
JP2011283374A 2011-12-26 2011-12-26 画像処理装置、画像処理方法及び画像処理プログラム Active JP5899910B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011283374A JP5899910B2 (ja) 2011-12-26 2011-12-26 画像処理装置、画像処理方法及び画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011283374A JP5899910B2 (ja) 2011-12-26 2011-12-26 画像処理装置、画像処理方法及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2013135277A true JP2013135277A (ja) 2013-07-08
JP5899910B2 JP5899910B2 (ja) 2016-04-06

Family

ID=48911719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011283374A Active JP5899910B2 (ja) 2011-12-26 2011-12-26 画像処理装置、画像処理方法及び画像処理プログラム

Country Status (1)

Country Link
JP (1) JP5899910B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110766604A (zh) * 2019-09-04 2020-02-07 国网浙江省电力有限公司湖州供电公司 一种双柱水平旋转式隔离开关图像数据的扩充方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236521A (ja) * 2000-02-22 2001-08-31 Japan Science & Technology Corp 画像分割方式による仮想現実システム
JP2004328566A (ja) * 2003-04-28 2004-11-18 Sharp Corp コンテンツ表示装置およびコンテンツ表示プログラム
JP2005151534A (ja) * 2003-09-24 2005-06-09 Victor Co Of Japan Ltd 擬似立体画像作成装置及び擬似立体画像作成方法並びに擬似立体画像表示システム
JP2008242833A (ja) * 2007-03-27 2008-10-09 National Institute Of Information & Communication Technology 3次元の人の顔の表面データを再構築するための装置及びプログラム
JP2010258723A (ja) * 2009-04-24 2010-11-11 Sony Corp 画像情報処理装置、撮像装置、画像情報処理方法およびプログラム
JP2010288234A (ja) * 2009-06-15 2010-12-24 Sony Corp 受信装置、送信装置、通信システム、表示制御方法、プログラム、及びデータ構造
JP2011055022A (ja) * 2009-08-31 2011-03-17 Sony Corp 立体画像表示システム、視差変換装置、視差変換方法およびプログラム
WO2011052389A1 (ja) * 2009-10-30 2011-05-05 富士フイルム株式会社 画像処理装置及び画像処理方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236521A (ja) * 2000-02-22 2001-08-31 Japan Science & Technology Corp 画像分割方式による仮想現実システム
JP2004328566A (ja) * 2003-04-28 2004-11-18 Sharp Corp コンテンツ表示装置およびコンテンツ表示プログラム
JP2005151534A (ja) * 2003-09-24 2005-06-09 Victor Co Of Japan Ltd 擬似立体画像作成装置及び擬似立体画像作成方法並びに擬似立体画像表示システム
JP2008242833A (ja) * 2007-03-27 2008-10-09 National Institute Of Information & Communication Technology 3次元の人の顔の表面データを再構築するための装置及びプログラム
JP2010258723A (ja) * 2009-04-24 2010-11-11 Sony Corp 画像情報処理装置、撮像装置、画像情報処理方法およびプログラム
JP2010288234A (ja) * 2009-06-15 2010-12-24 Sony Corp 受信装置、送信装置、通信システム、表示制御方法、プログラム、及びデータ構造
JP2011055022A (ja) * 2009-08-31 2011-03-17 Sony Corp 立体画像表示システム、視差変換装置、視差変換方法およびプログラム
WO2011052389A1 (ja) * 2009-10-30 2011-05-05 富士フイルム株式会社 画像処理装置及び画像処理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110766604A (zh) * 2019-09-04 2020-02-07 国网浙江省电力有限公司湖州供电公司 一种双柱水平旋转式隔离开关图像数据的扩充方法
CN110766604B (zh) * 2019-09-04 2023-06-06 国网浙江省电力有限公司湖州供电公司 一种双柱水平旋转式隔离开关图像数据的扩充方法

Also Published As

Publication number Publication date
JP5899910B2 (ja) 2016-04-06

Similar Documents

Publication Publication Date Title
JP4783817B2 (ja) 立体画像表示装置
US9414041B2 (en) Method for changing play mode, method for changing display mode, and display apparatus and 3D image providing system using the same
CN102196285B (zh) 调整3d图像质量的方法和3d显示设备
US8760504B2 (en) Shutter glasses, and electronic apparatus and method for adjusting ambient brightness received by shutter glasses operative under two-dimensional image viewing mode
KR20110083650A (ko) 신호에 포함된 시차 정보를 처리하는 방법
KR20110044573A (ko) 디스플레이장치 및 그 영상표시방법
US20110248989A1 (en) 3d display apparatus, method for setting display mode, and 3d display system
US20120313930A1 (en) Dual view display method and dual view driving method for providing plural images to plural users and display apparatus and dual view glasses using the same
TWI432013B (zh) 立體影像顯示方法及影像時序控制器
JP2011176541A (ja) 立体映像処理装置および方法、並びにプログラム
JP2012044308A (ja) 3d画像出力装置及び3d画像表示装置
KR20140041489A (ko) 스테레오스코픽 이미지의 동시적인 스테레오스코픽 및 모노스코픽 디스플레이를 가능하게 하기 위한 스테레오스코픽 이미지의 자동 컨버전
US9167237B2 (en) Method and apparatus for providing 3-dimensional image
US20140071237A1 (en) Image processing device and method thereof, and program
JP2011172172A (ja) 立体映像処理装置および方法、並びにプログラム
JP4713054B2 (ja) 立体画像表示装置、立体画像符号化装置、立体画像復号装置、立体画像記録方法及び立体画像伝送方法
JP2012080294A (ja) 電子機器、映像処理方法、及びプログラム
TWI462569B (zh) 三維影像攝相機及其相關控制方法
JP5899910B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP5025768B2 (ja) 電子機器及び画像処理方法
WO2013042392A1 (ja) 立体画像評価装置
JP5720561B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2012134885A (ja) 画像処理装置及び画像処理方法
JP2014053782A (ja) 立体画像データ処理装置、および、立体画像データ処理方法
JP5720475B2 (ja) 立体映像制御装置、立体映像制御方法および立体映像制御用プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160222

R150 Certificate of patent or registration of utility model

Ref document number: 5899910

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150