JP2012142922A - 撮像装置、表示装置、コンピュータプログラムおよび立体像表示システム - Google Patents

撮像装置、表示装置、コンピュータプログラムおよび立体像表示システム Download PDF

Info

Publication number
JP2012142922A
JP2012142922A JP2011255593A JP2011255593A JP2012142922A JP 2012142922 A JP2012142922 A JP 2012142922A JP 2011255593 A JP2011255593 A JP 2011255593A JP 2011255593 A JP2011255593 A JP 2011255593A JP 2012142922 A JP2012142922 A JP 2012142922A
Authority
JP
Japan
Prior art keywords
pixel shift
parallax
amount
maximum
minimum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011255593A
Other languages
English (en)
Other versions
JP5963422B2 (ja
Inventor
Tomoaki Inoue
智暁 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011255593A priority Critical patent/JP5963422B2/ja
Priority to US13/323,026 priority patent/US9007442B2/en
Publication of JP2012142922A publication Critical patent/JP2012142922A/ja
Application granted granted Critical
Publication of JP5963422B2 publication Critical patent/JP5963422B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance

Abstract

【課題】表示条件にかかわらず、観察者が見やすい立体像を表示する。
【解決手段】立体表示システムは、撮像装置1と表示装置11を有する。撮像装置は、互いに視差を有する視差画像における対応点を複数箇所にて抽出し、該対応点間の画素ずれ量のうち最大および最小画素ずれ量の情報を得て、左右の視差画像とともに最大および最小画素ずれ量の情報を出力する。表示装置は、最大および最小画素ずれ量の情報と表示条件とを用いて、最大画素ずれ量に対応する最大相対視差量および最小画素ずれ量に対応する最小相対視差量を算出する。表示装置は、最大相対視差量と前記最小相対視差量のうち少なくとも一方の相対視差量が融合限界基準値を超えているか否かを判定し、該少なくとも一方の相対視差量が融合限界基準値を超えている場合は最大相対視差量と最小相対視差量の差が融合限界範囲量を超えているか否かを判定する。
【選択図】図1

Description

本発明は、被写体を異なる視点から撮像することにより、互いに視差を有する視差画像を撮像する撮像装置、視差画像を用いて立体像を表示する表示装置、コンピュータプログラムおよび立体像表示システムに関する。
従来、左右の視差画像を時分割表示し、その時分割のタイミングに同期して観察者の左右の眼に左右の視差画像からの光を導くことで立体像の観察を可能とした立体像表示システムが提案されている。また、左右の視差画像を互いに直交する偏光方向の2つの偏光光を用いて同時に表示し、これら偏光光を互いに直交する方向の偏光軸を持つ左右の偏光フィルタを通して左右の眼に導くことで立体像の観察を可能とした立体像表示システムも提案されている。
上記立体像表示システムにおいては、その表示原理と人間の視覚特性とにより、観察者が左右の視差画像から1つの立体像を観察できず、左右の視差画像を二重像として認識してしまうことになる限界の条件、すなわち融合限界が存在する。そして、このような融合限界を超えた二重像の表示により、観察者に強い違和感や疲労感、不快感を与えてしまう。
また、従来、被写体を左右異なる視点から撮像して、互いに視差を有する左右の視差画像を撮像可能な撮像装置が提案されている。具体的には、融合限界を超えないように、視差画像を表示する表示画面のサイズや観察者と表示画面間の距離である観察距離(視距離)を想定し、左右の視点間の基線長や両視点からの輻輳角を被写体距離に応じて制御する。
さらに、特許文献1には、表示装置と一体となった立体撮像装置が開示されている。この立体撮像装置では、撮像装置側で得られる視差画像から視差量を算出し、視差量と視差画像を表示する表示装置の表示条件とに基づいて、立体像を再生する際の奥行き位置を算出する。そして、この奥行き位置に応じて、観察者の融合限界を超えないように撮像装置の基線長や輻輳角を調整する。
特開平07−167633号公報
しかしながら、融合限界は表示装置の表示画面サイズと視距離とによって大きく変動する。このため、特許文献1のように、表示条件を想定して基線長や輻輳角を制御しても、想定した表示条件と大きく異なる表示画面サイズや視距離の場合、融合限界を超えてしまう。
また、表示装置が一体化されているために融合限界を超えないように基線長や輻輳角を調整することが容易であるが、この立体撮像装置により生成された視差画像を、外部(別体)の表示装置に表示する場合には、融合限界を超えないように制御することは難しい。
本発明は、様々な表示条件に対して融合限界を超えない視差画像(つまりは立体像)を撮像したり表示したりすることが可能な撮像装置、表示装置、コンピュータプログラムおよび立体像表示システムを提供する。
本発明の一側面としての立体像表示システムは、互いに視差を有する視差画像を撮像可能な撮像装置および該視差画像に基づく立体像を表示可能な表示装置を有する。撮像装置は、視差画像における対応点を複数箇所にて抽出する対応点抽出部と、該複数箇所の対応点のそれぞれの間の画素ずれ量を取得し、該画素ずれ量のうち最大画素ずれ量および最小画素ずれ量の情報を得る画素ずれ量取得部と、視差画像とともに最大画素ずれ量および最小画素ずれ量の情報を出力する出力部とを有する。表示装置は、視差画像と最大画素ずれ量および最小画素ずれ量の情報とを取得する情報取得部と、最大画素ずれ量および最小画素ずれ量の情報と表示条件とを用いて、最大画素ずれ量に対応する最大相対視差量および最小画素ずれ量に対応する最小相対視差量を算出する相対視差量算出部と、最大相対視差量と最小相対視差量のうち少なくとも一方の相対視差量が融合限界基準値を超えているか否かを判定し、該少なくとも一方の相対視差量が融合限界基準値を超えている場合は最大相対視差量と最小相対視差量の差が融合限界範囲量を超えているか否かを判定する融合限界判定部とを有することを特徴とする。
本発明の他の一側面としての立体像表示システムは、互いに視差を有する視差画像を撮像可能な撮像装置および該視差画像に基づく立体像を表示可能な表示装置を有する。撮像装置は、視差画像における対応点を複数箇所にて抽出する対応点抽出部と、該複数箇所の対応点のそれぞれの間の画素ずれ比を算出し、該画素ずれ比のうち最大画素ずれ比および最小画素ずれ比の情報を得る画素ずれ比算出部と、視差画像とともに最大画素ずれ比および最小画素ずれ比の情報を出力する出力部とを有する。表示装置は、視差画像と最大画素ずれ比および最小画素ずれ比の情報とを取得する情報取得部と、最大画素ずれ比および最小画素ずれ比の情報と表示条件とを用いて、最大画素ずれ比に対応する最大相対視差量および最小画素ずれ比に対応する最小相対視差量を算出する相対視差量算出部と、最大相対視差量と最小相対視差量のうち少なくとも一方の相対視差量が融合限界基準値を超えているか否かを判定し、該少なくとも一方の相対視差量が融合限界基準値を超えている場合は最大相対視差量と最小相対視差量の差が融合限界範囲量を超えているか否かを判定する融合限界判定部とを有することを特徴とする。
本発明の他の一側面としての撮像装置は、互いに視差を有する視差画像における対応点を複数箇所にて抽出する対応点抽出部と、複数箇所の対応点のそれぞれの間の画素ずれ量を取得し、該画素ずれ量のうち最大画素ずれ量および最小画素ずれ量の情報を得る画素ずれ量取得部と、視差画像に最大画素ずれ量および最小画素ずれ量の情報を記録する記録部とを有することを特徴とする。
本発明の他の一側面としての表示装置は、互いに視差を有する視差画像と、該視差画像の最大画素ずれ量および最小画素ずれ量の情報を取得する情報取得部と、最大画素ずれ量および最小画素ずれ量の情報と表示条件を用いて、最大画素ずれ量に対応する最大相対視差量および最小画素ずれ量に対応する最小相対視差量を算出する相対視差量算出部と、最大相対視差量および最小相対視差量のうち少なくとも一方の相対視差量が融合限界基準値を超えているか否かを判定し、該少なくとも一方の相対視差量が前記融合限界基準値を超えている場合は最大相対視差量と最小相対視差量の差が融合限界範囲量を超えているか否かを判定する融合限界判定部とを有することを特徴とする。
本発明の他の一側面としてのコンピュータプログラムは、コンピュータに、互いに視差を有する視差画像における対応点を複数箇所にて抽出する対応点抽出ステップと、複数箇所の対応点のそれぞれの間の画素ずれ量を取得し、該画素ずれ量のうち最大画素ずれ量および最小画素ずれ量の情報を得る画素ずれ量取得ステップと、視差画像に最大画素ずれ量および最小画素ずれ量の情報を記録する記録ステップとを含む処理を実行させることを特徴とする。
本発明の他の一側面としてのコンピュータプログラムは、コンピュータに、互いに視差を有する視差画像と、該視差画像の最大画素ずれ量および最小画素ずれ量の情報とを取得する情報取得ステップと、最大画素ずれ量および最小画素ずれ量の情報と表示条件を用いて、最大画素ずれ量に対応する最大相対視差量および最小画素ずれ量に対応する最小相対視差量を算出する相対視差量算出ステップと、最大相対視差量と最小相対視差量のうち少なくとも一方の相対視差量が融合限界基準値を超えているか否かを判定する第1の融合限界判定ステップと、該少なくとも一方の相対視差量が融合限界基準値を超えている場合に、最大相対視差量と最小相対視差量の差が融合限界範囲量を超えているか否かを判定する第2の融合限界判定ステップとを含む処理を実行させることを特徴とする。
さらに、本発明の他の一側面としての撮像装置は、互いに視差を有する視差画像における対応点を複数箇所にて抽出する対応点抽出部と、該複数箇所の対応点のそれぞれの間の画素ずれ比を算出し、該画素ずれ比のうち最大画素ずれ比および最小画素ずれ比の情報を得る画素ずれ比算出部と、視差画像に最大画素ずれ比および最小画素ずれ比の情報を記録する記録部とを有することを特徴とする。
本発明の他の一側面としての表示装置は、互いに視差を有する視差画像と、該視差画像の最大画素ずれ比および最小画素ずれ比の情報を取得する情報取得部と、最大画素ずれ比および最小画素ずれ比の情報と表示条件を用いて、最大画素ずれ比に対応する最大相対視差量および最小画素ずれ比に対応する最小相対視差量を算出する相対視差量算出部と、最大相対視差量および最小相対視差量のうち少なくとも一方の相対視差量が融合限界基準値を超えているか否かを判定し、該少なくとも一方の相対視差量が融合限界基準値を超えている場合は最大相対視差量と最小相対視差量の差が融合限界範囲量を超えているか否かを判定する融合限界判定部とを有することを特徴とする。
本発明の他の一側面としてのコンピュータプログラムは、コンピュータに、互いに視差を有する視差画像における対応点を複数箇所にて抽出する対応点抽出ステップと、該複数箇所の対応点のそれぞれの間の画素ずれ比を算出し、該画素ずれ比のうち最大画素ずれ比および最小画素ずれ比の情報を得る画素ずれ比算出ステップと、視差画像に最大画素ずれ比および最小画素ずれ比の情報を記録する記録ステップとを含む処理を実行させることを特徴とする。
本発明の他の一側面としてのコンピュータプログラムは、コンピュータに、互いに視差を有する視差画像と、該視差画像の最大画素ずれ量および最小画素ずれ量の情報とを取得する情報取得ステップと、最大画素ずれ比および最小画素ずれ比の情報と表示条件を用いて、最大画素ずれ比に対応する最大相対視差量および最小画素ずれ比に対応する最小相対視差量を算出する相対視差量算出ステップと、最大相対視差量と最小相対視差量のうち少なくとも一方の相対視差量が融合限界基準値を超えているか否かを判定する第1の融合限界判定ステップと、該少なくとも一方の相対視差量が融合限界基準値を超えている場合に、最大相対視差量と最小相対視差量の差が融合限界範囲量を超えているか否かを判定する第2の融合限界判定ステップとを含む処理を実行させることを特徴とする。
本発明によれば、表示画面サイズや視距離等の表示条件にかかわらず、融合限界を超えないように立体像を表示することを可能な撮像装置、表示装置、コンピュータプログラムおよび立体像表示システムを実現することができる。
本発明の実施例である立体像表示システムの構成を示すブロック図。 実施例の立体像表示システムで行われる処理を示すフローチャート。 実施例1の立体像表示システムに含まれる撮像装置の構成を示すブロック図。 実施例1の立体像表示システムで行われる処理を示すフローチャート。 実施例1の立体像表示システムで行われる対応点抽出処理の説明図。 実施例1の立体像表示システムで生成される画像データファイルの構成例を示す図。 本発明の実施例2である立体像表示システムに含まれる撮像装置の構成を示すブロック図。 実施例2の立体像表示システムで行われる処理を示すフローチャート。 実施例2の立体像表示システムで生成される画像データファイルの構成例を示す図。 本発明の実施例3である立体像表示システムの構成を示すブロック図。 本発明の実施例3の立体像表示システムで行われる処理を示すフローチャート。 立体撮像モデルを説明する図。 立体表示モデルを説明する図 立体表示モデルのオフセット制御の説明図。
以下、本発明の実施例について図面を参照しながら説明する。
まず具体的な実施例の説明の前に、立体撮像系、表示系および融合限界について説明する。図12には、立体撮像方式のモデルを示している。図12では、それぞれカメラにより構成される左右の視点の間の中央を原点として、水平方向にx軸をとり、奥行き方向にy軸をとる。高さ方向は、簡略化のために省略する。また、輻輳角を制御する(つまりカメラの撮影光軸を傾ける)手法も従来提案されているが、ここでは説明の簡略化のために、左右のカメラの撮影光軸を平行に配置する平行撮影法の原理について説明する。輻輳角を制御する手法に対しても、輻輳点までの距離を考慮することで、同様の幾何学的理論は成り立つ。
左右のカメラの撮影光学系の主点の座標をそれぞれ、(−Wc,0)と(Wc,0)とする。また、左右のカメラの撮影光学系の焦点距離をfとする。y軸上の座標(0,y1)に位置する被写体Aを左右のカメラで撮像する場合において、左右のカメラに設けられた撮像素子の中心から被写体像のずれ量(撮影視差)をそれぞれPlc,Prcとすると、これらは以下の式(1),(2)により表すことができる。
以上の原理により、同一の被写体を左右の異なる視点から撮像することで、水平方向に上記式(1),(2)で表されるずれ量(画素ずれ量)を有する左右の視差画像を生成することができる。
次に、表示系のモデルを用いて、奥行きの知覚と融合限界について説明する。図13には、立体表示方式のモデルを示している。観察者の左右の眼の間の中央を原点として、水平方向にx軸をとり、奥行き方向にy軸をとる。高さ方向は簡略化のために省略する。観察者から表示画面100までの距離である視距離をdsとし、左右の眼がそれぞれ座標(−We,0)と(We,0)に位置するものとする。また、表示画面100に表示される右の視差画像における被写体(被写体像)Aの位置Irの座標を(Pr,ds)とし、左の視差画像における被写体Aの位置Ilの座標を(Pl,ds)とする。
このとき、観察者は、右眼(We,0)と右の視差画像上での被写体位置Ir(Pr,ds)とを結ぶ線分と、左眼(−We,0)と左の視差画像上での被写体位置Il(Pl,ds)とを結ぶ線分との交点(0,y2)に被写体Aが存在すると認識する。そして、奥行き方向における表示画面100と交点(0,y2)との差である(y2−ds)が、観察者が被写体Aを表示画面100から奥行き方向に飛び出したように立体的に認識する距離となる。ここで、y2は、
と表すことができる。
また、この奥行き方向の距離(y2−ds)を角度で言い換えれば、被写体A(0,y2)と表示画面100(0,ds)との相対視差(α−β)で表され、この大きさが表示画面100と被写体Aとの相対的な奥行き方向の距離に対応する。従来の様々な研究から、人間は脳内でこの角度の差分を計算し、奥行き方向の位置を知覚していることが知られている。ここで、相対視差の絶対値|α―β|は、上記各座標を用いて、
と表すことができる。これにより、相対視差が、視距離dsと立体像の位置y2とに依存する量であることがわかる。
さらに式(3)から、y2は左右の視差画像の表示位置Pl,Prの差である視差量と視距離dsに依存する量であるので、相対視差(つまりは観察者が認識する奥行き距離)は、視差量(PlとPrの差)と視距離dsとに依存した量であることが分かる。
次に、融合限界について説明する。上述した立体表示方式では、実際の視差画像は表示画面100上に表示されるが、観察者は被写体Aがy2の位置に存在すると認識する。すなわち、実際の表示画像と観察者が認識する立体像に対して、観察者の眼のピント位置が異なっている状態である。言い換えると、観察者の眼の輻輳(寄り眼状に交点Aに両眼を向ける状態)とピント調節(表示画面100上に眼のピントを合わせる状態)とにずれが生じている。このずれが大きくなると、観察者は左右の視差画像から1つの立体像を認識できなくなり、左右の視差画像を二重像として認識してしまう。また、二重像として認識しなくても、不快感や疲労感が増す。
例えば、図13に示す表示画面100の中心を観察者が注視している場合、快適に立体像を認識できる相対視差(絶対値)はおよそ1度であり、融合限界はおよそ2度である。つまり、相対視差(絶対値)が2度を超えると、左右の視差画像は二重像として認識される。
次に、本発明が適用される代表的な立体表示システムについて説明する。まず通常の2次元画像について考えてみると、撮像装置における撮像画素数と表示装置における表示画素数とが異なるという状況が非常に多い。特に、静止画については、1000万画素以上の撮像素子を備えた撮像装置が主流になってきているのに対して、表示装置には、VGA(30万画素)からフルHD(200万画素)や、4K2Kと称される800万画素等、様々な表示画素数のものが存在する。
このように撮像画素数と表示画素数に差異がある場合、ダウンサンプリングやアップサンプリングといった画素数変換処理を行うことが一般的である。また、表示装置の表示画面サイズにも、携帯電話の画面のように数インチのものからプロジェクタによる100インチを超える大画面サイズまで様々なものがある。表示画面サイズに対しては、撮像画素数と表示画素数とが同じである場合は、表示倍率Mを変えるだけでよい。
そして、立体表示においても2次元画像と同様に、様々な表示条件において高品質な立体像を表示可能とすることが必要である。立体像表示における高品質とは、観察者に不快感や疲労感を与えにくい立体像の表示を意味する。
しかしながら、上述した立体像の奥行き位置を示す式(3),(4)から、観察者が認識する奥行き距離は視差量(PlとPrの差)と視距離dsとに依存した量であることが分かる。つまり、同じ視差画像を表示させる場合でも、表示画面サイズによって視差量が大きく変化してしまう。さらに、観察者がどのような視距離で観察するかは不明である。このため、融合限界は、表示装置の表示画面サイズと視距離が特定されるまでは算出することができず、撮像装置の制御だけでは様々な表示条件に対応した視差画像を得ることができない。
そこで、表示装置において、左右の視差画像をそれぞれ水平方向に平行移動して表示するオフセット制御を行う場合を考える。オフセット制御について、図14を用いて説明する。観察者の両眼の間の中心を原点とし、水平方向にx軸をとり、奥行き方向にy軸をとる。高さ方向は簡略化のために省略する。観察者から表示画面100までの視距離をdsとし、左右の眼がそれぞれ座標(−We,0)と(We,0)に位置するものとする。また、表示画面100に表示される右の視差画像における被写体(被写体像)Asの位置Irsの座標を(Pr−S,ds)とし、左の視差画像における被写体Asの位置Ilsの座標を(Pl+S,ds)とする。Sはオフセット量であり、左右の視差画像の水平方向への平行移動量である。
このとき、観察者は右眼(We、0)と右視差画像の被写体位置Irs(Pr−S,ds)とを結ぶ線分と、左眼(−We,0)と左視差画像上の被写体位置Ils(Pl+S,ds)とを結ぶ線分との交点(0,y3)に被写体Asが存在すると認識する。
y3は、上記各座標を用いて、
と表すことができる。
図14は、図13にオフセット量Sを与えた場合の立体表示状態を示している。図14では、オフセット量Sによって、図13に比べて、立体像の位置が(y2−y3)だけ表示画面100に近づく方向にシフトしている。なお、図14では被写体Asのみを示しているが、各視差画像内に他の被写体が存在する場合には、上記オフセット制御は表示される視差画像の全体に影響し、全ての立体像の位置が近似的に(y2−y3)だけ表示画面100に近づく方向にシフトする。
以上のことから、仮に図13に示す状態が観察者の融合限界を超えるような表示状態であった場合に、各視差画像にオフセット量Sを与えることで、融合限界を超えないように視差画像の表示を制御することが可能である。つまり、表示装置に観察者の位置(つまりは視距離)を検出するセンサとオフセット制御機能が備わっていれば、表示画面サイズや視距離が異なる様々な表示条件においても融合限界を超えないように視差画像を表示することができる。
しかし、必ずしも立体表示を行うための全ての視差画像に対してオフセット制御を行う必要はない。このため、処理負荷を低減するためにも、まずは視差画像の表示に対してオフセット制御を行うべきか否かを判定することが必要である。
表示装置に観察者の位置を検出するセンサが備わっている場合には、融合限界を超えるか否かを判定するための相対視差を算出するのに必要な情報は、最大および最小視差量(Pl-Pr)max,(Pl-Pr)minのみである。
視差量PlとPrの差は、上述した原理説明の中では距離として記述しているが、実際の表示装置では、表示される左右の視差画像の対応点間での画素ずれ量に相当する。また、撮像装置においても、式(1),(2)に示した撮影視差Plc,Prcは左右の視差画像の対応点間での画素ずれ量(Pl-Pr)として再現される。対応点とは、左右の視差画像において同一の被写体が写っている画素である。例えば、画素ずれ量(Pl-Pr)が正である場合は、表示画面よりも奥側に立体像が認識され、画素ずれ量(Pl-Pr)が負である場合は、表示画面よりも観察者側にて立体像が認識される。
ここで、撮像装置から出力される左右の視差画像の最大画素ずれ量を(Plc-Prc)maxとし、最小画素ずれ量を(Plc-Prc)minとする。また、撮像装置での水平方向の撮像画素数(記録画素数)をHcとする。さらに、表示装置での表示画素数をHmとし、表示装置での画素ピッチをTとする。このとき、最大および最小視差量(Pl-Pr)max,(Pl-Pr)min以下の式(6)により表される。なお、式(6)およびそれ以降の説明では、最大および最小視差量(Pl-Pr)max,(Pl-Pr)minをまとめて(Pl-Pr)max,minと記す。
つまり、撮像装置の記録画素数と最大および最小画素ずれ量の情報があれば、表示装置において融合限界の判定が可能であり、融合限界を超えるような視差画像表示を容易に回避することができる。
そこで、以下の各実施例では、左右の視差画像における複数箇所の対応点を抽出し、該複数箇所の対応点間の画素ずれ量のうち最大と最小のもの、すなわち最大画像ずれ量と最小画素ずれ量の情報を視差画像のデータファイルのヘッダ(ファイルヘッダ)に付加する(記録する)。なお、最大および最小画素ずれ量の情報に代えて、複数箇所の対応点間の画素ずれ量の水平方向記録画素数に対する比(画素ずれ比)のうち最大および最小のもの、すなわち最大画素ずれ比および最小画素ずれ比の情報を付加してもよい。
図1には、本発明の実施例1である立体像表示システムの構成を示している。本実施例の立体像表示システムは、被写体を左右の互いに異なる視点から撮像することで、互いに視差を有する左右の視差画像を生成および表示する。
撮像装置1は、左右の視差画像を撮像可能なビデオカメラである。左右の視差画像はそれぞれ、左眼用の視差画像と右眼用の視差画像を意味する。表示装置11は、表示部2に、取得した左右の視差画像から生成した観察者が立体視可能な立体像を表示することができる。撮像装置1は、表示部2の表示画面サイズや視距離等の表示条件にかかわらず融合限界を超えないように立体像を表示させるために、視差画像とともに、視差画像における複数箇所の対応点での最大および最小画素ずれ量や最大および最小画素ずれ比の情報を出力する。
図3には、撮像装置1の構成を示している。101は右の視差画像用の撮影光学系であり、201は左の視差画像用の撮影光学系である。左右の撮影光学系101,201の光軸間の距離、すなわち基線長は65mm程度が好適であるが、表示する立体像に対する立体感の要求に応じて変更することが可能である。
左右の撮像素子102,202はそれぞれ、左右の撮影光学系101,201により形成された被写体像(光学像)を電気信号に変換する。A/D変換器103,203は、撮像素子102,202からのアナログ出力信号をデジタル信号に変換して画像処理部104に供給する。
画像処理部104は、A/D変換器103、203からのデジタル信号に対して画素補間処理や色変換処理等の画像処理を行うことで、画像データとしての左右の視差画像を生成する。また、画像処理部104は、視差画像から被写体輝度の情報や撮影光学系101,201の焦点状態(コントラスト状態)を演算し、演算結果をシステムコントローラ109に供給する。画像処理部104の動作は、システムコントローラ109によって制御される。
状態検知部107は、撮影光学系101,201の絞り101a,201aの開口径やフォーカスレンズ101b,201bの位置等の撮像状態を検出してシステムコントローラ109に検出データを供給する。システムコントローラ109は、画像処理部104からの演算結果と状態検知部107からの撮像状態情報とに基づいて、撮影光学系制御部106を制御し、絞り101a,201aの開口径を変化させたりフォーカスレンズ101b,201bを移動させたりする。これにより、自動露出制御やオートフォーカスが行われる。
画像記録媒体108は、画像処理部104により生成された左右の視差画像を記録する。また、左右の視差画像を含む画像ファイルのファイルヘッダを格納する。
表示部200は、液晶表示素子とレンチキュラーレンズとにより構成されて、レンチキュラーレンズの光学作用によって観察者の左右の眼に左右の視差画像を別々に導くことで、立体像を提示する。
基準画像選択部110は、画像処理部104により生成された左右の視差画像のうち一方を基準画像として選択する。対応点抽出部111は、左右の視差画像において互いに対応する画素である対応点を、左右の視差画像における複数箇所にて抽出する。
画素ずれ量算出部112は、対応点抽出部111により抽出された複数箇所の対応点のそれぞれの間の画素ずれ量を算出する。最大/最小画素ずれ量検出部116は、画素ずれ量算出部112により算出された複数箇所の対応点間の画素ずれ量のうち最大および最小画素ずれ量を検出(取得)し、その情報を画像記録媒体108に出力する。画素ずれ量算出部112と最大/最小画素ずれ量検出部116が、画素ずれ量取得部114を構成する。また、左右の視差画像を出力する画像処理部104と最大および最小画素ずれ量の情報を出力する最大/最小画素ずれ量検出部116が、出力部を構成する。
次に、本実施例の撮像装置1における画像記録処理について、図4のフローチャートを用いて説明する。この処理(および後述する各処理)は、撮像装置1に設けられたコンピュータとしてのシステムコントローラ109により、コンピュータプログラムである立体撮像プログラムに従って実行される。
まず、システムコントローラ109は、撮影者の操作による撮影開始信号の入力を受けて撮像を開始する。システムコントローラ109は、ステップS101において、撮影光学系制御部106を介して撮影光学系101,201を制御する。
次に、システムコントローラ109は、ステップS102において、撮像素子102,202に、撮影光学系101,201によってそれぞれ形成される被写体像を光電変換させる。そして、撮像素子102,202からの出力をA/D変換器103,203を介して画像処理部104に転送し、画像処理部104に左右の視差画像を生成させる。
次に、システムコントローラ109は、ステップS103において、基準画像選択部110に、左右視差のうち一方を画素ずれ量算出のための基準画像として選択させる。本実施例では左の視差画像を基準画像として選択させる。もちろん、右の視差画像を基準画像としてもよい。
次に、システムコントローラ109は、ステップS104において、対応点抽出部111に、基準画像選択部110において選択された基準画像としての左の視差画像と参照画像としての右の視差画像との間で対応点を抽出させる。対応点とは、前述したように、左右の視差画像上で同一の被写体が写っている画素である。また、対応点は、左右の視差画像における複数箇所にて抽出される。
対応点の抽出手法について図5を用いて説明する。ここでは、視差画像上に設定されたX−Y座標系を用いる。この座標系では、図5に左側に示した基準画像301と右側に示した参照画像302において左上の画素の位置を原点として定義し、水平方向にX軸をとり、垂直方向にY軸をとっている。基準画像301上の画素(X,Y)の輝度をF1(X,Y)とし、参照画像302上の画素(X,Y)の輝度をF2(X,Y)とする。
基準画像301上の任意の画素(X,Y)(ハッチングして示す)に対応する参照画像302上の画素(ハッチングして示す)は、基準画像301における輝度F1(X,Y)と最も類似した輝度を有する参照画像302上の画素である。ただし、任意の画素と最も類似した画素を探すことは現実には難しいため、座標(X,Y)の近傍の画素も用いて、ブロックマッチングと称される手法により類似画素を探索する。
例えば、ブロックサイズが3である場合のブロックマッチング処理について説明する。基準画像301上の任意の座標(X、Y)の画素とその周辺の座標(X−1,Y)、(X+1,Y)の2つの画素との計3画素の輝度値はそれぞれ、
F1(X,Y)、F1(X−1,Y)、F1(X+1,Y)
となる。
これに対し、座標(X、Y)、(X−1,Y)、(X+1,Y)からX方向にkだけずれた参照画像302上の画素の輝度値はそれぞれ、
F2(X+k,Y)、F2(X+k−1,Y)、F2(X+k+1,Y)
となる。
この場合、基準画像301上の座標(X、Y)の画素との類似度Eを、以下の式(7)で定義する。
この式(7)において逐次、kの値を変更して類似度Eの値を計算する。そして、参照画像302のうち最も小さい類似度Eを与える(X+k,Y)が、基準画像301上の座標(X,Y)に対する対応点である。
なお、ブロックマッチング以外に、エッジ抽出等による共通点抽出法を用いて対応点を抽出してもよい。
次に、システムコントローラ109は、ステップS105において、画素ずれ量算出部112に、複数箇所にて抽出された対応点のそれぞれの間の画素ずれ量(Plc-Prc)を算出させる。画素ずれ量は、基準画像と参照画像上での対応点の画素位置間の差分である。
次に、システムコントローラ109は、ステップS106において、最大/最小画素ずれ量検出部116に、複数箇所の対応点間の画素ずれ量のうち最大および最小画素ずれ量kmax,kmin(=(Plc-Prc)max,min)を検出させる。
そして、システムコントローラ109は、ステップS107において、最大/最小画素ずれ量検出部116(記録部)に、画像データファイルのヘッダに最大画素ずれ量(Plc-Prc)maxと最小画素ずれ量(Plc-Prc)minの情報を記録させる。
ステップS108では、システムコントローラ109は、ステップS102で取得した左右の視差画像を立体画像ファイルとして画像データファイルに記録する。
図6には、画像記録媒体108に記録される画像データファイルの構成例を示す。画像データファイル1000は、ファイルヘッダ1001と画像データ部1003とにより構成される。上述した最大画素ずれ量(Plc-Prc)maxと最小画素ずれ量(Plc-Prc)minの情報1002は、ファイルヘッダ1001に記録され、左右の視差画像は画像データ部1003に記録される。ファイルヘッダ1001には、撮影画素数、F値、焦点距離等の撮像時の諸データも記録される。
画像データファイルのファイルヘッダに最大画素ずれ量(Plc-Prc)maxと最小画素ずれ量(Plc-Prc)minの情報を付加することで、表示装置11は、式(6)を用いて、融合限界を超えない最大視差量を容易に算出することができる。このため、融合限界を超えているか否かの判定を容易に行うことが可能となり、表示装置11での処理負荷を軽減することができる。
次に、図1を用いて表示装置11の構成について説明する。画像データ取得部10は、撮像装置1から、視差画像の画像データファイルを取得する。データ情報取得部20は、ファイルヘッダ1001(図6)に含まれるデータを取得する。表示条件取得部30は、表示部2における表示条件情報を取得する。相対視差量取得部40は、視差画像内の相対視差量を取得する。
融合限界判定部50は、視差画像に融合限界範囲外の画像領域(以下、融合限界外画像領域という)が含まれているか否かを判定する。立体画像処理部60は、画像データ全域の相対視差量を算出する画像内相対視差量算出部61と画像データ内の融合限界外画像領域を判定する融合限界外画像領域検出部62とにより構成される。さらに立体画像処理部60は、画像データの相対視差量を調整する処理を行う相対視差量調整処理部63、融合限界外画像領域に画像処理を行う融合限界外画像処理部64を有している。
表示部2は、立体画像処理部60から出力される画像データを表示する。表示部2も、撮像装置1の表示部200と同様に、例えば液晶表示素子とレンチキュラーレンズとにより構成され、レンチキュラーレンズの光学作用によって観察者の左右の眼に左右の視差画像を別々に導くことで、立体像を提示する。
次に、本実施例の立体像表示システムにおける融合限界判定処理について、図2のフローチャートを用いて説明する。
まずステップS201において、画像データ取得部10は、撮像装置1から画像データファイル1000を取得する。データ取得方法は、USBケーブル等で直接接続する方法でもよいし、電波や赤外線等の無線通信による方法でもよい。
次に、ステップS202において、データ情報取得部20は、画像データ取得部10で取得した画像データファイル1000内のファイルヘッダ1001に含まれる最大画素ずれ量と最小画素ずれ量と撮影情報(被写体距離、F値等)を取得する。
次に、ステップS203において、表示条件取得部30は、表示部2から表示条件情報を取得する。前述したように、表示条件とは、表示画素数、表示サイズおよび視距離に関する情報である。また、表示条件の取得方法は、不図示のUSBケーブル等で直接接続する方法でもよいし、電波や赤外線等の無線通信による方法でもよい。
次に、ステップS204において、相対視差量取得部40は、最大画素ずれ量、最小画素ずれ量、撮影情報および表示条件情報を用いて、上述した式(6)から表示装置11側での最大相対視差量と最小相対視差量を算出する。
次に、ステップS205(第1の融合限界判定ステップ)において、融合限界判定部50は、算出された最大相対視差量と最小相対視差量のうち少なくとも一方が、融合限界基準値を超えているか否かを判定する。すなわち、入力された画像データに融合限界領域が含まれているか否かを判定する。融合限界基準値は、一般的には±2度であるが、これに限られず±1.5度や±1度に設定してもよい。
本実施例では、例えば最大相対視差量が+2度を超えた場合又は最小相対視差量が−2度を超えた場合には、融合限界外画像領域が含まれていると判定する。逆に、最大および最小相対視差量が+2度および−2度を超えていない場合は、融合限界外画像領域が含まれていないと判定する。ステップS205での判定結果において、表示装置11側での最大相対視差量又は最小相対視差量が融合限界基準値を超えている(つまりは融合限界を超えている)と判定された場合、ステップS206に進む。
ステップS206(第2の融合限界判定ステップ)において、融合限界判定部50は、最大相対視差量と最小相対視差量の差を用いて立体画像の相対視差量範囲を算出し、該立体画像の相対視差量範囲が融合限界範囲量を超えているか否かを判定する。ここで融合限界範囲量とは融合限界範囲である±2度以内、つまり4度の範囲であるとする。融合限界判定部50は、画像データ内の相対視差量範囲が融合限界範囲量を超えていると判定した場合は、ステップS207へ進む。例えば、最大相対視差量が+1.8度、最小相対視差量が−2.5度であった場合、相対視差量範囲は4.3度となり、融合限界範囲である4度を超えていると判定される。
ステップS207において、画像データファイル1000は、立体画像処理部60に送られ、立体画像処理部60は、画像内相対視差量算出部61によって画像データファイル1000内の画像データ全域に対して相対視差量を算出する。算出手法としては、例えば上記で述べたブロックマッチング法を用いた手法を用いることができる。
次に、ステップS208において、融合限界外画像領域検出部62は、画像データ全域に対する相対視差量から画像データ内の融合限界外画像領域を検出する。
次に、ステップS209において、相対視差量調整処理部63は、融合限界外画像領域が可能な限り融合限界範囲内となるように視差画像の画像データに画像処理を実行する。
本実施例では、ステップS209において、前述した左右視差画像に対して画像を水平方向にそれぞれ平行移動して表示させるオフセット制御を行う。ここでは、前述したように視差画像の視差量が融合限界範囲量を超えているため、オフセット制御だけでは視差画像全域の融合限界に対応することができない。そこで、さらに融合限界外画像処理部64は、融合限界外画像領域を観察者に認識させないように視差画像に画像処理を実行する。本実施例では、前述した視差画像の融合限界外画像領域にぼけ成分を付加する画像処理を行う。ぼけ成分を付加することにより、融合限界外画像領域を観察者が注視しなくなるため、観察者の不快感や疲労感を緩和することができる。
こうして立体画像処理部60内での立体画像データ処理が完了され、処理された画像データは表示部2に転送されて表示される。
次に、図2のフローチャートにおけるステップS205で、融合限界判定部50により最大相対視差量および最小相対視差量が融合限界基準値を超えていないと判定された場合の処理について説明する。この場合は、画像データファイル1000の画像データ(視差画像)は、融合限界外画像領域が含まれていない。すなわち、この画像データは、観察者に不快感や疲労感を与えにくい立体像を表示可能な視差画像のデータであり、前述したオフセット制御やぼけ成分付加といった画像処理を行う必要はない。このため、そのままステップS210に進み、該画像データを表示部2に表示用画像データとして転送してこれを表示させ、立体像を提示する。
次に、ステップS206において、融合限界判定部50により視差画像の視差量が融合限界範囲量を超えていないと判定された場合の処理について説明する。この場合は、画像データファイル1000の画像データ(視差画像)は、オフセット制御のみで観察者に不快感や疲労感を与えにくい立体像を表示可能な画像データである。このため、相対視差量調整処理部63は、ステップS211において、融合限界外画像領域が融合限界範囲内の画像領域となるように画像データに、前述したオフセット制御を行う。
ここでは、視差画像の視差量が融合限界範囲量を超えていないため、オフセット制御だけで画像全領域の融合限界に対応することができる。画像データとして、これ以上、観察者に不快感や疲労感を与えにくくするための画像処理を行う必要はないので、ステップS210へ進み、該画像データを表示部2に表示用画像データとして転送してこれを表示させ、立体像を提示する。
以上のように、本実施例では、ファイルヘッダに付加された最大画素ずれ量と最小画素ずれ量の情報を利用することで、表示装置11での表示条件にかかわらず観察者に不快感や疲労感を与えにくい良質な立体像を表示することができる。
また、本実施例では、上記式(6)から表示装置11側で最大相対視差量と最小相対視差量を容易に算出することが可能である。このため、融合限界判定を容易に実行することが可能となり、表示装置11側での処理負荷を軽減することができる。
また、本実施例では、最大相対視差量と最小相対視差量の両方を用いているので、立体像の表示空間全体が融合限界内の範囲である相対視差±2度の範囲のうちどの程度の領域を占めているかを容易に判定できる。このため、上述した表示装置11でのオフセット制御だけでは融合限界を超えることを回避できない場合に、オフセット制御に加えてぼけ成分の付加という画像処理を行うことで、融合限界を超えることに対処を可能とすることができる。
そして、以上の2つの判定によって視差画像に融合限界外画像領域が含まれ、かつ視差量が融合限界範囲量を超える場合にのみ、表示装置11によって画面全体の視差量を算出すればよくなる。このため、他の画像データの処理時の表示装置11での処理負荷を軽くすることができる。
また、毎秒60フレーム又はそれ以上の動画像により立体像を表示する場合には、最大および最小画素ずれ量の算出を1フレームごとに表示装置11で行うことは処理負荷が大きい。このため、画像データファイル1000内の1フレーム画像ごとに最大および最小画素ずれ量の情報を付加しておくことで、表示装置11において融合限界に対応した表示制御を行う必要をなくし、表示装置11の処理負荷を軽減することできる。
また、画像データファイル1000全体のファイルヘッダに全視差画像にわたる最大および最小画素ずれ量の情報を付加することで、視差画像ごとの上記判定を不要とすることもでき、大幅な処理負荷の低減効果が得られる。また、画像データファイルにおいてシーンが異なるチャプターごとに最大および最小画素ずれ量の情報を付加することで、シーン毎に上記判定を行うことができる。
本実施例では、ファイルヘッダに最大および最小画素ずれ量(Plc-Prc)max,(Plc-Prc)minの情報が含まれることを前提とした。しかし、必ずしもファイルヘッダに最大および最小画素ずれ量の情報が含まれる必要はない。例えば、ファイルヘッダに最大画素ずれ量として記録される情報(Plc-Prc)MAXは、
0.8×(Plc-Prc)max<(Plc-Prc)MAX<1.2×(Plc-Prc)max
を満足すればよい。また、ファイルヘッダに最小画素ずれ量として記録される情報(Plc-Prc)MINは、
0.8×(Plc-Prc)min<(Plc-Prc)MIN<1.2×(Plc-Prc)min
を満足すればよい。上記範囲の上限値を超えたり下限値を下回ったりすると、観察者にとって見にくい立体像が表示されてしまう。
ファイルヘッダの最大および最小画素ずれ量の情報が0.8×(Plc-Prc)max又は0.8×(Plc-Prc)minに近ければ融合限界判定基準がより厳しいものとなり、より不快感や疲労感を観察者に与えにくい立体像を表示可能となる。しかし、ファイルヘッダの最大および最小画素ずれ量が0.8×(Plc-Prc)max,0.8×(Plc-Prc)minよりも小さくなると、処理が必要と判定される画像フレーム数が増加し、処理負荷の低減効果を得ることが難しくなる。
また、ファイルヘッダの最大および最小画素ずれ量の情報が、1.2×(Plc-Prc)max又は1.2×(Plc-Prc)minに近ければ融合限界判定基準が緩和され、処理されるフレーム画像が減少するため処理負荷の低減が可能となる。しかし、ファイルヘッダの最大および最小画素ずれ量の情報が1.2×(Plc-Prc)max又は1.2×(Plc-Prc)minよりも大きくなると、不快感や疲労感を与えるフレーム画像数が増大して、高品質な立体像の表示が困難となる。
なお、最大画素ずれ量および最小画素ずれ量の情報に加えて、各対応点間の画素ずれ量の情報を画像データファイルのファイルヘッダやそれ以外の部分に記録してもよい。
また、本実施例では、基準画像選択部110、対応点抽出部111、画素ずれ量算出部112および最大/最小画素ずれ量検出部116を別々の処理部として構成した場合について説明したが、これらを1つの処理部としてまとめてもよい。
図7には、本発明の実施例2である立体像表示システムにおける撮像装置の構成を示す。図7に示す構成要素のうち実施例1(図3)に示した構成要素と同じものについては、図3と同符号を付して説明に代える。また、撮像装置以外のシステム構成は実施例1と同様であるため、その構成と動作については説明を省略する。
画素ずれ比算出部114aは、対応点抽出部111により抽出された複数箇所の対応点のそれぞれの間の画素ずれ量を算出し、さらに該画素ずれ量の水平方向での記録画素数に対する比である画素ずれ比を算出する。
そして、最大/最小画素ずれ比検出部115は、画素ずれ比算出部114aにより算出された複数箇所の対応点間の画素ずれ比のうち最大画素ずれ比および最小画素ずれ比を検出し、それらの情報を画像記録媒体108に出力する。最大画素ずれ比は、式(6)内の(Plc-Prc)max,min/Hcに対応する値である。画素ずれ比算出部114aと最大/最小画素ずれ比検出部115が、画素ずれ比取得部を構成する。また、左右の視差画像を出力する画像処理部104と最大および最小画素ずれ比の情報を出力する最大/最小画素ずれ比検出部115が、出力部を構成する。
次に、本実施例の撮像装置における画像記録処理について、図8のフローチャートを用いて説明する。この処理は、撮像装置に設けられたコンピュータとしてのシステムコントローラ109により、コンピュータプログラムである立体撮像プログラムに従って実行される。
ステップS101〜ステップS104およびステップS108については実施例1(図4)と同じである。ステップS301では、システムコントローラ109は、画素ずれ比算出部114aに、ステップS104において抽出された複数箇所の対応点のそれぞれの間の画素ずれ比を算出させる。画素ずれ比算出部114aは、画素ずれ比を、基準画像と参照画像の対応点間の画素ずれ量(Plc-Prc)の水平方向記録画素数Hcに対する比((Plc-Prc)/Hc)として算出する。
次に、システムコントローラ109は、ステップS302において、最大/最小画素ずれ比検出部115に、複数箇所の対応点間の画素ずれ比のうち最大および最小画素ずれ比である(Plc-Prc)max/Hc,(Plc-Prc)min/Hcを検出させる。
次に、システムコントローラ109は、ステップS303において、最大/最小画素ずれ比検出部115に、画像データファイルのファイルヘッダに最大および最小画素ずれ比(Plc-Prc)max/Hc,(Plc-Prc)min/Hcの情報を記録させる。
図9には、画像記録媒体108に記録される画像データファイルの構成例を示す。画像データファイル1000は、ファイルヘッダ1001と画像データ部1003とにより構成される。上述した最大および最小画素ずれ比(Plc-Prc)max/Hc,(Plc-Prc)min/Hcの情報1004は、ファイルヘッダ1001に記録され、左右の視差画像は画像データ部1003に記録される。ファイルヘッダ1001には、撮影画素数、F値、焦点距離等の撮像時の諸データも記録される。
画像データファイルのファイルヘッダに最大および最小画素ずれ比(Plc-Prc)max/Hc,(Plc-Prc)min/Hcの情報を付加することで、表示装置11は、式(6)を用いて、融合限界を超えない最大視差量を容易に算出することができる。このため、融合限界を超えているか否かの判定を容易に行うことが可能となり、表示装置11での処理負荷を軽減することができる。特に、毎秒60フレーム又はそれ以上の動画像により立体像を表示する場合には、最大および最小画素ずれ比の算出を1フレーム画像ごとに表示装置11で実行することは処理負荷が大きい。このため、画像データファイル内の1フレーム画像ごとに最大および最小画素ずれ比の情報を付加しておくことで、表示装置11において融合限界に対応した表示制御を行う必要をなくし、処理負荷を軽減することができる。
また、画像データファイル全体のファイルヘッダに全視差画像にわたる最大および最小画素ずれ比の情報を付加することで、視差画像ごとの上記判定を不要とすることもでき、大幅な処理負荷の低減効果が得られる。また、画像データファイルにおいてシーンが異なるチャプターごとに最大および最小画素ずれ比の情報を付加することで、シーン毎に上記判定を行うことができる。
なお、本実施例では、画像データファイルのファイルヘッダに最大および最小画素ずれ比の情報を記録する場合について説明した。他の変形例として、最大および最小画素ずれ比の情報に加えて、各対応点間の画素ずれ比の情報を画像データファイルのファイルヘッダやそれ以外の部分に記録してもよい。
また、本実施例では、基準画像選択部110、対応点抽出部111、画素ずれ比算出部114aおよび最大/最小画素ずれ比検出部115を別々の処理部として構成した場合について説明したが、これらを1つの処理部としてまとめてもよい。
次に、本発明の実施例3である立体像表示システムについて説明する。図10には、実施例3の立体像表示システムの構成を示している。本実施例における表示装置411に設けられた表示部402は、左右の視差画像を1つの画面上に時分割で表示する。このとき、観察者は、視差画像の時分割表示に同期して左右交互に開閉する液晶シャッタを備えたメガネを通して表示部402を観察することで立体像を見ることができる。また、表示部402は、左右の視差画像をそれぞれ互いに偏光方向が直交する偏光光によって同時に表示してもよい。この場合、観察者は、互いに直交する偏光方向の偏光光を透過する偏光フィルタを左右に設けた偏光メガネを通して表示部402を観察することで立体像を見ることができる。
また、表示部402は、画像処理部70、融合限界判定レベル調整部80および視距離検出部90を備えている。画像処理部70は、2次元画像や動画に対して一般的に行われるエッジ強調や色補正等の画像処理を行う。融合限界判定レベル調整部80は、観察者の操作によって所望の融合限界判定レベルを設定できる。また、視距離検出部90は、観察者の表示画面からの距離である視距離を検出する。その他の構成は実施例1と同様である。
次に、本実施例における表示装置411での融合限界判定処理について、図11のフローチャートを用いて説明する。まずステップS401において、画像データ取得部10は、撮像装置1からの画像データファイルを取得する。データ取得方法は、実施例1で説明した方法と同じである。
次に、ステップS402において、データ情報取得部20は、画像データ取得部10で取得した画像データファイル内のファイルヘッダに含まれる最大および最小画素ずれ量の情報と撮影情報を取得する。
次に、ステップS403において、表示条件取得部30は、表示部402から表示条件情報を取得する。表示条件は、表示画素数、表示サイズ、視距離検出部90から送られてくる視距離および融合限界判定レベル調整部80から送られてくる判定レベルに関する情報である。表示条件の取得方法は、は実施例1で説明した方法と同じである。ただし、視距離検出部90による観察者の視距離情報の取得については、従来、距離測定に用いられる赤外線の反射を利用した手法等を用いることも可能である。
次に、ステップS404において、相対視差量取得部40は、最大および最小画素ずれ量の情報、撮影情報および表示条件情報を用いて、上述した式(6)から表示装置411側での最大および最小相対視差量を算出する。
次に、ステップS405において、融合限界判定部50では、算出された最大および最小相対視差量から、入力された画像データ(視差画像)に融合限界外画像領域が含まれているか否かを判定する。例えば、相対視差量±2度を基準判定量とし、融合限界判定レベル調整部80から送られてくる判定レベルに関する情報を、基準判定量に対する割合とする。具体的には、観察者が複数段階の判定レベルから1つのレベルを選択し、基準判定量である±2度に該レベルを乗じることで判定基準を制御する。例えば、レベルを8割とすると、基準判定量±2度の8割である+1.6度を新たな判定基準として設定する。融合限界判定部50は、新たに設定された判定基準に応じて、画像データに融合限界外画像領域が含まれているか否かを判定する。
これ以降、表示用画像データを出力するまでのステップS406〜ステップS411は、実施例1におけるステップS206〜ステップS211と同じであるため、ここでは説明を省略する。本実施例では、さらにステップS412において、画像処理部70が表示用画像データに対して前述したエッジ強調や色補正等の画像処理を行った後に、表示部402に表示する。
以上説明したように、本実施例では、ファイルヘッダに付加された最大および最小画素ずれ量(Plc-Prc)max,(Plc-Prc)minの情報を利用することで、上述したように式(6)から表示装置411で最大および最小相対視差量を容易に算出することが可能となる。そのため、融合限界判定を容易に実行することが可能となり、表示装置411の処理負荷を軽減することができる。特に、秒間60フレームかそれ以上の動画像により立体像を表示する場合には、画像データ全域に対する相対視差量の算出を1フレーム画像ごとに行うことは処理負荷が大きい。このため、本実施例のように、表示装置411に融合限界判定部50を有することで、他の処理装置によって処理負荷が大きい融合限界判定処理を行う必要がなくなる。
また、例えば画像データファイル全体のファイルヘッダに付加される最大および最小画素ずれ量の情報を利用することで、融合限界条件を満たした場合には全画像データに対して処理を回避することが可能となり、大幅な処理負荷の低減効果が得られる。また、シーンが異なるチャプター毎の最大および最小画素ずれ量の情報を利用することで、シーン変更ごとに表示装置411での処理判定を行うことができ、より高品質な立体動画の表示が可能となる。
高画質の立体像を提示できる立体像表示システムを提供できる。
1 撮像装置
11,411 表示装置
20 画像データ取得部
40 相対視差量取得部
50 融合限界判定部
60 画像処理部

Claims (18)

  1. 互いに視差を有する視差画像を撮像可能な撮像装置および該視差画像に基づく立体像を表示可能な表示装置を有する立体像表示システムであって、
    前記撮像装置は、
    前記視差画像における対応点を複数箇所にて抽出する対応点抽出部と、
    前記複数箇所の対応点のそれぞれの間の画素ずれ量を取得し、該画素ずれ量のうち最大画素ずれ量および最小画素ずれ量の情報を得る画素ずれ量取得部と、
    前記視差画像と前記最大画素ずれ量および前記最小画素ずれ量の情報とを出力する出力部とを有し、
    前記表示装置は、
    前記視差画像と、前記最大画素ずれ量および前記最小画素ずれ量の情報とを取得する情報取得部と、
    前記最大画素ずれ量および前記最小画素ずれ量の情報と表示条件とを用いて、前記最大画素ずれ量に対応する最大相対視差量および前記最小画素ずれ量に対応する最小相対視差量を算出する相対視差量算出部と、
    前記最大相対視差量と前記最小相対視差量のうち少なくとも一方の相対視差量が融合限界基準値を超えているか否かを判定し、該少なくとも一方の相対視差量が前記融合限界基準値を超えている場合は前記最大相対視差量と前記最小相対視差量の差が融合限界範囲量を超えているか否かを判定する融合限界判定部とを有することを特徴とする立体像表示システム。
  2. 前記撮像装置における前記出力部は、前記画素ずれ量取得部により取得された前記各対応点間の前記画素ずれ量の情報を出力することを特徴とする請求項1に記載の立体像表示システム。
  3. 互いに視差を有する視差画像を撮像可能な撮像装置および該視差画像に基づく立体像を表示可能な表示装置を有する立体像表示システムであって、
    前記撮像装置は、
    前記視差画像における対応点を複数箇所にて抽出する対応点抽出部と、
    前記複数箇所の対応点のそれぞれの間の画素ずれ比を算出し、該画素ずれ比のうち最大画素ずれ比および最小画素ずれ比の情報を得る画素ずれ比算出部と、
    前記視差画像と前記最大画素ずれ比および前記最小画素ずれ比の情報とを出力する出力部とを有し、
    前記表示装置は、
    前記視差画像と、前記最大画素ずれ比および前記最小画素ずれ比の情報とを取得する情報取得部と、
    前記最大画素ずれ比および前記最小画素ずれ比の情報と表示条件とを用いて、前記最大画素ずれ比に対応する最大相対視差量および前記最小画素ずれ比に対応する最小相対視差量を算出する相対視差量算出部と、
    前記最大相対視差量と前記最小相対視差量のうち少なくとも一方の相対視差量が融合限界基準値を超えているか否かを判定し、該少なくとも一方の相対視差量が前記融合限界基準値を超えている場合は前記最大相対視差量と前記最小相対視差量の差が融合限界範囲量を超えているか否かを判定する融合限界判定部とを有することを特徴とする立体像表示システム。
  4. 前記撮像装置の前記出力部は、前記画素ずれ比算出部により算出された前記各対応点間の前記画素ずれ比の情報を出力することを特徴とする請求項3に記載の立体像表示システム。
  5. 前記表示装置は、
    前記融合限界判定部により前記最大相対視差量および前記最小相対視差量が前記融合限界基準値を超えていないと判定された場合は、前記視差画像に対してオフセット制御を行う画像処理を実行せず、前記最大相対視差量および前記最小相対視差量が前記融合限界基準値を超えていると判定された場合は前記画像処理を実行する画像処理部を有することを特徴とする請求項1から4のいずれか1項に記載の立体像表示システム。
  6. 前記表示装置は、
    前記融合限界判定部により前記最大相対視差量および前記最小相対視差量が前記融合限界基準値を超えていないと判定された場合は、前記視差画像に対してオフセット制御を行う画像処理を実行し、前記融合限界判定部により前記最大相対視差量および前記最小相対視差量が前記融合限界基準値を超えていると判定された場合は、前記視差画像にぼけ成分を付加する画像処理を実行する画像処理部を有することを特徴とする請求項1から4のいずれか1項に記載の立体像表示システム。
  7. 前記表示条件は、前記表示装置の表示画素数、画面サイズおよび視距離のうち少なくとも1つであることを特徴とする請求項1から6のいずれか1項に記載の立体像表示システム。
  8. 前記画素ずれ量を(Plc-Prc)とし、前記最大画素ずれ量を(Plc-Prc)maxとするとき、
    0.8×(Plc-Prc)max<(Plc-Prc)<1.2×(Plc-Prc)max
    を満足することを特徴とする請求項1から7のいずれか1項に記載の立体像表示システム。
  9. 前記画素ずれ量を(Plc-Prc)とし、前記最小画素ずれ量を(Plc-Prc)minとするとき、
    0.8×(Plc-Prc)min<(Plc-Prc)<1.2×(Plc-Prc)min
    を満足することを特徴とする請求項1から7のいずれか1項に記載の立体像表示システム。
  10. 前記表示装置から観察者までの視距離を検出する視距離検出部を有することを特徴とする請求項1から9のいずれか1項に記載の立体像表示システム。
  11. 互いに視差を有する視差画像を撮像可能な撮像装置であって、
    前記視差画像における対応点を複数箇所にて抽出する対応点抽出部と、
    前記複数箇所の対応点のそれぞれの間の画素ずれ量を取得し、該画素ずれ量のうち最大画素ずれ量および最小画素ずれ量の情報を得る画素ずれ量取得部と、
    前記視差画像に前記最大画素ずれ量および前記最小画素ずれ量の情報を記録する記録部を有することを特徴とする撮像装置。
  12. 互いに視差を有する視差画像と、該視差画像の最大画素ずれ量および最小画素ずれ量の情報を取得する情報取得部と、
    前記最大画素ずれ量および前記最小画素ずれ量の情報と表示条件を用いて、前記最大画素ずれ量に対応する最大相対視差量および前記最小画素ずれ量に対応する最小相対視差量を算出する相対視差量算出部と、
    前記最大相対視差量および前記最小相対視差量のうち少なくとも一方の相対視差量が融合限界基準値を超えているか否かを判定し、該少なくとも一方の相対視差量が前記融合限界基準値を超えている場合は前記最大相対視差量と前記最小相対視差量の差が融合限界範囲量を超えているか否かを判定する融合限界判定部とを有することを特徴とする表示装置。
  13. コンピュータに、
    互いに視差を有する視差画像における対応点を複数箇所にて抽出する対応点抽出ステップと、
    前記複数箇所の対応点のそれぞれの間の画素ずれ量を取得し、該画素ずれ量のうち最大画素ずれ量および最小画素ずれ量の情報を得る画素ずれ量取得ステップと、
    前記視差画像に前記最大画素ずれ量および前記最小画素ずれ量の情報を記録する記録ステップとを含む処理を実行させることを特徴とするコンピュータプログラム。
  14. コンピュータに、
    互いに視差を有する視差画像と、該視差画像の最大画素ずれ量および最小画素ずれ量の情報とを取得する情報取得ステップと、
    前記最大画素ずれ量および前記最小画素ずれ量の情報と表示条件を用いて、前記最大画素ずれ量に対応する最大相対視差量および前記最小画素ずれ量に対応する最小相対視差量を算出する相対視差量算出ステップと、
    前記最大相対視差量と前記最小相対視差量のうち少なくとも一方の相対視差量が融合限界基準値を超えているか否かを判定する第1の融合限界判定ステップと、
    該少なくとも一方の相対視差量が前記融合限界基準値を超えている場合に、前記最大相対視差量と前記最小相対視差量の差が融合限界範囲量を超えているか否かを判定する第2の融合限界判定ステップとを含む処理を実行させることを特徴とするコンピュータプログラム。
  15. 互いに視差を有する視差画像を撮像可能な撮像装置であって、
    前記視差画像における対応点を複数箇所にて抽出する対応点抽出部と、
    前記複数箇所の対応点のそれぞれの間の画素ずれ比を算出し、該画素ずれ比のうち最大画素ずれ比および最小画素ずれ比の情報を得る画素ずれ比算出部と、
    前記視差画像に前記最大画素ずれ比および前記最小画素ずれ比の情報を記録する記録部とを有することを特徴とする撮像装置。
  16. 互いに視差を有する視差画像と、該視差画像の最大画素ずれ比および最小画素ずれ比の情報を取得する情報取得部と、
    前記最大画素ずれ比および前記最小画素ずれ比の情報と表示条件を用いて、前記最大画素ずれ比に対応する最大相対視差量および前記最小画素ずれ比に対応する最小相対視差量を算出する相対視差量算出部と、
    前記最大相対視差量および前記最小相対視差量のうち少なくとも一方の相対視差量が融合限界基準値を超えているか否かを判定し、該少なくとも一方の相対視差量が前記融合限界基準値を超えている場合は前記最大相対視差量と前記最小相対視差量の差が融合限界範囲量を超えているか否かを判定する融合限界判定部とを有することを特徴とする表示装置。
  17. コンピュータに、
    互いに視差を有する視差画像における対応点を複数箇所にて抽出する対応点抽出ステップと、
    前記複数箇所の対応点のそれぞれの間の画素ずれ比を算出し、該画素ずれ比のうち最大画素ずれ比および最小画素ずれ比の情報を得る画素ずれ比算出ステップと、
    前記視差画像に前記最大画素ずれ比および前記最小画素ずれ比の情報を記録する記録ステップとを含む処理を実行させることを特徴とするコンピュータプログラム。
  18. コンピュータに、
    互いに視差を有する視差画像と、該視差画像の最大画素ずれ比および最小画素ずれ比の情報とを取得する情報取得ステップと、
    前記最大画素ずれ比および前記最小画素ずれ比の情報と表示条件を用いて、前記最大画素ずれ比に対応する最大相対視差量および前記最小画素ずれ比に対応する最小相対視差量を算出する相対視差量算出ステップと、
    前記最大相対視差量と前記最小相対視差量のうち少なくとも一方の相対視差量が融合限界基準値を超えているか否かを判定する第1の融合限界判定ステップと、
    該少なくとも一方の相対視差量が前記融合限界基準値を超えている場合に、前記最大相対視差量と前記最小相対視差量の差が融合限界範囲量を超えているか否かを判定する第2の融合限界判定ステップとを含む処理を実行させることを特徴とするコンピュータプログラム。
JP2011255593A 2010-12-17 2011-11-22 撮像装置、表示装置、コンピュータプログラムおよび立体像表示システム Active JP5963422B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011255593A JP5963422B2 (ja) 2010-12-17 2011-11-22 撮像装置、表示装置、コンピュータプログラムおよび立体像表示システム
US13/323,026 US9007442B2 (en) 2010-12-17 2011-12-12 Stereo image display system, stereo imaging apparatus and stereo display apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010281256 2010-12-17
JP2010281256 2010-12-17
JP2011255593A JP5963422B2 (ja) 2010-12-17 2011-11-22 撮像装置、表示装置、コンピュータプログラムおよび立体像表示システム

Publications (2)

Publication Number Publication Date
JP2012142922A true JP2012142922A (ja) 2012-07-26
JP5963422B2 JP5963422B2 (ja) 2016-08-03

Family

ID=46233871

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011255593A Active JP5963422B2 (ja) 2010-12-17 2011-11-22 撮像装置、表示装置、コンピュータプログラムおよび立体像表示システム

Country Status (2)

Country Link
US (1) US9007442B2 (ja)
JP (1) JP5963422B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014064946A1 (ja) * 2012-10-26 2014-05-01 株式会社ニコン 撮像装置、画像処理装置、撮像装置の制御プログラムおよび画像処理装置の制御プログラム
JPWO2015037473A1 (ja) * 2013-09-11 2017-03-02 ソニー株式会社 画像処理装置および方法

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2391226A1 (en) 1999-11-12 2001-05-17 Baxter International, Inc. Reduced side-effect hemoglobin compositions
EP3328048B1 (en) 2008-05-20 2021-04-21 FotoNation Limited Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
WO2011063347A2 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
WO2011143501A1 (en) 2010-05-12 2011-11-17 Pelican Imaging Corporation Architectures for imager arrays and array cameras
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
JP5906062B2 (ja) * 2010-12-17 2016-04-20 キヤノン株式会社 撮像装置およびその制御方法
EP2708019B1 (en) 2011-05-11 2019-10-16 FotoNation Limited Systems and methods for transmitting and receiving array camera image data
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
WO2013003276A1 (en) 2011-06-28 2013-01-03 Pelican Imaging Corporation Optical arrangements for use with an array camera
US20130070060A1 (en) 2011-09-19 2013-03-21 Pelican Imaging Corporation Systems and methods for determining depth from multiple views of a scene that include aliasing using hypothesized fusion
CN107230236B (zh) 2011-09-28 2020-12-08 快图有限公司 用于编码和解码光场图像文件的系统及方法
US9137519B1 (en) * 2012-01-04 2015-09-15 Google Inc. Generation of a stereo video from a mono video
JP5840022B2 (ja) * 2012-02-17 2016-01-06 キヤノン株式会社 立体画像処理装置、立体画像撮像装置、立体画像表示装置
WO2013126578A1 (en) 2012-02-21 2013-08-29 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
JP5889719B2 (ja) * 2012-05-31 2016-03-22 カシオ計算機株式会社 撮像装置、撮像方法及びプログラム
EP2677733A3 (en) * 2012-06-18 2015-12-09 Sony Mobile Communications AB Array camera imaging system and method
EP2873028A4 (en) * 2012-06-28 2016-05-25 Pelican Imaging Corp SYSTEMS AND METHOD FOR DETECTING DEFECTIVE CAMERA ARRAYS, OPTICAL ARRAYS AND SENSORS
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
US20150181204A1 (en) * 2012-07-18 2015-06-25 Sony Corporation Image processing apparatus, image processing method, and image display device
AU2013305770A1 (en) 2012-08-21 2015-02-26 Pelican Imaging Corporation Systems and methods for parallax detection and correction in images captured using array cameras
US20140055632A1 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
US9214013B2 (en) 2012-09-14 2015-12-15 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
WO2014052974A2 (en) 2012-09-28 2014-04-03 Pelican Imaging Corporation Generating images from light fields utilizing virtual viewpoints
US9098911B2 (en) 2012-11-01 2015-08-04 Google Inc. Depth map generation from a monoscopic image based on combined depth cues
US9143711B2 (en) 2012-11-13 2015-09-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
WO2014130849A1 (en) 2013-02-21 2014-08-28 Pelican Imaging Corporation Generating compressed light field representation data
US9374512B2 (en) 2013-02-24 2016-06-21 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
US9638883B1 (en) 2013-03-04 2017-05-02 Fotonation Cayman Limited Passive alignment of array camera modules constructed from lens stack arrays and sensors based upon alignment information obtained during manufacture of array camera modules using an active alignment process
WO2014138695A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for measuring scene information while capturing images using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
WO2014164550A2 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation System and methods for calibration of an array camera
US9519972B2 (en) 2013-03-13 2016-12-13 Kip Peli P1 Lp Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
US9100586B2 (en) 2013-03-14 2015-08-04 Pelican Imaging Corporation Systems and methods for photometric normalization in array cameras
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US9633442B2 (en) 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9497370B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Array camera architecture implementing quantum dot color filters
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
JP2016524125A (ja) 2013-03-15 2016-08-12 ペリカン イメージング コーポレイション カメラアレイを用いた立体撮像のためのシステムおよび方法
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
US9185276B2 (en) 2013-11-07 2015-11-10 Pelican Imaging Corporation Methods of manufacturing array camera modules incorporating independently aligned lens stacks
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
WO2015081279A1 (en) 2013-11-26 2015-06-04 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
US9247117B2 (en) 2014-04-07 2016-01-26 Pelican Imaging Corporation Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
CN107077743B (zh) 2014-09-29 2021-03-23 快图有限公司 用于阵列相机的动态校准的系统和方法
JP6504382B2 (ja) * 2014-10-24 2019-04-24 パナソニックIpマネジメント株式会社 表示制御装置、表示システム、表示制御方法、表示制御プログラム、および投影装置
JP6516510B2 (ja) 2015-03-02 2019-05-22 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP6494328B2 (ja) * 2015-03-02 2019-04-03 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US11270110B2 (en) 2019-09-17 2022-03-08 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
CN114766003B (zh) 2019-10-07 2024-03-26 波士顿偏振测定公司 用于利用偏振增强传感器系统和成像系统的系统和方法
CN114787648B (zh) 2019-11-30 2023-11-10 波士顿偏振测定公司 用于使用偏振提示进行透明对象分段的系统和方法
JP7462769B2 (ja) 2020-01-29 2024-04-05 イントリンジック イノベーション エルエルシー 物体の姿勢の検出および測定システムを特徴付けるためのシステムおよび方法
KR20220133973A (ko) 2020-01-30 2022-10-05 인트린식 이노베이션 엘엘씨 편광된 이미지들을 포함하는 상이한 이미징 양식들에 대해 통계적 모델들을 훈련하기 위해 데이터를 합성하기 위한 시스템들 및 방법들
WO2021243088A1 (en) 2020-05-27 2021-12-02 Boston Polarimetrics, Inc. Multi-aperture polarization optical systems using beam splitters
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09121370A (ja) * 1995-08-24 1997-05-06 Matsushita Electric Ind Co Ltd 立体tv装置
JP2003209858A (ja) * 2002-01-17 2003-07-25 Canon Inc 立体画像生成方法及び記録媒体
JP2003284093A (ja) * 2002-03-27 2003-10-03 Sanyo Electric Co Ltd 立体画像処理方法および装置
JP2010045584A (ja) * 2008-08-12 2010-02-25 Sony Corp 立体画像補正装置、立体画像補正方法、立体画像表示装置、立体画像再生装置、立体画像提供システム、プログラム及び記録媒体

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3089306B2 (ja) 1993-08-26 2000-09-18 松下電器産業株式会社 立体画像撮像及び表示装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09121370A (ja) * 1995-08-24 1997-05-06 Matsushita Electric Ind Co Ltd 立体tv装置
JP2003209858A (ja) * 2002-01-17 2003-07-25 Canon Inc 立体画像生成方法及び記録媒体
JP2003284093A (ja) * 2002-03-27 2003-10-03 Sanyo Electric Co Ltd 立体画像処理方法および装置
JP2010045584A (ja) * 2008-08-12 2010-02-25 Sony Corp 立体画像補正装置、立体画像補正方法、立体画像表示装置、立体画像再生装置、立体画像提供システム、プログラム及び記録媒体

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014064946A1 (ja) * 2012-10-26 2014-05-01 株式会社ニコン 撮像装置、画像処理装置、撮像装置の制御プログラムおよび画像処理装置の制御プログラム
JPWO2014064946A1 (ja) * 2012-10-26 2016-09-08 株式会社ニコン 撮像装置、画像処理装置、撮像装置の制御プログラムおよび画像処理装置の制御プログラム
US9693036B2 (en) 2012-10-26 2017-06-27 Nikon Corporation Imaging apparatus, image processing device, computer-readable medium having stored thereon an imaging apparatus controlling program, and computer-readable medium having stored thereon an image processing program
JPWO2015037473A1 (ja) * 2013-09-11 2017-03-02 ソニー株式会社 画像処理装置および方法

Also Published As

Publication number Publication date
US20120154551A1 (en) 2012-06-21
US9007442B2 (en) 2015-04-14
JP5963422B2 (ja) 2016-08-03

Similar Documents

Publication Publication Date Title
JP5963422B2 (ja) 撮像装置、表示装置、コンピュータプログラムおよび立体像表示システム
US8760502B2 (en) Method for improving 3 dimensional effect and reducing visual fatigue and apparatus enabling the same
JP5814692B2 (ja) 撮像装置及びその制御方法、プログラム
JP2014501086A (ja) 立体画像取得システム及び方法
JP5420076B2 (ja) 再生装置、複眼撮像装置、再生方法及びプログラム
JP5840022B2 (ja) 立体画像処理装置、立体画像撮像装置、立体画像表示装置
US20130083169A1 (en) Image capturing apparatus, image processing apparatus, image processing method and program
JP6155471B2 (ja) 画像生成装置、撮像装置および画像生成方法
JP2012015661A (ja) 撮像装置及び撮像方法
JP2012178688A (ja) 立体画像撮影装置
JP2014154907A (ja) 立体撮像装置
JP5347987B2 (ja) 映像処理装置
US9124866B2 (en) Image output device, method, and recording medium therefor
JP5741353B2 (ja) 画像処理システム、画像処理方法および画像処理プログラム
US9094671B2 (en) Image processing device, method, and recording medium therefor
JP2014135714A (ja) 立体映像信号処理装置及び立体映像撮像装置
JP2012227653A (ja) 撮像装置及び撮像方法
US20160065941A1 (en) Three-dimensional image capturing apparatus and storage medium storing three-dimensional image capturing program
JP5838775B2 (ja) 画像処理方法、画像処理システムおよび画像処理プログラム
JP2015029215A (ja) 立体画像処理装置
JP2015094831A (ja) 立体撮像装置およびその制御方法、制御プログラム
JPWO2012001958A1 (ja) 画像処理装置および方法並びにプログラム
JP5601375B2 (ja) 画像処理装置、画像処理方法、およびプログラム
KR101173280B1 (ko) 주시각 제어를 위한 입체 영상 신호의 처리 방법 및 장치
JP2012099896A (ja) 3d画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160628

R151 Written notification of patent or utility model registration

Ref document number: 5963422

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151