JP2015012442A - 撮像装置、撮像方法、画像生成装置、画像生成方法、及び、プログラム - Google Patents

撮像装置、撮像方法、画像生成装置、画像生成方法、及び、プログラム Download PDF

Info

Publication number
JP2015012442A
JP2015012442A JP2013136218A JP2013136218A JP2015012442A JP 2015012442 A JP2015012442 A JP 2015012442A JP 2013136218 A JP2013136218 A JP 2013136218A JP 2013136218 A JP2013136218 A JP 2013136218A JP 2015012442 A JP2015012442 A JP 2015012442A
Authority
JP
Japan
Prior art keywords
image
lens
sensor
subject
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013136218A
Other languages
English (en)
Other versions
JP2015012442A5 (ja
Inventor
高地 泰三
Taizo Takachi
泰三 高地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013136218A priority Critical patent/JP2015012442A/ja
Priority to US14/310,220 priority patent/US10728524B2/en
Priority to CN201410281532.7A priority patent/CN104253988B/zh
Publication of JP2015012442A publication Critical patent/JP2015012442A/ja
Publication of JP2015012442A5 publication Critical patent/JP2015012442A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/236Image signal generators using stereoscopic image cameras using a single 2D image sensor using varifocal lenses or mirrors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】3D画像を、容易に取得する。
【解決手段】撮像部は、光電変換を行う、3個以上の複数のイメージセンサと、イメージセンサに光を集光するための1個のレンズ部が出射するレンズ出射光を分光し、複数のイメージセンサのそれぞれに、レンズ出射光を入射させる分光部とを有する。そして、イメージセンサに入射するレンズ出射光の光路長が、複数のイメージセンサそれぞれごとに、異なっている。本技術は、例えば、3D画像を撮像するカメラ等に適用することができる。
【選択図】図6

Description

本技術は、撮像装置、撮像方法、画像生成装置、画像生成方法、及び、プログラムに関し、特に、例えば、3D画像を、容易に取得すること等ができるようにする撮像装置、撮像方法、画像生成装置、画像生成方法、及び、プログラムに関する。
3D(Dimension)画像の撮像は、例えば、2眼2センサ方式のカメラや、2眼1センサ方式のカメラ、1眼1センサ方式のカメラ、3眼3センサ方式のカメラ等の各種のディジタル(ビデオ、スチル)カメラを用いて行うことができる。
ここで、2眼2センサ方式のカメラは、撮像光学系として、光を集光する2個のレンズ部を有するとともに、光電変換を行う光電変換部として、2個のイメージセンサ(例えば、CMOS(Complementary Metal Oxide Semiconductor)センサや、CCD(Charge Coupled Device)等)を有する。
2眼1センサ方式のカメラは、2個のレンズ部と、1個のイメージセンサとを有し(例えば、特許文献1)、1眼1センサ方式のカメラは、1個のレンズ部と、1個のイメージセンサとを有する(例えば、特許文献2)。
また、3眼3センサ方式のカメラは、1個のレンズ部と1個のイメージセンサとを有する撮像部を3個有する(例えば、特許文献3)。すなわち、3眼3センサ方式のカメラは、3個のレンズ部と3個のイメージセンサとを有する。
特開2004-233600号公報 特開2012-191558号公報 特開2012-103109号公報
3D画像については、より容易に取得することができる技術の提案が要請されている。
本技術は、このような状況に鑑みてなされたものであり、3D画像を、容易に取得することができるようにするものである。
本技術の撮像装置は、光電変換を行う、3個以上の複数のイメージセンサと、前記イメージセンサに光を集光するための1個のレンズ部が出射するレンズ出射光を分光し、前記複数のイメージセンサのそれぞれに、前記レンズ出射光を入射させる分光部とを備え、前記イメージセンサに入射する前記レンズ出射光の光路長が、前記複数のイメージセンサそれぞれごとに、異なる撮像装置である。
本技術の撮像方法は、光電変換を行う、3個以上の複数のイメージセンサと、前記イメージセンサに光を集光するための1個のレンズ部が出射するレンズ出射光を分光し、前記複数のイメージセンサのそれぞれに、前記レンズ出射光を入射させる分光部とを備え、前記イメージセンサに入射する前記レンズ出射光の光路長が、前記複数のイメージセンサそれぞれごとに、異なる撮像装置が、異なる3以上の距離にフォーカスが合った3以上である複数の画像を撮像するステップを含む撮像方法である。
以上のような本技術の撮像装置、及び、撮像方法においては、前記イメージセンサに光を集光するための1個のレンズ部が出射するレンズ出射光が分光され、前記複数のイメージセンサのそれぞれに、前記レンズ出射光が入射される。前記イメージセンサに入射する前記レンズ出射光の光路長は、前記複数のイメージセンサそれぞれごとに、異なっており、異なる3以上の距離にフォーカスが合った3以上である複数の画像が撮像される。
本技術の画像生成装置、又は、プログラムは、異なる3以上の距離にフォーカスが合った3以上である複数の画像を取得する画像取得部と、ユーザの視線を検出する視線検出部と、前記ユーザの視線に基づき、3D(Dimension)画像を表示する表示部に表示される3D画像に映る被写体の中で、ユーザが注目している注目被写体を検出し、前記複数の画像を用いて、前記注目被写体にフォーカスが合った3D画像を生成する3D画像生成部とを備える画像生成装置、又は、そのような画像生成装置として、コンピュータを機能させるためのプログラムである。
本技術の画像生成方法は、異なる3以上の距離にフォーカスが合った3以上である複数の画像を取得し、ユーザの視線を検出し、前記ユーザの視線に基づき、3D(Dimension)画像を表示する表示部に表示される3D画像に映る被写体の中で、ユーザが注目している注目被写体を検出し、前記複数の画像を用いて、前記注目被写体にフォーカスが合った3D画像を生成するステップを含む画像生成方法である。
以上のような本技術の画像生成装置、画像生成方法、及び、プログラムにおいては、異なる3以上の距離にフォーカスが合った3以上である複数の画像が取得される一方、ユーザの視線が検出される。そして、前記ユーザの視線に基づき、3D(Dimension)画像を表示する表示部に表示される3D画像に映る被写体の中で、ユーザが注目している注目被写体が検出され、前記複数の画像を用いて、前記注目被写体にフォーカスが合った3D画像が生成される。
なお、撮像装置、及び、画像生成装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
また、プログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
本技術によれば、3D画像を、容易に取得することができる。
なお、本明細書に記載された効果は、あくまで例示であり、本技術の効果は、本明細書に記載された効果に限定されるものではなく、付加的な効果があってもよい。
2D画像を撮像するディジタルカメラの構成例を示す斜視図である。 2眼2センサ方式のカメラの構成例を示す図である。 2眼1センサ方式のカメラの画像を撮像する撮像部の構成例を示す平面図である。 1眼1センサ方式のカメラの画像を撮像する撮像部の構成例を示す平面図である。 本技術を適用した3Dカメラの一実施の形態の構成例を示すブロック図である。 撮像部11の構成例を示す平面図である。 標準位置センサ41、マクロ位置センサ42、及び、無限遠位置センサ43の配置を説明するための図である。 距離算出部14での被写体距離の算出の方法を説明する図である。 視差算出部15での視差(被写体視差)の算出の方法を説明する図である。 3D画像生成部16での3D画像の生成の方法を説明する図である。 3Dカメラの処理を説明するフローチャートである。 本技術を適用した表示システムの一実施の形態の構成例を示すブロック図である。 表示システムで表示される3D画像の例を示す図である。 表示システムの処理を説明するフローチャートである。 本技術を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
<既存のディジタルカメラを用いた3D画像の撮像>
以下、本技術の実施の形態について説明するが、その前段階の準備として、既存のディジタルカメラを用いた3D画像の撮像(立体撮像)の方法について説明する。
図1は、2D画像を撮像するディジタルカメラの構成例を示す斜視図である。
2D画像を撮像するディジタルカメラ(以下、2Dカメラともいう)は、1眼1センサ方式のカメラであり、1個のレンズ部と、1個のイメージセンサとを有する。
2Dカメラでは、レンズ部で集光された光がイメージセンサで光電変換され、その光電変換により、2Dの画像が生成(撮像)される。
なお、2Dカメラを含むあらゆるディジタルカメラでは、レンズ部のレンズ口径が大であるほど、明るい画像を撮像することができる。
図2は、2眼2センサ方式のカメラ(ディジタルカメラ)の構成例を示す図である。
すなわち、図2Aは、2眼2センサ方式のカメラの外観の構成例を示す斜視図であり、図2Bは、内部が透けて見えるように図示した2眼2センサ方式のカメラの構成例を示す斜視図である。
また、図2Cは、2眼2センサ方式のカメラの画像を撮像する撮像部の構成例を示す平面図である。
2眼2センサ方式のカメラは、2個のレンズ部と、2個のイメージセンサとを有し、その2個のレンズ部と、2個のイメージセンサとによって、撮像部が構成される。
2眼2センサ方式のカメラでは、以下のようにして、3D画像を撮像することができる。
すなわち、2眼2センサ方式のカメラでは、2個のレンズ部のうちの、左眼用のレンズ部(L用レンズ部)において集光された光が、2個のイメージセンサのうちの左眼用のイメージセンサ(L用イメージセンサ)で光電変換され、左眼用のL(Left)画像が生成される。
さらに、2眼2センサ方式のカメラでは、2個のレンズ部のうちの、右眼用のレンズ部(R用レンズ部)において集光された光が、2個のイメージセンサのうちの右眼用のイメージセンサ(R用イメージセンサ)で光電変換され、右眼用のR(Right)画像が生成される。
2眼2センサ方式のカメラでは、以上のようにして、3D画像としてのL画像とR画像との撮像(生成)が同時に行われる。
2眼2センサ方式のカメラでは、人間の目と同様の視差を生じさせるために、2個のレンズ部の光軸どうしの距離であるレンズ間隔(視差間隔)が、人間の左眼と右眼との間隔程度になるように、2個のレンズ部が構成される。
以上のように、2眼2センサ方式のカメラでは、レンズ間隔が、人間の左眼と右眼との間隔程度に制限されるため、レンズ部のレンズ口径も、図1の2Dカメラに比較して、小さい口径に制限される。
そして、小さいレンズ口径のレンズ部は、F値が大きいレンズ、すなわち、暗いレンズになるため、レンズ部に、暗いレンズになるズームレンズを含める場合には、レンズ部の設計制約が大きくなる。
また、2眼2センサ方式のカメラについては、L(左眼)用レンズ部と、R(右眼)用レンズ部との位置の調整や補正が難しい。
さらに、人間の目で生じる視差は、近い位置であるマクロ位置と、数メール又は数十メートル以上離れた位置である無限遠(とみなせる)位置とでは異なるが、2眼2センサ方式のカメラにおいて撮像されたL画像、及び、R画像で構成される3D画像では、例えば、マクロ位置の被写体が、視差が大きすぎるために、立体感が強すぎる画像になることがある。
すなわち、2眼2センサ方式のカメラにおいて、例えば、カメラからある程度離れた位置の被写体に、ある程度の視差が生じるようなL画像、及び、R画像の撮像が行われた場合、そのようなL画像、及び、R画像から得られる3D画像では、マクロ位置の被写体の視差が、人間の目で生じる視差よりも大になり、その結果、マクロ位置の被写体が、立体感が強すぎる画像になることがある。
以上のように、2眼2センサ方式のカメラでは、3D画像の、カメラからの距離が異なる被写体のすべてに、適切な視差が生じるような、視差の調整が難しいことがある。
図2の2眼2センサ方式のカメラにおいて、例えば、マクロ位置と無限遠位置とのような、距離が異なる位置の視差を、適切に補正する方法としては、後述するような角度調整機構を、2眼2センサ方式のカメラに設ける方法があるが、2眼2センサ方式のカメラに、角度調整機構を設ける場合には、2眼2センサ方式のカメラの光学系の構成が、非常に複雑な構造になり、現実的な製品化が難しくなるおそれがある。
図3は、2眼1センサ方式のカメラ(ディジタルカメラ)の画像を撮像する撮像部の構成例を示す平面図である。
2眼1センサ方式のカメラは、L用レンズ部及びR用レンズ部の2個のレンズ部と、1個のイメージセンサとを有する。
そして、2眼1センサ方式のカメラでは、プリズムとシャッタとの組み合わせを用いて、L用レンズ部において集光された光と、R用レンズ部において集光された光とが、交互に、1個のイメージセンサで光電変換され、L画像とR画像とが生成される。
2眼1センサ方式のカメラは、2眼2センサカメラと同様に、L用レンズ部とR用レンズ部との2個のレンズ部を有するため、2眼2センサカメラと同様に、レンズ部の設計制約が大きいことや、L用レンズ部とR用レンズ部との位置の調整や補正が難しいこと、3D画像では、マクロ位置の被写体が、立体感が強すぎる画像になること等がある。
なお、2眼1センサ方式のカメラについては、視差の補正のために、L用レンズ部やR用レンズ部から、イメージセンサに入射する光の角度を調整する角度調整機構の組み込みが必要になることがある。
図4は、1眼1センサ方式のカメラ(ディジタルカメラ)の画像を撮像する撮像部の構成例を示す平面図である。
1眼1センサ方式のカメラは、1個のレンズ部と、1個のイメージセンサとを有する。
1眼1センサ方式のカメラでは、例えば、撮像位置を水平方向等に移動しながら、同一の被写体について、複数の画像を撮像し、その複数の画像から、被写体についての視差を求めることで、3D画像を生成することができる。
また、1眼1センサ方式のカメラでは、例えば、図4に示すように、1個のレンズ部を光軸方向に動かしながら、フォーカスが合っている位置である合焦位置をずらした複数の画像を撮像し、その複数の画像から、被写体についての視差を求めることで、3D画像を生成することができる。
3D画像を撮像する1眼1センサ方式のカメラは、既存の2Dカメラを利用して構成することができるというメリットがある。
しかしながら、1眼1センサ方式のカメラでの3D画像の撮像は、画像の撮像が、撮像位置を移動しながら、又は、レンズ部を光軸方向に動かしながら行う必要があるため、被写体が静止している場合は問題ないが、被写体が動いている場合には、画像に、時間的なずれが生じる。その結果、動いている被写体については、適切な3D画像を生成することが困難なことがある。
また、1眼1センサ方式のカメラにおいて、1個のレンズ部を光軸方向に動かしながら、必要な複数の画像を撮像する場合には、レンズ部が、ある位置から他の位置に動いている間は、イメージセンサでの露光を行うことができないため、露光時間が、少なくとも、レンズ部が動いている時間だけ短くなる。その結果、1眼1センサ方式のカメラで得られる画像は、感度(ダイナミックレンジ)の低い画像になることがある。
なお、マクロ位置では、視差が大になり、無限遠位置では、視差が小さくなるように、視差を補正することができるディジタルカメラとして、3眼3センサ方式のカメラがある。
3眼3センサ方式のカメラは、3個のレンズ部と3個のイメージセンサとを有する。すなわち、3眼3センサ方式のカメラは、1個のレンズ部と1個のイメージセンサとからなる撮像部を3個有する。
そして、3眼3センサ方式のカメラでは、3個の撮像部から得られる画像を用いて、視差が補正されるため、その補正の処理は、複雑で、負荷の重い処理となるおそれがある。さらに、3眼3センサ方式のカメラは、3個もの撮像部を有するため、全体として、大型化するおそれがある。
3D画像を表示する3Dテレビ(テレビジョン受像機)等の3D表示システムは、数年前に製品化され、現在、多くの製品が、比較的安価に流通している。
かかる3D表示システムに対して、3D画像を撮像する3Dカメラのうちの、複数のレンズ部を有する3Dカメラ(例えば、2眼2センサ方式、2眼1センサ方式、及び、3眼3センサ方式のカメラ)については、製品が、3D表示システムほどに普及していない。これは、例えば、以下のような理由による。
すなわち、複数のレンズ部を有する3Dカメラは、レンズ部を複数個有する分だけ、レンズ部が1個の2D画像を撮像する2Dカメラに比較して大型化し、取り扱いが難しくなる。
さらに、2眼2センサ方式や、2眼1センサ方式の3Dカメラには、2Dカメラのレンズ部とは、まったく構造が異なる、いわば3D専用のレンズ部を準備する必要があり、2Dカメラのレンズ部その他の光学部品等の資産を利用することができないために、開発費、ひいては、製品の価格が、高コスト化する。
また、複数のレンズ部を有する3Dカメラでは、3D画像の他、2D画像を撮像することができるが、かかる3Dカメラで撮像される2D画像は、2Dカメラで撮像される2D画像に比較して、何のメリットもない画像であることも、3Dカメラが普及していないことの一因であると考えられる。
なお、2眼2センサ方式や、2眼1センサ方式等の3Dカメラでは、L画像、及び、R画像の撮像時にフォーカスが合った距離(合焦距離)にある被写体にフォーカスが合っている3D画像が生成される。かかる3D画像を、既存の3D表示システムで表示した場合には、3Dカメラでの撮像時にフォーカスが合っている被写体については、フォーカスが合っているが、他の被写体については、フォーカスが合っておらず、ぼけが画像になる。
そして、例えば、3Dカメラから、ある程度の距離にある被写体にフォーカスが合っており、3Dカメラに近い手前側の位置の被写体には、フォーカスが合っていない場合には、3D表示システムで3D画像を視聴しているユーザが、フォーカスが合っている被写体から、手前側の被写体に視線を移しても、その手前側の被写体は、フォーカスが合っていない、ぼけた画像のままである。
以上のように、ユーザが視線を移した被写体に、フォーカスが合わず、ぼけたままでは、3D画像のリアリティが損なわれることがある。
そこで、以下では、3D画像を、容易に取得することができるようにするため、安価、かつ、小型で取り扱いが容易な3Dカメラを提案する。
さらに、以下では、リアリティがある3D画像を表示する表示システムを提案する。
<本技術を適用した3Dカメラの一実施の形態>
図5は、本技術を適用した3Dカメラの一実施の形態の構成例を示すブロック図である。
図5において、3Dカメラは、撮像部11,被写体抽出部12、コントラスト情報算出部13、距離算出部14、視差算出部15、3D画像生成部16、表示部17、記録部18、操作部19、及び、制御部20を有する。
いま、3以上のある整数をNで表すこととすると、図5の3Dカメラは、1眼Nセンサ方式のカメラで、撮像部11が、後述するように、1個のレンズ部と、3以上のN個のイメージセンサとを有する。
撮像部11は、例えば、後述するようにして、N枚の画像、すなわち、例えば、標準画像、マクロ画像、及び、無限遠画像の3枚の画像を、同時に、所定のフレームレートで撮像し、被写体抽出部12、3D画像生成部16、及び、記録部18に供給する。
標準画像とは、フォーカスが合う合焦位置が、撮像部11から所定の距離の位置である標準位置になっている画像である。また、マクロ画像とは、合焦位置が、撮像部11から所定の距離よりも近い(短い)位置であるマクロ位置になっている画像である。さらに、無限遠画像とは、合焦位置が、撮像部11から所定の距離よりも遠い(長い)位置である無限遠位置になっている画像である。
ここで、撮像部11から合焦位置までの距離を、合焦距離ということとすると、撮像部11は、3以上の距離それぞれを合焦距離とする3以上の画像である距離別画像を撮像する。
ここでは、説明を簡単にするため、3以上の距離別画像として、上述のように、標準画像、マクロ画像、及び、無限遠画像の3つの画像を採用する。
なお、撮像部11では、4以上の距離別画像を撮像することが可能である。
被写体抽出部12は、撮像部11からの標準画像、マクロ画像、及び、無限遠画像それぞれから、被写体を抽出し、コントラスト情報算出部13、及び、距離算出部14に供給する。
コントラスト情報算出部13は、被写体抽出部12からの、標準画像、マクロ画像、及び、無限遠画像それぞれから抽出された各被写体について、その被写体のコントラストを表すコントラスト情報を算出し、距離算出部14に供給する。
距離算出部14は、被写体抽出部12からの、標準画像、マクロ画像、及び、無限遠画像それぞれから抽出された各被写体について、その被写体の、コントラスト情報算出部13からのコントラスト情報に基づき、撮像部11から被写体までの距離である被写体距離を算出し、対応する被写体(の情報)とともに、被写体情報として、視差算出部15、及び、記録部18に供給する。
視差算出部15は、距離算出部14からの被写体情報に含まれる被写体について、その被写体情報に含まれる被写体距離に基づき、その被写体距離に応じた視差(以下、被写体視差ともいう)を算出し、3D画像生成部16に供給する。
3D画像生成部16は、撮像部11からの標準画像、マクロ画像、及び、無限遠画像を用い、各被写体について、視差算出部15からの被写体視差がある3D画像を生成し、表示部17、及び、記録部18に供給する。
表示部17は、液晶パネルや有機EL(Electro-Luminescence)パネル等で構成され、3D画像生成部16から供給される3D画像を表示する。なお、表示部17は、その他、例えば、撮像部11から3D画像生成部16に供給される標準画像や、マクロ画像、無限遠画像、それらの画像から生成される2D画像を表示することができる。さらに、表示部17は、制御部20の制御にしたがって、GUI(Graphical User Interface)その他の画像を表示することができる。
記録部18は、ハードディスクや半導体メモリ等のストレージを有し、撮像部11から供給される標準画像や、マクロ画像、無限遠画像、距離算出部14から供給される被写体情報、3D画像生成部16から供給される3D画像等を、必要に応じて、ストレージに記録する。
操作部19は、物理的なボタンや、(表示部17と一体的に構成される)タッチスクリーンに表示される仮想的なボタン等で構成され、ユーザによって操作される。操作部19は、ユーザの操作に応じた操作信号を制御部20に供給する。
制御部20は、操作部19からの操作信号等に応じて、3Dカメラを構成する各ブロックを制御する。
<撮像部11の構成例>
図6は、図5の撮像部11の構成例を示す平面図である。
図6において、撮像部11は、1個のレンズ部31、分光部32、並びに、3個以上の複数のイメージセンサとしての3個のイメージセンサ41,42、及び、43を有する。
レンズ部31は、イメージセンサ41ないし43に光を集光するための光学部品であり、必要に応じて、いわゆるフォーカスレンズや、ズームレンズ、絞り等を含む。
分光部32は、レンズ部31が出射する光であるレンズ出射光を分光し、3個のイメージセンサ41ないし43のそれぞれに、レンズ出射光を入射させる。
ここで、いわゆる3板式のカメラでは、R(red),G(Green)、及び、B(Blue)それぞれの光を受光するために、被写体からの光が、プリズムを用いて、R,G、及び、Bの光に分光される。
いま、R,G、及び、Bの光に分光するプリズムを、RGB分光プリズムということとすると、分光部32としては、RGB分光プリズムと同様の構造のプリズムを採用することができる。
但し、RGB分光プリズムでは、誘電体の多層膜等の薄膜を鏡面に形成することにより、特定の波長を反射するとともに、それ以外の波長を透過させることで、R,G,Bの光に分けられるが、分光部32では、波長に関係なく、光を分けることができればよいので、分光部32としてのプリズムには、誘電体の多層膜等の薄膜に代えて、ハーフミラーを用いることができる。
以上から、分光部32は、3板式のカメラで用いられるRGB分光プリズムを利用して構成することができる。
図6では、面m1及びm2に、ハーフミラーが形成されている。
そして、レンズ部31が出射するレンズ出射光は、分光部32としてのプリズムの点c1から入射し、面m1のハーフミラー上の点c2に到達する。点c2に到達した光(レンズ出射光)のうちの一部の光は、点c2で反射され、点c3に到達する。点c3は、ミラーになっており、点c3に到達した光は、すべて、点c3で反射され、点c4から出射する。
分光部32としてのプリズムの点c4と対向する側には、イメージセンサ42が配置されており、したがって、点c4から出射する光(レンズ出射光)は、イメージセンサ42に入射して光電変換される。
点c2に到達した光(レンズ出射光)のうちの残りの光は、点c2を透過し、面m2のハーフミラー上の点c5に到達する。点c5に到達した光(レンズ出射光)のうちの一部の光は、点c5で反射され、点c6から出射する。
分光部32としてのプリズムの点c6と対向する側には、イメージセンサ43が配置されており、したがって、点c6から出射する光(レンズ出射光)は、イメージセンサ43に入射して光電変換される。
また、点c5に到達した光(レンズ出射光)のうちの残りの光は、点c5を透過し、点c7から出射する。
分光部32としてのプリズムの点c7と対向する側には、イメージセンサ41が配置されており、したがって、点c7から出射する光(レンズ出射光)は、イメージセンサ41に入射して光電変換される。
イメージセンサ41ないし43では、上述したようにして、分光部32から入射する光(レンズ出射光)が光電変換されることにより、画像が(同時に)撮像される。
いま、例えば、分光部32としてのプリズムの点c1を基準として、その点c1から、点c2、点c5、及び、点c7を経由して、イメージセンサ41に到達する光の光路長を、標準光路長ということとする。
同様に、点c1を基準として、その点c1から、点c2、点c3、及び、点c4を経由して、イメージセンサ42に到達する光の光路長を、マクロ光路長ということとする。
さらに、同様に、点c1を基準として、その点c1から、点c2、点c5、及び、点c6を経由して、イメージセンサ43に到達する光の光路長を、無限遠光路長ということとする。
標準光路長(点c1からイメージセンサ41までの光路長)、マクロ光路長(点c1からイメージセンサ42までの光路長)、及び、無限遠光路長(点c1からイメージセンサ43までの光路長)は、異なっている。
すなわち、標準光路長は、例えば、レンズ部31から、あらかじめ決められた基準の距離としての所定の距離(例えば、数m等)だけ(分光部32とは反対側に)離れた位置である標準位置が、フォーカスが合う合焦位置となる光路長になっている。
したがって、標準光路長の光路を通った光(レンズ出射光)が入射するイメージセンサ41では、標準位置(付近)の被写体にフォーカスが合った画像が撮像される。
また、マクロ光路長は、例えば、レンズ部31から、所定の距離よりも短い距離だけ離れた位置、すなわち、標準位置よりも手前側(分光部32からレンズ31を見たときの手前側)の位置であるマクロ位置が、合焦位置となる光路長になっている。
したがって、マクロ光路長の光路を通った光が入射するイメージセンサ42では、マクロ位置の被写体にフォーカスが合った画像が撮像される。
さらに、無限遠光路長は、例えば、レンズ部31から、所定の距離よりも長い距離だけ離れた位置、すなわち、標準位置よりも向こう側(分光部32からレンズ31を見たときの向こう側)の位置である無限遠位置が、合焦位置となる光路長になっている。
したがって、無限遠光路長の光路を通った光が入射するイメージセンサ43では、無限遠位置の被写体にフォーカスが合った画像が撮像される。
ここで、標準位置の被写体にフォーカスが合った画像を、標準画像ともいい、標準画像が撮像されるイメージセンサ41を、標準位置センサ41ともいう。
同様に、マクロ位置の被写体にフォーカスが合った画像を、マクロ画像ともいい、マクロ画像が撮像されるイメージセンサ42を、マクロ位置センサ42ともいう。さらに、同様に、無限遠位置の被写体にフォーカスが合った画像を、無限遠画像ともいい、無限遠画像が撮像されるイメージセンサ43を、無限遠位置センサ43ともいう。
標準位置センサ41は、標準位置が合焦位置になるように配置されている。そして、マクロ位置センサ42は、標準位置よりも近いマクロ位置が合焦位置になるように配置されており、無限遠位置センサ43は、標準位置よりも遠い無限遠位置が合焦位置になるように配置されている。
そのため、標準光路長、すなわち、標準位置センサ41の光路長(点c1からイメージセンサ41までの光路長)を基準とすると、マクロ光路長、すなわち、マクロ位置センサ42の光路長(点c1からイメージセンサ42までの光路長)は、標準光路長よりも長い。
一方、無限遠光路長、すなわち、無限遠位置センサ43の光路長(点c1からイメージセンサ43までの光路長)は、標準光路長よりも短い。
なお、3Dカメラにおいて、画像の撮像時のフォーカス合わせ(例えば、オートフォーカス等)は、標準位置センサ41、マクロ位置センサ42、及び、無限遠位置センサ43のうちの任意1つである、例えば、標準位置センサ41で撮像される標準画像を対象として行うことができる。
また、分光部32では、標準位置センサ41、マクロ位置センサ42、及び、無限遠位置センサ43に対して、レンズ部31が出射するレンズ出射光を、均等に分光することもできるし、不均等に分光することもできる。
例えば、3D画像生成部16(図5)において、3D画像の生成に、標準画像を主として用い、マクロ画像、及び、無限遠画像を、いわば補助的に用いる場合には、分光部32では、標準位置センサ41、マクロ位置センサ42、及び、無限遠位置センサ43に対して、レンズ部31が出射するレンズ出射光を、不均等に分光することができる。
すなわち、例えば、マクロ位置センサ42で撮像されるマクロ画像、及び、無限遠位置センサ43で撮像される無限遠画像については、そこに映る被写体のコントラスト情報を算出することができれば十分である場合には、マクロ位置センサ42、及び、無限遠位置センサ43それぞれに対しては、レンズ部31が出射するレンズ出射光の、例えば、1/8の光を分光し、標準位置センサ41に対しては、残りの6/8の光を分光することができる。
以上は、標準位置センサ41、マクロ位置センサ42、及び、無限遠位置センサ43において、カラーの画像が撮像(出力)される場合であり、コントラスト情報を算出することができる画像を撮影することができれば十分なマクロ位置センサ42、及び、無限遠位置センサ43では、カラーの画像ではなく、白黒の画像を撮像(出力)することができる。
マクロ位置センサ42、及び、無限遠位置センサ43において、白黒の画像を撮像する場合には、カラーの画像を撮像する場合に比較して、感度が略2倍になる。
したがって、カラーの画像を撮像する場合に、コントラスト情報を算出するために、上述のように、レンズ出射光の1/8の光が必要であったならば、白黒の画像を撮像する場合には、感度が2倍になるので、コントラスト情報の算出には、カラーの画像を撮像する場合の1/2の光量、すなわち、レンズ出射光の、例えば、1/8の、さらに、1/2の光である1/16の光で済む。
以上から、標準位置センサ41において、カラーの画像を撮像するとともに、マクロ位置センサ42、及び、無限遠位置センサ43において、白黒の画像を撮像する場合には、マクロ位置センサ42、及び、無限遠位置センサ43それぞれに対しては、レンズ部31が出射するレンズ出射光の、1/16の光を分光し、標準位置センサ41に対しては、残りの14/16の光を分光することができる。
この場合、カラーの画像である標準画像を撮像する標準位置センサ41に入射するレンズ出射光の光量が低下するのを抑制しつつ、マクロ位置センサ42、及び、無縁原位置センサ43に対して、レンズ出射光を分光することができる。
ここで、上述のように、分光部32において、標準位置センサ41と、マクロ位置センサ42、及び、無限遠位置センサ43とで、レンズ出射光を、不均等に分光すること、すなわち、標準位置センサ41に入射する光の光量が、マクロ位置センサ42、及び、無限遠位置センサ43に入射する光の光量よりも大になるように、レンズ出射光を分光することで、図1の3Dカメラでは、高ダイナミックレンジの画像を得ることが可能となる。
例えば、標準位置センサ41に対して、レンズ出射光の6/8や14/16等の大きな割合の光を分光するとともに、マクロ位置センサ42、及び、無限遠位置センサ43に対して、レンズ出射光の1/8や1/16等の小さな割合の光を分光する場合には、標準位置センサ41の出力、マクロ位置センサ42の出力、及び、無限遠位置センサ43の出力を、レンズ出射光の分光の割合に応じた適切な重みを用いて重み付け加算することにより、高ダイナミックレンジの画像を得ることができる。
<イメージセンサ41ないし43の配置の例>
図7は、図6の標準位置センサ41、マクロ位置センサ42、及び、無限遠位置センサ43(イメージセンサ41ないし43)の配置を説明するための図である。
上述したように、標準位置センサ41は、標準位置が合焦位置になるように配置され、マクロ位置センサ42は、標準位置よりも近いマクロ位置が合焦位置になるように配置され、無限遠位置センサ43は、標準位置よりも遠い無限遠位置が合焦位置になるように配置される。
そのため、標準位置センサ41の光路長(標準光路長)を基準とすると、マクロ位置センサ42の光路長(マクロ光路長)は、標準光路長よりも長く、無限遠位置センサ43の光路長(無限遠光路長)は、標準光路長よりも短い。
図6の標準位置センサ41、マクロ位置センサ42、及び、無限遠位置センサ43の位置(標準光路長、マクロ光路長、及び、無限遠光路長)の最適値は、標準位置センサ41、マクロ位置センサ42、及び、無限遠位置センサ43の画素サイズや、レンズ部31(図6)のF値等によって、条件は多少変化するが、原則的には、以下のように決定することができる。
図7は、イメージセンサの位置(以下、センサ位置ともいう)と、合焦距離との関係を示している。
なお、図7において、縦軸が、センサ位置を表し、横軸が、合焦距離を表す。
センサ位置は、レンズ部31を基準とする所定の位置としての、例えば、点c1からイメージセンサまでの(実質的な)光路長で表されており、したがって、値が小さいほど、レンズ部31に近い位置を表す。
また、合焦距離は、レンズ部31を基準とする所定の位置から、合焦位置(フォーカスが合っている位置)までの距離であり、やはり、値が小さいほど、レンズ部31に近い。
また、図7において、点線の線分は、被写界深度を表す。被写界深度は、遠方にフォーカスが合っているほど(合焦距離が大であるほど)、広く(深く)なる。
図7において、点P1は、標準位置センサ41の合焦距離が1750mm(1.75m)である場合のセンサ位置、すなわち、標準光路長を示している。
また、点P2は、標準位置センサ41のセンサ位置が点P1で表される場合のマクロ位置センサ42のセンサ位置、すなわち、マクロ光路長を示している。さらに、点P3は、標準位置センサ41のセンサ位置が点P1で表される場合の無限遠位置センサ43のセンサ位置、すなわち、無限遠光路長を示している。
マクロ位置センサ42のセンサ位置(点)P2は、標準位置センサ41のセンサ位置P1よりも、距離d1=0.03mmだけ(レンズ部31から)遠い位置になっている。
また、無限遠位置センサ43のセンサ位置P3は、標準位置センサ41のセンサ位置P1よりも、レンズ部31から距離d2=0.01mmだけ(レンズ部31に)近い位置になっている。
したがって、マクロ光路長は、標準光路長よりも、距離d1=0.03mmだけ長く、無限遠光路長は、標準光路長よりも、距離2=0.01mmだけ短い。
標準光路長、マクロ光路長、及び、無限遠光路長の関係、つまり、標準位置センサ41、マクロ位置センサ42、及び、無限遠位置センサ43の配置関係は、標準位置センサ41、マクロ位置センサ42、及び、無限遠位置センサ43それぞれでの被写界深度の範囲が、なるべく接するように設定することが望ましい。
すなわち、標準位置センサ41とマクロ位置センサ42とについては、マクロ位置センサ42での被写界深度の範囲の右端と、標準位置センサ41での被写界深度の範囲の左端とが、なるべく接するように、すなわち、接するか、僅か重複するか、又は、それほど大きく離れないように配置することが望ましい。
同様に、標準位置センサ41と無限遠位置センサ43とについては、標準位置センサ41での被写界深度の範囲の右端と、無限遠位置センサ43での被写界深度の範囲の左端と、が、なるべく接するように(接するか、僅かに重複するか、又は、それほど大きく離れないように)配置することが望ましい。
以上のように、標準位置センサ41、マクロ位置センサ42、及び、無限遠位置センサ43を、それぞれでの被写界深度の範囲がなるべく接するように配置することで、3Dカメラに近い位置から遠い位置までの広い範囲に亘る被写体について、標準位置センサ41、マクロ位置センサ42、及び、無限遠位置センサ43のうちのいずれかにおいて、フォーカスが合った画像を撮像することができる。
ここで、標準位置センサ41、マクロ位置センサ42、及び、無限遠位置センサ43を、それぞれでの被写界深度の範囲がなるべく接するように配置する方法としては、例えば、マクロ位置センサ42のセンサ位置P2を、センサ位置P1に配置されている標準位置センサ41での被写界深度の範囲から、左側に、少し外れた位置に設定するとともに、無限遠位置センサ43のセンサ位置P2を、センサ位置P1に配置されている標準位置センサ41での被写界深度の範囲から、右側に、少し外れた位置に設定する方法がある。
標準位置センサ41、マクロ位置センサ42、及び、無限遠位置センサ43を、それぞれでの被写界深度の範囲がなるべく接するように配置することで、少なくとも、マクロ位置センサ42での被写界深度と、無限遠位置センサ43での被写界深度とは、オーバーラップしなくなる。
そして、標準位置センサ41の合焦位置(標準位置センサ41で撮像される標準画像において、フォーカスが合っている位置)を中心とするマクロ位置から無限遠位置までの被写体について、標準位置センサ41、マクロ位置センサ42、及び、無限遠位置センサ43で撮像される画像(標準画像、マクロ画像、及び、無限遠画像)から、被写体までの距離を求めるのに適切なコントラスト情報を得ることができる。
すなわち、3Dカメラで撮像される各被写体について、標準位置センサ41、マクロ位置センサ42、及び、無限遠位置センサ43のそれぞれで撮像される画像(標準画像、マクロ画像、及び、無限遠画像)から、フォーカスが合っている場合とあっていない場合とで差がある3つのコントラスト情報を得ることができる。
なお、図7に示したように、センサ位置と合焦距離との関係は、線形の関係ではなく、合焦距離が小さいときには(3Dカメラから近い位置にフォーカスを合わせるときには)、合焦距離の変化に対して、センサ位置は急峻に変化するが、合焦距離が大きいときには(3Dカメラから遠い位置にフォーカスを合わせるときには)、合焦距離の変化に対して、センサ位置はなだらかに変化する。
以上のように、センサ位置と合焦距離との関係については、合焦距離が小さいときには、合焦距離の変化に対して、センサ位置は急峻に変化するが、合焦距離が大きいときには、合焦距離の変化に対して、センサ位置はなだらかに変化するため、標準位置センサ41、マクロ位置センサ42、及び、無限遠位置センサ43を、それぞれでの被写界深度の範囲がなるべく接するように配置する場合には、標準位置センサ41のセンサ位置P1から、合焦距離が小さいマクロ位置センサ42のセンサ位置P2までの距離d1(=0.03mm)は、標準位置センサ41のセンサ位置P1から、合焦距離が大きい無限遠位置センサ43のセンサ位置P3までのd2(=0.01mm)よりも長くなる。
ここで、標準位置センサ41のセンサ位置P1から、マクロ位置センサ42のセンサ位置P2までの距離d1を大にするように、標準位置センサ41、及び、マクロ位置センサ42を配置することにより、3Dカメラにより近い位置の被写体について、マクロ位置センサ42において、フォーカスが合った画像(マクロ画像)を撮像することができる。
また、標準位置センサ41、マクロ位置センサ42、及び、無限遠位置センサ43は、それらの配置関係が変化しないように、分光部32に固着することができる。
例えば、標準位置センサ41が、合焦距離が1750mmとなるセンサ位置P1に固着されるとともに、マクロ位置センサ42、及び、無限遠位置センサ43が、それぞれ、センサ位置P2及びP3に固着された場合において、例えば、フォーカス調整によって、標準位置センサ41が、合焦距離が700mmとなるセンサ位置Q1に(実質的に)移動したときに、マクロ位置センサ42、及び、無限遠位置センサ43が、センサ位置Q2及びQ3に移動したとすると、センサ位置Q1,Q2、及び、Q3の位置関係は、センサ位置P1,P2、及び、P3の位置関係と同一となる。
<被写体距離の算出>
図8は、図5の距離算出部14での被写体距離の算出の方法を説明する図である。
距離算出部14は、標準位置センサ41で撮像された標準画像、マクロ位置センサ42で撮像されたマクロ画像、及び、無限遠位置センサ43で撮像された無限遠画像それぞれから抽出された各被写体について、その被写体のコントラスト情報に基づき、撮像部11から被写体までの距離である被写体距離を算出する。
ここで、花が、マクロ位置としての、例えば、3Dカメラから500mm付近の位置に存在し、人が、標準位置としての、例えば、3Dカメラから1750mm付近の位置に存在し、ビルが、無限遠位置としての、例えば、3Dカメラから10m程度以上離れた位置に存在し、3Dカメラで撮像されている画像には、花、人、及び、ビルが、被写体として映っていることとする。
この場合、標準位置センサ41で撮像される標準画像は、標準位置に存在する人については、フォーカスが合っているが、マクロ位置に存在する花、及び、無限遠位置に存在するビルについては、フォーカスが合っておらずぼけた状態の画像になる。
また、マクロ位置センサ42で撮像されるマクロ画像は、マクロ位置に存在する花については、フォーカスが合っているが、標準位置に存在する人、及び、無限遠位置に存在するビルについては、フォーカスが合っていないぼけた状態の画像になる。
さらに、無限遠位置センサ43で撮像される無限遠画像は、無限遠位置に存在するビルについては、フォーカスが合っているが、標準位置に存在する人、及び、マクロ位置に存在する花については、フォーカスが合っていないぼけた状態の画像になる。
3Dカメラでは、被写体抽出部12において、以上のような標準画像、マクロ画像、及び、無限遠画像それぞれから、標準画像、マクロ画像、及び、無限遠画像に映る被写体としての花、人、及び、ビルが抽出される。
そして、コントラスト情報算出部13において、標準画像、マクロ画像、及び、無限遠画像それぞれから抽出された被写体としての花、人、及び、ビルそれぞれのコントラスト情報が算出される。
すなわち、コントラスト情報算出部13では、被写体としての人について、標準画像、マクロ画像、及び、無限遠画像それぞれを用いて、3つのコントラスト情報が算出される。
ここで、標準画像に映る人については、上述のように、フォーカスが合っているので、そのような人について、標準画像を用いて算出されるコントラスト情報(以下、標準コントラスト情報ともいう)は、コントラストが高いことを表す、例えば、大きな値になる。
一方、マクロ画像に映る人は、上述のように、ぼけているので、そのような人について、マクロ画像を用いて算出されるコントラスト情報(以下、マクロコントラスト情報ともいう)は、コントラストが低いことを表す、小さな値になる。
同様に、無限遠画像に映る人も、ぼけているので、人について、無限遠画像を用いて算出されるコントラスト情報(以下、無限遠コントラスト情報ともいう)は、やはり、小さい値になる。
以上のように、人については、大きい値の標準コントラスト情報と、小さい値のマクロコントラスト情報、及び、無限遠コントラスト情報との、合計で、3つのコントラスト情報を算出することができる。
また、標準画像、マクロ画像、及び、無限遠画像については、標準位置センサ41、マクロ位置センサ42、及び、無限遠位置センサ43の配置の位置(センサ位置)によって、合焦位置(合焦距離)が一意に定まるので、コントラスト情報は、そのコントラスト情報を算出するのに用いた画像の合焦位置と対応付けて、プロットすることができる。
図8では、横軸を合焦位置とするとともに、縦軸をコントラスト情報として、コントラスト情報がプロットされている。
人については、標準コントラスト情報、マクロコントラスト情報、及び、無限遠コントラスト情報の、合計で、3つのコントラスト情報をプロットすることができる。
距離算出部14は、例えば、制御部20から、標準位置センサ41、マクロ位置センサ42、及び、無限遠位置センサ43の配置の位置(センサ位置)の情報を取得し、その情報から、標準画像、マクロ画像、及び、無限遠画像の合焦位置を認識する。
さらに、距離算出部14は、人についての3つのコントラスト情報を、標準画像、マクロ画像、及び、無限遠画像の合焦位置にプロットした点(3点)を、数次の関数で近似し、その関数(値)がピークになるときの合焦位置を、人の位置、すなわち、3Dカメラから人までの被写体距離として算出する。
距離算出部14は、他の被写体である花やビルについても、同様にして、被写体距離を算出する。
なお、標準画像、マクロ画像、及び、無限遠画像の3枚の画像は、合焦位置が異なる画像であるが、このように合焦位置が異なる3枚(以上)の画像それぞれを用いて、同一の被写体のコントラスト情報を算出することで、その被写体が、合焦位置の手前又は奥のいずれに位置するのかを認識することができる。さらに、その認識結果に基づいて、例えば、フォーカス調整(フォーカス合わせ)を行うことができる。
<視差の算出>
図9は、図5の視差算出部15での視差(被写体視差)の算出の方法を説明する図である。
視差算出部15は、図9に示すように、距離算出部14からの被写体情報に含まれる被写体について、その被写体情報に含まれる被写体距離に基づき、その被写体距離に応じた視差(3Dカメラの位置から被写体を見たときの視線の方向、又は、輻輳角等)を、人間の左眼と右眼との間隔、及び、三角関数を用いて算出し、被写体視差として、3D画像生成部16に供給する。
<3D画像の生成>
図10は、図5の3D画像生成部16での3D画像の生成の方法を説明する図である。
3D画像生成部16は、撮像部11からの標準画像、マクロ画像、及び、無限遠画像に映る各被写体について、3D画像として表示するための水平方向のオフセット量を、視差算出部15からの被写体視差を用いて算出する。
そして、3D画像生成部16は、撮像部11からの標準画像、マクロ画像、及び、無限遠画像のうちの、例えば、標準画像を、そのまま、3D画像としてのL画像及びR画像のうちの一方の画像とするとともに、標準画像に映る被写体をオフセット量だけ水平方向に移動した画像を生成し、その画像を、L画像及びR画像のうちの他方の画像とすることで、3D画像としてのL画像及びR画像を生成する。
ここで、オフセット量は、視差が大きいほど、すなわち、3Dカメラからの距離が近い被写体ほど、大になる。
したがって、例えば、いま、図8で説明したように、花、人、及び、ビルが、それぞれ、マクロ位置、標準位置、及び、無限遠位置に存在し、それらの花、人、及び、ビルが、被写体として、標準画像に映っている場合において、花、人、及び、ビルのオフセット量を、それぞれ、off1,off2、及び、off3と表すこととすると、オフセット量off1ないしoff3の関係は、式off1>off2>off3で表される。
なお、ここでは、標準画像を、そのまま、L画像及びR画像のうちの一方の画像とするとともに、標準画像に映る被写体をオフセット量だけ水平方向に移動した画像を、L画像及びR画像のうちの他方の画像としたが、その他、例えば、標準画像に映る被写体を水平方向の一方にずらした画像と、他方にずらした画像との2つの画像であって、被写体の水平方向の位置がオフセット量だけ異なる画像を、L画像及びR画像とすることができる。
また、上述のように、マクロ位置、標準位置、及び、無限遠位置にそれぞれ存在する花、人、及び、ビルが、被写体として映った標準画像、マクロ画像、並びに、無限遠画像のうちの標準画像を用いて3D画像としてのL画像及びR画像を生成する場合には、その3D画像は、標準位置の人には、フォーカスが合っているが、マクロ位置の花、及び、無限遠位置のビルはぼけた状態の画像になる。
3D画像生成部16では、例えば、ユーザの操作等に応じて、標準画像に代えて、マクロ画像、又は、無限遠画像を用いて、3D画像を生成することができる。
マクロ画像を用いて、3D画像を生成する場合には、マクロ位置の花に、フォーカスが合っており、標準位置の人、及び、無限遠位置のビルがぼけた状態の3D画像を得ることができ、無限遠画像を用いて、3D画像を生成する場合には、無限遠位置のビルに、フォーカスが合っており、マクロ位置の花、及び、標準位置の人がぼけた状態の3D画像を得ることができる。
また、例えば、標準位置の人については、標準画像を、マクロ位置の花については、マクロ画像を、無限遠位置のビルについては、無限遠画像を、それぞれ用いて、3D画像を生成することにより、標準位置の人、マクロ位置の花、及び、無限遠位置のビルのいずれにもフォーカスが合っている3D画像を得ることができる。
なお、図6で説明したように、分光部32において、標準位置センサ41、マクロ位置センサ42、及び、無限遠位置センサ43に対して、レンズ部31が出射するレンズ出射光を、不均等に分光する場合や、標準位置センサ41において、カラーの画像を撮像するとともに、マクロ位置センサ42、及び、無限遠位置センサ43において、白黒の画像を撮像する場合には、3D画像生成部16では、入射するレンズ出射光の光量が最も多く、カラーの画像を撮像する標準位置センサ41で撮影される標準画像を用いて、3D画像を生成することができる。
さらに、この場合、3D画像生成部16では、標準画像を用いて、3D画像を生成するにあたり、必要に応じて、マクロ画像や無限遠画像を用いることができる。
すなわち、例えば、3D画像の色成分を、標準画像を用いて生成し、3D画像の輝度成分を、マクロ画像や無限遠画像を用いて生成することにより、マクロ位置の花に、フォーカスが合っており、標準位置の人、及び、無限遠位置のビルがぼけた状態の3D画像や、無限遠位置のビルに、フォーカスが合っており、マクロ位置の花、及び、標準位置の人がぼけた状態の3D画像を得ることができる。
また、例えば、標準画像を用いて生成された3D画像の花やビルの輝度成分を、マクロ画像や無限遠画像を用いて生成される輝度成分に置き換えることで、標準位置の人の他、マクロ位置の花や、無限遠位置のビルについても、フォーカスが合っている3D画像を得ることができる。
<3Dカメラの処理>
図11は、図5の3Dカメラの処理を説明するフローチャートである。
ステップS11において、撮像部11は、3以上の距離それぞれを合焦距離とする3以上の画像である距離別画像として、例えば、標準位置、マクロ位置、及び、無限遠位置をそれぞれ合焦位置とする3つの標準画像、マクロ画像、及び、無限遠画像を撮像する。
撮像部11は、標準画像、マクロ画像、及び、無限遠画像を、被写体抽出部12、3D画像生成部16、及び、記録部18に供給して、処理は、ステップS11からステップS12に進む。
ステップS12では、被写体抽出部12は、撮像部11からの標準画像、マクロ画像、及び、無限遠画像それぞれから、被写体を抽出し、コントラスト情報算出部13、及び、距離算出部14に供給して、処理は、ステップS13に進む。
ステップS13では、コントラスト情報算出部13は、被写体抽出部12からの、標準画像、マクロ画像、及び、無限遠画像それぞれから抽出された各被写体について、その被写体のコントラストを表すコントラスト情報を算出し、距離算出部14に供給して、処理は、ステップS14に進む。
ステップS14では、距離算出部14は、被写体抽出部12からの、標準画像、マクロ画像、及び、無限遠画像それぞれから抽出された各被写体について、その被写体の、コントラスト情報算出部13からのコントラスト情報に基づき、被写体距離を算出し、対応する被写体(の情報)とともに、被写体情報として、視差算出部15、及び、記録部18に供給して、処理は、ステップS15に進む。
ステップS15では、視差算出部15は、距離算出部14からの被写体情報に含まれる被写体について、その被写体情報に含まれる被写体距離に基づき、その被写体距離に応じた視差(被写体視差)を算出し、3D画像生成部16に供給して、処理は、ステップS16に進む。
ステップS16では、3D画像生成部16は、視差算出部15からの各被写体の被写体視差に基づいて、各被写体についての、3D画像を構成するL画像とR画像とでの水平方向の位置の差であるオフセット量を算出する。
さらに、ステップS16では、3D画像生成部16は、撮像部11からの標準画像、さらには、必要なマクロ画像、及び、無限遠画像を用い、各被写体のオフセット量に基づいて、そのオフセット量だけ被写体の水平方向の位置がずれた3D画像としてのL画像及びR画像を生成し、表示部17、及び、記録部18に供給して、処理は、ステップS17に進む。
ステップS17では、表示部17は、3D画像生成部16からの3D画像を表示する表示処理を行う。表示部17での表示処理により、いわゆるスルー画が表示される。
また、ステップS17では、記録部18は、撮像部11から供給される標準画像や、マクロ画像、無限遠画像、距離算出部14から供給される被写体情報、3D画像生成部16から供給される3D画像を、必要に応じて記録する記録処理を行う。記録部18での記録処理により、録画が行われる。
以上のように、撮像部11は、レンズ部31が1個だけであるため、小型化や、取り扱いの容易化を図ることができ、2眼2センサ方式や2眼1センサ方式のカメラで必要になるような、L用レンズ部とR用レンズ部との位置の調整等の光学系の調整が不要になる。
また、撮像部11において、レンズ出射光を分光する分光部32は、図6で説明したように、3板式のカメラで用いられるRGB分光プリズムを利用して構成することができる。
さらに、撮像部11において、レンズ部31は、既存の2Dカメラで用いられているレンズ部を利用して構成することができる。
すなわち、例えば、2眼2センサ方式のカメラでは、レンズ間隔が、人間の左眼と右眼との間隔程度に制限されるが、撮像部11は、レンズ部31が1個であるため、2眼2センサ方式のカメラのような制限を受けることはなく、レンズ部31として、開口径の大きなズームレンズ等の、既存の2Dカメラのレンズ部と同様の様々なバリエーションを採用することができる。
したがって、撮像部11の光学系には、既存の2Dカメラのレンズ部その他の光学部品の資産を利用することができるので、3Dカメラに専用の光学部品の開発費が不要となり、3Dカメラを安価に製造することができる。
さらに、撮像部11では、図6で説明したように、標準位置センサ41、マクロ位置センサ42、及び、無限遠位置センサ43に入射するレンズ出射光の光路長が、標準位置センサ41、マクロ位置センサ42、及び、無限遠位置センサ43ごとに異なるので、すなわち、例えば、標準位置センサ41に入射するレンズ出射光の光路長は、標準位置が合焦位置になるようになっており、マクロ位置センサ42に入射するレンズ出射光の光路長は、マクロ位置が合焦位置になるようになっており、無限遠位置センサ43に入射するレンズ出射光の光路長は、無限遠(とみなせる位置)が合焦位置になるようになっているので、マクロ位置、標準位置、及び、無限遠位置のそれぞれにフォーカスが合ったマクロ画像、標準画像、及び、無限遠画像を、同時に撮像することができる。
したがって、静止している被写体については勿論、動いている被写体についても、1眼1センサ方式のカメラで、合焦位置をずらした複数の画像を撮像した場合に、その複数の画像に生じるような時間的なずれは、生じない。すなわち、撮影部11では、時間的なずれがないマクロ画像、標準画像、及び、無限遠画像を撮像することができる。
また、標準位置センサ41において、カラーの画像を撮像するとともに、マクロ位置センサ42、及び、無限遠位置センサ43において、白黒の画像を撮像することにより、カラーの画像である標準画像を撮像する標準位置センサ41に入射するレンズ出射光の光量(ひいては、標準位置センサ41の感度)が低下するのを抑制することができる。
なお、制御部20では、標準位置センサ41、マクロ位置センサ42、及び、無限遠位置センサ43の電子シャッタを、標準位置センサ41の電子シャッタと、マクロ位置センサ42、及び、無限遠位置センサ43の電子シャッタとが、異なるシャッタ速度になるように制御することができる。そして、標準位置センサ41の出力、マクロ位置センサ42の出力、及び、無限遠位置センサ43の出力を、レンズ出射光の分光の割合やシャッタ速度に応じた適切な重みを用いて重み付け加算することにより、高ダイナミックレンジの画像を得ることができる。
また、3Dカメラでは、3D画像の他、2D画像(例えば、標準画像そのものや、標準画像、マクロ画像、及び、無限遠画像を用いて生成される2D画像)を出力することができるが、3D画像、及び、2D画像のいずれについても、上述の高ダイナミックレンジの画像を得ることができる。
<本技術を適用した表示システムの一実施の形態>
図12は、本技術を適用した表示システムの一実施の形態の構成例を示すブロック図である。
図12において、表示システムは、画像生成部60、及び、表示部65を有する。
画像生成部60は、ユーザの視線に応じて、3D画像を生成する。
すなわち、画像生成部60は、画像情報取得部61、視差算出部62、3D画像生成部63、及び、視線検出センサ64を有する。
画像取得部61は、例えば、ストレージやネットワーク、その他、データを提供する機能を有するデータ提供手段から、3以上の距離それぞれを合焦距離とする3以上の画像である距離別画像としての、例えば、図5の3Dカメラで得られる標準画像、マクロ画像、及び、無限遠画像を取得し、3D画像生成部63に供給する。
さらに、画像取得部61は、データ提供手段から、標準画像、マクロ画像、及び、無限遠画像に映る被写体の被写体情報、すなわち、例えば、図5の距離算出部14で得られる被写体情報を取得し、視差算出部62に供給する。
視差算出部62は、図5の視差算出部15と同様に、画像取得部61からの被写体情報に基づいて、被写体視差を算出し、画像取得部61からの被写体情報とともに、3D画像生成部63に供給する。
3D画像生成部63は、視差算出部62からの被写体視差に基づき、画像取得部61からの標準画像、マクロ画像、及び、無限遠画像を用いて、図5の3D画像生成部16と同様にして、3D画像を生成し、表示部65に供給する。
ここで、3D画像生成部63には、視線検出センサ64から、表示部65に表示された3D画像を視聴するユーザの視線を表す視線情報が供給される。
3D画像生成部63は、視線検出センサ64からの視線情報に基づいて、表示部65に表示された3D画像に映る被写体の中で、ユーザが注目している被写体(ユーザの視線方向にある被写体)(以下、注目被写体ともいう)を検出する。
そして、3D画像生成部63は、標準画像、マクロ画像、及び、無限遠画像を用いて、注目被写体にフォーカスが合った3D画像を、図10で説明したようにして生成する。
視線検出センサ64は、例えば、カメラ等で構成され、ユーザの視線を検出し、その視線を表す視線情報を、3D画像生成部63に供給する。
表示部65は、液晶パネルや有機ELパネル等で構成され、3D画像生成部63から供給される3D画像を表示する。
図13は、図12の表示システムで表示される3D画像の例を示す図である。
例えば、マクロ位置、標準位置、及び、無限遠位置にそれぞれ存在する花、人、及び、ビルが、被写体として映った3D画像が、表示部65に表示されており、ユーザの視線が、人の方向e1(図12)を向いているとする。
この場合、3D画像生成部63では、ユーザの視線が向いている人を、注目被写体として、その注目被写体としての人に、フォーカスが合っており、人とは異なる距離の位置にある花とビルとがぼけた状態の3D画像が生成される。
その後、ユーザの視線が、例えば、人の方向e1から花の方向e2(図12)に変更されると、3D画像生成部63では、ユーザの視線が向いている花を、注目被写体として、その注目被写体としての花に、フォーカスが合っており、花とは異なる距離の位置にある人とビルとがぼけた状態の3D画像が生成される。
以上のように、ユーザの視線が向いている被写体、つまり、ユーザが注目して見ている被写体に、フォーカスが合っている3D画像をアクティブに生成することで、ユーザに、よりリアリティを感じさせることができる。
図14は、図12の表示システムの処理を説明するフローチャートである。
ステップS31において、画像取得部61は、3以上の距離それぞれを合焦距離とする3以上の画像である距離別画像としての標準画像、マクロ画像、及び、無限遠画像を取得し、3D画像生成部63に供給する。
さらに、ステップS31において、画像取得部61は、標準画像、マクロ画像、及び、無限遠画像に映る被写体の被写体情報を取得し、視差算出部62に供給して、処理は、ステップS32に進む。
ステップS32では、視差算出部62は、画像取得部61からの被写体情報に基づいて、被写体視差を算出し、画像取得部61からの被写体情報とともに、3D画像生成部63に供給して、処理は、ステップS33に進む。
ステップS33では、視線検出センサ64が、ユーザの視線を検出し、その視線を表す視線情報を、3D画像生成部63に供給して、処理は、ステップS34に進む。
ステップS34では、3D画像生成部63は、視線検出センサ64からの視線情報に基づいて、表示部65に表示された画像に映る被写体の中で、ユーザが注目している注目被写体を検出する。
さらに、3D画像生成部63は、視差算出部62からの被写体情報に基づいて、表示部65に表示された画像に映る被写体の中で、注目被写体と同程度の被写体距離の被写体(例えば、注目被写体との被写体距離の差が所定の閾値以内の被写体)を、フォーカスを合わせる合焦対象の対象被写体として検出し、処理は、ステップS34からステップS35に進む。
ここで、対象被写体には、注目被写体が含まれる。
ステップS35では、3D画像生成部63は、視差算出部62からの被写体視差に基づき、画像取得部61からの標準画像、マクロ画像、及び、無限遠画像を用いて、対象被写体にフォーカスが合っており、対象被写体以外の被写体、すなわち、注目被写体とは被写体距離が大きく離れた被写体がぼけた状態の3D画像を生成する。
ここでは、3D画像生成部63は、標準画像、マクロ画像、及び、無限遠画像を用いて、3D画像を生成するので、標準位置(付近)の被写体に、フォーカスが合った画像(かつ、標準位置以外のマクロ位置、及び、無限遠位置の被写体がぼけた状態の画像)、マクロ位置(付近)の被写体に、フォーカスが合った画像(かつ、マクロ位置以外の標準位置、及び、無限遠位置の被写体がぼけた状態の画像)、又は、無限遠位置(付近)の被写体に、フォーカスが合った画像(かつ、無限遠位置以外の標準位置、及び、マクロ位置の被写体がぼけた状態の画像)を生成することができる。
以上のように、3D画像生成部63は、3D画像を生成して、表示部65に供給し、処理は、ステップS35からステップS36に進む。
ステップS36では、表示部65は、3D画像生成部63からの3D画像を表示する表示処理を行う。これにより、表示部65では、ユーザが注目している注目被写体と、注目被写体と同程度の距離(位置)にある被写体とにフォーカスが合った3D画像が表示される。
以上のように、図12の表示システムでは、ユーザの視線を検出し、そのユーザの視線に基づき、表示部65に表示される3D画像に映る被写体の中で、ユーザが注目している注目被写体を検出し、3以上の距離それぞれを合焦距離とする3以上の画像である距離別画像としての、例えば、標準画像、マクロ画像、及び、無限遠画像を用いて、注目被写体にフォーカスが合った3D画像を生成するので、ユーザの視線に同期して変化する3D画像、すなわち、ユーザの視線に従って、フォーカスが合っている被写体がリアルタイムで変化する、現実的な立体感がある(リアリティがある)3D画像を提供することができる。
なお、撮像部11を構成するイメージセンサ41ないし43としては、3板式のカメラと同様に、イメージセンサ41として、R成分の画像を撮像するイメージセンサを採用し、イメージセンサ42として、G成分の画像を撮像するイメージセンサを採用し、イメージセンサ43として、B成分の画像を撮像するイメージセンサを採用することができる。
この場合、R成分の画像は、標準位置の被写体にフォーカスが合った画像になり、G成分の画像は、マクロ位置の被写体にフォーカスが合った画像になり、B成分の画像は、無限遠位置の被写体にフォーカスが合った画像になるが、3D画像生成部16及び63では、そのようなR成分、G成分、及び、B成分の画像から、3D画像を生成することができる。
イメージセンサ41として、R成分の画像を撮像するイメージセンサを採用し、イメージセンサ42として、G成分の画像を撮像するイメージセンサを採用し、イメージセンサ43として、B成分の画像を撮像するイメージセンサを採用する場合には、図6の分光部32において、面m1には、Gの光を反射し、他の波長の光を透過させる薄膜が形成され、面m2には、Bの光を反射し、他の波長の光を透過させる薄膜が形成される。
また、図5の3Dカメラは、画像の撮像の他、被写体までの距離の測定に利用することができる。
<本技術を適用したコンピュータの説明>
次に、上述した一連の処理(の少なくとも一部)は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
そこで、図15は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。
プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク105やROM103に予め記録しておくことができる。
あるいはまた、プログラムは、リムーバブル記録媒体111に格納(記録)しておくことができる。このようなリムーバブル記録媒体111は、いわゆるパッケージソフトウエアとして提供することができる。ここで、リムーバブル記録媒体111としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。
なお、プログラムは、上述したようなリムーバブル記録媒体111からコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵するハードディスク105にインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送することができる。
コンピュータは、CPU(Central Processing Unit)102を内蔵しており、CPU102には、バス101を介して、入出力インタフェース110が接続されている。
CPU102は、入出力インタフェース110を介して、ユーザによって、入力部107が操作等されることにより指令が入力されると、それに従って、ROM(Read Only Memory)103に格納されているプログラムを実行する。あるいは、CPU102は、ハードディスク105に格納されたプログラムを、RAM(Random Access Memory)104にロードして実行する。
これにより、CPU102は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU102は、その処理結果を、必要に応じて、例えば、入出力インタフェース110を介して、出力部106から出力、あるいは、通信部108から送信、さらには、ハードディスク105に記録等させる。
なお、入力部107は、キーボードや、マウス、マイク等で構成される。また、出力部106は、LCD(Liquid Crystal Display)やスピーカ等で構成される。
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。
また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
なお、本技術は、以下のような構成をとることができる。
<1>
光電変換を行う、3個以上の複数のイメージセンサと、
前記イメージセンサに光を集光するための1個のレンズ部が出射するレンズ出射光を分光し、前記複数のイメージセンサのそれぞれに、前記レンズ出射光を入射させる分光部と
を備え、
前記イメージセンサに入射する前記レンズ出射光の光路長が、前記複数のイメージセンサそれぞれごとに、異なる
撮像装置。
<2>
前記複数のイメージセンサは、
前記レンズ部から所定の距離の位置である標準位置が、フォーカスが合う合焦位置になるように配置されたイメージセンサである標準位置センサと、
前記レンズ部から所定の距離よりも近い位置であるマクロ位置が、前記合焦位置になるように配置されたイメージセンサであるマクロ位置センサと、
前記レンズ部から所定の距離よりも遠い位置である無限遠が、前記合焦位置になるように配置されたイメージセンサである無限遠位置センサと
を含む
<1>に記載の撮像装置。
<3>
前記標準位置センサは、カラーの画像を出力し、
前記マクロ位置センサ、及び、前記無限遠位置センサは、白黒の画像を出力する
<2>に記載の撮像装置。
<4>
前記分光部は、前記標準位置センサに入射する前記レンズ出射光の光量が、前記マクロ位置センサ、及び、前記無限遠位置センサに入射する前記レンズ出射光の光量よりも大になるように、前記レンズ出射光を分光する
<3>に記載の撮像装置。
<5>
前記標準位置センサの電子シャッタと、前記マクロ位置センサ、及び、前記無限遠位置センサの電子シャッタとが、異なるシャッタ速度になるように、前記標準位置センサ、前記マクロ位置センサ、及び、前記無限遠位置センサの電子シャッタを制御する制御部をさらに備える
<4>に記載の撮像装置。
<6>
前記標準位置センサが出力する画像である標準画像、前記マクロ位置センサが出力する画像であるマクロ画像、及び、前記無限遠位置センサが出力する画像である無限遠画像から、被写体を抽出する被写体抽出部と、
前記被写体のコントラストを表すコントラスト情報を算出するコントラスト情報算出部と、
前記コントラスト情報に基づいて、前記被写体について、その被写体までの距離である被写体距離を算出する距離算出部と、
前記標準画像、前記マクロ画像、及び、前記無限遠画像を用い、前記被写体について、その被写体距離に応じた視差がある3D(Dimension)画像を生成する3D画像生成部と
をさらに備える
<2>ないし<5>のいずれかに記載の撮像装置。
<7>
光電変換を行う、3個以上の複数のイメージセンサと、
前記イメージセンサに光を集光するための1個のレンズ部が出射するレンズ出射光を分光し、前記複数のイメージセンサのそれぞれに、前記レンズ出射光を入射させる分光部と
を備え、
前記イメージセンサに入射する前記レンズ出射光の光路長が、前記複数のイメージセンサそれぞれごとに、異なる
撮像装置が、
異なる3以上の距離にフォーカスが合った3以上である複数の画像を撮像するステップを含む
撮像方法。
<8>
異なる3以上の距離にフォーカスが合った3以上である複数の画像を取得する画像取得部と、
ユーザの視線を検出する視線検出部と、
前記ユーザの視線に基づき、3D(Dimension)画像を表示する表示部に表示される3D画像に映る被写体の中で、ユーザが注目している注目被写体を検出し、前記複数の画像を用いて、前記注目被写体にフォーカスが合った3D画像を生成する3D画像生成部と
を備える画像生成装置。
<9>
前記3D画像生成部は、前記注目被写体と、前記3D画像に映る被写体のうちの、前記注目被写体との距離が所定の閾値以内の他の被写体とにフォーカスが合った3D画像を生成する
<8>に記載の画像生成装置。
<10>
前記複数の画像は、
光電変換を行う、3個以上の複数のイメージセンサと、
前記イメージセンサに光を集光するための1個のレンズ部が出射するレンズ出射光を分光し、前記複数のイメージセンサのそれぞれに、前記レンズ出射光を入射させる分光部と
を備え、
前記イメージセンサに入射する前記レンズ出射光の光路長が、前記複数のイメージセンサそれぞれごとに、異なる
撮像装置
で撮像された画像である
<8>又は<9>に記載の画像生成装置。
<11>
異なる3以上の距離にフォーカスが合った3以上である複数の画像を取得し、
ユーザの視線を検出し、
前記ユーザの視線に基づき、3D(Dimension)画像を表示する表示部に表示される3D画像に映る被写体の中で、ユーザが注目している注目被写体を検出し、前記複数の画像を用いて、前記注目被写体にフォーカスが合った3D画像を生成する
ステップを含む画像生成方法。
<12>
異なる3以上の距離にフォーカスが合った3以上である複数の画像を取得する画像取得部と、
ユーザの視線を検出する視線検出部と、
前記ユーザの視線に基づき、3D(Dimension)画像を表示する表示部に表示される3D画像に映る被写体の中で、ユーザが注目している注目被写体を検出し、前記複数の画像を用いて、前記注目被写体にフォーカスが合った3D画像を生成する3D画像生成部と
して、コンピュータを機能させるためのプログラム。
11 撮像部, 12 被写体抽出部, 13 コントラスト情報算出部, 14 距離算出部, 15 視差算出部, 16 3D画像生成部, 17 表示部, 18 記録部, 19 操作部, 20 制御部, 31 レンズ部, 32 分光部, 41ないし43 イメージセンサ, 60 画像生成部, 61 画像情報取得部, 62 視差算出部, 63 3D画像生成部, 64 視線検出センサ, 65 表示部, 101 バス, 102 CPU, 103 ROM, 104 RAM, 105 ハードディスク, 106 出力部, 107 入力部, 108 通信部, 109 ドライブ, 110 入出力インタフェース, 111 リムーバブル記録媒体

Claims (12)

  1. 光電変換を行う、3個以上の複数のイメージセンサと、
    前記イメージセンサに光を集光するための1個のレンズ部が出射するレンズ出射光を分光し、前記複数のイメージセンサのそれぞれに、前記レンズ出射光を入射させる分光部と
    を備え、
    前記イメージセンサに入射する前記レンズ出射光の光路長が、前記複数のイメージセンサそれぞれごとに、異なる
    撮像装置。
  2. 前記複数のイメージセンサは、
    前記レンズ部から所定の距離の位置である標準位置が、フォーカスが合う合焦位置になるように配置されたイメージセンサである標準位置センサと、
    前記レンズ部から所定の距離よりも近い位置であるマクロ位置が、前記合焦位置になるように配置されたイメージセンサであるマクロ位置センサと、
    前記レンズ部から所定の距離よりも遠い位置である無限遠が、前記合焦位置になるように配置されたイメージセンサである無限遠位置センサと
    を含む
    請求項1に記載の撮像装置。
  3. 前記標準位置センサは、カラーの画像を出力し、
    前記マクロ位置センサ、及び、前記無限遠位置センサは、白黒の画像を出力する
    請求項2に記載の撮像装置。
  4. 前記分光部は、前記標準位置センサに入射する前記レンズ出射光の光量が、前記マクロ位置センサ、及び、前記無限遠位置センサに入射する前記レンズ出射光の光量よりも大になるように、前記レンズ出射光を分光する
    請求項3に記載の撮像装置。
  5. 前記標準位置センサの電子シャッタと、前記マクロ位置センサ、及び、前記無限遠位置センサの電子シャッタとが、異なるシャッタ速度になるように、前記標準位置センサ、前記マクロ位置センサ、及び、前記無限遠位置センサの電子シャッタを制御する制御部をさらに備える
    請求項4に記載の撮像装置。
  6. 前記標準位置センサが出力する画像である標準画像、前記マクロ位置センサが出力する画像であるマクロ画像、及び、前記無限遠位置センサが出力する画像である無限遠画像から、被写体を抽出する被写体抽出部と、
    前記被写体のコントラストを表すコントラスト情報を算出するコントラスト情報算出部と、
    前記コントラスト情報に基づいて、前記被写体について、その被写体までの距離である被写体距離を算出する距離算出部と、
    前記標準画像、前記マクロ画像、及び、前記無限遠画像を用い、前記被写体について、その被写体距離に応じた視差がある3D(Dimension)画像を生成する3D画像生成部と
    をさらに備える
    請求項2に記載の撮像装置。
  7. 光電変換を行う、3個以上の複数のイメージセンサと、
    前記イメージセンサに光を集光するための1個のレンズ部が出射するレンズ出射光を分光し、前記複数のイメージセンサのそれぞれに、前記レンズ出射光を入射させる分光部と
    を備え、
    前記イメージセンサに入射する前記レンズ出射光の光路長が、前記複数のイメージセンサそれぞれごとに、異なる
    撮像装置が、
    異なる3以上の距離にフォーカスが合った3以上である複数の画像を撮像するステップを含む
    撮像方法。
  8. 異なる3以上の距離にフォーカスが合った3以上である複数の画像を取得する画像取得部と、
    ユーザの視線を検出する視線検出部と、
    前記ユーザの視線に基づき、3D(Dimension)画像を表示する表示部に表示される3D画像に映る被写体の中で、ユーザが注目している注目被写体を検出し、前記複数の画像を用いて、前記注目被写体にフォーカスが合った3D画像を生成する3D画像生成部と
    を備える画像生成装置。
  9. 前記3D画像生成部は、前記注目被写体と、前記3D画像に映る被写体のうちの、前記注目被写体との距離が所定の閾値以内の他の被写体とにフォーカスが合った3D画像を生成する
    請求項8に記載の画像生成装置。
  10. 前記複数の画像は、
    光電変換を行う、3個以上の複数のイメージセンサと、
    前記イメージセンサに光を集光するための1個のレンズ部が出射するレンズ出射光を分光し、前記複数のイメージセンサのそれぞれに、前記レンズ出射光を入射させる分光部と
    を備え、
    前記イメージセンサに入射する前記レンズ出射光の光路長が、前記複数のイメージセンサそれぞれごとに、異なる
    撮像装置
    で撮像された画像である
    請求項9に記載の画像生成装置。
  11. 異なる3以上の距離にフォーカスが合った3以上である複数の画像を取得し、
    ユーザの視線を検出し、
    前記ユーザの視線に基づき、3D(Dimension)画像を表示する表示部に表示される3D画像に映る被写体の中で、ユーザが注目している注目被写体を検出し、前記複数の画像を用いて、前記注目被写体にフォーカスが合った3D画像を生成する
    ステップを含む画像生成方法。
  12. 異なる3以上の距離にフォーカスが合った3以上である複数の画像を取得する画像取得部と、
    ユーザの視線を検出する視線検出部と、
    前記ユーザの視線に基づき、3D(Dimension)画像を表示する表示部に表示される3D画像に映る被写体の中で、ユーザが注目している注目被写体を検出し、前記複数の画像を用いて、前記注目被写体にフォーカスが合った3D画像を生成する3D画像生成部と
    して、コンピュータを機能させるためのプログラム。
JP2013136218A 2013-06-28 2013-06-28 撮像装置、撮像方法、画像生成装置、画像生成方法、及び、プログラム Pending JP2015012442A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013136218A JP2015012442A (ja) 2013-06-28 2013-06-28 撮像装置、撮像方法、画像生成装置、画像生成方法、及び、プログラム
US14/310,220 US10728524B2 (en) 2013-06-28 2014-06-20 Imaging apparatus, imaging method, image generation apparatus, image generation method, and program
CN201410281532.7A CN104253988B (zh) 2013-06-28 2014-06-20 成像设备、成像方法、图像生成设备以及图像生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013136218A JP2015012442A (ja) 2013-06-28 2013-06-28 撮像装置、撮像方法、画像生成装置、画像生成方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2015012442A true JP2015012442A (ja) 2015-01-19
JP2015012442A5 JP2015012442A5 (ja) 2016-04-14

Family

ID=52115209

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013136218A Pending JP2015012442A (ja) 2013-06-28 2013-06-28 撮像装置、撮像方法、画像生成装置、画像生成方法、及び、プログラム

Country Status (3)

Country Link
US (1) US10728524B2 (ja)
JP (1) JP2015012442A (ja)
CN (1) CN104253988B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11147647B2 (en) * 2016-03-30 2021-10-19 Sony Olympus Mrdical Solutions Inc. Medical stereoscopic observation device, medical stereoscopic observation method, and program
CN106060351B (zh) * 2016-06-29 2020-07-24 联想(北京)有限公司 图像处理装置及图像处理方法
EP3879226B1 (en) 2018-11-08 2023-01-04 Chengdu Pin Tai Ding Feng Business Administration Three-dimensional measurement device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH057373A (ja) * 1991-01-22 1993-01-14 Olympus Optical Co Ltd 立体電子スチルカメラ
JP2002287017A (ja) * 2001-03-28 2002-10-03 Fuji Photo Optical Co Ltd 撮影レンズのピント状態検出装置
JP2002296493A (ja) * 2001-03-30 2002-10-09 Fuji Photo Optical Co Ltd ピント状態検出装置
JP2002365517A (ja) * 2001-06-04 2002-12-18 Fuji Photo Optical Co Ltd 撮影レンズのピント状態検出装置
JP2004151608A (ja) * 2002-11-01 2004-05-27 Fuji Photo Optical Co Ltd オートフォーカスシステム
JP2011044838A (ja) * 2009-08-20 2011-03-03 Sony Corp 撮影装置および方法、並びにプログラム
JP2012238088A (ja) * 2011-05-10 2012-12-06 Vri Inc 画像選択表示方法および装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5790188A (en) * 1995-09-07 1998-08-04 Flight Landata, Inc. Computer controlled, 3-CCD camera, airborne, variable interference filter imaging spectrometer system
US20040125228A1 (en) * 2001-07-25 2004-07-01 Robert Dougherty Apparatus and method for determining the range of remote objects
JP2004233600A (ja) 2003-01-30 2004-08-19 Canon Inc 立体撮影装置
DE102009018318A1 (de) * 2009-04-22 2010-10-28 Wincor Nixdorf International Gmbh Selbstbedienungsterminal mit mindestens einer Bilddaten erzeugenden Kamera zum Erkennen von Manipulationsversuchen
WO2011105814A2 (ko) * 2010-02-23 2011-09-01 삼성전자 주식회사 다시점 정지 영상 서비스 제공 방법 및 그 장치, 다시점 정지 영상 서비스 수신 방법 및 그 장치
JP4975177B2 (ja) * 2010-09-10 2012-07-11 キヤノン株式会社 撮像装置
JP2012103109A (ja) * 2010-11-10 2012-05-31 Panasonic Corp ステレオ画像処理装置、ステレオ画像処理方法及びプログラム
JP5344770B2 (ja) 2011-03-14 2013-11-20 パナソニック株式会社 撮影装置
KR101758164B1 (ko) * 2011-04-08 2017-07-26 엘지전자 주식회사 이동 단말기 및 3d 멀티 앵글 뷰 제어방법
EP2894608A4 (en) * 2012-09-05 2016-01-20 Nec Corp DISPLAY DEVICE, DISPLAY PROCEDURE AND PROGRAM

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH057373A (ja) * 1991-01-22 1993-01-14 Olympus Optical Co Ltd 立体電子スチルカメラ
JP2002287017A (ja) * 2001-03-28 2002-10-03 Fuji Photo Optical Co Ltd 撮影レンズのピント状態検出装置
JP2002296493A (ja) * 2001-03-30 2002-10-09 Fuji Photo Optical Co Ltd ピント状態検出装置
JP2002365517A (ja) * 2001-06-04 2002-12-18 Fuji Photo Optical Co Ltd 撮影レンズのピント状態検出装置
JP2004151608A (ja) * 2002-11-01 2004-05-27 Fuji Photo Optical Co Ltd オートフォーカスシステム
JP2011044838A (ja) * 2009-08-20 2011-03-03 Sony Corp 撮影装置および方法、並びにプログラム
JP2012238088A (ja) * 2011-05-10 2012-12-06 Vri Inc 画像選択表示方法および装置

Also Published As

Publication number Publication date
US10728524B2 (en) 2020-07-28
US20150002630A1 (en) 2015-01-01
CN104253988B (zh) 2018-05-11
CN104253988A (zh) 2014-12-31

Similar Documents

Publication Publication Date Title
US9544574B2 (en) Selecting camera pairs for stereoscopic imaging
JP5014979B2 (ja) 個人用電子機器の3次元情報取得及び表示システム
US8300086B2 (en) Image processing for supporting a stereoscopic presentation
JP5814692B2 (ja) 撮像装置及びその制御方法、プログラム
US20120314039A1 (en) 3d image acquisition apparatus employing interchangable lens
US9838667B2 (en) Image pickup apparatus, image pickup method, and non-transitory computer-readable medium
WO2019065260A1 (ja) 情報処理装置、情報処理方法、及び、プログラム、並びに、交換レンズ
JP2013192182A (ja) 固体撮像装置および携帯情報端末
JP2014153890A (ja) 画像処理装置、撮像装置、制御方法、及びプログラム
JPWO2014046184A1 (ja) 複数被写体の距離計測装置及び方法
US20160094776A1 (en) Imaging apparatus and imaging method
JP2010181826A (ja) 立体画像形成装置
JP2015012442A (ja) 撮像装置、撮像方法、画像生成装置、画像生成方法、及び、プログラム
JP2014036362A (ja) 撮像装置、その制御方法、および制御プログラム
KR20160123757A (ko) 이미지 촬영 장치 및 이미지 촬영 방법
JP2012182738A (ja) ステレオ画像撮像装置
KR101737260B1 (ko) 영상간 피사계 심도 차이에서 깊이를 추출하는 카메라 시스템 및 그 동작 방법
WO2012014695A1 (ja) 立体撮像装置およびその撮像方法
JP5825932B2 (ja) 撮像装置及びその制御方法、プログラム、及び記録媒体
WO2012077574A1 (ja) 撮像装置および撮像方法
Kikuchi et al. A proposal of sensor-based phase detection method in 3-CMOS 8K 240-fps imaging
JP2011182325A (ja) 撮像装置
JP2012088549A (ja) 立体画像撮像装置、立体画像表示装置、および立体画像撮像表示装置
US20230254470A1 (en) Stereoscopic image pickup apparatus, control method, storage medium, and control apparatus
RU103940U1 (ru) Цифровой стереокиносъемочный аппарат

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170711