JP2016102733A - レンズ及び撮影装置 - Google Patents

レンズ及び撮影装置 Download PDF

Info

Publication number
JP2016102733A
JP2016102733A JP2014241744A JP2014241744A JP2016102733A JP 2016102733 A JP2016102733 A JP 2016102733A JP 2014241744 A JP2014241744 A JP 2014241744A JP 2014241744 A JP2014241744 A JP 2014241744A JP 2016102733 A JP2016102733 A JP 2016102733A
Authority
JP
Japan
Prior art keywords
filter
image
transmits
light
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014241744A
Other languages
English (en)
Inventor
優介 森内
Yusuke Moriuchi
優介 森内
三島 直
Sunao Mishima
直 三島
松本 信幸
Nobuyuki Matsumoto
信幸 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2014241744A priority Critical patent/JP2016102733A/ja
Priority to US14/950,591 priority patent/US10145994B2/en
Publication of JP2016102733A publication Critical patent/JP2016102733A/ja
Priority to US16/179,904 priority patent/US20190072697A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/201Filters in the form of arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Studio Devices (AREA)
  • Color Television Image Signal Generators (AREA)
  • Optical Filters (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

【課題】撮影された画像から距離情報を高精度に取得することを課題とする。【解決手段】レンズは、開口部にフィルタを備える。フィルタは、第1のフィルタ領域と、第2のフィルタ領域とを有する。第1のフィルタ領域は、イメージセンサで受光される光の色のうち、第1の組み合わせの複数色を透過する。第2のフィルタ領域は、イメージセンサで受光される光の色のうち、第1の組み合わせとは異なる第2の組み合わせの複数色を透過する。第1のフィルタ領域及び第2のフィルタ領域を含む開口部の全面は、共通する色を表す共通色を通過させる。【選択図】図2

Description

本発明の実施形態は、レンズ及び撮影装置に関する。
従来、撮影された画像から距離情報を取得する技術が知られている。かかる技術では、例えば、レンズを有する撮影装置において、レンズ光学系の絞り位置に、赤色(R:Red)、緑色(G:Green)、青色(B:Blue)のフィルタを配置し、それぞれの色のフィルタを通過した光をRGBセンサで獲得することで、奥行きに応じてずれた画像を撮影できる。これにより、撮影された1枚の画像からシーンの奥行きを算出することができる。
特開2009−276294号公報
しかしながら、各フィルタを通過した光を、各フィルタの色に対応する同色のセンサで受光させる場合には、異なる色のフィルタを通過する光は吸収されてしまうため、センサで受光する光量が低下する可能性がある。センサで受光する光量が低下すると、撮影された画像は暗く、ノイズが多いものとなるため、奥行きを一意に算出することが困難となる。この結果、従来技術は、撮影された画像から距離情報を高精度に取得することができない。
本発明が解決しようとする課題は、撮影された画像から距離情報を高精度に取得することができるレンズ及び撮影装置を提供することである。
実施の形態のレンズは、開口部にフィルタを備える。フィルタは、第1のフィルタ領域と、第2のフィルタ領域とを有する。第1のフィルタ領域は、イメージセンサで受光される光の色のうち、第1の組み合わせの複数色を透過する。第2のフィルタ領域は、イメージセンサで受光される光の色のうち、第1の組み合わせとは異なる第2の組み合わせの複数色を透過する。第1のフィルタ領域及び第2のフィルタ領域を含む開口部の全面は、共通する色を表す共通色を通過させる。
第1の実施形態に係る撮影装置のハードウェア構成を示すブロック図。 第1の実施形態に係る撮影装置の機能構成を示すブロック図。 第1の実施形態に係るフィルタ領域を説明する図。 第1の実施形態に係る撮影画像の変化を説明する図。 第1の実施形態に係る撮影装置による処理の流れを示すフローチャート。 第2の実施形態に係る撮影装置の機能構成を示すブロック図。 第2の実施形態に係るフィルタ領域を説明する図。 第2の実施形態に係るフィルタ領域を説明する図。 第2の実施形態に係る撮影装置による処理の流れを示すフローチャート。 第3の実施形態に係る撮影装置の機能構成を示すブロック図。 第3の実施形態に係るフィルタ領域を説明する図。 第3の実施形態に係るフィルタ領域を説明する図。 第3の実施形態に係るフィルタ領域を説明する図。 第3の実施形態に係るフィルタ領域を説明する図。 第3の実施形態に係る撮影装置による処理の流れを示すフローチャート。
(第1の実施形態)
図1は、第1の実施形態に係る撮影装置のハードウェア構成例を示すブロック図である。図1に示すように、撮影装置100は、レンズ10と、センサ20と、CPU(Central Processing Unit)30と、HDD(Hard Disk Drive)40と、メモリカードスロット50と、ディスプレイ60とを有する。これらのハードウェアは、バスにより接続される。また、撮影装置100は、撮影対象となる任意の被写体を含む画像を撮影し、被写体までの奥行き情報に応じて画像処理を施した表示画像を生成及び表示する。
レンズ10は、撮影によって被写体で反射した光を入射し、入射した光を透過するフィルタ(カラーフィルタ)を開口部に備える。例えば、レンズ10は、入射した光の集光の際に、フィルタの色に応じて、特定の波長帯の光を透過する。フィルタを通過した光は、センサ20に到達する。センサ20は、レンズ10の開口部を通過した光を受光するイメージセンサである。例えば、センサ20は、CCD(Charge Coupled Device)イメージセンサや、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等である。一つの様態として、センサ20は、赤色の光を受光するセンサ(Rセンサ)と、緑色の光を受光するセンサ(Gセンサ)と、青色の光を受光するセンサ(Bセンサ)とを有し、それぞれのセンサで対応する波長帯の光を受光して、撮影画像(R画像、G画像、B画像)を生成する。
CPU30は、撮影装置100の動作を統括的に制御する。具体的には、CPU30は、HDD40等に記憶されたプログラムを実行し、撮影装置100全体の動作を制御する。例えば、CPU30は、センサ20によって生成された撮影画像から、被写体までの奥行き情報を算出し、算出した奥行き情報に応じた距離画像を生成する。そして、CPU30は、撮影画像と距離画像とから、ユーザに提示するための表示画像を生成する。
HDD40は、書き換え可能な不揮発性の記憶デバイスである。例えば、HDD40は、撮影装置100の制御に関するプログラムや各種データ等を記憶する。メモリカードスロット50は、可搬記憶媒体のインタフェースである。例えば、メモリカードスロット50には、SDメモリカードやSDHCメモリカード等の可搬記憶媒体が挿入可能である。ディスプレイ60は、各種情報や画像(表示画像等)を表示する。例えば、ディスプレイ60は、液晶ディスプレイやタッチパネル等である。
図2は、第1の実施形態に係る撮影装置100の機能構成例を示すブロック図である。図2に示すように、撮影装置100は、開口部にフィルタ110を備えるレンズ10と、センサ120と、画像処理部130とを有する。これらのうち、フィルタ110は、第1のフィルタ領域111と、第2のフィルタ領域112とを有する。センサ120は、第1のセンサ121と、第2のセンサ122と、第3のセンサ123とを有する。画像処理部130は、入力部131と、奥行き算出部132と、画像生成部133とを有する。なお、画像処理部130については、これらの一部又は全てがソフトウェア(プログラム)で実現されても良いし、ハードウェア回路で実現されても良い。なお、以下では、センサ120がRGBセンサを有する場合を例に挙げて説明するが、センサの波長帯はこれらに限られるものではない。
フィルタ110は、カラーフィルタであり、特定の波長帯の光を透過する。例えば、フィルタ110は、互いに重ならない複数の領域により全領域が構成される。第1の実施形態において、複数の領域は、第1のフィルタ領域111と、第2のフィルタ領域112とである。すなわち、フィルタ110は、第1のフィルタ領域111と、第2のフィルタ領域112とによって全領域が構成される。このような各フィルタ領域を含む開口部の全面は、共通する色を表す共通色を通過させる。但し、各フィルタ領域は、異なる光透過性を有する。また、光量をより多くするために、フィルタ110の面は、センサ120の撮像面と平行に設置されることが好ましい。
第1のフィルタ領域111は、センサ120で受光される光の色のうち、第1の組み合わせの複数色を透過する。第1の組み合わせは、任意の組み合わせである。例えば、第1のフィルタ領域111は、赤色の光と、緑色の光とを透過するフィルタ領域「イエロー(Y:Yellow)フィルタ」である。第2のフィルタ領域112は、センサ120で受光される光の色のうち、第1の組み合わせとは異なる第2の組み合わせの複数色を透過する。例えば、第2のフィルタ領域112は、緑色の光と、青色の光とを透過するフィルタ領域「シアン(C:Cyan)フィルタ」である。つまり、上記の例において、共通色は、緑色である。RGBセンサによっては、RGBそれぞれを均等に配置するのではなく、緑色の光を受光するセンサが赤色の光を受光するセンサや青色の光を受光するセンサよりも多く配置されたものも存在する。このようなRGBセンサの場合には、共通色を緑色とすることでRGBセンサが受光する光量を増やすことができる。
なお、第1のフィルタ領域111と、第2のフィルタ領域112との組み合わせは、上記だけではない。例えば、第1のフィルタ領域111が、赤色の光と、緑色の光とを透過するフィルタ領域「Yフィルタ」であり、第2のフィルタ領域112が、赤色の光と、青色の光とを透過するフィルタ領域「マゼンタ(M:Magenta)フィルタ」であっても良い。この例において、共通色は、赤色である。これらの他にも、第1のフィルタ領域111が、赤色の光と、青色の光とを透過するフィルタ領域「Mフィルタ」であり、第2のフィルタ領域112が、緑色の光と、青色の光とを透過するフィルタ領域「Cフィルタ」であっても良い。この例において、共通色は、青色である。本実施形態では、第1のフィルタ領域111を「Yフィルタ」とし、第2のフィルタ領域112を「Cフィルタ」とする場合を例に挙げて説明する。一般に、Y、C、Mの補色フィルタは、R、G、Bの原色フィルタと比較して、同一波長帯の透過率であっても、より多くの光を透過することが知られている。
図3は、第1の実施形態に係るフィルタ領域の例を説明する図である。図3に示すように、レンズ10のフィルタ110は、「Yフィルタ」である第1のフィルタ領域111(縦線で表わされた領域)と、「Cフィルタ」である第2のフィルタ領域112(横線で表わされた領域)とを有する。上述したように、フィルタ110は、互いに重ならない複数の領域により全領域が構成される。レンズ10の開口部において、第1のフィルタ領域111と、第2のフィルタ領域とは、レンズ10の光学中心を中心に、回転させたときに一致するように配置されていることが好ましい。なお、各フィルタ領域でレンズ10の開口部全面を構成しない場合、第1のフィルタ領域111と、第2のフィルタ領域112とは、上述した配置に加え、レンズ10の光学中心から均等に離れた位置に配置されていることが好ましい。
図2の説明に戻り、センサ120は、レンズ10の開口部を通過した光を受光するイメージセンサである。第1のセンサ121は、赤色の光を受光し、撮影画像(R画像)を生成する。第2のセンサ122は、緑色の光を受光し、撮影画像(G画像)を生成する。第3のセンサ123は、青色の光を受光し、撮影画像(B画像)を生成する。生成された撮影画像(R画像、G画像、B画像)は、画像処理部130に対して出力される。例えば、第1のフィルタ領域111が「Yフィルタ」、第2のフィルタ領域112が「Cフィルタ」の場合、第1のセンサ121では第1のフィルタ領域111を透過した光から赤色の光を受光し、第2のセンサ122では第1のフィルタ領域111及び第2のフィルタ領域112を透過した光から緑色の光を受光し、第3のセンサ123は第2のフィルタ領域112を透過した光から青色の光を受光する。
上記のように、第2のセンサ122は、第1のフィルタ領域111と第2のフィルタ領域112との双方で透過した緑色の光を受光する。すなわち、緑色の光は、フィルタ110全体では光吸収の影響が少ない。このため、撮影画像のうちG画像は、より明るく、ノイズの少ない画像と成り得る。また、複数のフィルタ領域で緑色の光が透過されるため、G画像は、フィルタ110を設置したことによる影響が少ない画像と言える。このため、生成されるG画像は、フィルタ110を設置しないときの理想的な画像(「リファレンス画像」と呼ぶ)に近い画像となる。なお、撮影画像のうちR画像とB画像とは、第1のフィルタ領域111と第2のフィルタ領域112とのうち、何れか一方のフィルタを透過した光が受光されることで生成された画像であるため、リファレンス画像やG画像等と比較して変化する。
図4は、第1の実施形態に係る撮影画像の変化の例を説明する図である。図4において、フィルタ領域の配置は、図3に例示したものと同一である。また、図4では、焦点距離よりも近い位置に被写体が存在する場合を上段に、焦点距離よりも遠い位置に被写体が存在する場合を中段に、焦点距離に被写体が存在する場合を下段に示す。
図4上段に示すように、R画像(右上がり斜線で表わされた円柱)は、焦点の合った物体よりも近くに位置する被写体の場合、リファレンス画像やG画像等と比較して第1の方向(例えば右側)にずれる(位相のずれが発生する)。また、図4中段に示すように、R画像は、焦点の合った物体よりも遠くに位置する被写体の場合、リファレンス画像やG画像等と比較して第1の方向とは反対の第2の方向(例えば左側)にずれる。一方、図4上段に示すように、B画像(右下がり斜線で表わされた円柱)は、焦点の合った物体よりも近くに位置する被写体の場合、リファレンス画像やG画像等と比較して第2の方向(例えば左側)にずれる。また、図4中段に示すように、B画像は、焦点の合った物体よりも遠くに位置する被写体の場合、リファレンス画像やG画像等と比較して第1の方向(例えば右側)にずれる。すなわち、撮影画像であるRGB画像に写るシーンでは、フォーカス距離に存在する被写体を基準に、その奥行きに合わせて画像の位置が左右にずれた画像が観測される。また、位相のずれは、焦点距離を境にして、近いものと遠いものとで反転する。位相がずれた領域は、ぼけた画像となる。このような撮影画像の特性を利用して、以下で説明するように、シーンの奥行きを算出していく。
画像処理部130は、撮影画像であるRGB画像から、被写体までの奥行き情報を算出し、算出した奥行き情報に応じた距離画像を生成する。距離画像は、二次元画像に空間の奥行き情報が付加された画像である。また、画像処理部130は、撮影画像であるR画像、G画像、B画像と、生成した距離画像とから、ユーザに提示するための表示画像を生成する。入力部131は、撮影画像を入力する。例えば、入力部131は、センサ120から撮影画像(R画像、G画像、B画像)を受け付けて、奥行き算出部132と、画像生成部133とに入力する。
奥行き算出部132は、撮影画像から、被写体までの奥行き情報を算出し、算出した奥行き情報に応じた距離画像を生成する。より具体的には、奥行き算出部132は、入力部131によって入力された撮影画像(R画像、G画像、B画像)のうち、G画像を基準として、各画像の色ずれ量を求め、各画素位置の物体の距離を算出することで距離画像を生成する。なお、基準とする画像は、共通色に対応する色の画像となる。上述したように、R画像、G画像及びB画像の各画素は、撮影された各物体の奥行きに合わせて画像の位置が第1の方向又は第2の方向(例えば左右)にずれている。また、G画像は、リファレンス画像と比較して色ずれの少ない画像である。これらから、奥行き算出部132は、G画像を基準として、各画像の色ずれ量を求める。
例えば、距離算出の対象となるG画像の画素をY(x,y)とし、Y(x,y)に対応するR画像の画素をY(x,y)、Y(x,y)に対応するB画像の画素をY(x,y)とする。また、奥行きに応じたずれ量をdとする。これらから、R画像の画素Y(x,y)は、Y(x−d,y)と表すことができる。同様に、B画像の画素Y(x,y)は、Y(x+d,y)と表すことができる。ずれ量dは、被写体が焦点距離に存在する場合に0となり、被写体が焦点距離と比較して遠くに存在する場合は正の値をとり、被写体が焦点距離と比較して近くに存在する場合は負の値をとる。また、ずれ量dの大きさ|d|は、被写体の距離と焦点距離との差の大きさに応じて単純増加する特性を有する。このため、ずれ量dから各画素に写る物体までの距離は、一意に算出することができる。例えば、被写体距離は、焦点距離、ずれ量、レンズの開口の大きさ、レンズのF値等から決定される。これらの情報は、予め測定しておけば良い。
ずれ量dを求めるためのマッチング方法は、既存の手法を用いれば良い。例えば、画像の輝度差分によるマッチング方法や、自然画像の色成分が局食的には線形な関係を持つ特性を有することを利用した、色分布によるマッチング方法等を用いれば良い。色分布によるマッチング方法は、画素(x,y)周辺の局所領域の画素値の色分布の線形特性により、ずれ量dを算出する方法である。画像にずれ量dが生じていると仮定し、Y(x,y)、Y(x−d,y)、Y(x+d,y)を中心とする局所境域で画像を仮想的に定義し、定義した画像の色分布の分散から指標Lを算出する(数1参照)。
L(x,y;d)=λλλ/σ σ σ ・・・(数1)
上記の(数1)におけるλ、λ、λは、画像の色分布の主成分軸に沿った分散(画像の供分散行列の固有値)である。また、σ 、σ 、σ は、色分布のR、G、B軸に沿った分散である。一般に、画像の色ずれが大きくなると、Lが大きくなることが知られている。そのため、L(x,y;d)が最小となるdを求めることで、座標(x,y)の奥行きを算出することができる。
画像生成部133は、撮影画像と距離画像とから、表示画像を生成する。例えば、表示画像は、距離画像を表示画像としても良いし、RGB画像を表示画像としても良い。また、表示画像は、RGB画像から距離に応じて画素のずれ量dに従い、R画像とB画像とのずれを修正した、色ずれの補正画像としても良い。また、表示画像は、色ずれの補正画像から、さらに、距離に応じて焦点ぼけを除去した画像としても良い。また、表示画像は、色ずれの補正画像から、さらに、距離に応じて焦点ぼけを付加した画像としても良い。なお、レンズ10にフォーカス機構が存在する場合には、奥行き情報をレンズ10のフォーカス機構に出力し、フォーカス速度の向上のために使用しても良い。
次に、図5を用いて、第1の実施形態に係る撮影装置100による処理の流れを説明する。図5は、第1の実施形態に係る撮影装置100による処理の流れの例を示すフローチャートである。
図5に示すように、第1のフィルタ領域111(Yフィルタ)は、赤色の光と、緑色の光とを透過する(ステップS101)。第2のフィルタ領域112(Cフィルタ)は、緑色の光と、青色の光とを透過する(ステップS102)。第1のセンサ121は、赤色の光を受光し、撮影画像の一つであるR画像を生成する(ステップS103)。第2のセンサ122は、緑色の光を受光し、撮影画像の一つであるG画像を生成する(ステップS104)。
第3のセンサ123は、青色の光を受光し、撮影画像の一つであるB画像を生成する(ステップS105)。第1のセンサ121によって生成されたR画像、第2のセンサ122によって生成されたG画像、第3のセンサ123によって生成されたB画像は、入力部131に対して出力され、入力部131は、R画像、G画像及びB画像を、奥行き算出部132と画像生成部133とに入力する。
奥行き算出部132は、入力部131によって入力されたR画像、G画像、B画像のうち、G画像を基準として、各画像の色ずれ量を求め、各画素位置の物体の距離を算出することにより、距離画像を生成する(ステップS106)。画像生成部133は、入力部131によって入力されたR画像、G画像、B画像と、奥行き算出部132によって生成された距離画像とから、ユーザに提示するための表示画像を生成する(ステップS107)。
本実施形態によれば、異なる光透過性を有し、共通色の光を透過する2種類のフィルタ領域を配置したレンズ10を介して被写体を撮影するので、明るくノイズの少ない画像を獲得でき、共通色に対応する画像を基準に距離画像を生成するので、距離情報を高精度に取得できる。
(第2の実施形態)
図6は、第2の実施形態に係る撮影装置の機能構成例を示すブロック図である。なお、第2の実施形態では、第1の実施形態と同様の構成については同一の符号を付し、その詳細な説明を省略する場合がある。第2の実施形態では、以下に示すフィルタ210(第3のフィルタ領域213)以外の機能及び構成、処理については第1の実施形態と同様である。
図6に示すように、撮影装置200は、開口部にフィルタ210を備えるレンズ10と、センサ120と、画像処理部130とを有する。これらのうち、フィルタ210は、第1のフィルタ領域111と、第2のフィルタ領域112と、第3のフィルタ領域213とを有する。センサ120は、第1のセンサ121と、第2のセンサ122と、第3のセンサ123とを有する。画像処理部130は、入力部131と、奥行き算出部132と、画像生成部133とを有する。なお、画像処理部130については、これらの一部又は全てがソフトウェア(プログラム)で実現されても良いし、ハードウェア回路で実現されても良い。
フィルタ210は、カラーフィルタであり、特定の波長帯の光を透過する。例えば、フィルタ210は、互いに重ならない複数の領域により全領域が構成される。第2の実施形態において、複数の領域は、第1のフィルタ領域111と、第2のフィルタ領域112と、第3のフィルタ領域213とである。すなわち、フィルタ210は、第1のフィルタ領域111と、第2のフィルタ領域112と、第3のフィルタ領域213とによって全領域が構成される。このような各フィルタ領域を含む開口部の全面は、共通する色を表す共通色を通過させる。但し、各フィルタ領域は、異なる光透過性を有する。また、光量をより多くするために、フィルタ210の面は、センサ120の撮像面と平行に設置されることが好ましい。なお、第2の実施形態では、第1の実施形態と同様に、第1のフィルタ領域111が「Yフィルタ」、第2のフィルタ領域112が「Cフィルタ」である場合を例に挙げる。つまり、共通色が緑色である場合を例に挙げる。
第3のフィルタ領域213は、センサ120で受光される光の色のうち、共通色を透過する。例えば、第3のフィルタ領域213は、第1のフィルタ領域111及び第2のフィルタ領域112によって透過される光の共通色である緑色の光を透過するフィルタ領域「Gフィルタ」である。換言すると、第3のフィルタ領域213は、共通色以外の光(例えば、共通色が緑色の場合、赤色の光と青色の光)を遮蔽する。なお、上記では、共通色を緑色として、第3のフィルタ領域213がGフィルタである場合を例に挙げているが、共通色が他の色(例えば、赤色又は青色)であれば、第3のフィルタ領域213は他の色に対応するフィルタとなる。
図7A及び図7Bは、第2の実施形態に係るフィルタ領域の例を説明する図である。図7A及び図7Bに示すように、レンズ10のフィルタ210は、「Yフィルタ」である第1のフィルタ領域111(縦線で表わされた領域)と、「Cフィルタ」である第2のフィルタ領域112(横線で表わされた領域)と、「Gフィルタ」である第3のフィルタ領域213(網掛けで表わされた領域)とを有する。上述したように、フィルタ210は、互いに重ならない複数の領域により全領域が構成される。また、第1のフィルタ領域111と、第2のフィルタ領域112とを、レンズ10の光学中心から各フィルタ領域の重心点を結ぶ直線の垂線であって、レンズ10の光学中心を通る垂線を軸に、対称形となるように配置することが好ましい。第1のフィルタ領域111や第2のフィルタ領域112の形状は、図7Aや図7Bに示す円形や楕円形でなくても良い。
各フィルタ領域の位置や形状、大きさについては任意のもので良いが、第1のフィルタ領域111と第2のフィルタ領域112の形状によって、センサ120によって生成されるR画像とB画像とのぼけ方を制御することができる。具体的には、各フィルタ領域の形状を変化させることで、センサ120でのぼけ関数である点広がり関数、又はPSF(Point Spread Function)を任意に制御できるため、センサ120によって生成されるR画像とB画像とのぼけ方を制御することができる。図7Aや図7Bでは、R画像とB画像とのぼけ関数を一致させた例を示している。画像のぼけ方が対称になるように制御すれば、表示画像を構成する際の不自然さを抑制することができる。また、R画像とB画像とのぼけ方が同一になるようにすることで、R画像とB画像との間のマッチングが容易になり、デプス推定精度を向上させることができる。なお、R画像及びB画像のずれ方については、第1の実施形態と同様である。
センサ120の処理は第1の実施形態と同様であるが、第2のセンサ122は、各フィルタ領域を透過した緑色の光を受光し、撮影画像(G画像)を生成する。すなわち、第2のセンサ122は、距離画像生成の基準となるG画像を、第1のフィルタ領域111、第2のフィルタ領域112及び第3のフィルタ領域213の3つのフィルタ領域によって透過された緑色の光を受光して生成するので、理想とするリファレンス画像により近いG画像を生成することができる。
次に、図8を用いて、第2の実施形態に係る撮影装置200による処理の流れを説明する。図8は、第2の実施形態に係る撮影装置200による処理の流れの例を示すフローチャートである。
図8に示すように、第1のフィルタ領域111(Yフィルタ)は、赤色の光と、緑色の光とを透過する(ステップS201)。第2のフィルタ領域112(Cフィルタ)は、緑色の光と、青色の光とを透過する(ステップS202)。第3のフィルタ領域213(Gフィルタ)は、緑色の光を透過する(ステップS203)。第1のセンサ121は、赤色の光を受光し、撮影画像の一つであるR画像を生成する(ステップS204)。第2のセンサ122は、緑色の光を受光し、撮影画像の一つであるG画像を生成する(ステップS205)。
第3のセンサ123は、青色の光を受光し、撮影画像の一つであるB画像を生成する(ステップS206)。第1のセンサ121によって生成されたR画像、第2のセンサ122によって生成されたG画像、第3のセンサ123によって生成されたB画像は、入力部131に対して出力され、入力部131は、R画像、G画像及びB画像を、奥行き算出部132と画像生成部133とに入力する。
奥行き算出部132は、入力部131によって入力されたR画像、G画像、B画像のうち、G画像を基準として、各画像の色ずれ量を求め、各画素位置の物体の距離を算出することにより、距離画像を生成する(ステップS207)。画像生成部133は、入力部131によって入力されたR画像、G画像、B画像と、奥行き算出部132によって生成された距離画像とから、ユーザに提示するための表示画像を生成する(ステップS208)。
本実施形態によれば、異なる光透過性を有し、共通色の光を透過する2種類のフィルタ領域に加えて、獲得する画像のぼけ関数を制御可能な共通色の光を透過する1種類のフィルタ領域を配置したレンズ10を介して被写体を撮影するので、距離情報を高精度に求めることができるとともに、ユーザに提示するための表示画像の不自然さを抑制することができる。
(第3の実施形態)
図9は、第3の実施形態に係る撮影装置の機能構成例を示すブロック図である。なお、第3の実施形態では、第1の実施形態と同様の構成については同一の符号を付し、その詳細な説明を省略する場合がある。第3の実施形態では、以下に示すフィルタ310(第4のフィルタ領域314)以外の機能及び構成、処理については第1の実施形態と同様である。
図9に示すように、撮影装置300は、開口部にフィルタ310を備えるレンズ10と、センサ120と、画像処理部130とを有する。これらのうち、フィルタ310は、第1のフィルタ領域111と、第2のフィルタ領域112と、第4のフィルタ領域314とを有する。センサ120は、第1のセンサ121と、第2のセンサ122と、第3のセンサ123とを有する。画像処理部130は、入力部131と、奥行き算出部132と、画像生成部133とを有する。なお、画像処理部130については、これらの一部又は全てがソフトウェア(プログラム)で実現されても良いし、ハードウェア回路で実現されても良い。
フィルタ310は、カラーフィルタであり、特定の波長帯の光を透過する。例えば、フィルタ310は、互いに重ならない複数の領域により全領域が構成される。第3の実施形態において、複数の領域は、第1のフィルタ領域111と、第2のフィルタ領域112と、第4のフィルタ領域314とである。すなわち、フィルタ310は、第1のフィルタ領域111と、第2のフィルタ領域112と、第4のフィルタ領域314とによって全領域が構成される。このような各フィルタ領域を含む開口部の全面は、共通する色を表す共通色を通過させる。但し、各フィルタ領域は、異なる光透過性を有する。また、光量をより多くするために、フィルタ310の面は、センサ120の撮像面と平行に設置されることが好ましい。なお、第3の実施形態では、第1の実施形態と同様に、第1のフィルタ領域111が「Yフィルタ」、第2のフィルタ領域112が「Cフィルタ」である場合を例に挙げる。つまり、共通色は緑色である場合を例に挙げる。
第4のフィルタ領域314は、センサ120で受光される光の色の全色を透過する。例えば、第4のフィルタ領域314は、フィルタ310に入射される光の全色を透過するフィルタ領域「透明フィルタ」である。透明フィルタである第4のフィルタ領域314は、第1のフィルタ領域111及び第2のフィルタ領域112によって透過される光の共通色である緑色の光も透過する。また、第4のフィルタ領域314を透過した光は、センサ120が有する全てのイメージセンサによって受光される。なお、第4のフィルタ領域314の位置に、フィルタを設けない構成としても良い。
具体的には、第1のセンサ121は、第1のフィルタ領域111及び第4のフィルタ領域314を透過した光のうち、赤色の光を受光し、撮影画像(R画像)を生成する。第2のセンサ122は、第1のフィルタ領域111、第2のフィルタ領域112及び第4のフィルタ領域314を透過した光のうち、緑色の光を受光し、撮影画像(G画像)を生成する。第3のセンサ123は、第2のフィルタ領域112及び第4のフィルタ領域314を透過した光のうち、青色の光を受光し、撮影画像(B画像)を生成する。すなわち、R画像、G画像、B画像それぞれを生成する各イメージセンサは、透明フィルタである第4のフィルタ領域314を透過した光を受光するため、より多くの光量を受光することができる。この結果、撮影装置300は、より明るく、ノイズのより少ない表示画像を生成することが可能となる。
図10A、図10B、図10C及び図10Dは、第3の実施形態に係るフィルタ領域の例を説明する図である。図10A〜図10Dに示すように、レンズ10のフィルタ310は、「Yフィルタ」である第1のフィルタ領域111(縦線で表わされた領域)と、「Cフィルタ」である第2のフィルタ領域112(横線で表わされた領域)と、「透明フィルタ」である第4のフィルタ領域314(白色で表わされた領域)とを有する。上述したように、フィルタ310は、互いに重ならない複数の領域により全領域が構成される。また、各フィルタ領域の位置や形状、大きさについては任意のもので良いが、例えば、第4のフィルタ領域314は、各フィルタ領域の重心点を結ぶ直線を、垂直に2等分する直線を軸に、対称形になるように配置されることが好ましい。第4のフィルタ領域314は、図10Aや図10Bに示す楕円形ではなく、図10Cに示す形であっても良い。また、第4のフィルタ領域314は、図10Dに示すように、さらに複数の領域に分かれていても良い。なお、R画像及びB画像のずれ方については、第1の実施形態と同様である。
次に、図11を用いて、第3の実施形態に係る撮影装置300による処理の流れを説明する。図11は、第3の実施形態に係る撮影装置300による処理の流れの例を示すフローチャートである。
図11に示すように、第1のフィルタ領域111(Yフィルタ)は、赤色の光と、緑色の光とを透過する(ステップS301)。第2のフィルタ領域112(Cフィルタ)は、緑色の光と、青色の光とを透過する(ステップS302)。第4のフィルタ領域314(透明フィルタ)は、全色の光を透過する(ステップS303)。第1のセンサ121は、赤色の光を受光し、撮影画像の一つであるR画像を生成する(ステップS304)。第2のセンサ122は、緑色の光を受光し、撮影画像の一つであるG画像を生成する(ステップS305)。
第3のセンサ123は、青色の光を受光し、撮影画像の一つであるB画像を生成する(ステップS306)。第1のセンサ121によって生成されたR画像、第2のセンサ122によって生成されたG画像、第3のセンサ123によって生成されたB画像は、入力部131に対して出力され、入力部131は、R画像、G画像及びB画像を、奥行き算出部132と画像生成部133とに入力する。
奥行き算出部132は、入力部131によって入力されたR画像、G画像、B画像のうち、G画像を基準として、各画像の色ずれ量を求め、各画素位置の物体の距離を算出することにより、距離画像を生成する(ステップS307)。画像生成部133は、入力部131によって入力されたR画像、G画像、B画像と、奥行き算出部132によって生成された距離画像とから、ユーザに提示するための表示画像を生成する(ステップS308)。
本実施形態によれば、異なる光透過性を有し、共通色の光を透過する2種類のフィルタ領域に加えて、全色の光を透過する1種類のフィルタ領域を配置したレンズ10を介して被写体を撮影するので、より明るくよりノイズの少ない画像を獲得できるとともに、距離情報を高精度に取得できる。
(第4の実施形態)
さて、これまで本発明に係るレンズ及び撮影装置の実施形態について説明したが、上述した実施形態以外にも種々の異なる形態にて実施されて良いものである。そこで、(1)フィルタ領域の数や種類、(2)構成、(3)プログラム、について異なる実施形態を説明する。
(1)フィルタ領域の数や種類
第1の実施形態では、共通色の光を透過し、異なる光透過性を有する2種類のフィルタ領域(第1のフィルタ領域111、第2のフィルタ領域112)によって構成されたフィルタ110を有するレンズ10を説明した。第2の実施形態では、共通色の光を透過し、異なる光透過性を有する2種類のフィルタ領域(第1のフィルタ領域111、第2のフィルタ領域112)と、共通色の光を透過する1種類のフィルタ領域(第3のフィルタ領域213)とによって構成されたフィルタ210を有するレンズ10を説明した。第3の実施形態では、共通色の光を透過し、異なる光透過性を有する2種類のフィルタ領域(第1のフィルタ領域111、第2のフィルタ領域112)と、全色の光を透過する1種類のフィルタ領域(第4のフィルタ領域314)とによって構成されたフィルタ310を有するレンズ10を説明した。本実施形態において、フィルタ領域の数や種類は、上述してきた例に限られるものではない。
具体的には、フィルタには、第1のフィルタ領域111と、第2のフィルタ領域112とに加えて、任意数・種類のフィルタ領域が配置されても良い。例えば、フィルタには、第1のフィルタ領域111と、第2のフィルタ領域112とに加えて、Rフィルタ、Gフィルタ、Bフィルタ、Yフィルタ、Cフィルタ、Mフィルタ及び透明フィルタのうち、任意数・種類のフィルタが新たなフィルタ領域として使用されても良い。このとき、上記実施形態と同様に、各フィルタ領域は、共通色の光を透過するものとする。
また、上記実施形態では、レンズ10の開口部の全面に、複数のフィルタ領域を配置する場合を例に挙げたが、レンズ10の開口部の全面にフィルタ領域を配置しなくても良い。例えば、レンズ10の開口部は、フィルタ領域と、フィルタを設けない領域とにより全面が構成されても良い。このとき、レンズ10の開口部の全面は、共通色を通過させることに変わりはない。
(2)構成
また、上記文書中や図面中等で示した処理手順、制御手順、具体的名称、各種のデータやパラメータ等を含む情報は、特記する場合を除いて任意に変更することができる。また、図示した装置の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、装置の分散又は統合の具体的形態は、図示のものに限られず、その全部又は一部を各種の負担や使用状況等に応じて、任意の単位で機能的又は物理的に、分散又は統合することができる。
(3)プログラム
また、上記実施形態に係る画像処理部130は、例えば、汎用のコンピュータ装置を基本ハードウェアとして用いることで実現することが可能である。実行されるプログラムは、上述してきた各機能を含むモジュール構成となっている。また、実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、DVD等のコンピュータで読み取り可能な記録媒体に記録されて提供しても、ROM等に予め組み込んで提供しても良い。
また、上述してきた実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。また、各実施形態は、内容を矛盾させない範囲で適宜組み合わせることが可能である。また、各実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10 レンズ
100 撮影装置
110 フィルタ
111 第1のフィルタ領域
112 第2のフィルタ領域
120 センサ
121 第1のセンサ
122 第2のセンサ
123 第3のセンサ
130 画像処理部
131 入力部
132 奥行き算出部
133 画像生成部

Claims (9)

  1. 開口部にフィルタを備えたレンズであって、
    前記フィルタは、
    イメージセンサで受光される光の色のうち、第1の組み合わせの複数色を透過する第1のフィルタ領域と、
    前記イメージセンサで受光される光の色のうち、前記第1の組み合わせとは異なる第2の組み合わせの複数色を透過する第2のフィルタ領域と、を有し、
    前記第1のフィルタ領域及び前記第2のフィルタ領域を含む前記開口部の全面は、共通する色を表す共通色を通過させる
    レンズ。
  2. 前記フィルタは、前記イメージセンサで受光される光の色のうち、前記共通色を透過する第3のフィルタ領域をさらに有し、
    前記第3のフィルタ領域をさらに含む前記開口部の全面は、前記共通色を通過させる請求項1に記載のレンズ。
  3. 前記フィルタは、前記イメージセンサで受光される光の色のうち、全色を透過する第4のフィルタ領域をさらに有し、
    前記第4のフィルタ領域をさらに含む前記開口部の全面は、前記共通色を通過させる請求項1又は2に記載のレンズ。
  4. 前記イメージセンサは、赤色、緑色及び青色の光を受光し、
    前記第1のフィルタ領域は、赤色、緑色及び青色のうち、2種類の色を透過し、
    前記第2のフィルタ領域は、赤色、緑色及び青色のうち、前記第1のフィルタ領域によって透過される組み合わせとは異なる2種類の色を透過する請求項1〜3の何れか一つに記載のレンズ。
  5. 前記第1のフィルタ領域と、前記第2のフィルタ領域との組み合わせは、赤色及び緑色の光を透過するイエローフィルタと、緑色及び青色の光を透過するシアンフィルタとの組み合わせ、シアンフィルタと、赤色及び青色の光を透過するマゼンタフィルタとの組み合わせ、又は、マゼンタフィルタと、イエローフィルタとの組み合わせである請求項4に記載のレンズ。
  6. 前記第3のフィルタ領域は、赤色の光を透過するレッドフィルタ、緑色の光を透過するグリーンフィルタ、及び、青色の光を透過するブルーフィルタの何れかである請求項2に記載のレンズ。
  7. 赤色の光を透過するレッドフィルタ、緑色の光を透過するグリーンフィルタ、青色の光を透過するブルーフィルタ、赤色及び緑色の光を透過するイエローフィルタ、緑色及び青色の光を透過するシアンフィルタ、赤色及び青色の光を透過するマゼンタフィルタ、及び、全色の光を透過する透明フィルタのうち、任意数のフィルタを新たなフィルタ領域として有し、
    前記新たなフィルタ領域をさらに含む前記開口部の全面は、前記共通色を通過させる請求項1に記載のレンズ。
  8. 前記フィルタは、互いに重ならない複数のフィルタ領域により全領域が構成される請求項1〜7の何れか一つに記載のレンズ。
  9. 請求項1〜8の何れか一つに記載のレンズと、
    前記レンズの開口部を通過した光を受光するイメージセンサと、
    前記イメージセンサで得られた撮像画像から、被写体までの奥行き情報を算出し、算出した奥行き情報に応じた距離画像を生成する奥行き算出部と、
    前記撮影画像と、前記距離画像とから、表示画像を生成する画像生成部と
    を有する撮影装置。
JP2014241744A 2014-11-28 2014-11-28 レンズ及び撮影装置 Pending JP2016102733A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014241744A JP2016102733A (ja) 2014-11-28 2014-11-28 レンズ及び撮影装置
US14/950,591 US10145994B2 (en) 2014-11-28 2015-11-24 Lens device and image capturing device for acquiring distance information at high accuracy
US16/179,904 US20190072697A1 (en) 2014-11-28 2018-11-03 Lens device and image capturing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014241744A JP2016102733A (ja) 2014-11-28 2014-11-28 レンズ及び撮影装置

Publications (1)

Publication Number Publication Date
JP2016102733A true JP2016102733A (ja) 2016-06-02

Family

ID=56079077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014241744A Pending JP2016102733A (ja) 2014-11-28 2014-11-28 レンズ及び撮影装置

Country Status (2)

Country Link
US (2) US10145994B2 (ja)
JP (1) JP2016102733A (ja)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017220780A (ja) * 2016-06-07 2017-12-14 株式会社東芝 撮影装置および車両
JP2018078517A (ja) * 2016-11-11 2018-05-17 株式会社東芝 処理装置、撮像装置、及び自動制御システム
JP2018078514A (ja) * 2016-11-11 2018-05-17 株式会社東芝 撮像装置及び自動制御システム
JP2018084802A (ja) * 2016-11-11 2018-05-31 株式会社東芝 撮像装置、撮像システム及び距離情報取得方法
JP2018141681A (ja) * 2017-02-27 2018-09-13 アイホン株式会社 距離測定装置
JP2019009919A (ja) * 2017-06-26 2019-01-17 株式会社東芝 巡視点検支援システム及び巡視点検支援制御プログラム
US10382684B2 (en) 2015-08-20 2019-08-13 Kabushiki Kaisha Toshiba Image processing apparatus and image capturing apparatus
JP2020026990A (ja) * 2018-08-10 2020-02-20 株式会社東芝 画像処理装置
US10571246B2 (en) 2017-07-05 2020-02-25 Kabushiki Kaisha Toshiba Imaging processing apparatus, distance measuring apparatus and processing system
JP2020048034A (ja) * 2018-09-18 2020-03-26 株式会社東芝 電子機器及び通知方法
US10785412B2 (en) 2015-08-20 2020-09-22 Kabushiki Kaisha Toshiba Image processing apparatus and image capturing apparatus
US10841493B2 (en) 2018-09-13 2020-11-17 Kabushiki Kaisha Toshiba Optical filter, imaging device, and ranging device
US11019322B2 (en) 2017-06-29 2021-05-25 Kabushiki Kaisha Toshiba Estimation system and automobile
JP2022031300A (ja) * 2018-09-18 2022-02-18 株式会社東芝 電子機器及び通知方法
US11379692B2 (en) 2019-06-17 2022-07-05 Kabushiki Kaisha Toshiba Learning method, storage medium and image processing device
DE112020005346T5 (de) 2019-10-30 2022-08-11 Fujifilm Corporation Optisches element, optische vorrichtung und bildgebungsvorrichtung
US11587261B2 (en) 2017-09-08 2023-02-21 Kabushiki Kaisha Toshiba Image processing apparatus and ranging apparatus
JP7446985B2 (ja) 2020-12-15 2024-03-11 株式会社東芝 学習方法、プログラム及び画像処理装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108076266A (zh) * 2016-11-11 2018-05-25 株式会社东芝 处理装置以及摄像装置
US20180270413A1 (en) * 2017-03-15 2018-09-20 Kabushiki Kaisha Toshiba Processing apparatus and processing system
WO2019215211A1 (en) 2018-05-09 2019-11-14 Trinamix Gmbh Detector for optically detecting at least one object

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100066854A1 (en) * 2008-09-12 2010-03-18 Sharp Kabushiki Kaisha Camera and imaging system
JP2013017138A (ja) * 2011-07-06 2013-01-24 Olympus Corp 撮像装置、画像処理装置
JP2013097154A (ja) * 2011-10-31 2013-05-20 Olympus Corp 距離測定装置、撮像装置、距離測定方法

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4437112A (en) * 1980-02-15 1984-03-13 Canon Kabushiki Kaisha Solid-state color imaging apparatus
DE3312962A1 (de) * 1982-04-12 1983-10-13 Canon K.K., Tokyo Bildaufnahmevorrichtung
US4951130A (en) * 1987-04-30 1990-08-21 Kabushiki Kaisha Toshiba Color filter structure of color image sensor
JP3212335B2 (ja) 1991-12-25 2001-09-25 セコム株式会社 受動形測距装置
KR0168451B1 (ko) * 1994-03-31 1999-01-15 다까노 야스아끼 컬러 고체 촬상 소자
US6657663B2 (en) * 1998-05-06 2003-12-02 Intel Corporation Pre-subtracting architecture for enabling multiple spectrum image sensing
US6807295B1 (en) 1999-06-29 2004-10-19 Fuji Photo Film Co., Ltd. Stereoscopic imaging apparatus and method
JP3863319B2 (ja) 1999-06-29 2006-12-27 富士フイルムホールディングス株式会社 視差画像撮像装置及びカメラ
JP2008288629A (ja) * 2007-05-15 2008-11-27 Sony Corp 画像信号処理装置、撮像素子、および画像信号処理方法、並びにコンピュータ・プログラム
US7675024B2 (en) * 2008-04-23 2010-03-09 Aptina Imaging Corporation Method and apparatus providing color filter array with non-uniform color filter sizes
JP2009276294A (ja) * 2008-05-16 2009-11-26 Toshiba Corp 画像処理方法
JP5325117B2 (ja) * 2008-06-18 2013-10-23 パナソニック株式会社 固体撮像装置
JP5237998B2 (ja) * 2010-07-12 2013-07-17 パナソニック株式会社 固体撮像素子、撮像装置および信号処理方法
WO2012098599A1 (ja) 2011-01-17 2012-07-26 パナソニック株式会社 撮像装置
WO2012137485A1 (ja) * 2011-04-07 2012-10-11 パナソニック株式会社 3次元撮像装置、画像処理装置、画像処理方法および画像処理プログラム
JP2013003159A (ja) 2011-06-10 2013-01-07 Olympus Corp 撮像装置
JP2013037294A (ja) 2011-08-10 2013-02-21 Olympus Corp 撮像装置
JP5923754B2 (ja) * 2011-08-11 2016-05-25 パナソニックIpマネジメント株式会社 3次元撮像装置
JP2013044806A (ja) 2011-08-22 2013-03-04 Olympus Corp 撮像装置
JP2013057761A (ja) 2011-09-07 2013-03-28 Olympus Corp 距離測定装置、撮像装置、距離測定方法
JP6197291B2 (ja) * 2012-03-21 2017-09-20 株式会社リコー 複眼カメラ装置、及びそれを備えた車両
JP2013246052A (ja) 2012-05-25 2013-12-09 Olympus Corp 距離測定装置
JP2014026050A (ja) 2012-07-25 2014-02-06 Olympus Corp 撮像装置、画像処理装置
JP2014026051A (ja) 2012-07-25 2014-02-06 Olympus Corp 撮像装置、画像処理装置
JP2014038151A (ja) 2012-08-13 2014-02-27 Olympus Corp 撮像装置及び位相差検出方法
WO2016003253A1 (en) 2014-07-04 2016-01-07 Samsung Electronics Co., Ltd. Method and apparatus for image capturing and simultaneous depth extraction

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100066854A1 (en) * 2008-09-12 2010-03-18 Sharp Kabushiki Kaisha Camera and imaging system
JP2010079298A (ja) * 2008-09-12 2010-04-08 Sharp Corp カメラ及び撮像システム
JP2013017138A (ja) * 2011-07-06 2013-01-24 Olympus Corp 撮像装置、画像処理装置
JP2013097154A (ja) * 2011-10-31 2013-05-20 Olympus Corp 距離測定装置、撮像装置、距離測定方法

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10785412B2 (en) 2015-08-20 2020-09-22 Kabushiki Kaisha Toshiba Image processing apparatus and image capturing apparatus
US10382684B2 (en) 2015-08-20 2019-08-13 Kabushiki Kaisha Toshiba Image processing apparatus and image capturing apparatus
JP2017220780A (ja) * 2016-06-07 2017-12-14 株式会社東芝 撮影装置および車両
US10412370B2 (en) 2016-06-07 2019-09-10 Kabushiki Kaisha Toshiba Photographing device and vehicle
JP2018078517A (ja) * 2016-11-11 2018-05-17 株式会社東芝 処理装置、撮像装置、及び自動制御システム
JP2018078514A (ja) * 2016-11-11 2018-05-17 株式会社東芝 撮像装置及び自動制御システム
JP2018084802A (ja) * 2016-11-11 2018-05-31 株式会社東芝 撮像装置、撮像システム及び距離情報取得方法
US10914960B2 (en) 2016-11-11 2021-02-09 Kabushiki Kaisha Toshiba Imaging apparatus and automatic control system
JP2018141681A (ja) * 2017-02-27 2018-09-13 アイホン株式会社 距離測定装置
JP7030431B2 (ja) 2017-06-26 2022-03-07 株式会社東芝 点検支援システム及び点検支援制御プログラム
JP2019009919A (ja) * 2017-06-26 2019-01-17 株式会社東芝 巡視点検支援システム及び巡視点検支援制御プログラム
US11019322B2 (en) 2017-06-29 2021-05-25 Kabushiki Kaisha Toshiba Estimation system and automobile
US10571246B2 (en) 2017-07-05 2020-02-25 Kabushiki Kaisha Toshiba Imaging processing apparatus, distance measuring apparatus and processing system
US11587261B2 (en) 2017-09-08 2023-02-21 Kabushiki Kaisha Toshiba Image processing apparatus and ranging apparatus
JP2020026990A (ja) * 2018-08-10 2020-02-20 株式会社東芝 画像処理装置
US11100662B2 (en) 2018-08-10 2021-08-24 Kabushiki Kaisha Toshiba Image processing apparatus, ranging apparatus and processing apparatus
US10841493B2 (en) 2018-09-13 2020-11-17 Kabushiki Kaisha Toshiba Optical filter, imaging device, and ranging device
US11418707B2 (en) 2018-09-18 2022-08-16 Kabushiki Kaisha Toshiba Electronic device and notification method
JP2022031300A (ja) * 2018-09-18 2022-02-18 株式会社東芝 電子機器及び通知方法
JP7021036B2 (ja) 2018-09-18 2022-02-16 株式会社東芝 電子機器及び通知方法
JP2020048034A (ja) * 2018-09-18 2020-03-26 株式会社東芝 電子機器及び通知方法
JP7263493B2 (ja) 2018-09-18 2023-04-24 株式会社東芝 電子機器及び通知方法
US11379692B2 (en) 2019-06-17 2022-07-05 Kabushiki Kaisha Toshiba Learning method, storage medium and image processing device
DE112020005346T5 (de) 2019-10-30 2022-08-11 Fujifilm Corporation Optisches element, optische vorrichtung und bildgebungsvorrichtung
US11796722B2 (en) 2019-10-30 2023-10-24 Fujifilm Corporation Optical element, optical device, and imaging apparatus for acquiring multispectral images
JP7446985B2 (ja) 2020-12-15 2024-03-11 株式会社東芝 学習方法、プログラム及び画像処理装置

Also Published As

Publication number Publication date
US20160154152A1 (en) 2016-06-02
US20190072697A1 (en) 2019-03-07
US10145994B2 (en) 2018-12-04

Similar Documents

Publication Publication Date Title
JP2016102733A (ja) レンズ及び撮影装置
JP5701785B2 (ja) カメラモジュール
JP6173156B2 (ja) 画像処理装置、撮像装置及び画像処理方法
JP6548367B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
CN106296625B (zh) 图像处理装置及图像处理方法、摄像装置及摄像方法
US8988546B2 (en) Image processing device, image processing method, image capturing device, and program
JP2015231220A (ja) 画像処理装置、撮像装置、画像処理方法、撮像方法及びプログラム
JP6137316B2 (ja) 深さ位置検出装置、撮像素子、及び深さ位置検出方法
JP7104294B2 (ja) 測距カメラ
CN103460703B (zh) 彩色摄像元件及摄像装置
JP2016061609A (ja) 距離計測装置、撮像装置、および距離計測方法
JP2011215707A (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2013061850A (ja) ノイズ低減のための画像処理装置及び画像処理方法
CN110998228A (zh) 测距照相机
JP2013044806A (ja) 撮像装置
JPWO2014192300A1 (ja) 撮像素子、撮像装置、および画像処理装置
US9538074B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP2013017138A (ja) 撮像装置、画像処理装置
JP2017060010A5 (ja)
JP6748847B2 (ja) 撮像装置
CN103460702B (zh) 彩色摄像元件及摄像装置
JP2009047734A (ja) 撮像装置及び画像処理プログラム
JP5753395B2 (ja) 撮像装置
JP6682184B2 (ja) 画像処理方法、画像処理プログラム、画像処理装置および撮像装置
JP2009047735A (ja) 撮像装置及び画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190130

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190604