JP2017220780A - 撮影装置および車両 - Google Patents

撮影装置および車両 Download PDF

Info

Publication number
JP2017220780A
JP2017220780A JP2016113465A JP2016113465A JP2017220780A JP 2017220780 A JP2017220780 A JP 2017220780A JP 2016113465 A JP2016113465 A JP 2016113465A JP 2016113465 A JP2016113465 A JP 2016113465A JP 2017220780 A JP2017220780 A JP 2017220780A
Authority
JP
Japan
Prior art keywords
image
distance
sensor
filter
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016113465A
Other languages
English (en)
Other versions
JP6585006B2 (ja
Inventor
貴之 佐々木
Takayuki Sasaki
貴之 佐々木
優介 森内
Yusuke Moriuchi
優介 森内
三島 直
Sunao Mishima
直 三島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2016113465A priority Critical patent/JP6585006B2/ja
Priority to CN201710096168.0A priority patent/CN107483774B/zh
Priority to US15/443,318 priority patent/US10412370B2/en
Publication of JP2017220780A publication Critical patent/JP2017220780A/ja
Application granted granted Critical
Publication of JP6585006B2 publication Critical patent/JP6585006B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/10Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument
    • G01C3/18Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument with one observation point at each end of the base
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/201Filters in the form of arrays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/107Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using stereoscopic cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0077Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Measurement Of Optical Distance (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Studio Devices (AREA)

Abstract

【課題】より高精度に距離情報を取得する。【解決手段】撮影装置は、第1のイメージセンサと、第2のイメージセンサと、第1のフィルタ領域と、第1の距離算出部と、第2の距離算出部と、を備える。第1のイメージセンサは、第1の波長帯域の光を受光し対象画像を出力する第1のセンサと、第2の波長帯域の光を受光し基準画像を出力する第2のセンサとを有する。第1のフィルタ領域は、第1の波長帯域の少なくとも一部を含む第3の波長帯域の第1の光を透過する。第2のイメージセンサは、第1の画像を出力する。第1の距離算出部は、対象画像と基準画像とに基づいて、対象画像と基準画像とに含まれる被写体までの第1の距離を算出する。第2の距離算出部は、基準画像と第1の画像とに基づいて、基準画像と第1の画像に含まれる被写体までの第2の距離を算出する。【選択図】図5

Description

本発明の実施形態は、撮影装置および車両に関する。
異なる位置で撮影された2枚の画像から距離情報を取得する技術が知られている。この技術では、例えば、異なる位置に配置された2台のカメラを用いて、被写体を撮影した画像が撮影される。また、2枚の画像から同じ特徴をもつ画素の対応関係が求められ、視差量とカメラの位置関係から三角測量の原理により被写体までの距離が求められる。すべての特徴に対して距離を計算することで、2枚の画像から距離情報を取得することができる。
特開2010−220177号公報
武田 祐一他著 「符号化開口を用いたDepth from Defocusとステレオ法の融合」、電子情報通信学会論文誌D、Vol.J96-D、No.8、pp.1688-1700 (2013年8月)
しかしながら、従来技術では、高精度に距離情報を取得できない場合があった。例えば、エピポーラ平面と平行な直線上に同様の特徴が複数分布している場合、特徴の違いがなく、対応関係が不定となり、距離取得が困難となる。
実施形態の撮影装置は、第1のイメージセンサと、第2のイメージセンサと、第1のフィルタ領域と、第1の距離算出部と、第2の距離算出部と、を備える。第1のイメージセンサは、第1の波長帯域の光を受光し対象画像を出力する第1のセンサと、第2の波長帯域の光を受光し基準画像を出力する第2のセンサとを有する。第1のフィルタ領域は、第1の波長帯域の少なくとも一部を含む第3の波長帯域の第1の光を透過する。第2のイメージセンサは、第1の画像を出力する。第1の距離算出部は、対象画像と基準画像とに基づいて、対象画像と基準画像とに含まれる被写体までの第1の距離を算出する。第2の距離算出部は、基準画像と第1の画像とに基づいて、基準画像と第1の画像に含まれる被写体までの第2の距離を算出する。
第1の実施形態に係る撮影装置のハードウェア構成図。 三角測量により距離を取得する方法を説明する図。 エピポーラ幾何を用いた探索法を説明する図。 ステレオ視の問題点を説明する図。 第1の実施形態に係る撮影装置の機能ブロック図。 第1の実施形態における画像処理のフローチャート。 第1の実施形態における第1センサ画像取得処理のフローチャート。 第1の実施形態における第1距離画像生成処理のフローチャート。 第1の実施形態に係るフィルタ領域の構成例を示す図。 第1の実施形態に係るフィルタ領域の透過率特性の例を示す図。 第1の実施形態に係る被写体までの距離とぼけ関数の形状との関係を説明する図。 第1の実施形態に係る基準画像のぼけ関数の例を示す図。 第1の実施形態に係る対象画像のぼけ関数の例を示す図。 第1の実施形態に係るぼけ補正カーネルの例を示す図。 第3のフィルタ領域を含むフィルタの構成例を示す図。 第3のフィルタ領域を含むフィルタの構成例を示す図。 第3のフィルタ領域を含むフィルタの構成例を示す図。 第3のフィルタ領域を含むフィルタの構成例を示す図。 第3のフィルタ領域を含むフィルタの構成例を示す図。 第3のフィルタ領域を含むフィルタの構成例を示す図。 第2の実施形態に係る撮影装置の機能ブロック図。 第2の実施形態に係るフィルタ領域の構成例を示す図。 エピポーラ線の方向が変化する様子を示す図。 第3の実施形態に係る撮影装置の機能ブロック図。 第3の実施形態における補正情報の算出処理のフローチャート。 第3の実施形態における画像処理のフローチャート。 自動車に撮影装置を搭載した例を示す図。
以下に添付図面を参照して、この発明にかかる撮影装置の好適な実施形態を詳細に説明する。
(第1の実施形態)
第1の実施形態にかかる撮影装置は、2つのイメージセンサを用いたステレオ視による距離算出に加え、DFD(Depth from Defocus)により、1つのイメージセンサから距離を算出する。本実施形態のDFDでは、異なる波長帯域の光を受光する2以上のセンサにより生成される複数のセンサ画像のぼけ形状の相違に基づき、距離が算出される。異なる波長帯域の光を透過する複数のフィルタが並ぶ方向は、ステレオ視の基線の方向と異なる方向(例えば直交する方向)とする。これにより、より高精度に距離を算出可能となる。
図1は、第1の実施形態に係る撮影装置100のハードウェア構成例を示すブロック図である。図1に示すように、撮影装置100は、レンズ10aと、レンズ10bと、イメージセンサ20a(第1のイメージセンサ)と、イメージセンサ20b(第2のイメージセンサ)と、CPU(Central Processing Unit)30と、HDD(Hard Disk Drive)40と、ディスプレイ50と、メモリカードスロット60と、を有する。
イメージセンサ20a、イメージセンサ20b、CPU30、HDD40、ディスプレイ50、および、メモリカードスロット60は、例えばバスにより接続される。撮影装置100は、撮影対象となる任意の被写体を含む画像を撮影し、被写体までの距離を含む距離情報を生成する。
レンズ10aは、撮影によって被写体で反射した光を入射し、入射した光を透過するフィルタ(カラーフィルタ)を備える。例えば、レンズ10aは、入射した光の集光の際に、フィルタの色に応じて、特定の波長帯域の光を透過する。フィルタを通過した光は、イメージセンサ20aに到達する。これにより、イメージセンサ20aで撮影される複数種類のセンサ画像のぼけ関数(PSF:Point Spread Function)の形状がフィルタにより変更される。
イメージセンサ20aは、レンズ10aを通過した光を受光する。例えば、イメージセンサ20aは、互いに異なる波長帯域(第1の波長帯域、第2の波長帯域)の光を受光する2以上のセンサを有し、フィルタを光が通過することにより、ぼけ関数が非点対称に変更された対象画像と、少なくとも一種類以上のセンサ画像である基準画像とを生成する。第1の波長帯域は、第2の波長帯域の一部を含んでもよい。2以上のセンサとは、例えばRGBセンサのうち、RとG、GとB、RとB、RとGとB等の2以上の組み合わせを指す。例えば、2以上のセンサのうち、いずれかのセンサ(センサ121、第1のセンサ)が対象画像を生成し、他のセンサ(センサ122、第2のセンサ)が基準画像を生成する。イメージセンサ20aの受光面には、各センサの画素が均一に設けられている。
イメージセンサ20aは、例えば、CCD(Charge Coupled Device)イメージセンサ、および、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等である。1つの様態として、イメージセンサ20aは、赤色の光を受光するセンサ(Rセンサ)と、緑色の光を受光するセンサ(Gセンサ)と、青色の光を受光するセンサ(Bセンサ)とを有し、それぞれのセンサで対応する波長帯域の光を受光して、撮影画像(R画像、G画像、B画像)を生成する。
レンズ10aは、開口部を備えていてもよい。またフィルタは、撮影装置100の光学系の何れかに設置されればよい。例えば、撮影装置100の光学系とは、レンズ10aや、イメージセンサ20a等を指す。すなわち、フィルタは、レンズの内部や開口部、またはレンズ10aとイメージセンサ20aとの間に設置されてもよい。入射した光の集光の際に、フィルタの色に応じて、特定の波長帯域の光を透過する。以下では、レンズ10aの開口部にフィルタを備える場合を例に挙げて説明する。
開口部は、任意の開口サイズΦ(0<Φ≦ΦMAX、ΦMAXは開口の最大径)で原点対称である。開口サイズの調整により、イメージセンサ20aに入る光量を調整することができる。例えば、ユーザが物理的にサイズを調整可能な機構がレンズに設けられていてもよい。コンピュータまたは携帯端末にソフトウェア(アプリケーション)がインストールされ、コンピュータまたは携帯端末などを介して、ユーザから撮影装置100に情報が入力されてもよい。
レンズ10bは、撮影によって被写体で反射した光を入射し、イメージセンサ20bに出力する。イメージセンサ20bは、任意の波長帯域の光を受光するセンサを有する。例えば、イメージセンサ20bは、CCDイメージセンサや、CMOSイメージセンサ等である。1つの様態として、イメージセンサ20bは、赤色の光を受光するセンサ(Rセンサ)と、緑色の光を受光するセンサ(Gセンサ)と、青色の光を受光するセンサ(Bセンサ)とを有し、それぞれのセンサで対応する波長帯域の光を受光して、撮影画像(R画像、G画像、B画像)を生成する。また、イメージセンサ20bはR、G、Bセンサのうちいずれか1つを少なくとも有するイメージセンサでもよい。
CPU30は、撮影装置100の動作を統括的に制御する。具体的には、CPU30は、HDD40等に記憶されたプログラムを実行し、撮影装置100全体の動作を制御する。例えば、CPU30は、イメージセンサ20aと、イメージセンサ20bと、によって生成された撮影画像から、被写体までの距離画像を算出し、距離情報を生成する。また、CPU30は、撮影画像と距離画像とから、ユーザに提示するための表示画像を生成する。
HDD40は、書き換え可能な不揮発性の記憶デバイスである。例えば、HDD40は、撮影装置100の制御に関するプログラムや各種データ等を記憶する。HDD40の代わりに、または、HDD40とともに、RAM(Random Access Memory)、ROM(Read Only Memory)、および、NAND型フラッシュメモリなどの他の記憶媒体を備えてもよい。
メモリカードスロット60は、可搬記憶媒体のインタフェースである。例えば、メモリカードスロット60には、SDメモリカードやSDHCメモリカード等の可搬記憶媒体が挿入可能である。ディスプレイ50は、各種情報や画像(撮影画像や距離画像等)を表示する。例えば、ディスプレイ50は、液晶ディスプレイやタッチパネル等である。
図2を用いて、2台のカメラからの三角測量により被写体までの距離を取得する方法を説明する。図2は、2台のカメラ(カメラC1、カメラC2とする)が、3次元座標を持つある点Pを観測する様子を表している。ただし、ここでは簡単のため、カメラC1とカメラC2は互いに姿勢が同じ向きで、X軸方向に一定の基線長Bだけ離れた関係であるとする。このとき、カメラC1とカメラC2までの距離Dは、各カメラでの撮影位置h、h、および、カメラの焦点距離fを用いて以下の式により算出される。
(h−h):f=B:(D−f)
上式から距離Dを求めるためには、撮像面上の視差(h−h)を検出する必要がある。左右のカメラ画像の対応を取得する方法は、主に、全探索によるテンプレートマッチングと、エピポーラ拘束を用いた探索手法が挙げられる。エピポーラ幾何を用いれば、全探索に比べて探索時間を大幅に減らすことができる。エピポーラ幾何とは、3次元空間上に存在する点が左右のカメラに写っている際に、片方のカメラ上での点の投影が、もう片方である直線上に拘束される性質である。このとき、求める3次元の点と2つのカメラの位置を含む平面は、エピポーラ平面と呼ばれる。エピポーラ平面に対応するエピポーラ線が各カメラ画像上に投影される。
図3を用いてエピポーラ幾何を用いた探索法について説明する。カメラC1に写っている点XのカメラC2における対応点を探すことを考える。カメラC1、カメラC2の位置姿勢は既知と仮定すると、Xの3次元空間上での点は、カメラC1の位置とXとを結ぶ直線上に限定することができる。例えば、この直線上の各点(例えばP、P、P)をカメラC2に投影し、投影した点のうち左右のマッチングコストが最小となる点が、Xに対応するXとなる。図3の場合、Xに対応する直線上の点としてPが得られる。
カメラC1の位置と、Pと、カメラC2の位置と、を含む平面がエピポーラ平面Sである。カメラC2とエピポーラ平面Sが交わる線がエピポーラ線である。カメラC1についても同様にエピポーラ線が得られる。すなわち、各点の対応は、エピポーラ線の1次元探索により高速化することができる。
ステレオ視では、原理的に距離情報を取得できない特徴が存在する。図4を用いて、ステレオ視の問題点を説明する。図4に示すような横エッジをもつパターンを撮影し、カメラ画像I1の部分画像PI1に対応するカメラ画像I2内の部分画像の位置を求めるものとする。この場合、探索方向SDに探索してもエピポーラ平面上に同様の特徴(図4の例では横エッジ)が複数存在するため、一意に対応を定めることができず、距離が不定となる。図4では、部分画像PI2、PI3が、部分画像PI1に対応しうる画像の例として示されている。
これは、左右のカメラの位置姿勢の違いによらない、ステレオ視の原理上の問題の1つである。このように、エピポーラ平面上に存在する特徴は、ステレオ視では原理的に距離が取得できない。
本実施形態では、ステレオカメラの少なくとも一方のカメラで撮影される画像を用いて、ステレオの基線長方向と異なる方向に対して、ステレオ視相当の距離推定を行う。これにより、従来は検出不可能であった特徴の距離推定を可能とし、距離取得の高精度化を図る。
図5は、第1の実施形態に係る撮影装置100の機能構成例を示すブロック図である。図5に示すように、撮影装置100は、レンズ10aと、レンズ10bと、イメージセンサ20aと、イメージセンサ20bと、画像処理部130と、を有する。
レンズ10aは、例えば開口部にフィルタ110を備える。フィルタ110は、特定の波長帯域の光を透過するフィルタ領域111(第1のフィルタ領域)を有する。フィルタ110は、さらにフィルタ領域112(第2のフィルタ領域)を有してもよい。フィルタ領域111は、レンズまたは開口に入射する全部の光のうち一部が入射し、特定の波長帯域の光を透過する。例えばフィルタ領域111は、第1の波長帯域の少なくとも一部を含む第3の波長帯域の光を透過する。フィルタ領域111を透過した光は、イメージセンサ20aに入射する光の一部である。
フィルタ領域112は、レンズまたは開口に入射する全部の光のうち一部が入射し、特定の波長帯域の光を透過する。例えばフィルタ領域112は、第2の波長帯域の少なくとも一部を含む第4の波長帯域の光を透過する。フィルタ領域112を透過した光は、第1のイメージセンサに入射する光の一部である。例えばフィルタ領域111は、赤色の光と緑色の光とを透過するイエローフィルタ(Yフィルタ)である。フィルタ領域112は、フィルタ領域111と異なる波長帯域の光を透過するフィルタである。フィルタ領域111とフィルタ領域112が透過する色の組み合わせはこれに限られるものではない。
レンズ10aは、入射した光の集光の際に、フィルタ110の色に応じて、特定の波長帯域の光を透過する。フィルタ110およびレンズ10aを通過した光は、イメージセンサ20aに到達する。
イメージセンサ20aは、レンズ10aおよびフィルタ110を通過した光を受光する。イメージセンサ20aは、センサ121、センサ122、および、センサ123を備える。例えばセンサ121、センサ122、および、センサ123は、それぞれRセンサ、Gセンサ、および、Bセンサである。イメージセンサ20aは、これらのセンサで受光した光を基に、第1センサ画像を出力する。第1センサ画像は、上記の基準画像および対象画像を含む。基準画像および対象画像の詳細については後述する。
レンズ10bは、入射した光を集光し、イメージセンサ20bに出力する。イメージセンサ20bは、レンズ10bを通過した光を受光する。イメージセンサ20bは、受光した光を基に、第2センサ画像(第1の画像)を出力する。
画像処理部130は、センサ制御部131と、距離算出部132(第1の距離算出部)と、距離算出部133(第2の距離算出部)と、出力制御部134と、を有する。なお、センサ制御部131、距離算出部132、距離算出部133、および、出力制御部134は、これらの一部またはすべてがソフトウェア(プログラム)で実現されてもよいし、ハードウェア回路で実現されてもよい。なお、以下では、イメージセンサ20aおよびイメージセンサ20bがRGBセンサを有する場合を例に挙げて説明するが、センサの波長帯域はこれらに限られるものではない。
センサ制御部131は、イメージセンサ20aを制御し、ぼけ関数が非点対称に変更された対象画像と、少なくとも一種類以上のセンサ画像である基準画像とを取得する。
距離算出部132は、第1センサ画像を入力として、画像に写る被写体までの距離を算出し、距離を示す距離画像(第1距離画像)を出力する。例えば距離算出部132は、複数のぼけ補正カーネルのうち、ぼけを付加した対象画像である補正画像と、基準画像との相関がより高くなるぼけ補正カーネルを求めることで被写体までの距離を算出し、第1距離画像を出力する。複数のぼけ補正カーネルは、対象画像に対して、相互に異なるぼけを付加する関数である。
距離算出部133は、第1センサ画像と、第2センサ画像とを入力として、画像に写る被写体までの距離を算出し、距離を示す距離画像(第2距離画像)を出力する。
出力制御部134は、第1距離画像と、第2距離画像とを入力として、距離情報を生成し、出力する。距離情報は、距離算出部132および距離算出部133の両方で得られる距離(距離画像)に基づいて求められる、被写体までの距離を示す情報である。距離情報は、距離算出部132がエピポーラ平面の問題により取得できなかった情報を距離算出部133により取得した情報で補ったものである。あるいは、距離情報は、距離算出部133がエピポーラ平面の問題により取得できなかった情報を距離算出部132により取得した情報で補ったものである。また、距離情報は、例えば、第1距離画像と第2距離画像の加重平均による画像でもよいし、第1距離画像および第2距離画像をそれぞれ含む情報であってもよい。また、各距離画像のデータをリスト構造で含む情報を距離情報として出力してもよい。距離情報は、距離を表す数値であってもよい。
次に、このように構成された第1の実施形態にかかる撮影装置100による画像処理について図6を用いて説明する。図6は、第1の実施形態における画像処理の一例を示すフローチャートである。なお、以下では、イメージセンサ20aおよびイメージセンサ20bがRGBセンサを有する場合を例に挙げて説明するが、イメージセンサ20aおよびイメージセンサ20bの波長帯域はこれらに限られるものではない。
まず、レンズ10aおよびイメージセンサ20aにより生成される画像を取得する第1センサ画像取得処理が実行される(ステップS101)。次に、第1センサ画像に基づき距離画像を生成する第1距離画像生成処理が実行される(ステップS102)。第1センサ画像取得処理および第1距離画像生成処理の詳細は後述する。
ステップS101およびステップS102と並行して、レンズ10bおよびイメージセンサ20bにより生成される画像を取得する第2センサ画像取得処理が実行される(ステップS103)。第2センサ画像取得処理では、イメージセンサ20bは、レンズ10bを通過した光を受光し、第2センサ画像を生成して出力する。
次に、第1センサ画像および第2センサ画像に基づき距離画像を生成する第2距離画像生成処理が実行される(ステップS104)。第2距離画像生成処理では、距離算出部133が、イメージセンサ20aとイメージセンサ20b間の基線長、第1センサ画像、および、第2センサ画像を用いてステレオ測距を行い、画素毎のカメラ(イメージセンサ20a、イメージセンサ20b)までの距離を求め、第2距離画像を生成する。
出力制御部134は、第1距離画像と、第2距離画像とを入力として、距離情報を生成して出力する(ステップS105)。
図7は、第1の実施形態における第1センサ画像取得処理の一例を示すフローチャートである。以下では、フィルタ領域111がYフィルタ、フィルタ領域112が三色透過フィルタである場合を例に説明する。
まず、フィルタ領域111(Yフィルタ)は、赤色の光と、緑色の光とを透過する(ステップS201)。フィルタ領域112は、赤色の光と、緑色の光と、青色の光を透過する(ステップS202)。
センサ121は、赤色の光を受光し、センサ画像の1つであるR画像を生成する(ステップS203)。センサ122は、緑色の光を受光し、センサ画像の1つであるG画像を生成する(ステップS204)。センサ123は、青色の光を受光し、センサ画像の1つであるB画像を生成する(ステップS205)。
センサ制御部131は、センサ121によって生成されたR画像と、センサ122によって生成されたG画像と、センサ123によって生成されたB画像と、を含む第1センサ画像を取得する(ステップS206)。
次に、第1センサ画像に含まれる基準画像および対象画像、並びに、第1センサ画像を用いる第1距離画像生成処理について説明する。図8は、第1の実施形態における第1距離画像生成処理の一例を示すフローチャートである。
まず、撮影によって被写体で反射した光がフィルタ110を通過することで、イメージセンサ20aで観測されるセンサ画像のうち、少なくとも一種類以上のセンサ画像のぼけ関数が非点対称に変更される。フィルタ110のフィルタ領域は、イメージセンサ20aで受光される光のうち、任意種類の光を減衰させることや、光線の集光の分布に偏りを生じさせることで、センサ画像のぼけ関数を変更することができる。
図9は、第1の実施形態に係るフィルタ領域の構成例を示す図である。図9に示すように、フィルタ110のフィルタ領域のうちフィルタ領域111は、光学中心であるフィルタ領域の中心点902(重心位置の点)を対称点とするときに、点対称形にならないように構成される。図9に示した例では、フィルタ領域のうち、黄色フィルタ(Yフィルタ)をフィルタ領域111とし、フィルタ領域111ではないフィルタ領域をフィルタ領域112としている。すなわち、フィルタ領域111である黄色フィルタ(Yフィルタ)は、光学中心を対称点とするときに、点対称形にならない。フィルタ領域112は、赤色の光と、緑色の光と、青色の光を透過するフィルタとし、フィルタ領域111と同様に、光学中心を対称点とするときに、点対称形にならない。
フィルタ110の開口部への配置方法を説明する。フィルタ領域111の重心を第1の重心901、フィルタ領域112の重心を第2の重心903とし、それら2点を結んだ直線を直線Lと呼ぶ。このとき、直線Lの向きを、基線方向(図9のX軸方向)と一致しないようにフィルタ110を配置する。また、重心間距離を0以外の正の数とする。図9の例では、直線LはX軸と垂直な関係にあり、重心間距離はフィルタ領域の半径のおよそ半分である。
図10は、第1の実施形態に係るフィルタ領域111(Yフィルタ)の透過率特性の例を示す図である。図10に示すように、フィルタ領域111(Yフィルタ)は、赤色の光と緑色の光を透過し、青色の光を減衰させる。なお、フィルタ領域111は、任意波長帯域の透過率を変更するフィルタや、任意方向の偏光光を通過させる偏光フィルタ(偏光板)、任意波長帯域の集光パワーを変更させるマイクロレンズであってもよい。例えば、任意波長帯域の透過率を変更するフィルタは、原色フィルタ(RGB)、補色フィルタ(CMY)、色補正フィルタ(CC−RGB/CMY)、赤外線・紫外線カットフィルタ、NDフィルタ、遮蔽板であってもよい。フィルタ領域111がマイクロレンズである場合は、レンズ10aにより光線の集光の分布に偏りが生じることでぼけ関数が変化する。
なお、フィルタ110には、点対称形にならなければ、任意の領域数のフィルタ領域が存在していてもよい。また、フィルタ110は、複数のセンサ画像のぼけ関数を変更する1つのフィルタ領域により構成されてもよい。
また、フィルタ領域111は、フィルタ110を任意の直線で分割した形状であることが好ましく、光学中心を通過する直線であることが好ましい。フィルタ110を任意の直線で分割した形状であれば、後述するぼけ補正フィルタの次元を削減することができる。また、光学中心を通過する直線であれば、光量調整のための遮蔽物等の絞り機構が挿入された場合であっても、センサ画像のぼけ関数を変更可能な構造とすることができる。
イメージセンサ20aは、フィルタ110のフィルタ領域を透過した光のうち、何れのフィルタ領域でも減衰せずに通過した光を受光し、基準画像を生成する。これにより、センサ制御部131は、イメージセンサ20aによって生成された基準画像を取得する(ステップS301)。何れのフィルタ領域とは、図9に示した例において、フィルタ領域111とフィルタ領域112とを指す。基準画像のぼけ関数は、フィルタ領域の通過前後で変化が少ない。図9に示したフィルタ領域の場合は、フィルタ領域111である黄色フィルタ(Yフィルタ)を減衰せずに通過した赤色の光と緑色の光と、フィルタ領域112によりいずれの色の光も減衰せずに通過した光と、がイメージセンサ20aで受光されるため、R画像とG画像とが基準画像となる。R画像とG画像とは、円形のぼけ関数を有しており、ぼけ形状は円形状となる。
また、イメージセンサ20aは、フィルタ110のフィルタ領域を透過した光のうち、フィルタ領域111の通過でぼけ関数が変更される光を受光し、対象画像を生成する。これにより、センサ制御部131は、イメージセンサ20aによって生成された対象画像を取得する(ステップS302)。対象画像のぼけ関数は、フィルタ領域111により非点対称形に変化している。図9に示したフィルタ領域の場合は、フィルタ領域111である黄色フィルタ(Yフィルタ)により減衰して通過した青色の光がイメージセンサ20aで受光されるため、B画像が対象画像となる。すなわち、フィルタ110のフィルタ領域を通過する青色の光のうち、フィルタ領域111を通過した青色の光は吸収され、フィルタ領域112を通過した青色の光は吸収されることなく通過する。このため、図9に示したフィルタ110の場合、対象画像のぼけ関数は、フィルタ領域の通過前後で円形状から半円形状に変更され、半円形状のぼけ形状となる。
図11は、第1の実施形態に係る被写体までの距離とぼけ関数の形状との関係を説明する図である。図11に示すように、画像に写る被写体の位置がピント位置より遠い「d>0」である場合は、対象画像は基準画像と比較して左側に偏ったぼけが撮像される。また、画像に写る被写体の位置がピント位置よりも近い「d<0」である場合は、対象画像は基準画像と比較して右側に偏ったぼけが撮像される。また、画像に写る被写体の位置がピント位置にある「d=0」である場合は、対象画像と基準画像とは、ともにぼけのない画像が撮像される。本実施形態では、このような特性を利用して、撮影シーンの距離を算出する。
また、距離算出部132は、センサ制御部131によって取得された対象画像と基準画像とをもとに、対象画像に異なるぼけを付加することで、対象画像のぼけ形状を補正した補正画像を生成する(ステップS303)。上述したように、画像に写る被写体までの距離dに応じて、対象画像と基準画像とのぼけ形状が変化する。本実施形態では、画像に写る被写体までの距離が任意の距離dであると仮定し、作成した複数のぼけ補正カーネルを用いて、対象画像のぼけ形状を補正した補正画像を生成し、生成した補正画像と基準画像との相関がより高くなる距離dを求めることで、被写体までの距離を算出する。なお、補正画像と基準画像との相関を計算する手法については後述する。
ここで、撮影画像Ixに写る被写体からカメラのピント位置までの距離をdとすると、撮影画像Ixは、ぼけの少ない理想的な撮影画像Iyと、撮影画像のぼけ関数f(d)を用いて、(数1)で表すことができる。
撮影画像のぼけ関数f(d)は、撮影装置100の開口形状と距離dとによって決定する。距離dについては、上述したように、ピント位置を基準として、被写体がピント位置よりも遠い場合は「d>0」、被写体がピント位置よりも近い場合は「d<0」として表す。図12は、第1の実施形態に係る基準画像のぼけ関数の例を示す図である。図12に示すように、図9に示したフィルタ領域の場合は、開口形状が点対称形である円形状であるため、ぼけ関数f(d)の形状はピント位置の前後で変化はなく、ぼけ関数f(d)は距離dの大きさ|d|によってぼけの幅が変化するガウス関数として表現できる。なお、ぼけ関数f(d)は、距離dの大きさ|d|によってぼけの幅が変化するピルボックス関数として表現してもよい。
基準画像Ixは、(数1)と同様に、開口形状とフィルタ領域との特性から決定するぼけ関数f(d)を用いて、(数2)で表すことができる。
また、対象画像Ixは、(数1)と同様に、開口形状とフィルタ領域との特性から決定するぼけ関数f(d)を用いて、(数3)で表すことができる。
図9に示したフィルタ領域の場合、基準画像は、フィルタ領域111の影響を受けないため、f(d)=f(d)となる。また、f(d)は、フィルタ領域111での光減衰の影響により、ピント位置であるd=0の前後で異なる形状に変化する。図13は、第1の実施形態に係る対象画像のぼけ関数の例を示す図である。図13に示すように、対象画像のぼけ関数f(d)は、被写体がピント位置よりも遠方にあるd>0の場合に、x>0でフィルタ領域111での光減衰に応じて、減衰したぼけの幅|d|のガウス関数となる。また、対象画像のぼけ関数f(d)は、被写体がピント位置よりも近方にあるd<0の場合に、x<0でフィルタ領域111での光減衰に応じて、減衰したぼけの幅|d|のガウス関数となる。
ここで、対象画像Ixにぼけを付与して、対象画像Ixのぼけ形状を基準画像Ixのぼけ形状と一致させるためのぼけ関数を、ぼけ補正カーネルf(d)と定義する。ぼけ補正カーネルf(d)は、(数4)で表すことができる。
(数4)のぼけ補正カーネルf(d)は、(数2)〜(数4)により、基準画像Ixのぼけ関数f(d)と、対象画像Ixのぼけ関数f(d)とを用いて、(数5)で表すことができる。
(数5)のf −1(d)は、対象画像のぼけ関数f(d)の逆フィルタである。これらにより、ぼけ補正カーネルf(d)は、基準画像Ixと対象画像Ixとのぼけ関数から解析して算出することが可能である。また、対象画像Ixのぼけ形状は、ぼけ補正カーネルf(d)を用いて、任意の距離dを想定した様々なぼけ形状に補正することができる。
図14は、第1の実施形態に係るぼけ補正カーネルの例を示す図である。なお、図14に示すぼけ補正カーネルは、図9に示したフィルタ領域を用いた場合のぼけ補正カーネルである。図14に示すように、フィルタ領域を任意の直線で分割した形状に設定した場合、ぼけ補正カーネルf(d)は、分割した線分の中心点を通り、該線分に対して垂直方向の直線上(直線付近)に分布する。ここで、対象画像Ixのぼけ形状を任意の距離dにおけるぼけ補正カーネルf(d)を用いて補正した補正画像Ix^(d)とすると、補正画像Ix^(d)は、(数6)で表すことができる。なお、「Ix^」は、数式中のIxハットであるものとする。
図8に戻り、距離算出部132は、生成した補正画像Ix^(d)と、基準画像Ixとを比較し、補正画像Ix^(d)と基準画像Ixとのぼけ形状が一致しているか否かを判定する(ステップS304)。距離算出部132は、補正画像Ix^(d)と基準画像Ixとのぼけ形状が一致している場合に(ステップS304:Yes)、処理を終了する。一方、距離算出部132は、補正画像Ix^(d)と基準画像Ixとのぼけ形状が一致していない場合に(ステップS304:No)、ステップS303の処理を再度実行する。すなわち、距離算出部132は、補正画像Ix^(d)と基準画像Ixとのぼけ形状が最も一致する距離dを、撮影画像の各画素で求める。一致するとは、ぼけ形状が完全に一致するのみでなく、例えば一致度が所定の閾値未満である場合を含めてもよい(後述)。ぼけ形状の一致度は、各画素を中心とする任意サイズの矩形領域における補正画像Ix^(d)と基準画像Ixとの相関を計算すればよい。この、ぼけ形状の一致度の計算は、既存の類似度評価手法を用いればよい。これらにより、距離算出部132は、補正画像Ix^(d)と基準画像Ixとで相関が最も高くなる距離dを求め、各画素に写る被写体までの距離を算出する。
例えば、既存の類似度評価手法は、SSD(Sum of Squared Difference)、SAD(Sum of Absolute Difference)、NCC(Normalized Cross‐Correlation)、ZNCC(Zero‐mean Normalized Cross‐Correlation)、Color Alignment Measure等を利用すればよい。本実施形態では、自然画像の色成分が局所的には線形な関係を持つ特性を有することを利用したColor Alignment Measureを利用する。
Color Alignment Measureでは、撮影画像の対象画素を中心とする局所境域の色分布の分散から、相関関係を表す指標Lが算出される。イメージセンサ20aで撮影された基準画像Ixと、距離dを仮定した補正画像Ix^(d)とから生成されるRGB画像の各画素を中心とする局所領域で、指標L(d)を算出する。図9に示したフィルタ領域である場合は、イメージセンサ20aで撮影されたR画像とG画像とB画像とを、距離dのぼけ補正カーネルで補正した補正画像B^(d)から生成されるカラー画像の各画素において、指標L(d)を(数7)により算出する。なお、「B^」は、数式中のBハットであるものとする。
(数7)において、λ、λ、λは、画像の色分布の主成分軸に沿った分散(画像の共分散行列の固有値)である。また、(数7)において、σ 、σ 、σ は、画像の色分布のR軸、G軸、B軸に沿った分散である。従って、指標L(d)が小さいほど、カラー画像の一致度が高いことを示している。これにより、ステップS304では、距離算出部132は、指標L(d)が閾値未満であるか否かを判定し、指標L(d)が閾値未満であれば対象画素での距離推定を終了する。距離算出部132は、指標L(d)が閾値以上であればステップS303の処理に戻り、異なる距離dでの補正画像を生成する。なお、各画素に写る被写体までの距離の算出は、閾値を使用した条件判定ではなく、仮定する全ての距離dでの指標L(d)を算出し、指標L(d)が最小となる距離dを求めるようにしてもよい。また、例えば、距離画像は、各被写体までの距離を求めた結果として、手前に存在する被写体ほど明るく、奥に存在する被写体ほど暗くなるような画像として生成することができる。
上述したように、撮影装置100の光学系に設置したフィルタ領域に応じて変更された対象画像のぼけ形状を、距離dを仮定したぼけ補正カーネルにより補正した補正画像を生成し、生成した補正画像と基準画像との相関がより高くなる距離dを求めることで、画像に写る被写体までの距離を算出する。本実施形態によれば、ぼけ関数とサンプリング位置が一致する画像の相関を用いて距離を算出するので、高精度な距離推定を実現できる。また、本実施形態によれば、空間情報の畳み込み結果であるぼけ情報を利用するため、距離推定の結果が安定的であり、繰り返しパターンや陰面問題を生じさせることなく、高精度な距離推定を実現できる。
また、ステレオ視によって取得した距離画像のうち、エピポーラ平面上に存在し距離情報を取得できない点に、カラーフィルタを使って取得した距離情報を付与することができる。カラーフィルタを使って取得した距離画像のうち、エピポーラ平面上に存在し距離情報を取得できない点に、ステレオ視によって取得した距離情報を付与することができる。本実施形態の撮影装置100は、エピポーラ平面上の距離情報も取得することができる。
また、本実施形態によれば、距離算出部133によりエピポーラ平面上の特徴の対応を取得可能となり、従来は取得できなかった特徴の距離情報を高精度に取得することができる。
(変形例1)
イメージセンサ20bにも特定の波長帯域の光を透過するフィルタが備えられていてもよい。フィルタは、互いに異なる波長帯域を透過する2つのフィルタ領域を備えてもよい。このフィルタ領域は、フィルタ領域111、または、フィルタ領域112と同じでもよいし、異なっていてもよい。
イメージセンサ20bにより取得したセンサ画像を用いて、DFDによる距離算出を行ってもよい。例えば、距離算出部132は、イメージセンサ20aからのセンサ画像(第1センサ画像)のみでなく、イメージセンサ20bからのセンサ画像に対しても、上記と同様の方法により被写体までの距離を算出してもよい。これにより、距離情報をさらに高精度に求めることが可能となる。
(変形例2)
上記実施形態では、フィルタによりぼけ形状が変化するセンサ画像(例えばB画像)を対象画像とし、ぼけ形状が変化しないセンサ画像(例えばR画像、G画像)を基準画像とした。いずれかのセンサ画像を任意の形状に補正した画像を基準画像として用いてもよい。すなわち、複数のセンサ画像のうち、対象画像とするセンサ画像以外のセンサ画像を補正した画像を基準画像としてもよい。
(変形例3)
フィルタ110は、フィルタ領域111およびフィルタ領域112以外のフィルタ領域をさらに備えていてもよい。図15〜図20は、フィルタ領域113(第3のフィルタ領域)をさらに含むフィルタ110の構成例を示す図である。図15〜図20に示すようなフィルタ110に対しても、上記実施形態と同様の手法を適用できる。
フィルタ領域113は、フィルタ領域111と、フィルタ領域112とは異なる波長帯域を透過し、形状は非点対称でなくてもよい。図15のように、フィルタ110の全域に、フィルタ領域113が追加された構成となっていてもよい。これにより、レンズ10aの開口を通過するすべての光をイメージセンサ20aに受光させることができる。
図16のように、フィルタ領域を3等分した配置にしてもよい。図17のように、上下端にフィルタ領域111、フィルタ領域112が配置され、フィルタ領域の残りの部分がフィルタ領域113であってもよい。また、上下端の形状は図18のような形状であってもよい。図19のように、フィルタ領域111とフィルタ領域112が円形状で、異なる位置に配置され、残りの領域がフィルタ領域113となっていてもよい。さらにフィルタ領域111とフィルタ領域112の形状は、図20のように、正方形などの形状であってもよい。また、フィルタ領域113は、イメージセンサ20aで受光するすべての波長帯域を透過するフィルタであってもよい。
図15のように、フィルタ領域111およびフィルタ領域112に対して、フィルタ領域113が重なる構成の場合、例えばフィルタ領域111、112、および、113を、それぞれ赤色の光、青色の光、および、緑色の光を透過するフィルタとしてもよい。この場合、フィルタ領域111とフィルタ領域113が重なる領域はYフィルタに相当する。すなわち、例えばフィルタ領域111とフィルタ領域113とを組み合わせた透過率特性は、図10と同様となる。
(第2の実施形態)
非点対称形のフィルタを用いる第1の実施形態では、ぼけの形状がピント位置の前後で異なることを利用して、ぼけの形状に対応する距離を一意に定めることができた。第2の実施形態では、光学中心を対称点とするときに、点対称形となるフィルタを用いる。この場合、ピント位置の前後でぼけの形状が同じになり、距離が一意に特定できない場合がある。そこで、第2の実施形態では、ピント位置を無限遠または最近傍に設定する。これにより、前ぼけまたは後ろぼけのみの形状変化にとどめることができるため、点対称形のフィルタ構造であっても、ぼけ量と距離との対応を一意に定めることが可能となる。
第2の実施形態の撮影装置のハードウェア構成は、図1と同様であるため説明を省略する。図21は、第2の実施形態に係る撮影装置100−2の機能構成例を示すブロック図である。図21に示すように、撮影装置100−2は、レンズ10−2aと、レンズ10bと、イメージセンサ20aと、イメージセンサ20bと、画像処理部130−2と、を有する。
第2の実施形態では、レンズ10−2aおよび画像処理部130−2の構成が第1の実施形態と異なっている。その他の構成および機能は、第1の実施形態にかかる撮影装置100のブロック図である図5と同様であるので、同一符号を付し、ここでの説明は省略する。
レンズ10−2aは、フィルタ110−2を有する。フィルタ110−2は、互いに異なる波長帯域の光を透過するフィルタ領域111−2とフィルタ領域112−2を有する。
図22は、第2の実施形態に係るフィルタ領域の構成例を示す図である。図22に示すように、フィルタ領域111−2は、光学中心であるフィルタ領域111−2の中心点2201(重心位置の点)を対称点とするときに、点対称形になるように構成される。
例えば、フィルタ110−2のうち、黄色フィルタ(Yフィルタ)をフィルタ領域111−2とし、フィルタ領域111−2ではないフィルタ領域をフィルタ領域112−2とすることができる。すなわち、フィルタ領域111−2である黄色フィルタ(Yフィルタ)は、光学中心を対称点とするときに、点対称形になる。フィルタ領域112−2も光学中心を対称点とするときに、点対称形になる。フィルタ領域111−2は、フィルタ110−2の内側にあるため、点対称形であれば、円ではなくてもよい。例えば、正四角形や正六角形などの形状でもよい。
画像処理部130−2は、距離算出部132−2の機能が、第1の実施形態の画像処理部130と異なっている。
距離算出部132−2は、第1センサ画像を入力として、画像に写る被写体までの距離を算出し、距離を示す距離画像(第1距離画像)を出力する。例えば距離算出部132−2は、第1の実施形態と同様に、フィルタ110−2により減衰せずに通過した光に対応するセンサ画像(例えばR画像、G画像)を基準画像とする。また、距離算出部132−2は、例えばフィルタ領域111−2により減衰して通過した光に対応するセンサ画像(例えばB画像)を対象画像とする。そして距離算出部132−2は、複数のぼけ補正カーネルのうち、ぼけを付加した対象画像である補正画像と、基準画像との相関がより高くなるぼけ補正カーネルを求めることで被写体までの距離を算出し、第1距離画像を出力する。
本実施形態ではピント位置を無限遠または最近傍に設定しているため、ぼけの形状が距離に一意に対応する。このため、距離dに対応するぼけ補正カーネルも一意に決定される。距離算出部132−2は、補正画像と基準画像との相関がより高くなるぼけ補正カーネルを求めることで距離dを算出することができる。
(第3の実施形態)
第1の実施形態で述べたように、ステレオ測距では、2つのカメラ(イメージセンサ20a、イメージセンサ20b)を平行等位な関係にすることで、マッチングの探索範囲を2次元から1次元に減らすことができる。換言すると、エピポーラ幾何によって、左右のカメラのエピポーラ線が水平方向に規定されることとなる。
しかし、経過劣化などによって、左右のカメラの位置関係が崩れ、エピポーラ線が画像面に対して傾きを持ち、対応点が見つからない、または、誤対応となる場合がある。図23は、エピポーラ線の方向が変化する様子を示す図である。平行等位時の探索方向2301は、水平である。経過劣化などにより左右のカメラの位置および姿勢が変化した場合、エピポーラ線が傾き、探索方向2302が水平でなくなる。
この問題の解決法の1つとして、2つの画像のエピポーラ幾何を再推定する方法がある。例えば、形状が既知のキャリブレーションパターンを用意し、左右のカメラ上での複数点の対応関係からエピポーラ幾何を推定する。そして、得られたエピポーラ線に対して画像が水平になるように画像変換を行い、平行等位となった左右のカメラ画像から距離画像を生成する。この手法では、人の手によって、キャリブレーションパターンを用意する必要があり、ユーザに負担がかかる問題がある。また、キャリブレーションパターンを使用せずに被写体の特徴を用いた場合、得られた距離画像のスケールが不定となる問題がある。
第3の実施形態では、第1距離画像および第2距離画像の対応関係からエピポーラ幾何を推定する。これにより、ユーザに負担をかけることなく、イメージセンサ20aとイメージセンサ20bの位置姿勢のずれを容易に補正することが可能となる。
第3の実施形態の撮影装置のハードウェア構成は、図1と同様であるため説明を省略する。図24は、第3の実施形態に係る撮影装置100−3の機能構成例を示すブロック図である。図24に示すように、撮影装置100−3は、レンズ10aと、レンズ10bと、イメージセンサ20aと、イメージセンサ20bと、画像処理部130−3と、補正情報算出部140−3と、を有する。
第3の実施形態では、画像処理部130−3内の距離算出部133−3の機能、および、補正情報算出部140−3を追加したことが第1の実施形態と異なっている。その他の構成および機能は、第1の実施形態にかかる撮影装置100のブロック図である図5と同様であるので、同一符号を付し、ここでの説明は省略する。
補正情報算出部140−3は、ユーザの指示などに応じて、第1センサ画像および第2センサ画像から補正情報を算出する。補正情報は、第1センサ画像と第2センサ画像との位置関係が特定の関係となるように、第1センサ画像および第2センサ画像のうち少なくとも一方である補正対象画像を補正するための情報である。例えば補正情報は、左右のカメラ画像(第1センサ画像、第2センサ画像)が平行等位の画像となるように変換する射影変換行列、および、基線長の長さなどである。
平行等位となるためのカメラ間の関係は、一方の位置姿勢を固定した上で、他方の位置姿勢を変換すれば得られる。このため、左右のカメラ画像のうち一方の画像を変換する射影変換行列のパラメータが得られれば十分である。ただし、両方の画像をそれぞれ変換する複数の射影変換行列のパラメータを補正情報として含まれていてもよい。本実施形態では、第2センサ画像を変換するための射影変換行列のパラメータと基線長の長さを補正情報として用いる例を説明する。
補正情報算出部140−3は、例えば位置姿勢のずれ補正の開始をユーザ等が指示したことを示す情報(例えば開始を示すコード等)が入力された場合に、補正情報の算出処理を開始する。補正情報の算出処理の詳細は後述する。
距離算出部133−3は、補正情報を用いて第2センサ画像を補正した後に、ステレオ測距により第2距離画像を生成する点が、上記実施形態の距離算出部133と異なっている。
次に、このように構成された第3の実施形態にかかる撮影装置100−3による補正情報の算出処理について図25を用いて説明する。図25は、第3の実施形態における補正情報の算出処理の一例を示すフローチャートである。
ステップS401、ステップS402は、図6のステップS101、ステップS102と同様であるため説明を省略する。
補正情報算出部140−3は、補正情報を算出する補正パラメータ最適化処理を実行する(ステップS403)。まず補正情報算出部140−3は、左右のカメラの位置姿勢のずれを計測し、仮想的に平行等位な画像を生成する。例えば補正情報算出部140−3は、左右のカメラ画像からエピポーラ幾何を推定し、仮想的に平行等位な画像を生成する手法(例えば特許文献1参照)により、左右のカメラ画像の平行等位な画像を得る。このような手法で得られた2枚の画像は、カメラの基線長の長さが未知のため、正しく距離を算出することができない。
そこで、補正情報算出部140−3は、ステレオ測距ではないDFDにより求められる第2距離画像を用いて基線長B’を推定する。例えば補正情報算出部140−3は、複数の基線長それぞれに対して、ステレオ測距により第1距離画像を算出する。補正情報算出部140−3は、算出した第1距離画像を、画素ごとに第2距離画像と比較し、誤差が最小となる第1距離画像に対応する基線長B’を求める。
以上の処理により、基線長B’と、平行等位となるための第2センサ画像の射影変換行列と、が得られる。
補正情報算出部140−3は、基線長B’および射影変換行列を、補正情報として画像処理部130−3に出力する(ステップS404)。
次に、第3の実施形態にかかる撮影装置100−3による画像処理について図26を用いて説明する。図26は、第3の実施形態における画像処理の一例を示すフローチャートである。
ステップS501〜ステップS503は、図6のステップS101〜ステップS103と同様であるため説明を省略する。
距離算出部133−3は、補正情報算出部140−3により得られた射影変換行列を用いて、第2センサ画像を変換する(ステップS504)。距離算出部133−3は、補正情報算出部140−3により得られた基線長の長さを用いてステレオ視を行い、第2距離画像を生成する(ステップS505)。
ステップS506は、図6のステップS106と同様であるため説明を省略する。
なお、これまでは第1の実施形態に補正情報算出部140−3を追加した構成を説明した。補正情報算出部140−3を追加できる構成は第1の実施形態に限られるものではなく、上記の各変形例、および、第2の実施形態に対して適用してもよい。すなわち、本実施形態を適用できるフィルタは任意である。
第3の実施形態によれば、第1の実施形態と同等の効果に加えて、補正情報算出部140−3によりイメージセンサ20aとイメージセンサ20bの位置姿勢のずれを補正可能となる。すなわち、キャリブレーションの手間を軽減することができる。
以上説明したとおり、第1から第3の実施形態によれば、より高精度に距離情報を取得することができる。
上記のような撮影装置は、例えば、自動車などの車両(移動体の一例)に搭載することができる。図27は、自動車に撮影装置を搭載した例を示す図である。自動車は、左右のカメラであるカメラ2701、2702と、制御部2711と、を含む。カメラ2701は、例えば図1のレンズ10aおよびイメージセンサ20aに対応する。カメラ2702は、例えば図1のレンズ10bおよびイメージセンサ20bに対応する。制御部2711は、距離情報(第1距離情報、第2距離情報)に基づいて自動車の移動を制御する。制御部2711は、この他に、例えば図5の画像処理部130と同様の機能を備えていてもよい。
移動体は車両に限られるものではなく、例えば、ロボット、船舶、および、飛翔体(飛行機、ドローンなど)であってもよい。移動体は、自律式の移動体であってもよいし、有人の移動体であってもよい。
第1から第3の実施形態にかかる撮影装置で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されてコンピュータプログラムプロダクトとして提供される。
また、第1から第3の実施形態にかかる撮影装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、第1から第3の実施形態にかかる撮影装置で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
また、第1から第3の実施形態のプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
第1から第3の実施形態にかかる撮影装置で実行されるプログラムは、上述した各部を含むモジュール構成となっており、実際のハードウェアとしてはCPU30(プロセッサ)が上記記憶媒体からプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、上述した各部が主記憶装置上に生成されるようになっている。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10a、10b レンズ
20a、20b イメージセンサ
30 CPU
40 HDD
50 ディスプレイ
60 メモリカードスロット
100、100−2、100−3 撮影装置
110 フィルタ
121、122、123 センサ
130 画像処理部
131 センサ制御部
132、133 距離算出部
134 出力制御部
140−3 補正情報算出部

Claims (11)

  1. 第1の波長帯域の光を受光し対象画像を出力する第1のセンサと、第2の波長帯域の光を受光し基準画像を出力する第2のセンサとを有する第1のイメージセンサと、
    前記第1の波長帯域の少なくとも一部を含む第3の波長帯域の第1の光を透過し、前記第1の光は前記第1のイメージセンサに入射する光の一部である第1のフィルタ領域と、
    第1の画像を出力する第2のイメージセンサと、
    前記対象画像と前記基準画像とに基づいて、前記対象画像と前記基準画像とに含まれる被写体までの第1の距離を算出する第1の距離算出部と、
    前記基準画像と前記第1の画像とに基づいて、前記基準画像と前記第1の画像に含まれる被写体までの第2の距離を算出する第2の距離算出部と、
    を備える撮影装置。
  2. 前記第1の距離算出部は、前記対象画像と前記基準画像との相関に応じて、前記第1の距離を算出し、
    前記第2の距離算出部は、前記基準画像、前記第1の画像、および、前記第1のイメージセンサと前記第2のイメージセンサとの間の第3の距離、に基づいて、前記第2の距離を算出する、
    請求項1に記載の撮影装置。
  3. 前記第1の距離算出部は、ぼけ関数が非点対称である前記対象画像と、前記基準画像とに基づいて、前記第1の距離を算出する、
    請求項2に記載の撮影装置。
  4. 前記第2の波長帯域と異なる波長帯域の光を透過する第2のフィルタ領域と、をさらに備え、
    前記第3の距離の方向である第1の方向と異なる第2の方向に、前記第1のフィルタ領域の重心位置と前記第2のフィルタ領域の重心位置がずれている、
    請求項2に記載の撮影装置。
  5. 前記第1の方向と前記第2の方向は直交する、
    請求項4に記載の撮影装置。
  6. 前記第1の距離算出部は、ぼけ関数が点対称である前記対象画像と、ぼけ関数が点対称である前記基準画像とに基づいて、前記第1の距離を算出する、
    請求項2に記載の撮影装置。
  7. 前記基準画像と前記第1の画像との位置関係が特定の関係となるように、前記基準画像および前記第1の画像の少なくとも一方である補正対象画像を補正するための補正情報を、前記第1の距離に基づいて算出する補正情報算出部をさらに備え、
    前記第2の距離算出部は、前記補正情報により補正された前記補正対象画像に基づいて前記第2の距離を算出する、
    請求項1に記載の撮影装置。
  8. 前記第1のイメージセンサの開口の大きさは調整可能であり、任意の大きさで前記開口は原点対称である、
    請求項1に記載の撮影装置。
  9. 前記第2のイメージセンサは、前記第1の波長帯域の光を受光し対象画像を出力する第3のセンサと、前記第2の波長帯域の光を受光し基準画像を出力する第4のセンサとを有する、
    請求項1に記載の撮影装置。
  10. 前記第1の距離と前記第2の距離とに基づく距離情報を生成して出力する出力制御部をさらに備える、
    請求項1に記載の撮影装置。
  11. 請求項1から請求項10のいずれか1項に記載の撮影装置と、
    前記第1の距離および前記第2の距離に基づいて車両の移動を制御する制御部と、
    を備える車両。
JP2016113465A 2016-06-07 2016-06-07 撮影装置および車両 Expired - Fee Related JP6585006B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016113465A JP6585006B2 (ja) 2016-06-07 2016-06-07 撮影装置および車両
CN201710096168.0A CN107483774B (zh) 2016-06-07 2017-02-22 拍摄装置以及车辆
US15/443,318 US10412370B2 (en) 2016-06-07 2017-02-27 Photographing device and vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016113465A JP6585006B2 (ja) 2016-06-07 2016-06-07 撮影装置および車両

Publications (2)

Publication Number Publication Date
JP2017220780A true JP2017220780A (ja) 2017-12-14
JP6585006B2 JP6585006B2 (ja) 2019-10-02

Family

ID=60483638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016113465A Expired - Fee Related JP6585006B2 (ja) 2016-06-07 2016-06-07 撮影装置および車両

Country Status (3)

Country Link
US (1) US10412370B2 (ja)
JP (1) JP6585006B2 (ja)
CN (1) CN107483774B (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019098177A1 (ja) 2017-11-16 2019-05-23 三菱ケミカルフーズ株式会社 消毒用製剤、並びに消毒方法
US10571246B2 (en) 2017-07-05 2020-02-25 Kabushiki Kaisha Toshiba Imaging processing apparatus, distance measuring apparatus and processing system
US10914960B2 (en) 2016-11-11 2021-02-09 Kabushiki Kaisha Toshiba Imaging apparatus and automatic control system
US11100662B2 (en) 2018-08-10 2021-08-24 Kabushiki Kaisha Toshiba Image processing apparatus, ranging apparatus and processing apparatus
JP2022517221A (ja) * 2019-01-09 2022-03-07 トリナミクス ゲゼルシャフト ミット ベシュレンクテル ハフツング 少なくとも1つの物体の位置を決定するための検出器
US11379692B2 (en) 2019-06-17 2022-07-05 Kabushiki Kaisha Toshiba Learning method, storage medium and image processing device

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6852369B2 (ja) * 2016-11-30 2021-03-31 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
DE102017103660B4 (de) * 2017-02-22 2021-11-11 OSRAM Opto Semiconductors Gesellschaft mit beschränkter Haftung Verfahren zum betrieb einer lichtquelle für eine kamera, lichtquelle, kamera
JP7160037B2 (ja) * 2017-08-01 2022-10-25 ソニーグループ株式会社 画像処理装置、画像処理方法、並びにプログラム
JP6878219B2 (ja) 2017-09-08 2021-05-26 株式会社東芝 画像処理装置および測距装置
US10682955B1 (en) * 2018-12-03 2020-06-16 Beijing Voyager Technology Co., Ltd. Multicamera system for autonomous driving vehicles
EP3899463A4 (en) 2018-12-14 2022-12-21 Spectral MD, Inc. SYSTEM AND METHOD FOR HIGH-PRECISION MULTIAPERTURE SPECTRAL IMAGING
JP7341033B2 (ja) * 2019-11-11 2023-09-08 キヤノン株式会社 視差検出装置、撮像装置、視差検出方法、及びプログラム
US11695911B2 (en) * 2020-04-27 2023-07-04 Ouster, Inc. Stereoscopic image capturing systems
CN111595292A (zh) * 2020-04-29 2020-08-28 杭州电子科技大学 一种基于不等焦距的双目视觉测距方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012123296A (ja) * 2010-12-10 2012-06-28 Sanyo Electric Co Ltd 電子機器
JP2013057761A (ja) * 2011-09-07 2013-03-28 Olympus Corp 距離測定装置、撮像装置、距離測定方法
JP2013186043A (ja) * 2012-03-09 2013-09-19 Hitachi Automotive Systems Ltd 距離算出装置及び距離算出方法
JP2016102733A (ja) * 2014-11-28 2016-06-02 株式会社東芝 レンズ及び撮影装置

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6118475A (en) 1994-06-02 2000-09-12 Canon Kabushiki Kaisha Multi-eye image pickup apparatus, and method and apparatus for measuring or recognizing three-dimensional shape
JPH0843055A (ja) 1994-07-29 1996-02-16 Canon Inc 3次元物体形状認識方法及び装置
JP3833786B2 (ja) * 1997-08-04 2006-10-18 富士重工業株式会社 移動体の3次元自己位置認識装置
KR100818987B1 (ko) * 2006-09-19 2008-04-04 삼성전자주식회사 이미지 촬상 장치 및 상기 이미지 촬상 장치의 동작 방법
WO2009101798A1 (ja) * 2008-02-12 2009-08-20 Panasonic Corporation 複眼撮像装置、測距装置、視差算出方法及び測距方法
JP4778569B2 (ja) 2009-03-19 2011-09-21 旭化成株式会社 ステレオ画像処理装置、ステレオ画像処理方法及びステレオ画像処理プログラム
JP5468426B2 (ja) * 2010-03-12 2014-04-09 日立オートモティブシステムズ株式会社 ステレオカメラ装置
US9275463B2 (en) * 2011-06-17 2016-03-01 Panasonic Intellectual Property Management Co., Ltd. Stereo image processing device and stereo image processing method
JP5846872B2 (ja) * 2011-11-21 2016-01-20 日立オートモティブシステムズ株式会社 画像処理装置
JP2014006882A (ja) * 2012-05-31 2014-01-16 Ricoh Co Ltd 路面傾斜認識装置、路面傾斜認識方法及び路面傾斜認識用プログラム
JP6079131B2 (ja) * 2012-10-25 2017-02-15 富士通株式会社 画像処理装置、方法、及びプログラム
EP3812962A1 (en) * 2013-12-04 2021-04-28 Mobileye Vision Technologies Ltd. Navigating a vehicle to pass another vehicle
KR101611261B1 (ko) * 2013-12-12 2016-04-12 엘지전자 주식회사 스테레오 카메라, 이를 구비한 차량 운전 보조 장치, 및 차량
JP5852637B2 (ja) * 2013-12-27 2016-02-03 富士重工業株式会社 矢印信号認識装置
TWI519884B (zh) * 2014-01-23 2016-02-01 鈺創科技股份有限公司 產生深度資訊的裝置、產生深度資訊的方法和立體攝影機
JP6561512B2 (ja) * 2014-03-27 2019-08-21 株式会社リコー 視差値導出装置、移動体、ロボット、視差値導出方法、視差値生産方法及びプログラム
WO2015182147A1 (ja) * 2014-05-28 2015-12-03 京セラ株式会社 ステレオカメラ装置およびステレオカメラ装置を設置した車両
JP6408817B2 (ja) * 2014-07-22 2018-10-17 オリンパス株式会社 画像処理装置、画像処理方法、画像処理プログラム、及び撮像システム
CN104299231B (zh) * 2014-09-26 2017-04-19 北京环境特性研究所 多传感器实时图像配准方法和系统
JP2016134090A (ja) * 2015-01-21 2016-07-25 株式会社東芝 画像処理装置及びそれを用いた運転支援システム
JP6708199B2 (ja) * 2015-02-27 2020-06-10 ソニー株式会社 撮像装置と画像処理装置と画像処理方法
US10382684B2 (en) 2015-08-20 2019-08-13 Kabushiki Kaisha Toshiba Image processing apparatus and image capturing apparatus
JP6608763B2 (ja) 2015-08-20 2019-11-20 株式会社東芝 画像処理装置及び撮影装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012123296A (ja) * 2010-12-10 2012-06-28 Sanyo Electric Co Ltd 電子機器
JP2013057761A (ja) * 2011-09-07 2013-03-28 Olympus Corp 距離測定装置、撮像装置、距離測定方法
JP2013186043A (ja) * 2012-03-09 2013-09-19 Hitachi Automotive Systems Ltd 距離算出装置及び距離算出方法
JP2016102733A (ja) * 2014-11-28 2016-06-02 株式会社東芝 レンズ及び撮影装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10914960B2 (en) 2016-11-11 2021-02-09 Kabushiki Kaisha Toshiba Imaging apparatus and automatic control system
US10571246B2 (en) 2017-07-05 2020-02-25 Kabushiki Kaisha Toshiba Imaging processing apparatus, distance measuring apparatus and processing system
WO2019098177A1 (ja) 2017-11-16 2019-05-23 三菱ケミカルフーズ株式会社 消毒用製剤、並びに消毒方法
US11100662B2 (en) 2018-08-10 2021-08-24 Kabushiki Kaisha Toshiba Image processing apparatus, ranging apparatus and processing apparatus
JP2022517221A (ja) * 2019-01-09 2022-03-07 トリナミクス ゲゼルシャフト ミット ベシュレンクテル ハフツング 少なくとも1つの物体の位置を決定するための検出器
US11379692B2 (en) 2019-06-17 2022-07-05 Kabushiki Kaisha Toshiba Learning method, storage medium and image processing device

Also Published As

Publication number Publication date
US10412370B2 (en) 2019-09-10
CN107483774A (zh) 2017-12-15
JP6585006B2 (ja) 2019-10-02
US20170353710A1 (en) 2017-12-07
CN107483774B (zh) 2020-10-16

Similar Documents

Publication Publication Date Title
JP6585006B2 (ja) 撮影装置および車両
JP4852591B2 (ja) 立体画像処理装置、方法及び記録媒体並びに立体撮像装置
US9092875B2 (en) Motion estimation apparatus, depth estimation apparatus, and motion estimation method
US20110249117A1 (en) Imaging device, distance measuring method, and non-transitory computer-readable recording medium storing a program
JP6786225B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
US9008412B2 (en) Image processing device, image processing method and recording medium for combining image data using depth and color information
WO2013005244A1 (ja) 3次元相対座標計測装置およびその方法
US9619886B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
EP3730898B1 (en) Distance measuring camera
JP7104296B2 (ja) 測距カメラ
JP7378219B2 (ja) 撮像装置、画像処理装置、制御方法、及びプログラム
US8749652B2 (en) Imaging module having plural optical units in which each of at least two optical units include a polarization filter and at least one optical unit includes no polarization filter and image processing method and apparatus thereof
JP5849522B2 (ja) 画像処理装置、プロジェクタ、プロジェクタシステム、画像処理方法、そのプログラム、及び、そのプログラムを記録した記録媒体
US8929685B2 (en) Device having image reconstructing function, method, and recording medium
JP2013123123A (ja) ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム
JP7288226B2 (ja) 測距カメラ
JP5857712B2 (ja) ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム
US20210256729A1 (en) Methods and systems for determining calibration quality metrics for a multicamera imaging system
JP5648159B2 (ja) 3次元相対座標計測装置およびその方法
JP2013044597A (ja) 画像処理装置および方法、プログラム
KR20190108721A (ko) 360도 카메라와 평면 거울을 이용한 다시점 영상 획득 장치 및 방법
JP2022024688A (ja) デプスマップ生成装置及びそのプログラム、並びに、デプスマップ生成システム
JP2018205008A (ja) カメラキャリブレーション装置およびカメラキャリブレーション方法
JP6292785B2 (ja) 画像処理装置、画像処理方法およびプログラム
CN113424020B (zh) 测距摄像机

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190904

R151 Written notification of patent or utility model registration

Ref document number: 6585006

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees