JP6971934B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP6971934B2
JP6971934B2 JP2018151247A JP2018151247A JP6971934B2 JP 6971934 B2 JP6971934 B2 JP 6971934B2 JP 2018151247 A JP2018151247 A JP 2018151247A JP 2018151247 A JP2018151247 A JP 2018151247A JP 6971934 B2 JP6971934 B2 JP 6971934B2
Authority
JP
Japan
Prior art keywords
image
distance
information
statistical model
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018151247A
Other languages
English (en)
Other versions
JP2020026990A (ja
Inventor
直 三島
貴之 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2018151247A priority Critical patent/JP6971934B2/ja
Priority to US16/295,323 priority patent/US11100662B2/en
Publication of JP2020026990A publication Critical patent/JP2020026990A/ja
Application granted granted Critical
Publication of JP6971934B2 publication Critical patent/JP6971934B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • G06T7/596Depth or shape recovery from multiple images from stereo images from three or more stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Robotics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Processing (AREA)

Description

本発明の実施形態は、画像処理装置に関する。
二つのカメラやステレオカメラ(複眼のカメラ)で撮像された画像から、被写体までの距離を取得する技術が知られている。また、近時、一つのカメラ(単眼のカメラ)で一度に撮像された画像から、被写体までの距離を取得する技術が提案されている。
特開平8−43055号公報 特開2016−102733号公報
一つのカメラで一度に撮像された画像から、被写体までの距離を取得する場合、マルチショットが不要であることから、動物体へも適用することができる。当該一つのカメラで一度に撮像された画像から、被写体までの距離を取得する方法の一つとして、ぼけ情報を用いて距離を取得する方法が存在する。例えば、ぼけ情報をモデル化することによって距離を算出することができる。しかしながら、画像に含まれるぼけ情報がモデルから外れる場合、算出される距離の誤差が大きくなる可能性がある。
本発明が解決しようとする課題は、一つのカメラで一度に撮像された画像からのロバストな距離検出が可能な画像処理装置を提供することである。
実施形態によれば、画像処理装置は、画像取得部と、距離取得部とを具備する。画像取得部は、単一の結像光学系による一度の撮像によって得られる、非対称の第1形状のぼけを含む被写体の第1画像と、非対称の第2形状のぼけを含む前記被写体の第2画像とを取得する。距離取得部は、前記第1画像および前記第2画像を入力し、事前に学習された統計モデルによって、前記被写体までの距離情報を取得する。
実施形態に係る画像処理装置(画像処理部)を適用する測距装置の構成を示すブロック図。 同実施形態の画像処理装置を適用する測距装置内の撮像装置(撮像部)に設けられるフィルタの構成の例を示す図。 図2のフィルタの透過率特性の例を示す図。 図2のフィルタが配置されたカラー開口の光線変化と、ぼけの形状とを説明するための図。 同実施形態の画像処理装置のシステム構成の例を示すブロック図。 同実施形態の画像処理装置の画像からの距離検出に関する基本構造を示す図。 同実施形態の画像処理装置を適用する測距装置によって撮像される画像が距離に関して物理的な手がかり(ぼけ情報)を与えることを示す図。 同実施形態の画像処理装置が距離に関する物理的な手がかりであるぼけ情報を統計モデルで分析して被写体までの距離を推定することを示す図。 同実施形態の画像処理装置で適用し得る、統計モデルによって撮影画像から距離情報を推定する方式の第1例(パッチ方式)を示す図。 同実施形態の画像処理装置における統計モデルに対する撮影画像の情報の第1入力例を示す図。 同実施形態の画像処理装置で適用し得る、統計モデルによって撮影画像から距離情報を推定する方式の第2例を示す図。 同実施形態の画像処理装置における統計モデルに対する撮影画像の情報の第2入力例を示す図。 同実施形態の画像処理装置で適用し得る、統計モデルによって撮影画像から距離情報を推定する方式の第3例(画面一括方式)を示す図。 同実施形態の画像処理装置が備える統計モデルの学習方法の一例を示す図。 ぼけと距離との関係の一例を示す図。 同実施形態の画像処理装置が備える統計モデルの学習の流れを示すフローチャート。 同実施形態の画像処理装置における統計モデルによる画像からの距離検出の流れを示すフローチャート。 同実施形態の画像処理装置の一変形例の概要を説明するための図。 同実施形態の画像処理装置の一変形例における統計モデルの学習方法の一例を示す図。 同実施形態の画像処理装置の一変形例における統計モデルによる画像からの距離検出の流れを示すフローチャート。 同実施形態の画像処理装置を適用する測距装置を備える移動体の構成を示すブロック図。 同実施形態の画像処理装置を適用する測距装置を備える自動車の外観の例を示す斜視図。 同実施形態の画像処理装置を適用する測距装置を備えるドローンの外観の例を示す斜視図。 同実施形態の画像処理装置を適用する測距装置を備えるロボットの外観の例を示す斜視図。 同実施形態の画像処理装置を適用する測距装置を備えるロボットアームの外観の例を示す斜視図。
以下、実施の形態について図面を参照して説明する。
まず、図1を参照して、一実施形態に係る画像処理装置を適用する測距装置の構成を説明する。この測距装置1は、画像を撮像し、撮像された画像を用いて撮像地点から被写体までの距離(奥行きとも称する)を推定する。
この測距装置1は、画像を撮像する撮像部11と、撮像された画像を処理する画像処理部12とを備える。測距装置1は、撮像部11と画像処理部12とを備える一つの装置として実現されてもよいし、撮像部11に相当する撮像装置と、画像処理部12に相当する画像処理装置とのような複数の装置で構成されるシステムであってもよい。
図1に示すように、撮像部11は、フィルタ21とレンズ22とイメージセンサ23とを備える単眼カメラにより構成される。フィルタ21は、互いに異なる波長帯域(色成分)の光を透過する複数のフィルタ領域を含む。フィルタ21は、例えば、二色のカラーフィルタ領域である第1フィルタ領域211と第2フィルタ領域212とで構成される。
イメージセンサ23は、フィルタ21とレンズ22とを透過した光を受光し、受光した光を電気信号に変換(光電変換)する。イメージセンサ23には、例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)が用いられる。イメージセンサ23は、少なくとも二種類の撮像素子を含み、例えば、赤色(R)の光を受光する撮像素子を含む第1センサ231と、緑色(G)の光を受光する撮像素子を含む第2センサ232と、青色(B)の光を受光する撮像素子を含む第3センサ233とを備える。各撮像素子は、対応する波長帯域の光を受光し、受光した光を電気信号に変換する。この電気信号をA/D変換することによりカラー画像を生成することができる。以下では、画像のR成分、G成分、B成分である色成分画像(波長成分画像とも称する)を、それぞれR画像、G画像、B画像とも称する。なお、赤色、緑色、青色の撮像素子毎の電気信号を用いて、R画像、G画像、B画像をそれぞれ生成することもできる。つまり、撮像部11は、一度の撮像(ワンショット)で、カラー画像、R画像、G画像、およびB画像の少なくとも一つを生成することができる。
次いで、図2は、フィルタ21の構成の例を示す。フィルタ21は、互いに異なる光の波長帯域(色成分)を透過する複数のフィルタ領域を有し、2以上のフィルタ領域は、撮像部11の光学中心213に対して非点対称な形状である。フィルタ21は、例えば、二色のカラーフィルタ領域である第1フィルタ領域211と第2フィルタ領域212とで構成される。フィルタ21の中心は、撮像部11(レンズ22)の光学中心213と一致している。第1フィルタ領域211および第2フィルタ領域212はそれぞれ、光学中心213に対して非点対称である形状を有している。また、例えば、二つのフィルタ領域211,212は重複せず、且つ二つのフィルタ領域211,212によってフィルタ21の全領域を構成している。図2に示す例では、第1フィルタ領域211および第2フィルタ領域212はそれぞれ、円形のフィルタ21が光学中心213を通る線分で分割された半円の形状を有している。第1フィルタ領域211は、例えばイエロー(Y)のフィルタ領域であり、第2フィルタ領域212は、例えばシアン(C)のフィルタ領域である。なお、第1フィルタ領域211がマゼンタ(M)のフィルタ領域であって、第2フィルタ領域212がイエロー(Y)のフィルタ領域であってもよい。さらに、第1フィルタ領域211がシアン(C)のフィルタ領域であって、第2フィルタ領域212がマゼンタ(M)のフィルタ領域であってもよい。
各カラーフィルタが透過する波長帯域は異なる。一つのフィルタ領域が透過する光の波長帯域の一部と、別の一つのカラーフィルタ領域が透過する光の波長帯域の一部は、例えば重複する。一つのカラーフィルタ領域が透過する光の波長帯域は、例えば別の一つのカラーフィルタ領域が透過する光の波長帯域を含んでもよい。
なお、第1フィルタ領域211と第2フィルタ領域212とは、任意の波長帯域の透過率を変更するフィルタ、任意方向の偏光光を通過させる偏光フィルタ、または任意の波長帯域の集光パワーを変更するマイクロレンズであってもよい。例えば、任意の波長帯域の透過率を変更するフィルタは、原色フィルタ(RGB)、補色フィルタ(CMY)、色補正フィルタ(CC−RGB/CMY)、赤外線・紫外線カットフィルタ、NDフィルタ、または遮蔽板であってもよい。第1フィルタ領域211や第2フィルタ領域212がマイクロレンズである場合は、レンズ22により光線の集光の分布に偏りが生じることでぼけの形状が変化する。
以下では、説明を分かりやすくするために、図2に示すフィルタ21において、第1フィルタ領域211がイエロー(Y)のフィルタ領域であり、第2フィルタ領域212がシアン(C)のフィルタ領域である場合を主に例示する。
たとえば図2に示したフィルタ21がカメラの開口部に配置されることにより、開口部が二色で二分割された構造開口であるカラー開口が構成される。このカラー開口を透過する光線に基づいて、イメージセンサ23は画像を生成する。イメージセンサ23に入射する光の光路上において、フィルタ21とイメージセンサ23との間にレンズ22が配置されてもよい。イメージセンサ23に入射する光の光路上において、レンズ22とイメージセンサ23との間にフィルタ21が配置されてもよい。レンズ22が複数設けられる場合、フィルタ21は、2つのレンズ22の間に配置されてもよい。
第2センサ232に対応する波長帯域の光は、イエローの第1フィルタ領域211とシアンの第2フィルタ領域212の両方を透過する。第1センサ231に対応する波長帯域の光は、イエローの第1フィルタ領域211を透過し、シアンの第2フィルタ領域212を透過しない。第3センサ233に対応する波長帯域の光は、シアンの第2フィルタ領域212を透過し、イエローの第1フィルタ領域211を透過しない。
なお、ある波長帯域の光がフィルタまたはフィルタ領域を透過するとは、フィルタまたはフィルタ領域が高い透過率でその波長帯域の光を透過し、そのフィルタまたはフィルタ領域による当該波長帯域の光の減衰(すなわち、光量の低下)が極めて小さいことを意味する。また、ある波長帯域の光がフィルタまたはフィルタ領域を透過しないとは、光がフィルタまたはフィルタ領域に遮蔽されることであり、たとえば、フィルタまたはフィルタ領域が低い透過率でその波長帯域の光を透過し、そのフィルタまたはフィルタ領域による当該波長帯域の光の減衰が極めて大きいことを意味する。たとえばフィルタまたはフィルタ領域は、ある波長帯の光を吸収することにより光を減衰させる。
図3は、第1フィルタ領域211および第2フィルタ領域212の透過率特性の例を示す。なお、可視光の波長帯域のうち700nmより長い波長の光に対する透過率は図示を省略してあるが、その透過率は700nmの場合に近いものである。図3に示すイエローの第1フィルタ領域211の透過率特性215では、波長帯域が620nmから750nm程度のR画像に対応する光と、波長帯域が495nmから570nm程度のG画像に対応する光とが高い透過率で透過され、波長帯域が450nmから495nm程度のB画像に対応する光がほとんど透過されていない。また、シアンの第2フィルタ領域212の透過率特性216では、B画像およびG画像に対応する波長帯域の光が高い透過率で透過され、R画像に対応する波長帯域の光がほとんど透過されていない。
したがって、R画像(第1センサ231)に対応する波長帯域の光はイエローの第1フィルタ領域211のみを透過し、B画像(第3センサ233)に対応する波長帯域の光はシアンの第2フィルタ領域212のみを透過する。G画像(第2センサ232)に対応する波長帯域の光は、第1フィルタ領域211と第2フィルタ領域212を透過する。
このようなR画像、B画像および画像上のぼけの形状は被写体までの距離dに応じて、より詳細には、距離dと合焦距離dfとの差分に応じて変化する。合焦距離dfは、撮像位置から、画像上にぼけが発生しない(すなわち、ピントが合う)合焦位置までの距離である。また、各フィルタ領域211,212が光学中心213に対して非点対称な形状であるので、R画像上およびB画像上のぼけの形状は、被写体が合焦距離dfよりも手前にあるか、それとも奥にあるかによって異なり、また偏っている。R画像上およびB画像上のぼけの偏りの方向は、撮像位置から見て、被写体が合焦距離dfよりも手前にあるか、それとも奥にあるかによってそれぞれ反転する。
図4を参照して、フィルタ21が配置されたカラー開口による光線変化と、ぼけの形状とについて説明する。
被写体210が合焦距離dfよりも奥にある場合(d>df)、イメージセンサ23によって撮像された画像にはぼけが発生する。この画像のぼけの形状は、R画像、G画像およびB画像でそれぞれ異なっている。例えば、R画像のぼけの形状(201R)は左側に偏り、G画像のぼけの形状(201G)は偏りがなく、B画像のぼけの形状(201B)は右側に偏っている。また、被写体210が合焦距離dfから奥に離れる程、ぼけのサイズは大きくなる。ぼけは、隣接する画素との画素値の差分(勾配)を用いて検出することができる。
また、被写体210が合焦距離dfにある場合(d=df)、イメージセンサ23によって撮像された画像にはほとんどぼけが発生しない。この画像のぼけの形状は、R画像、G画像およびB画像でほぼ同じである。R画像のぼけの形状(201R)、G画像のぼけの形状(201G)およびB画像のぼけの形状(201B)のいずれも偏りがない。
また、被写体210が合焦距離dfよりも手前にある場合(d<df)、イメージセンサ23によって撮像された画像にはぼけが発生する。この画像のぼけの形状は、R画像、G画像およびB画像でそれぞれ異なっている。例えば、R画像のぼけの形状(201R)は右側に偏り、G画像のぼけの形状(201G)は偏りがなく、B画像のぼけの形状(201B)は左側に偏っている。また、被写体210が合焦距離dfから手前に離れる程、ぼけのサイズは大きくなる。
このように、被写体210が合焦距離dfよりも手前または奥にある場合、イエローの第1フィルタ領域211を透過した光線に基づくR画像のぼけの形状(201R,203R)は非対称であり、またシアンの第2フィルタ領域212を透過した光線に基づくB画像のぼけの形状(201B,203B)も非対称である。そして、そのR画像のぼけの形状(201R,203R)は、B画像のぼけの形状(201B,203B)とは異なっている。また、被写体210が合焦距離dfから離れる程、ぼけのサイズは大きくなる。
一方、画像処理部12は、図1に示すように、画像取得部121、距離取得部122および出力部123を備える。画像処理部12は、例えば、コンピュータまたは各種電子機器に内蔵される組み込みシステムとして実現され得る。画像処理部12は、その一部またはすべてがソフトウェア(プログラム)によって実現されても良いし、ハードウェア(電子回路)によって実現されても良い。
画像取得部121は、撮像部11によって生成され得るカラー画像、R画像、G画像およびB画像のうち、ぼけの形状が左側または右側に偏るR画像およびB画像を少なくとも取得する(撮影画像a1)。ここでは、撮像部11によってR画像、G画像およびB画像が生成され、画像取得部121は、これら3つの画像を取得するものと想定する。
距離取得部122は、画像取得部121によって取得される、ぼけの形状が左側または右側に偏るR画像およびB画像を少なくとも用いて、被写体までの距離を取得する。より詳しくは、距離取得部122は、事前に学習された統計モデル122Aによって、少なくともR画像およびB画像の2つの画像から被写体までの距離を取得する。統計モデル122Aは、ニューラルネットワークやランダムフォレストなどといった既知の様々な機械学習のアルゴリズムを適用することができる。ここでは、距離取得部122は、R画像、G画像およびB画像の3つの画像を用いて、被写体までの距離を取得するものと想定する。R画像、G画像およびB画像の3つの画像を用いた統計モデル122Aによる距離の取得の詳細については後述する。
出力部123は、距離取得部122によって取得された距離(距離情報a2)を、例えば、画像と位置的に対応づけて配置したマップ形式で出力する。例えば、画素値が距離を示す画像データとして、出力部123は、画素単位に取得される距離を出力する。画像データとして距離が出力される場合、この画像データを使って、色で距離を示す距離画像を表示することができる。出力部123から出力される距離を用いれば、例えば、被写体のサイズを算出することなども可能である。
図5は、画像処理部(画像処理装置)12のシステム構成を例示する。画像処理部12は、CPU31、RAM32、不揮発性メモリ33、および通信部34を備える。また、画像処理部12は、CPU31、RAM32、不揮発性メモリ33、および通信部34を相互に接続するバス35を有している。
CPU31は、画像処理部12内の様々なコンポーネントの動作を制御する。CPU31は、単一のプロセッサであってもよいし、複数のプロセッサで構成されていてもよい。CPU31は、不揮発性メモリ33からRAM32にロードされる様々なプログラムを実行する。これらプログラムは、オペレーティングシステム(OS)や様々なアプリケーションプログラムを含む。アプリケーションプログラムは、画像処理プログラム32Aを含む。この画像処理プログラム32Aは、被写体を撮像した画像を用いて、被写体までの距離を推定するための命令群を含む。また、RAM32は、主記憶装置として用いられる記憶媒体である。不揮発性メモリ33は、補助記憶装置として用いられる記憶媒体である。
通信部34は、有線通信または無線通信を実行するように構成されたデバイスである。通信部34は、信号を送信する送信部と信号を受信する受信部とを含む。通信部34は、ネットワークを介した外部機器との通信、周辺に存在する外部機器との通信等を実行する。この外部機器には撮像部11も含まれ得る。したがって、通信部34は、撮像部11から画像を受信してもよい。
図6は、本実施形態の画像処理装置(画像処理部12)を適用する測距装置1の画像からの距離検出に関する基本構造を示す図である。
測距装置1は、互いに異なる波長帯域の光を透過する複数のフィルタ領域を含むフィルタ21を備える撮像部11によって、ぼけが互いに異なる形状で発生する複数の画像を生成する(撮影画像a1)。画像処理部12は、この複数の画像の情報を、事前に学習された統計モデル122Aに入力し、統計モデル122Aによって、被写体までの距離を取得する(距離情報a2)。
図7は、互いに異なる波長帯域の光を透過する複数のフィルタ領域を含むフィルタ21を備える撮像部11によって生成される、ぼけが互いに異なる形状で発生する複数の画像(撮影画像a1)は、距離に関して物理的な手がかり(ほけ情報b1)を与えるものであることを示す図である。
図4を参照して説明した通り、被写体210がピント位置よりも奥にある場合、フィルタ21およびレンズ22を透過した光がイメージセンサ23に受光されて生成される複数の画像(撮影画像a1)のうち、R画像のぼけの形状(ぼけ情報b1)は左側に偏り、B画像のぼけの形状(ぼけ情報b1)は右側に偏る。一方、被写体210がピント位置よりも手前にある場合、フィルタ21およびレンズ22を透過した光がイメージセンサ23に受光されて生成される複数の画像(撮影画像a1)のうち、R画像のぼけの形状(ぼけ情報b1)は右側に偏り、B画像のぼけの形状(ぼけ情報b1)は左側に偏る。
つまり、本実施形態の画像処理装置1の撮像部11によって生成される複数の画像においては、R画像上およびB画像上のぼけの偏りの方向が、被写体210がピント位置よりも奥か手前かで反転するので、第1に、ぼけの色(形状)によって、被写体210がピント位置よりも奥か手前かを区別することができる。
また、被写体210がピント位置から離れる程、ぼけのサイズは大きくなるので、第2に、ぼけのサイズによって、ピント位置から被写体210までの距離を取得することができる。被写体210がピント位置よりも奥か手前かを区別することができ、かつ、ピント位置から被写体210までの距離を取得することができれば、撮影地点から被写体210までの距離を取得することができる。
このように、互いに異なる波長帯域の光を透過する複数のフィルタ領域を含むフィルタ21を備える撮像部11によって生成される、ぼけが互いに異なる形状で発生する複数の画像(撮影画像a1)は、距離に関して物理的な手がかり(ほけ情報b1)を与えるものである。
図8は、本実施形態の画像処理装置1が、距離に関する物理的な手がかりである撮影画像a1中のぼけ情報b1を統計モデル122Aで分析し、被写体210までの距離(距離情報a2)を推定することを示す図である。
図7を参照して説明した通り、この画像処理装置1の撮像部11によって生成される複数の画像(撮影画像a1)上のぼけ(ぼけ情報b1)は、被写体210までの距離に関する物理的な手がかりとなる。具体的には、ぼけの色(形状)やサイズが、被写体210までの距離に関する手がかりとなる。画像処理装置1の画像処理部12、より詳しくは、距離取得部122は、当該物理的な手がかりである撮影画像a1中のぼけ情報b1を統計モデル122Aで分析し、被写体210までの距離(距離情報a2)を推定する。
図9は、本実施形態の画像処理装置1で適用し得る、統計モデル122Aによって撮影画像a1から距離情報a2を推定する方式の第1例(パッチ方式)を示す図である。
第1例においては、距離取得部122は、撮影画像a1から局所領域(画像パッチa11)を抽出し、当該局所領域ごとに、撮影画像a1の情報を統計モデル122Aへ入力して距離情報a2を推定する。局所領域の抽出は、例えば、撮影画像a1の全領域をマトリックス状に分割し、分割後の部分領域を順次抽出することであってもよいし、撮影画像a1を認識して、被写体像が検出された領域を網羅するように、複数の局所領域を抽出することであってもよい。また、局所領域は、他の局所領域との間で一部がオーバーラップしていてもよい。
一方、撮影画像a1の情報が局所領域ごとに入力される統計モデル122Aは、その局所領域について画素ごとに距離を推定する。局所領域がオーバーラップして抽出される場合、オーバーラップ領域については、例えば、平均値を算出してもよいし、(3以上の局所領域がオーバーラップする場合)多数決で値を決定してもよい。
図10は、第1例における統計モデル122Aに対する撮影画像a1の情報の一入力例を示す図である。
撮影画像a1から局所領域(画像パッチa11)を抽出する距離取得部122は、R画像、G画像およびB画像のそれぞれについて、当該局所領域の勾配データΔa1(Δa1−R,Δa1−G,Δa1−B)を生成して、この勾配データΔa1を統計モデル122Aに入力する。勾配データΔa1は、各画素の隣接する画素との画素値の差分を示す。例えば、局所領域が、n画素(X軸方向)×m画素(Y軸方向)の矩形領域として抽出される場合、局所領域内の各画素について算出した例えば右隣の画素との差分値をn行×m列のマトリックス状に配置した勾配データΔa1が生成されて、統計モデル122Aに入力される。統計モデル122Aは、R画像の勾配データΔa1−Rと、G画像の勾配データΔa1−Gと、B画像の勾配データΔa1−Bとを使って、ぼけから距離情報を抽出する。なお、原理的には、R画像の勾配データΔa1−RとG画像の勾配データΔa1−Gとのペア、G画像の勾配データΔa1−GとB画像の勾配データΔa1−Bとのペア、または、B画像の勾配データΔa1−BとR画像の勾配データΔa1−Rとのペア、のいずれかが入力されれば、ペアの偏り具合から距離を判断できるので、ぼけから距離情報を抽出する条件は成立する。
図11は、本実施形態の画像処理装置1で適用し得る、統計モデル122Aによって撮影画像a1から距離情報a2を推定する方式の第2例を示す図である。
第2例においては、撮影画像a1の情報として、第1例における局所領域(画像パッチa11)ごとの勾配データΔa1の入力に加え、当該局所領域の撮影画像a1上における位置情報a12をさらに統計モデル122Aへ入力する。位置情報a12は、例えば、局所領域の中心点に対応するものであってもよいし、例えば左上辺などの予め定められた一辺に対応するものであってもよいし、画像パッチa11に含まれる画素それぞれの撮影画像a1上での位置情報を用いてもよい。
位置情報a12をさらに統計モデル122Aへ入力することで、例えば、レンズ22の中心部を透過する光によって結像された被写体像のぼけと、レンズ22の端部を透過する光によって結像された被写体像のぼけとの間で違いが生じる場合に、その違いが距離の推定に影響を及ぼすことを除去することができる。つまり、この第2例は、ぼけ、距離および画像上の位置の相関が学習された統計モデル122Aによって、撮影画像a1から距離情報a2を、より確実に推定することができる。
図12は、第2例における統計モデル122Aに対する撮影画像a1の情報の一入力例を示す図である。
例えば、n画素(X軸方向)×m画素(Y軸方向)の矩形領域を局所領域として抽出する場合、距離取得部122は、当該局所領域の例えば中心点に対応する撮影画像a1上のX座標値を、n×m個、n行×m列のマトリックス状に配置したX座標データa12−1と、当該局所領域の例えば中心点に対応する撮影画像a1上のY座標値を、n×m個、n行×m列のマトリックス状に配置したY座標データa12−2とを生成して、勾配データΔa1(Δa1−R,Δa1−G,Δa1−B)とともに、統計モデル122Aに入力する。
図13は、本実施形態の画像処理装置1で適用し得る、統計モデル122Aによって撮影画像a1から距離情報a2を推定する方式の第3例(画面一括方式)を示す図である。
第3例においては、距離取得部122は、第1例や第2例のような、撮影画像a1からの局所領域(画像パッチa11)の抽出は行わず、撮影画像a1の全領域について、撮影画像a1の情報(勾配データΔa1(Δa1−R,Δa1−G,Δa1−B))を統計モデル122Aに入力する。
局所領域ごとに距離(距離情報a2)が推定される第1例や第2例と比較して、統計モデル122Aによる推定の不確実性が高まる可能性はあるが、撮影画像a1からの局所領域の抽出を行わない当該第3例においては、距離取得部122の負荷を軽減することができる。
図14は、本実施形態の画像処理装置1が備える統計モデル122Aの学習方法の一例を示す図である。
図9を参照して説明した第1例、図11を参照して説明した第2例、図13を参照して説明した第3例のいずれの方式が適用される場合においても、統計モデル122Aの学習方法は、基本的に、撮影画像a1の情報を統計モデル122Aに入力し、統計モデル122Aによって推定された距離情報a2と正解値c1との誤差を統計モデル122Aにフィードバックするというものである。フィードバックとは、誤差が減少するように統計モデル122Aのパラメータを更新することである。
図9を参照して説明した第1例の方式が適用される場合、統計モデル122Aの学習時においても、局所領域(画像パッチa11)ごとに、撮影画像a1の情報(勾配データΔa1)が統計モデル122Aに入力され、統計モデル122Aによって推定された各局所領域内の各画素の距離情報a2と正解値c1とが比較される。また、図11を参照して説明した第2例の方式が適用される場合には、撮影画像a1の情報として、さらに、各局所領域の撮影画像a1上における位置情報a12が統計モデル122Aに入力される。図13を参照して説明した第3例の方式が適用される場合は、撮影画像a1の情報(勾配データΔa1)が全領域分一括して統計モデル122Aに入力され、統計モデル122Aによって推定された各画素の距離情報a2と正解値c1とが比較される。
図15は、ぼけと距離との関係を示す。図15では、被写体がピント位置よりも手前にある場合に発生するぼけのサイズをX軸上においてマイナスの値で示し、被写体がピント位置よりも奥にある場合に発生するぼけのサイズをX軸上においてプラスの値で示している。つまり、ぼけの色(形状)を正負で示している。被写体がピント位置よりも手前にある場合または被写体がピント位置よりも奥にある場合のいずれの場合においても、被写体がピント位置から離れる程、ぼけのサイズ(ピクセル)の絶対値は大きくなる。図15の例では、ピント位置が約1500mmであることを想定している。例えば、約−4.8ピクセルのぼけは、約1000mmの距離に対応し、0ピクセルのぼけは、1500mmの距離に対応し、約4.8ピクセルのぼけは、約2750mmの距離に対応する。
統計モデル122Aの学習時に、撮影画像a1の情報を統計モデル122Aに入力する場合、その撮影画像a1を撮影した際の被写体までの距離に対応する、色(形状)を正負で示すぼけのサイズが正解値c1として用いられる。換言すると、統計モデル122Aは、距離情報a2として、ぼけのサイズを出力する。図15の線分d1で示されるように距離とぼけのサイズとは相関があるので、距離を推定することと、ぼけのサイズを推定することとは同義である。しかしながら、撮影画像a1と、この撮影画像a1に含まれるぼけとは線形の関係にあるので、統計モデル122Aに直接的に距離を推定させる場合と比較して、統計モデル122Aにぼけのサイズを推定させる場合の方が、統計モデル122Aによる推定の精度を高めることができる。統計モデル122Aは、例えば、n画素(X軸方向)×m画素(Y軸方向)の局所領域ごとに撮影画像a1の情報が入力される場合、その局所領域の各画素について推定したぼけのサイズをn行×m列に配列した距離情報a2を出力する。
正解値c1は、入力した撮影画像a1の情報から統計モデル122Aによって推定された距離情報a2と比較される。例えば、本実施形態の画像処理装置1において取得可能な距離の下限値(手前)から上限値(奥)まで極力細かい粒度で被写体を各距離で撮影した撮影画像a1を用意し、これらの情報を統計モデル122Aに入力するとともに、それらを撮影した時の被写体までの距離に対応するぼけのサイズを正解値c1として用いる。統計モデル122Aの学習のための撮影画像a1は、被写体が異なる様々な撮影画像a1が用意されることが好ましい。
図16は、本実施形態の画像処理装置1が備える統計モデル122Aの学習の流れを示すフローチャートである。
まず、撮影画像a1の情報、より詳しくは、ぼけの形状が左側または右側に偏るR画像およびB画像の勾配データ(Δa1−R,Δa1−B)を少なくとも含む2種類以上の勾配データΔa1を統計モデル122Aへ入力する(ステップA1)。撮影画像a1の情報を、撮影画像a1から抽出した局所領域(画像パッチa11)ごとに入力する場合、当該局所領域の撮影画像a1上における位置情報a12をさらに統計モデル122Aへ入力してもよい。
統計モデル122Aに対して撮影画像a1の情報を入力すると、統計モデル122Aによって、被写体までの距離(距離情報a2)が推定される(ステップA2)。統計モデル122Aによって推定された距離(距離情報a2)は、正解値c1と比較され(ステップA3)、その誤差が、統計モデル122Aへフィードバックされる(ステップA4)。より詳しくは、誤差が減少するように統計モデル122Aのパラメータが更新される。
図17は、本実施形態の画像処理装置1における統計モデル122Aによる撮影画像a1からの距離情報a2の取得の流れを示すフローチャートである。
画像処理装置1は、互いに異なる波長帯域の光を透過する2以上のフィルタ領域(第1フィルタ領域211、第2フィルタ領域212)を含むフィルタ21を開口部に備えたカメラ(撮像部11)で画像(撮影画像a1)を撮影する(ステップB1)。
画像処理装置1は、撮影画像a1の情報、より詳しくは、ぼけの形状が左側または右側に偏るR画像およびB画像の勾配データ(Δa1−R,Δa1−B)を少なくとも含む2種類以上の勾配データΔa1を統計モデル122Aへ入力する(ステップB2)。
統計モデル122Aに対して撮影画像a1の情報を入力すると、統計モデル122Aによって、被写体までの距離(距離情報a2)が推定される(ステップB3)。画像処理装置1は、統計モデル122Aによって推定された距離(距離情報a2)を、例えば、撮影画像a1と位置的に対応づけて配置したマップ形式で出力する(ステップB4)。
このように、本実施形態の画像処理装置1は、撮像部11が、距離に関する物理的な手がかりであるぼけ情報b1を含む撮影画像a1を生成し、画像処理部12が、この撮影画像a1の情報を基に、統計モデル122Aによって距離(距離情報a2)を推定する。撮像部11によって生成される撮影画像a1中のぼけ情報b1は、被写体までの物理的な距離(距離情報a2)と相関があるため、例えば錯視に騙されるようなことのない、ロバストな距離検出が可能となる。また、統計情報に基づき、距離(距離情報a2)を推定することで、ぼけ情報をモデル化して距離を算出する場合のような、画像に含まれるぼけ情報がモデルから外れると、算出される距離の誤差が大きくなる可能性があるといった懸念材料を生じさせることがない。
次に、本実施形態の画像処理装置1の一変形例について説明する。図18は、当該一変形例の概要を説明するための図である。
図18に示すように、この変形例では、統計モデル122Aが、撮影画像a1の情報から距離情報a2を推定する際、その推定の不確実性の度合いを画素ごとに算出して、その値を不確実性情報a3として距離情報a2とともに出力する。統計モデル122Aによる推定の不確実性の度合いの算出方法は、特定の方法に限定されず、既知の様々な方法を適用することができる。
距離取得部122は、統計モデル122Aから出力される不確実性情報a3を調べ、その値が閾値以上であった場合、例えば、距離情報a2を破棄したり、不確実性情報a3の値が閾値未満であった、撮影画像a1上での周辺の距離情報a2を使って、その値が閾値以上の当該距離情報a2を補正したり、といった処置を施し、これらの処置が施された距離情報a2を出力部123へ転送する。補正は、例えば、周辺の距離情報a2の平均値を補正値としてもよいし、多数決で補正値を決定してもよい。破棄する場合は、例えば、その画素に対応する位置に無効を示す値を配置する。
このように、この変形例では、さらに、推定の不確実性の度合いの高い距離情報a2がそのまま使われてしまうことなどを防止することができる。
図19は、この変形例における統計モデル122Aの学習方法の一例を示す図である。
図19に示すように、統計モデル122Aが不確実性情報a3を出力する本変形例においても、基本的には、撮影画像a1の情報を統計モデル122Aに入力し、統計モデル122Aによって推定された距離情報a2と正解値c1との誤差を統計モデル122Aにフィードバックする。不確実性を学習する際には、距離情報と正解値との誤差を不確実性の二乗で割り算した誤差を用いることで学習時の偏りを減少させることができる。ただしそのままでは不確実性を無限大とすることで誤差をゼロにできてしまうため、不確実性の二乗をペナルティとして誤差に加算する。つまり、推定された距離情報a2と正解値c1との誤差を不確実性で補正した値が減少するように統計モデル122Aのパラメータを更新する。さらに、この変形例では、不確実性情報a3を用いて、学習の偏りをなくすことができる。例えば、推定された距離情報a2と正解値c1との誤差が無い一方で、不確実性情報a3で示される推定の不確実性の度合いが高い場合、その距離情報a2は偶然に推定された可能性があり、その距離の学習が不足していることを認識することができる。
図20は、この変形例における統計モデル122Aによる撮影画像a1からの距離情報a2の取得の流れを示すフローチャートである。
先に説明した図16のフローチャートとの違いを説明すると、まず、ステップB3において、統計モデル122Aによって、推定された距離(距離情報a2)の不確実性情報a3が出力される。
また、このステップB3とステップB4との間において、ステップB11とステップB12とが実行される。即ち、画像処理装置1は、推定された距離の中に不確実性が閾値以上のものが存在するか否かを調べる(ステップB11)。存在する場合(ステップB11:YES)、画像処理装置1は、例えば、撮影画像a1上の周辺の不確実性が閾値未満の距離を使って、当該不確実性が閾値以上の距離を補正する(ステップB12)。なお、画像処理装置1は、当該不確実性が閾値以上の距離を破棄してもよい。
このように、統計モデル122Aが不確実性情報a3を出力することで、学習時においては、学習の偏りをなくすことができ、実働時においては、誤って推定された距離がそのまま使用されることなどを防止することができる。
(応用例)
以下、前述のような構成を有する測距装置1が適用される応用例についていくつか説明する。
図21は、測距装置1を含む移動体9の機能構成例を示す。移動体9は、例えば、自動運転機能を有する自動車、無人航空機、自律型の移動ロボット等として実現され得る。無人航空機は、人が乗ることができない飛行機、回転翼航空機、滑空機、飛行船であって、遠隔操作または自動操縦により飛行させることができるものであり、例えば、ドローン(マルチコプター)、ラジコン機、農薬散布用ヘリコプター等を含む。自律型の移動ロボットは、無人搬送車(Automated Guided Vehicle:AGV)のような移動ロボット、床を掃除するための掃除ロボット、来場者に各種案内を行うコミュニケーションロボット等を含む。移動体9にはさらに、ロボット本体が移動するものだけでなく、ロボットアームのような、ロボットの一部分の移動・回転用の駆動機構を有する産業用ロボットも含まれ得る。
図21に示すように、移動体9は、例えば、測距装置1と制御信号生成部14と駆動機構15とを有する。測距装置1の内、少なくとも撮像部11は、例えば、移動体9またはその一部分の進行方向の被写体を撮像するように設置される。
図22に示すように、移動体9が自動車9Aである場合、撮像部11は、前方を撮像するいわゆるフロントカメラとして設置され得るほか、バック時に後方を撮像するいわゆるリアカメラとしても設置され得る。もちろん、これら両方が設置されてもよい。また、撮像部11は、いわゆるドライブレコーダーとしての機能を兼ねて設置されるものであってもよい。すなわち、撮像部11は録画機器であってもよい。
次いで、図23は、移動体9がドローン9Bである場合の例を示す。ドローン9Bは、駆動機構15に相当するドローン本体91と四つのプロペラ部921,922,923,924とを備える。各プロペラ部921,922,923,924はプロペラとモータとを有する。モータの駆動がプロペラに伝達されることによって、プロペラが回転し、その回転による揚力によってドローン9Bが浮上する。ドローン本体91の、例えば下部には、撮像部11(あるいは、撮像部11を含む測距装置1)が搭載されている。
また、図24は、移動体9が自律型の移動ロボット9Cである場合の例を示す。移動ロボット9Cの下部には、駆動機構15に相当する、モータや車輪等を含む動力部95が設けられている。動力部95は、モータの回転数や車輪の向きを制御する。移動ロボット9Cは、モータの駆動が伝達されることによって、路面または床面に接地する車輪が回転し、当該車輪の向きが制御されることにより任意の方向に移動することができる。撮像部11は、例えば、人型の移動ロボット9Cの頭部に、前方を撮像するように設置され得る。なお、撮像部11は、後方や左右を撮像するように設置されてもよいし、複数の方位を撮像するように複数設置されてもよい。また、センサ等を搭載するためのスペースが少ない小型ロボットに少なくとも撮像部11を設けて、自己位置、姿勢および被写体の位置を推定することにより、デッドレコニングを行うこともできる。
なお、移動体9の一部分の移動および回転を制御する場合、図25に示すように、撮像部11は、例えば、ロボットアーム9Dで把持される物体を撮像するように、ロボットアームの先端等に設置されてもよい。画像処理部12は、把持しようとする物体までの距離を推定する。これにより、物体の正確な把持動作を行うことができる。
制御信号生成部14は、測距装置1から出力される被写体までの距離に基づいて、駆動機構15を制御するための制御信号を出力する。駆動機構15は、制御信号により、移動体9または移動体の一部分を駆動する。駆動機構15は、例えば、移動体9またはその一部分の移動、回転、加速、減速、推力(揚力)の加減、進行方向の転換、通常運転モードと自動運転モード(衝突回避モード)の切り替え、およびエアバック等の安全装置の作動の内の少なくとも一つを行う。駆動機構15は、例えば、被写体までの距離がしきい値未満である場合、移動、回転、加速、推力(揚力)の加減、物体に近寄る方向への方向転換、および自動運転モード(衝突回避モード)から通常運転モードへの切り替えの内の少なくとも一つを行ってもよい。
自動車9Aの駆動機構15は、例えばタイヤである。ドローン9Bの駆動機構15は、例えばプロペラである。移動ロボット9Cの駆動機構15は、例えば脚部である。ロボットアーム9Dの駆動機構15は、例えば撮像部11が設けられた先端を支持する支持部である。
移動体9は、さらに画像処理部12からの被写体までの距離に関する情報が入力されるスピーカやディスプレイを備えていてもよい。スピーカやディスプレイは、被写体までの距離に関する音声または画像を出力する。スピーカやディスプレイは、測距装置1と有線または無線で接続されている。さらに、移動体9は、画像処理部12からの被写体までの距離に関する情報が入力される発光部を有していていもよい。発光部は、例えば、画像処理部12からの被写体までの距離に応じて点灯したり消灯したりする。
また、例えば、移動体9がドローンである場合、上空から、地図(物体の三次元形状)の作成、ビルや地形の構造調査、ひび割れや電線破断等の点検等が行われる際に、撮像部11は対象を撮影した画像を取得し、被写体までの距離が閾値以上であるか否かを判定する。制御信号生成部14は、この判定結果に基づいて、点検対象との距離が一定になるようにドローンの推力を制御するための制御信号を生成する。ここで、推力には揚力も含まれる。駆動機構15が、この制御信号に基づいてドローンを動作させることにより、ドローンを点検対象に並行して飛行させることができる。移動体9が監視用のドローンである場合、監視対象の物体との距離を一定に保つようにドローンの推力を制御するための制御信号を生成してもよい。
また、ドローンの飛行時に、撮像部11は地面方向を撮影した画像を取得し、地面との距離が閾値以上であるか否かを判定する。制御信号生成部14は、この判定結果に基づいて、地面からの高さが指定された高さになるようにドローンの推力を制御するための制御信号を生成する。駆動機構15が、この制御信号に基づいてドローンを動作させることにより、ドローンを指定された高さで飛行させることができる。農薬散布用ドローンであれば、ドローンの地面からの高さを一定に保つことで、農薬を均等に散布しやすくなる。
また、移動体9がドローンまたは自動車である場合、ドローンの連携飛行や自動車の連隊走行時に、撮像部11は、周囲のドローンや前方の自動車を撮影した画像を取得し、そのドローンや自動車までの距離が閾値以上であるか否かを判定する。制御信号生成部14は、この判定結果に基づいて、その周囲のドローンや前方の自動車との距離が一定になるように、ドローンの推力や自動車の速度を制御するための制御信号を生成する。駆動機構15が、この制御信号に基づいてドローンや自動車を動作させることにより、ドローンの連携飛行や自動車の連隊走行を容易に行うことができる。移動体9が自動車である場合、ドライバーが閾値を設定できるように、ユーザインタフェースを介してドライバーの指示を受理することで、閾値を変化させてもよい。これにより、ドライバーが好む車間距離で自動車を走行させられる。あるいは、前方の自動車との安全な車間距離を保つために、自動車の速度に応じて閾値を変化させてもよい。安全な車間距離は、自動車の速度によって異なる。そこで、自動車の速度が速いほど閾値を長く設定することができる。また、移動体9が自動車である場合に、進行方向の所定の距離を閾値に設定しておき、その閾値の手前に物体が現れた場合にブレーキが自動で作動したり、エアバック等の安全装置が自動で作動したりする制御信号生成部14を構成するとよい。この場合、自動ブレーキやエアバック等の安全装置が駆動機構15に設けられる。
以上説明したように、本実施形態によれば、一つのカメラで一度に撮像された画像からのロバストな距離検出が可能であるため、例えば、自動車、ドローン、ロボット等の各種の移動体9の動作を容易に制御することができる。
また、本実施形態に記載された様々な機能の各々は、回路(処理回路)によって実現されてもよい。処理回路の例には、中央処理装置(CPU)のような、プログラムされたプロセッサが含まれる。このプロセッサは、メモリに格納されたコンピュータプログラム(命令群)を実行することによって、記載された機能それぞれを実行する。このプロセッサは、電気回路を含むマイクロプロセッサであってもよい。処理回路の例には、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、マイクロコントローラ、コントローラ、他の電気回路部品も含まれる。本実施形態に記載されたCPU以外の他のコンポーネントの各々もまた処理回路によって実現されてもよい。
また、本実施形態の各種処理はコンピュータプログラムによって実現することができるので、このコンピュータプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのコンピュータプログラムをコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1…画像処理装置、11…撮像部、12…画像処理部、21…フィルタ、22…レンズ、23…イメージセンサ、121…画像取得部、122…距離取得部、122A…統計モデル、123…出力部、211…第1フィルタ領域、212…第1フィルタ領域、231…第1センサ、232…第2センサ、233…第3センサ。

Claims (10)

  1. 単一の結像光学系による一度の撮像によって得られる、非対称の第1形状のぼけを含む被写体の第1画像と、非対称の第2形状のぼけを含む前記被写体の第2画像とを取得する画像取得部と、
    前記第1画像および前記第2画像を入力し、事前に学習された統計モデルによって、前記被写体までの距離情報を取得する距離取得部と、
    を具備する画像処理装置。
  2. 前記結像光学系は、第1波長帯域の光を透過し、第2波長帯域の光を遮蔽する第1フィルタ領域と、前記第1波長帯域の光を遮蔽し、前記第2波長帯域の光を透過する第2フィルタ領域とを有するフィルタを被写体光の光路上に備え、
    前記第1画像は、前記第1波長帯域の光を受光して被写体像を結像する第1イメージセンサによって撮像され、
    前記第2画像は、前記第1フィルタ領域および前記第2フィルタ領域を透過する第3波長帯域の光を受光して被写体像を結像する第2イメージセンサまたは前記第2波長帯域の光を受光して被写体像を結像する第3イメージセンサによって撮像される、
    請求項1に記載の画像処理装置。
  3. 前記統計モデルは、ニューラルネットワークまたはランダムフォレストである請求項1または2に記載の画像処理装置。
  4. 前記距離取得部は、前記第1画像および前記第2画像から局所領域を抽出し、前記局所領域の前記第1画像および前記第2画像の情報を前記統計モデルに入力して、前記局所領域内の距離情報を取得する請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記統計モデルに入力される前記第1画像および前記第2画像の情報は、各画素の隣接する画素との画素値の差分を示す情報である請求項4に記載の画像処理装置。
  6. 前記距離取得部は、前記第1画像および前記第2画像の情報とともに、前記局所領域の位置情報を前記統計モデルに入力する請求項4または5に記載の画像処理装置。
  7. 前記位置情報は、前記第1画像上および前記第2画像上における前記局所領域の中心点の座標を示す情報である請求項6に記載の画像処理装置。
  8. 前記統計モデルは、前記第1画像および前記第2画像の少なくとも1画素以上について前記被写体までの距離を推定して前記距離情報を出力し、かつ、前記推定した距離の不確実性情報を出力する請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 前記距離取得部は、閾値以上の不確実性を示す前記不確実性情報とともに前記統計モデルから出力された距離情報を破棄する請求項8に記載の画像処理装置。
  10. 前記距離取得部は、閾値以上の不確実性を示す前記不確実性情報とともに前記統計モデルから出力された距離情報を、前記閾値未満の不確実性を示す前記不確実性情報とともに前記統計モデルから出力された前記第1画像上および前記第2画像上における周辺の距離情報を用いて補正する請求項8に記載の画像処理装置。
JP2018151247A 2018-08-10 2018-08-10 画像処理装置 Active JP6971934B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018151247A JP6971934B2 (ja) 2018-08-10 2018-08-10 画像処理装置
US16/295,323 US11100662B2 (en) 2018-08-10 2019-03-07 Image processing apparatus, ranging apparatus and processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018151247A JP6971934B2 (ja) 2018-08-10 2018-08-10 画像処理装置

Publications (2)

Publication Number Publication Date
JP2020026990A JP2020026990A (ja) 2020-02-20
JP6971934B2 true JP6971934B2 (ja) 2021-11-24

Family

ID=69406070

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018151247A Active JP6971934B2 (ja) 2018-08-10 2018-08-10 画像処理装置

Country Status (2)

Country Link
US (1) US11100662B2 (ja)
JP (1) JP6971934B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6991700B2 (ja) * 2016-04-28 2022-01-12 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP6989466B2 (ja) * 2018-09-13 2022-01-05 株式会社東芝 光学フィルタ、撮像装置および測距装置
JP7051740B2 (ja) 2019-03-11 2022-04-11 株式会社東芝 画像処理装置、測距装置、方法及びプログラム
JP7204586B2 (ja) 2019-06-17 2023-01-16 株式会社東芝 学習方法、プログラム及び画像処理装置
JP7170609B2 (ja) 2019-09-12 2022-11-14 株式会社東芝 画像処理装置、測距装置、方法及びプログラム
JP7123884B2 (ja) 2019-09-12 2022-08-23 株式会社東芝 撮像装置、方法及びプログラム
JP7370922B2 (ja) * 2020-04-07 2023-10-30 株式会社東芝 学習方法、プログラム及び画像処理装置
JP7446985B2 (ja) 2020-12-15 2024-03-11 株式会社東芝 学習方法、プログラム及び画像処理装置
JP7482070B2 (ja) 2021-03-16 2024-05-13 株式会社東芝 学習方法、プログラム及び画像処理装置
JP7447042B2 (ja) 2021-03-17 2024-03-11 株式会社東芝 画像処理装置、方法及びプログラム
JP2023065092A (ja) 2021-10-27 2023-05-12 株式会社東芝 測距装置、画像処理装置、方法及びプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0843055A (ja) 1994-07-29 1996-02-16 Canon Inc 3次元物体形状認識方法及び装置
US6118475A (en) 1994-06-02 2000-09-12 Canon Kabushiki Kaisha Multi-eye image pickup apparatus, and method and apparatus for measuring or recognizing three-dimensional shape
KR101488655B1 (ko) * 2007-09-14 2015-02-03 삼성전자 주식회사 자동 초점 조절 장치 및 방법
JP5045801B2 (ja) * 2009-09-09 2012-10-10 株式会社ニコン 焦点検出装置、撮影レンズユニット、撮像装置およびカメラシステム
US9626766B2 (en) * 2014-02-28 2017-04-18 Microsoft Technology Licensing, Llc Depth sensing using an RGB camera
JP2016102733A (ja) 2014-11-28 2016-06-02 株式会社東芝 レンズ及び撮影装置
US10148864B2 (en) * 2015-07-02 2018-12-04 Pixart Imaging Inc. Imaging device having phase detection pixels and regular pixels, and operating method thereof
US10382684B2 (en) 2015-08-20 2019-08-13 Kabushiki Kaisha Toshiba Image processing apparatus and image capturing apparatus
JP6608763B2 (ja) 2015-08-20 2019-11-20 株式会社東芝 画像処理装置及び撮影装置
JP6585006B2 (ja) 2016-06-07 2019-10-02 株式会社東芝 撮影装置および車両
US11210799B2 (en) * 2017-10-04 2021-12-28 Google Llc Estimating depth using a single camera
US11503201B2 (en) 2017-10-13 2022-11-15 Sony Corporation Focus detection device and method
US10748247B2 (en) * 2017-12-26 2020-08-18 Facebook, Inc. Computing high-resolution depth images using machine learning techniques
US11080590B2 (en) * 2018-03-21 2021-08-03 Nvidia Corporation Stereo depth estimation using deep neural networks
CN108932734B (zh) * 2018-05-23 2021-03-09 浙江商汤科技开发有限公司 单目图像的深度恢复方法及装置、计算机设备

Also Published As

Publication number Publication date
JP2020026990A (ja) 2020-02-20
US20200051264A1 (en) 2020-02-13
US11100662B2 (en) 2021-08-24

Similar Documents

Publication Publication Date Title
JP6971934B2 (ja) 画像処理装置
JP6878219B2 (ja) 画像処理装置および測距装置
JP7051740B2 (ja) 画像処理装置、測距装置、方法及びプログラム
US11748898B2 (en) Methods and system for infrared tracking
EP3107790B1 (en) Autonomous driving system and method for same
KR101579098B1 (ko) 스테레오 카메라, 이를 구비한 차량 운전 보조 장치, 및 차량
JP7123884B2 (ja) 撮像装置、方法及びプログラム
JP6971933B2 (ja) 画像処理装置及び撮像装置
CN112484691B (zh) 图像处理装置、测距装置、测距方法及记录介质
JP2019011971A (ja) 推定システムおよび自動車
CN108076263B (zh) 摄像装置及自动控制系统
US20220270222A1 (en) Image processing device, ranging device, and method
KR20220023989A (ko) 시스템, 정보 처리 장치, 정보 처리 방법 및 프로그램
JP6847891B2 (ja) 画像処理装置、撮像装置及び方法
JP2023065092A (ja) 測距装置、画像処理装置、方法及びプログラム
US20230141542A1 (en) Image processing device, method, and storage medium
JP7447042B2 (ja) 画像処理装置、方法及びプログラム
JP2022040134A (ja) 推定システムおよび自動車
CN116503822A (zh) 图像识别方法、装置及电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211102

R151 Written notification of patent or utility model registration

Ref document number: 6971934

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151