JP7136123B2 - 画像処理装置と画像処理方法およびプログラムと情報処理システム - Google Patents

画像処理装置と画像処理方法およびプログラムと情報処理システム Download PDF

Info

Publication number
JP7136123B2
JP7136123B2 JP2019558935A JP2019558935A JP7136123B2 JP 7136123 B2 JP7136123 B2 JP 7136123B2 JP 2019558935 A JP2019558935 A JP 2019558935A JP 2019558935 A JP2019558935 A JP 2019558935A JP 7136123 B2 JP7136123 B2 JP 7136123B2
Authority
JP
Japan
Prior art keywords
parallax
cost
pixel
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019558935A
Other languages
English (en)
Other versions
JPWO2019116708A1 (ja
Inventor
俊 海津
康孝 平澤
哲平 栗田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2019116708A1 publication Critical patent/JPWO2019116708A1/ja
Application granted granted Critical
Publication of JP7136123B2 publication Critical patent/JP7136123B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

この技術は、画像処理装置と画像処理方法およびプログラムと情報処理システムに関し、高精度に視差を検出できるようにする。
従来、偏光情報を用いてデプス情報を取得することが行われている。例えば特許文献1で示された画像処理装置は、複数視点の撮像画を用いたステレオマッチング処理によって生成した被写体までの距離を示すデプス情報(デプスマップ)を用いて、複数の視点位置で取得した偏光画像の位置合わせを行う。また、位置合わせ後の偏光画像を用いて検出した偏光情報に基づき法線情報(法線マップ)生成している。さらに、画像処理装置は、生成した法線情報を利用してデプス情報の高精度化を行っている。
また、非特許文献1では、ToF(Time of Flight)センサで得られたデプス情報と偏光情報に基づいて得られた法線情報を用いて、高精度のデプス情報を生成することが記載されている。
国際公開第2016/088483号
Achuta Kadamb,et al.「Polarized 3D: High-Quality Depth Sensing with Polarization Cues」.ICCV (2015).
ところで、特許文献1で示された画像処理装置は、複数視点の撮像画を用いたステレオマッチング処理によって検出した視差に基づきデプス情報を生成している。このため、平坦部ではステレオマッチング処理によって精度よく視差を検出することが困難であり、高精度にデプス情報を得ることができないおそれがある。また、非特許文献1のようにToFセンサを用いる場合、投射光が届かない状況や周辺環境が明るいために戻り光の検出が困難な状況では、デプス情報を得ることができない。また、投射光が必要となることから、電力消費量が多くなってしまう。
そこで、この技術では、被写体形状や撮像状況等の影響を受けにくく、高精度に視差を検出できる画像処理装置と画像処理方法およびプログラムと情報処理システムを提供することを目的とする。
この技術の第1の側面は、
偏光画像を含む複数視点画像の類似度に応じたコストを画素毎および視差毎に示すコストボリュームに対して、前記偏光画像に基づく画素毎の法線情報を用いてコスト調整処理を行い、前記コスト調整処理後の前記コストボリュームから、視差検出対象画素の視差毎のコストを用いて前記類似度が最も高い視差を検出する視差検出部
を備える画像処理装置にある。
この技術において、視差検出部は、偏光画像を含む複数視点画像の類似度に応じたコストを画素毎および視差毎に示すコストボリュームに対して、偏光画像に基づく画素毎の法線情報を用いてコスト調整処理を行う。コスト調整処理では、視差検出対象画素を基準とした周辺領域内の画素について視差検出対象画素の法線情報を用いて算出したコストに基づき視差検出対象画素のコスト調整を行う。また、コスト調整では、周辺領域内の画素について算出したコストに対して、視差検出対象画素の法線情報と周辺領域内の画素の法線情報との法線差分に応じた重み付けや、視差検出対象画素と周辺領域内の画素との距離に応じた重み付け、視差検出対象画素の輝度値と周辺領域内の画素の輝度値との差に応じた重み付けの少なくともいずれかを行うようにしてもよい。
視差検出部は、法線情報に基づき不定性を生じる法線方向毎にコスト調整処理を行い、法線方向毎にコスト調整処理が行われたコストボリュームを用いて、類似度が最も高い視差を検出する。また、コストボリュームは、所定画素単位を視差として生成されており、視差検出部は、類似度が最も高い所定画素単位の視差を基準とした所定視差範囲のコストに基づき、所定画素単位よりも高い分解能で前記類似度が最も高い視差を検出する。さらに、デプス情報生成部を設けて、視差検出部で検出された視差に基づいてデプス情報を生成する。
この技術の第2の側面は、
偏光画像を含む複数視点画像の類似度に応じたコストを画素毎および視差毎に示すコストボリュームに対して、前記偏光画像に基づく画素毎の法線情報を用いてコスト調整処理を行い、前記コスト調整処理後の前記コストボリュームから、視差検出対象画素の視差毎のコストを用いて前記類似度が最も高い視差を視差検出部で検出すること
を含む画像処理方法にある。
この技術の第3の側面は、
偏光画像を含む複数視点画像の処理をコンピュータで実行させるプログラムであって、
前記偏光画像を含む複数視点画像の類似度に応じたコストを画素毎および視差毎に示すコストボリュームに対して、前記偏光画像に基づく画素毎の法線情報を用いてコスト調整処理を行う手順と、
前記コスト調整処理後の前記コストボリュームから、視差検出対象画素の視差毎のコストを用いて前記類似度が最も高い視差を検出する手順と
を前記コンピュータで実行させるプログラムにある。
なお、本技術のプログラムは、例えば、様々なプログラム・コードを実行可能な汎用コンピュータに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体、例えば、光ディスクや磁気ディスク、半導体メモリなどの記憶媒体、あるいは、ネットワークなどの通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータ上でプログラムに応じた処理が実現される。
この技術の第4の側面は、
偏光画像を含む複数視点画像を取得する撮像部と、
前記撮像部で取得された複数視点画像の類似度に応じたコストを画素毎および視差毎に示すコストボリュームに対して、前記偏光画像に基づく画素毎の法線情報を用いてコスト調整処理を行い、前記コスト調整処理後の前記コストボリュームから、視差検出対象画素の視差毎のコストを用いて前記類似度が最も高い視差を検出する視差検出部と、
前記視差検出部で検出された視差に基づいてデプス情報を生成するデプス情報生成部とを備える情報処理システムにある。
この技術によれば、偏光画像を含む複数視点画像の類似度に応じたコストを画素毎および視差毎に示すコストボリュームに対して、偏光画像に基づく画素毎の法線情報を用いてコスト調整処理を行い、コスト調整処理後のコストボリュームから、視差検出対象画素の視差毎のコストを用いて類似度が最も高い視差が検出される。したがって、被写体形状や撮像状況等の影響を受けにくく、高精度に視差を検出できる。なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
本技術の情報処理システムの第1の実施の形態の構成を例示した図である。 撮像部21の構成を例示した図である。 法線情報生成部31の動作を説明するための図である。 輝度と偏光角との関係を例示した図である。 デプス情報生成部35の構成を例示した図である。 ローカルマッチ処理部361の動作を説明するための図である。 ローカルマッチ処理部361で生成されたコストボリュームを説明するための図である。 コストボリューム処理部363の構成を示した図である。 周辺画素の視差の算出動作を説明するための図である。 視差dNjにおけるコストCj,dNjの算出動作を説明するための図である。 コストが最小となる視差の検出動作を説明するための図である。 法線の不定性を有する場合を例示した図である。 処理対象画素における視差毎のコストを例示した図である。 撮像部21と撮像部22の配置を示した図である。 画像処理装置の動作を例示したフローチャートである。 本技術の情報処理システムの第2の実施の形態の構成を例示した図である。 デプス情報生成部35aの構成を例示した図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
以下、本技術を実施するための形態について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態
1-1.第1の実施の形態の構成
1-2.各部の動作
2.第2の実施の形態
2-1.第2の実施の形態の構成
2-2.各部の動作
3.他の実施の形態
4.適用例
<1.第1の実施の形態>
<1-1.第1の実施の形態の構成>
図1は、本技術の情報処理システムの第1の実施の形態の構成を例示している。情報処理システム10は、撮像装置20と画像処理装置30を用いて構成されている。撮像装置20は、複数の撮像部例えば撮像部21,22を有しており、画像処理装置30は、法線情報生成部31とデプス情報生成部35を有している。
撮像部21は、所望の被写体を撮像して得られた偏光画像信号を法線情報生成部31とデプス情報生成部35へ出力する。また、撮像部22は、撮像部21とは異なる視点位置から所望の被写体を撮像して得られた偏光画像信号または無偏光画像信号を生成してデプス情報生成部35へ出力する。
画像処理装置30の法線情報生成部31は、撮像部21から供給された偏光画像信号に基づき画素毎に法線方向を示す法線情報を生成して、デプス情報生成部35へ出力する。
デプス情報生成部35は、撮像部21と撮像部22から供給された視点位置の異なる2つの画像信号を用いて画像の類似度を示すコストを画素毎および視差毎に算出してコストボリュームを生成する。また、デプス情報生成部35は、撮像部21から供給された画像信号と法線情報生成部31で生成された法線情報を用いてコストボリュームに対するコスト調整処理を行う。デプス情報生成部35は、コスト調整処理後のコストボリュームから、視差検出対象画素の視差毎のコストを用いて類似度が最も高い視差を検出する。例えば、デプス情報生成部35は、コスト調整処理の処理対象画素と処理対象画素を基準とした周辺領域内の画素の法線情報を用いたフィルタ処理を画素毎および視差毎に行うことで、コストボリュームに対するコスト調整処理を行う。また、デプス情報生成部35は、処理対象画素と周辺領域内の画素の法線の差分や位置差、輝度差に基づき重みを算出して、算出した重みと法線情報生成部31で生成された法線情報を用いたフィルタ処理を画素毎および視差毎に行うことで、コスト調整処理を行ってもよい。デプス情報生成部35は、検出した視差と撮像部21と撮像部22の基線長および焦点距離から画素毎にデプスを算出してデプス情報を生成する。
<1-2.各部の動作>
次に、撮像装置20の各部の動作について説明する。撮像部21は、偏光方向が3方向以上である偏光画像信号を生成する。図2は、撮像部21の構成を例示している。例えば、図2の(a)は、撮像レンズ等を含む撮像光学系とイメージセンサ等で構成されたカメラブロック211の前面に偏光板212を設けた構成を示している。この構成の撮像部21は、偏光板212を回転させて撮像を行い、偏光方向が3方向以上である偏光方向毎の画像信号(以下「偏光画像信号」という)を生成する。図2の(b)は、イメージセンサ213の入射面に、偏光特性の算出が可能となるように偏光画素を設けるための偏光子214を配置した構成とされている。なお、図2の(b)では、各画素が4つの偏光方向のいずれかの偏光方向とされている。偏光画素は、図2の(b)に示すように4つの偏光方向の何れかである場合に限らず、3つの偏光方向であってもよい。また、異なる2つの偏光方向の偏光画素と無偏光画素を設けて、偏光特性を算出できるようにしてもよい。撮像部21が図2の(b)に示す構成である場合、同じ偏光方向の画素を用いた補間処理やフィルタ処理等によって、偏光方向が異なる画素位置の画素値を算出することで、図2の(a)に示す構成で生成される偏光方向毎の画像信号を生成できる。なお、撮像部21は、偏光画像信号を生成できる構成であればよく、図2に示す構成に限られない。撮像部21は、偏光画像信号を画像処理装置30へ出力する。
撮像部22は、撮像部21と同様に構成されていてもよく、偏光板212や偏光子214を用いていない構成であってもよい。撮像部22は、生成した画像信号(または偏光画像信号)を画像処理装置30へ出力する。
画像処理装置30の法線情報生成部31は、偏光画像信号に基づいて法線を取得する。図3は、法線情報生成部31の動作を説明するための図である。図3に示すように、例えば光源LTを用いて被写体OBの照明を行い、撮像部CMは偏光板PLを介して被写体OBの撮像を行う。この場合、撮像画像は、偏光板PLの偏光方向に応じて被写体OBの輝度が変化する。なお、最も高い輝度をImax,最も低い輝度をIminとする。また、2次元座標におけるx軸とy軸を偏光板PLの平面上として、x軸に対するy軸方向の角度を、偏光板PLの偏光方向(透過軸の角度)を示す偏光角υとする。偏光板PLは、偏光方向が180度回転させると元の偏光状態に戻り180度の周期を有している。また、最高輝度Imaxが観測されたときの偏光角υを方位角φとする。このような定義を行うと、偏光板PLの偏光方向を変化させると、観測される輝度I(υ)は式(1)の偏光モデル式であらわすことができる。なお、図4は、輝度と偏光角との関係を例示している。式(1)におけるパラメータA,B,Cは、偏光によるSin波形を表現するパラメータである。ここで、4つの偏光方向の輝度値、例えば偏光角υが「υ=0度」のときの観測値を輝度値I0、偏光角υが「υ=45度」のときの観測値を輝度値I45、偏光角υが「υ=90度」のときの観測値を輝度値I90、偏光角υが「υ=135度」のときの観測値を輝度値I135とすると、パラメータAは式(2)、パラメータBは式(3)、パラメータCは式(4)に基づいて算出される値となる。なお、詳細な説明は省略するが、偏光モデル式のパラメータは3つであることから、3つの偏光方向の輝度値を用いて、パラメータA,B,Cを算出することもできる。
Figure 0007136123000001
また、式(1)に示す偏光モデル式は、座標系を替えると式(5)となる。式(5)における偏光度ρは式(6)、方位角φは式(7)に基づいて算出される。なお、偏光度ρは偏光モデル式の振幅を示しており、方位角φは偏光モデル式の位相を示している。
Figure 0007136123000002
さらに、偏光度ρと被写体の屈折率nを用いて式(8)に基づき天頂角θを算出できることが知られている。なお、式(8)において、係数k0は式(9)に基づいて算出されて、k1は式(10)に基づいて算出される。さらに係数k2,k3は、式(11)(12)に基づいて算出される。
Figure 0007136123000003
したがって、法線情報生成部31は、上述の演算を行い方位角φと天頂角θを算出することで、法線情報N(Nx,Ny,Nz)を生成できる。法線情報NにおけるNxはx軸方向の成分であり、式(13)に基づいて算出される。また、Nyはy軸方向の成分であり式(14)に基づいて算出される。さらに、Nzはz軸方向の成分であり式(15)に基づいて算出される。
Nx=cos(φ)・sin(θ) ・・・(13)
Ny=sin(φ)・sin(θ) ・・・(14)
Nz=cos(θ) ・・・(15)
法線情報生成部31は、法線情報Nの生成を画素毎に行い、画素毎に生成した法線情報をデプス情報生成部35へ出力する。
図5は、デプス情報生成部35の構成を例示している。デプス情報生成部35は、視差検出部36とデプス算出部37を有している。また、視差検出部36は、ローカルマッチ処理部361、コストボリューム処理部363、最小値探索処理部365を有している。
ローカルマッチ処理部361は、撮像部21,22で生成された画像信号を用いて、一方の撮像画の画素毎に他方の撮像画の対応点を検出する。図6は、ローカルマッチ処理部361の動作を説明するための図であり、図6の(a)は撮像部21によって取得された左視点画像、図6の(b)は撮像部22によって取得された右視点画像を例示している。撮像部21と撮像部22は垂直方向の位置を一致させて水平に並んで配置されており、ローカルマッチ処理部361は、左視点画像における処理対象画素の対応点を右視点画像から検出する。具体的には、ローカルマッチ処理部361は、左視点画像における処理対象画素と垂直方向の位置が等しい右視点画像の画素位置を基準位置とする。例えば、ローカルマッチ処理部361は、左視点画像における処理対象画素と位置が等しい右視点画像の画素位置を基準位置とする。また、ローカルマッチ処理部361は、撮像部21に対する撮像部22の並び方向である水平方向を探索方向とする。ローカルマッチ処理部361は、処理対象画素と探索範囲の画素との類似度を示すコストを算出する。ローカルマッチ処理部361は、コストとして例えば式(16)に示すピクセルベースで算出した差分絶対値(Absolute Difference)を用いてもよく、式(17)に示すウィンドウベースで算出したゼロ平均差分絶対値和(Zero-mean Sum of Absolute Difference)を用いてもよい。また、類似度を示すコストは他の統計量例えば相互相関係数等を用いてもよい。
Figure 0007136123000004
式(16)において、「Li」は左視点画像における処理対象画素iにおける輝度値、「d」は右視点画像の基準位置からの画素単位の距離を示しており視差に相当する。「Ri+d」は右視点画像における基準位置から視差dを生じた画素の輝度値を示している。また、式(17)において、「x,y」はウィンドウ内の位置を示しており、バーLiは処理対象画素iを基準とした周辺領域の輝度平均値、バーRi+dは基準位置から視差dを生じた位置を基準とした周辺領域の輝度平均値を示している。また、式(16)や式(17)を用いた場合、算出値が小さくなるほど類似度が高い。
また、ローカルマッチ処理部361は、撮像部22から無偏光の画像信号が供給される場合、撮像部21から供給された偏光画像信号に基づき無偏光の画像信号を生成して、ローカルマッチ処理を行う。例えば、上述のパラメータCは無偏光成分を示していることから、ローカルマッチ処理部361は、画素毎のパラメータCを示す信号を無偏光の画像信号として用いる。また、偏光板や偏光子を用いたことにより感度が低下することから、ローカルマッチ処理部361は、偏光画像信号から生成した無偏光の画像信号に対して、撮像部22から無偏光の画像信号と同等の感度となるようにゲイン調整を行ってもよい。
ローカルマッチ処理部361は、左視点画像の各画素で視差毎に類似度を算出してコストボリュームを生成する。図7は、ローカルマッチ処理部361で生成されたコストボリュームを説明するための図である。図7では、同一視差における左視点画像の各画素で算出された類似度を1つの平面として示している。したがって、左視点画像の各画素で算出された類似度を示す平面が、視差探索範囲の探索移動量(視差)毎に設けられて、コストボリュームが構成されている。ローカルマッチ処理部361は生成したコストボリュームをコストボリューム処理部363へ出力する。
コストボリューム処理部363は、ローカルマッチ処理部361で生成されたコストボリュームに対して、高精度に視差検出を行うことができるようにコスト調整処理を行う。コストボリューム処理部363は、コスト調整処理の処理対象画素と処理対象画素を基準とした周辺領域内の画素の法線情報を用いたフィルタ処理を画素毎および視差毎に行うことで、コストボリュームに対するコスト調整処理を行う。また、デプス情報生成部35は、処理対象画素と周辺領域内の画素の法線の差分や位置差、輝度差に基づき重みを算出して、算出した重みと法線情報生成部31で生成された法線情報を用いたフィルタ処理を画素毎および視差毎に行うことで、コストボリュームに対するコスト調整処理を行ってもよい。
次に、処理対象画素と周辺領域内の画素の法線の差分や位置差、輝度差に基づき重みを算出して、算出した重みと法線情報生成部31で生成された法線情報を用いたフィルタ処理を画素毎および視差毎に行う場合について説明する。
図8は、コストボリューム処理部363の構成を示している。コストボリューム処理部363は、重み算出処理部3631と周辺視差算出処理部3632とフィルタ処理部3633を有している。
重み算出処理部3631は、処理対象画素と周辺画素の法線情報や位置,輝度に応じて重みを算出する。重み算出処理部3631は、処理対象画素と周辺画素の法線情報に基づいて距離関数値を算出して、算出した距離関数値と、処理対象画素と周辺領域内の画素の位置および/または輝度を用いて、周辺画素の重みを算出する。
重み算出処理部3631は、処理対象画素と周辺画素の法線情報を用いて距離関数値を算出する。例えば、処理対象画素iにおける法線情報Ni=(Ni,x,Ni,y,Ni,z)、周辺画素jにおける法線情報Nj=(Nj,x,Nj,y,Nj,z)とする。この場合、処理対象画素iと周辺領域内の周辺画素jとの距離関数値dist(Ni-Nj)は、式(18)で算出された値であり法線差分を示している。
Figure 0007136123000005
重み算出処理部3631は、距離関数値dist(Ni-Nj)と例えば処理対象画素iの位置Piと周辺画素jの位置Pjを用いて、式(19)に基づき、処理対象画素に対する周辺画素の重みWi,jを算出する。なお、式(19)において、パラメータσsは空間の類似度調整のためのパラメータであり、パラメータσnは法線の類似度調整のためのパラメータであり、パラメータKiは正規化項である。パラメータσs,σn,Kiは予め設定されている。
Figure 0007136123000006
また、重み算出処理部3631は、距離関数値dist(Ni-Nj)と処理対象画素iの位置Piと輝度値Iiおよび周辺画素jの位置Pjと輝度値Ijを用いて、式(20)に基づき、周辺領域内の画素の重みWi,jを算出してもよい。なお、式(20)において、パラメータσcは輝度の類似度調整のためのパラメータであり、パラメータσcは予め設定されている。
Figure 0007136123000007
重み算出処理部3631は、処理対象画素に対する各周辺画素についての重みを算出してフィルタ処理部3633へ出力する。
周辺視差算出処理部3632は、処理対象画素に対する周辺画素の視差を算出する。図9は周辺画素の視差の算出動作を説明するための図である。撮像面をx-y平面としたとき処理対象画素の位置Pi(=xi、xj)は被写体OBの位置Qiに対応しており、周辺画素の位置Pj(=xj,yj)は被写体OBの位置Qjに対応している。周辺視差算出処理部3632は、処理対象画素iの位置Piすなわち被写体OBの位置Qiにおける法線情報Ni=(Ni,x,Ni,y,Ni,z)と、周辺画素jの位置Pjすなわち被写体OBの位置Qjにおける法線情報Nj=(Nj,x,Nj,y,Nj,z)、および視差diを用いて、式(21)に基づき周辺画素jの視差dNjを算出する。
Figure 0007136123000008
周辺視差算出処理部3632は、処理対象画素に対する各周辺画素について視差dNjを算出してフィルタ処理部3633へ出力する。
フィルタ処理部3633は、重み算出処理部3631で算出した各周辺画素の重みと周辺視差算出処理部3632で算出した各周辺画素の視差を用いて、ローカルマッチ処理部361で算出したコストボリュームのフィルタ処理を行う。フィルタ処理部3633は、重み算出処理部3631で算出した処理対象画素iに対する周辺領域内の画素jの重みWi,jと、処理対象画素iに対する周辺領域内の画素jの視差dNjを用いて式(22)に基づきフィルタ処理後のコストボリュームを算出する。
Figure 0007136123000009
周辺画素のコストボリュームは視差d毎に算出されており、視差dは画素単位の値であり整数値である。また、式(20)で算出された周辺画素の視差dNjは整数値に限られない。そこで、フィルタ処理部3633は、視差dNjが整数値でない場合、視差dNjと近い視差のコストボリュームを用いて視差dNjのコストCj,dNjを算出する。図10は、視差dNjにおけるコストCj,dNjの算出動作を説明するための図である。例えば、フィルタ処理部3633は、視差dNjの端数処理を行い、小数点以下を切り捨てた視差daと小数点以下を切り上げた視差da+1を算出する。さらに、フィルタ処理部3633は視差daのコストCaと視差da+1のコストCa+1を用いた直線補間によって、視差dNjにおけるコストCj,dNjを算出する。
フィルタ処理部3633は、処理対象画素に対して、重み算出処理部3631で算出した各周辺画素の重みと周辺視差算出処理部3632で算出した各周辺画素の視差dNjのコストCj,dNjを用いて式(22)に示すようにコストCNi,dを算出する。さらに、フィルタ処理部3633は、各画素を処理対象画素として視差毎にコストCNi,dの算出を行う。このように、フィルタ処理部3633は、処理対象画素と周辺画素の法線情報や位置,輝度の関係を利用して、視差の違いによるコスト変化において、類似度の最も高い視差を強調するようにコストボリュームのコスト調整処理を行う。フィルタ処理部3633は、コスト調整処理後のコストボリュームを最小値探索処理部365へ出力する。
なお、式(22)や式(25)において重みWi,jを「1」とすれば、フィルタ処理部3633では、法線情報に基づいたフィルタ処理によってコスト調整処理が行われることになる。また、式(19)に基づいて算出した重みWi,jを用いれば、法線情報と同一視差における面方向の距離に基づいたフィルタ処理によってコスト調整処理が行われることになる。さらに、式(20)に基づいて算出した重みWi,jを用いれば、法線情報と同一視差における面方向の距離と輝度変化に基づいたフィルタ処理によってコスト調整処理が行われることになる。
最小値探索処理部365は、フィルタ処理後のコストボリュームに基づき、画像が最も類似する視差を検出する。コストボリュームは、視差毎のコストが画素毎に示されており、上述したように、コストが小さいほど類似度が高い。したがって、最小値探索処理部365は、コストが最小値となる視差を画素毎に検出する。
図11は、コストが最小となる視差の検出動作を説明するための図であり、パラボラフィッティングを用いてコストが最小となる視差を検出する場合を例示している。
最小値探索処理部365は、対象画素における視差毎のコストから最小値を含む連続した視差範囲のコストを用いてパラボラフィッティングを行う。例えば、最小値探索処理部365は、視差毎に算出したコストにおける最小のコストCxの視差dxを中心として、連続した視差範囲のコストすなわち視差dx-1のコストCx-1と視差dx+1のコストCx+1を用いて、式(23)に基づき視差dxよりもさらにコストが最小となる変位量δだけ離れた視差dtを対象画素の視差とする。このように、整数単位の視差dから小数精度の視差dtを算出して、デプス算出部37へ出力する。
Figure 0007136123000010
また、視差検出部36は、法線の不定性を含めて視差を検出してもよい。この場合、周辺視差算出処理部3632は、不定性を有する法線について一方の法線を示す法線情報Niを用いて、上述のように視差dNjを算出する。また、周辺視差算出処理部3632は、他方の法線を示す法線情報Miを用いて、式(24)に基づき、視差dMjを算出してフィルタ処理部3633へ出力する。図12は法線の不定性を有する場合を例示しており、例えば90度の不定性を有して法線情報Niと法線情報Miが得られているとする。なお、図12の(a)は、対象画素における法線情報Niで示された法線方向を示しており、図12の(b)は、対象画素における法線情報Miで示された法線方向を示している。
Figure 0007136123000011
フィルタ処理部3633は、法線の不定性を含めてフィルタ処理を行う場合、重み算出処理部3631で算出した各周辺画素の重みと周辺視差算出処理部3632で算出した周辺画素の視差dMjを用いて、式(25)に示すコスト調整処理を、各画素を処理対象画素として行う。フィルタ処理部3633は、コスト調整処理後のコストボリュームを最小値探索処理部365へ出力する。
Figure 0007136123000012
最小値探索処理部365は、法線情報Nに基づくフィルタ処理後のコストボリュームと法線情報Mに基づくフィルタ処理後のコストボリュームから、コストが最小値となる視差を画素毎に検出する。
図13は、処理対象画素における視差毎のコストを例示している。なお実線VCNは法線情報Niに基づくフィルタ処理後のコストを示しており、破線VCMは法線情報Miに基づくフィルタ処理後のコストを示している。この場合、視差毎のコストが最小となるコストボリュームは、法線情報Niに基づくフィルタ処理後のコストボリュームであることから、法線情報Niに基づくフィルタ処理後のコストボリュームを用いて、処理対象画素における視差毎のコストが最小となる視差を基準とした視差毎のコストから小数精度の視差dtを算出する。
デプス算出部37は、視差検出部36で検出された視差に基づいてデプス情報を生成する。図14は、撮像部21と撮像部22の配置を示している。撮像部21と撮像部22の間隔は基線長Lbとされており、撮像部21と撮像部22は焦点距離fである。デプス算出部37は、視差検出部36で検出された視差dtと基線長Lbと焦点距離fを用いて式(26)の演算を画素毎に行い、画素毎の奥行きZを示すデプスマップをデプス情報として生成する。
Z=Lb×f/dt ・・・(26)
図15は、画像処理装置の動作を例示したフローチャートである。ステップST1で画像処理装置は複数視点の撮像画を取得する。画像処理装置30は撮像装置20から、撮像部21,22で生成された偏光画像を含む複数視点の撮像画の画像信号を取得してステップST2に進む。
ステップST2で画像処理装置は法線情報を生成する。画像処理装置30は、撮像装置20から取得した偏光画像に基づき、各画素の法線方向を示す法線情報を生成してステップST3に進む。
ステップST3で画像処理装置はコストボリュームを生成する。画像処理装置30は、撮像装置20から取得した偏光撮像画と偏光撮像画と異なる視点の撮像画の画像信号を用いてローカルマッチ処理を行い、各画素における画像の類似度を示すコストの算出を視差毎に行う。画像処理装置30は、視差毎に算出した各画素のコストを示すコストボリュームを生成してステップST4に進む。
ステップST4で画像処理装置はコストボリュームに対するコスト調整処理を行う。画像処理装置30は、ステップST2で生成した法線情報を用いて、処理対象画素に対する周辺領域内の画素の視差を算出する。また、画像処理装置30は、処理対象画素と周辺画素の法線情報や位置,輝度に応じて重みを算出する。さらに、画像処理装置30は、周辺領域内の画素の視差または周辺領域内の画素の視差と処理対象画素の重みを用いて、類似度の最も高い視差を強調するようにコストボリュームのコスト調整処理を行いステップST5に進む。
ステップST5で画像処理装置は最小値探索処理を行う。画像処理装置30は、フィルタ処理後のコストボリュームから対象画素における視差毎のコストを取得して、コストが最小となる視差を検出する。また、画像処理装置30は、各画素を対象画素として画素毎にコストが最小となる視差を検出してステップST6に進む。
ステップST6で画像処理装置はデプス情報を生成する。画像処理装置30は、撮像部21,22の焦点距離と、撮像部21と撮像部22の間隔を示す基線長、およびステップST5で画素毎に検出した最小コストの視差に基づき、画素毎にデプスを算出して、各画素のデプスを示すデプス情報を生成する。なお、ステップST2とステップST3の処理は、いずれの処理を先に行ってもよい。
このように、第1の実施の形態によれば、ローカルマッチ処理で検出可能な視差よりも高精度に視差を画素毎に検出できるようになる。また、検出された高精度の視差を用いて、画素毎のデプス情報を精度よく生成できるようになり、投射光等を用いることなく高精度のデプスマップを得られるようになる。
<2.第2の実施の形態>
<2-1.第2の実施の形態の構成>
図16は、本技術の情報処理システムの第2の実施の形態の構成を例示している。情報処理システム10aは、撮像装置20aと画像処理装置30aを有している。撮像装置20aは撮像部21,22,23を有しており、また、画像処理装置30aは、法線情報生成部31とデプス情報生成部35aを有している。
撮像部21は、所望の被写体を撮像して得られた偏光画像信号を法線情報生成部31とデプス情報生成部35aへ出力する。また、撮像部22は、撮像部21とは異なる視点位置から所望の被写体を撮像して得られた偏光画像信号または無偏光画像信号をデプス情報生成部35aへ出力する。また、撮像部23は、撮像部21,22とは異なる視点位置から所望の被写体を撮像して得られた偏光画像信号または無偏光画像信号をデプス情報生成部35aへ出力する。
画像処理装置30aの法線情報生成部31は、撮像部21から供給された偏光画像信号に基づき画素毎に法線方向を示す法線情報を生成して、デプス情報生成部35aへ出力する。
デプス情報生成部35aは、撮像部21と撮像部22から供給された視点位置の異なる2つの画像信号を用いて画像の類似度を示すコストを画素毎および視差毎に算出してコストボリュームを生成する。また、デプス情報生成部35aは、撮像部21と撮像部23から供給された視点位置の異なる2つの画像信号を用いて画像の類似度を示すコストを画素毎および視差毎に算出してコストボリュームを生成する。さらに、デプス情報生成部35aは、撮像部21から供給された画像信号と法線情報生成部31で生成された法線情報を用いて、それぞれのコストボリュームに対してコスト調整処理を行う。また、デプス情報生成部35aは、コスト調整処理後のコストボリュームから、視差検出対象画素の視差毎のコストを用いて類似度が最も高い視差を検出する。デプス情報生成部35aは、検出した視差と撮像部21と撮像部22の基線長および焦点距離から画素毎にデプスを算出してデプス情報を生成する。
<2-2.各部の動作>
次に、撮像装置20aの各部の動作について説明する。撮像部21,22は第1の実施の形態と同様に構成されており、撮像部23は撮像部22と同様に構成されている。撮像部21は、生成した偏光画像信号を画像処理装置30aの法線情報生成部31へ出力する。また、撮像部22は、生成した画像信号を画像処理装置30aへ出力する。さらに、撮像部23は、生成した画像信号を画像処理装置30aへ出力する。
画像処理装置30aの法線情報生成部31は、第1の実施の形態と同様に構成されており、偏光画像信号に基づいて法線情報を生成する。法線情報生成部31は、生成した法線情報をデプス情報生成部35aへ出力する。
図17はデプス情報生成部35aの構成を例示している。デプス情報生成部35aは、視差検出部36aとデプス算出部37を有している。また、視差検出部36aは、ローカルマッチ処理部361,362、コストボリューム処理部363,364、最小値探索処理部366を有している。
ローカルマッチ処理部361は、第1の実施の形態と同様に構成されており、撮像部21,22で得られた撮像画を用いて、一方の撮像画の画素毎に他方の撮像画の対応点の類似度を算出してコストボリュームを生成する。ローカルマッチ処理部361は、生成したコストボリュームをコストボリューム処理部363へ出力する。
ローカルマッチ処理部362は、ローカルマッチ処理部361と同様に構成されており、撮像部21,23で得られた撮像画を用いて、一方の撮像画の画素毎に他方の撮像画の対応点の類似度を算出してコストボリュームを生成する。ローカルマッチ処理部362は、生成したコストボリュームをコストボリューム処理部364へ出力する。
コストボリューム処理部363は、第1の実施の形態と同様に構成されている。コストボリューム処理部363は、ローカルマッチ処理部361で生成したコストボリュームに対して、視差を高精度に検出できるようにコスト調整処理を行い、コスト調整処理後のコストボリュームを最小値探索処理部366へ出力する。
コストボリューム処理部364は、コストボリューム処理部363と同様に構成されている。コストボリューム処理部364は、ローカルマッチ処理部362で生成したコストボリュームに対して、視差を高精度に検出できるようにコスト調整処理を行い、コスト調整処理後のコストボリュームを最小値探索処理部366へ出力する。
最小値探索処理部366は、第1の実施の形態と同様に、コスト調整後のコストボリュームに基づき、最も類似する視差、すなわち類似度が最小値を示す視差を画素毎に検出する。また、デプス算出部37は、第1の実施の形態と同様に、視差検出部36で検出された視差に基づいてデプス情報を生成する。
このような第2の実施の形態によれば、第1の実施の形態と同様に、高精度に視差を画素毎に検出できるようになり、高精度のデプスマップを得られるようになる。また、第2の実施の形態によれば、撮像部21,22で取得された画像信号だけでなく、撮像部23で取得された画像信号を用いて視差を検出できる。したがって、撮像部21,22で取得された画像信号に基づき視差を算出する場合に比べて、より確実に各画素について精度よく視差を検出することが可能となる。
また、撮像部21,22,23は一方向に並べて配置してもよく複数方向に配置してもよい。例えば撮像装置20aは、撮像部21と撮像部22を水平方向に設けて、撮像部21と撮像部23を垂直方向に設けてもよい。この場合、水平方向に並んだ撮像部で取得された画像信号では精度よく視差を検出することが困難な被写体部分でも、垂直方向に並んだ撮像部で取得された画像信号に基づき精度よく視差を検出することが可能となる。
<3.他の実施の形態>
上述の実施の形態では、カラーフィルタ用いることなく得られた画像信号を用いて視差の検出やデプス情報の生成を行う場合について説明したが、撮像部にカラーモザイクフィルタ等を設けて、画像処理装置は、撮像部で生成されたカラー画像信号を用いて視差の検出やデプス情報の生成を行うようにしてもよい。この場合、画像処理装置は、撮像部で生成された画像信号を用いてデモザイク処理を行い色成分毎の画像信号を生成して、例えば色成分毎の画像信号を用いて算出した画素の輝度値を用いればよい。また、画像処理装置は、撮像部で生成された色成分が等しい偏光画素の画素信号を用いて法線情報を生成する。
<4.適用例>
また、本開示に係る技術は、様々な製品へ適用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
図18は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図18に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であってもよいし、赤外線等の非可視光であっても良い。
車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図18の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも1つを含んでいてもよい。
図19は、撮像部12031の設置位置の例を示す図である。
図19では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図19には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術の撮像装置20,20aは、以上説明した構成のうち、撮像部12031等に適用され得る。また、本開示に係る技術の画像処理装置30,30aは、以上説明した構成のうち、車外情報検出ユニット12030に適用され得る。このように、本開示に係る技術を車両制御システムに適用すれば、デプス情報を精度よく取得できるので、取得したデプス情報を利用して被写体の立体形状の認識等を行うことで、ドライバの疲労軽減や自動運転に必要な情報を高精度に取得することが可能になる。
明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させる。または、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。
例えば、プログラムは記録媒体としてのハードディスクやSSD(Solid State Drive)、ROM(Read Only Memory)に予め記録しておくことができる。あるいは、プログラムはフレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、BD(Blu-Ray Disc(登録商標))、磁気ディスク、半導体メモリカード等のリムーバブル記録媒体に、一時的または永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
また、プログラムは、リムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトからLAN(Local Area Network)やインターネット等のネットワークを介して、コンピュータに無線または有線で転送してもよい。コンピュータでは、そのようにして転送されてくるプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、本明細書に記載した効果はあくまで例示であって限定されるものではなく、記載されていない付加的な効果があってもよい。また、本技術は、上述した実施の形態に限定して解釈されるべきではない。この技術の実施の形態は、例示という形態で本技術を開示しており、本技術の要旨を逸脱しない範囲で当業者が実施の形態の修正や代用をなし得ることは自明である。すなわち、本技術の要旨を判断するためには、請求の範囲を参酌すべきである。
また、本技術の画像処理装置は以下のような構成も取ることができる。
(1) 光画像を含む複数視点画像の類似度に応じたコストを画素毎および視差毎に示すコストボリュームに対して、前記偏光画像に基づく画素毎の法線情報を用いてコスト調整処理を行い、前記コスト調整処理後の前記コストボリュームから、視差検出対象画素の視差毎のコストを用いて前記類似度が最も高い視差を検出する視差検出部
を備える画像処理装置。
(2) 前記視差検出部は、前記視差毎に前記コスト調整処理を行い、前記コスト調整処理では、前記視差検出対象画素を基準とした周辺領域内の画素について前記視差検出対象画素の前記法線情報を用いて算出したコストに基づき前記視差検出対象画素のコスト調整を行う(1)に記載の画像処理装置。
(3) 前記視差検出部は、前記周辺領域内の画素について算出した前記コストに対して、前記視差検出対象画素の法線情報と前記周辺領域内の画素の法線情報との法線差分に応じた重み付けを行う(2)に記載の画像処理装置。
(4) 前記視差検出部は、前記周辺領域内の画素について算出した前記コストに対して、前記視差検出対象画素と前記周辺領域内の画素との距離に応じた重み付けを行う(2)または(3)に記載の画像処理装置。
(5) 前記視差検出部は、前記周辺領域内の画素について算出した前記コストに対して、前記視差検出対象画素の輝度値と前記周辺領域内の画素の輝度値との差に応じた重み付けを行う(2)乃至(4)のいずれかに記載の画像処理装置。
(6) 前記視差検出部は、前記法線情報に基づき不定性を生じる法線方向毎に前記コスト調整処理を行い、前記法線方向毎にコスト調整処理が行われたコストボリュームを用いて、前記類似度が最も高い視差を検出する(1)乃至(5)のいずれかに記載の画像処理装置。
(7) 前記コストボリュームは、所定画素単位を視差として生成されており、
前記視差検出部は、前記類似度が最も高い所定画素単位の視差を基準とした所定視差範囲のコストに基づき、前記所定画素単位よりも高い分解能で前記類似度が最も高い視差を検出する(1)乃至(6)のいずれかに記載の画像処理装置。
(8) 前記視差検出部で検出された視差に基づいてデプス情報を生成するデプス情報生成部をさらに備える(1)乃至(7)のいずれかに記載の画像処理装置。
この技術の画像処理装置と画像処理方法およびプログラムと情報処理システムによれば、偏光画像を含む複数視点画像の類似度に応じたコストを画素毎および視差毎に示すコストボリュームに対して、偏光画像に基づく画素毎の法線情報を用いてコスト調整処理を行い、コスト調整処理後のコストボリュームから、視差検出対象画素の視差毎のコストを用いて類似度が最も高い視差が検出される。このため、被写体形状や撮像状況等の影響を受けにくく、高精度に視差を検出できる。したがって、立体形状を精度よく検出することが必要な機器等に適している。
10,10a・・・情報処理システム
20,20a・・・撮像装置
21,22,23・・・撮像部
30,30a・・・画像処理装置
31・・・法線情報生成部
35,35a・・・デプス情報生成部
36,36a・・・視差検出部
37・・・デプス算出部
211・・・カメラブロック
212・・・偏光板
213・・・イメージセンサ
214・・・偏光子
361,362・・・ローカルマッチ処理部
363,364・・・コストボリューム処理部
3631・・・重み算出処理部
3632・・・周辺視差算出処理部
3633・・・フィルタ処理部
365,366・・・最小値探索処理部

Claims (11)

  1. 偏光画像を含む複数視点画像の類似度に応じたコストを画素毎および視差毎に示すコストボリュームに対して、前記偏光画像に基づく画素毎の法線情報を用いてコスト調整処理を行い、前記コスト調整処理後の前記コストボリュームから、視差検出対象画素の視差毎のコストを用いて前記類似度が最も高い視差を検出する視差検出部
    を備える画像処理装置。
  2. 前記視差検出部は、前記視差毎に前記コスト調整処理を行い、前記コスト調整処理では、前記視差検出対象画素を基準とした周辺領域内の画素について前記視差検出対象画素の前記法線情報を用いて算出したコストに基づき前記視差検出対象画素のコスト調整を行う
    請求項1に記載の画像処理装置。
  3. 前記視差検出部は、前記周辺領域内の画素について算出した前記コストに対して、前記視差検出対象画素の法線情報と前記周辺領域内の画素の法線情報との法線差分に応じた重み付けを行う
    請求項2に記載の画像処理装置。
  4. 前記視差検出部は、前記周辺領域内の画素について算出した前記コストに対して、前記視差検出対象画素と前記周辺領域内の画素との距離に応じた重み付けを行う
    請求項2に記載の画像処理装置。
  5. 前記視差検出部は、前記周辺領域内の画素について算出した前記コストに対して、前記視差検出対象画素の輝度値と前記周辺領域内の画素の輝度値との差に応じた重み付けを行う
    請求項2に記載の画像処理装置。
  6. 前記視差検出部は、前記法線情報に基づき不定性を生じる法線方向毎に前記コスト調整処理を行い、前記法線方向毎にコスト調整処理が行われたコストボリュームを用いて、前記類似度が最も高い視差を検出する
    請求項1に記載の画像処理装置。
  7. 前記コストボリュームは、所定画素単位を視差として生成されており、
    前記視差検出部は、前記類似度が最も高い所定画素単位の視差を基準とした所定視差範囲のコストに基づき、前記所定画素単位よりも高い分解能で前記類似度が最も高い視差を検出する
    請求項1に記載の画像処理装置。
  8. 前記視差検出部で検出された視差に基づいてデプス情報を生成するデプス情報生成部をさらに備える
    請求項1に記載の画像処理装置。
  9. 偏光画像を含む複数視点画像の類似度に応じたコストを画素毎および視差毎に示すコストボリュームに対して、前記偏光画像に基づく画素毎の法線情報を用いてコスト調整処理を行い、前記コスト調整処理後の前記コストボリュームから、視差検出対象画素の視差毎のコストを用いて前記類似度が最も高い視差を視差検出部で検出すること
    を含む画像処理方法。
  10. 偏光画像を含む複数視点画像の処理をコンピュータで実行させるプログラムであって、
    前記偏光画像を含む複数視点画像の類似度に応じたコストを画素毎および視差毎に示すコストボリュームに対して、前記偏光画像に基づく画素毎の法線情報を用いてコスト調整処理を行う手順と、
    前記コスト調整処理後の前記コストボリュームから、視差検出対象画素の視差毎のコストを用いて前記類似度が最も高い視差を検出する手順と
    を前記コンピュータで実行させるプログラム。
  11. 偏光画像を含む複数視点画像を取得する撮像部と、
    前記撮像部で取得された複数視点画像の類似度に応じたコストを画素毎および視差毎に示すコストボリュームに対して、前記偏光画像に基づく画素毎の法線情報を用いてコスト調整処理を行い、前記コスト調整処理後の前記コストボリュームから、視差検出対象画素の視差毎のコストを用いて前記類似度が最も高い視差を検出する視差検出部と、
    前記視差検出部で検出された視差に基づいてデプス情報を生成するデプス情報生成部とを備える情報処理システム。
JP2019558935A 2017-12-12 2018-10-12 画像処理装置と画像処理方法およびプログラムと情報処理システム Active JP7136123B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017237586 2017-12-12
JP2017237586 2017-12-12
PCT/JP2018/038078 WO2019116708A1 (ja) 2017-12-12 2018-10-12 画像処理装置と画像処理方法およびプログラムと情報処理システム

Publications (2)

Publication Number Publication Date
JPWO2019116708A1 JPWO2019116708A1 (ja) 2020-12-17
JP7136123B2 true JP7136123B2 (ja) 2022-09-13

Family

ID=66820206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019558935A Active JP7136123B2 (ja) 2017-12-12 2018-10-12 画像処理装置と画像処理方法およびプログラムと情報処理システム

Country Status (4)

Country Link
US (1) US20210217191A1 (ja)
JP (1) JP7136123B2 (ja)
CN (1) CN111465818B (ja)
WO (1) WO2019116708A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010256138A (ja) 2009-04-23 2010-11-11 Canon Inc 撮像装置及びその制御方法
JP2015114307A (ja) 2013-12-16 2015-06-22 ソニー株式会社 画像処理装置と画像処理方法および撮像装置
WO2017138245A1 (ja) 2016-02-08 2017-08-17 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
CN113313740A (zh) 2021-05-17 2021-08-27 北京航空航天大学 一种基于平面连续性的视差图和表面法向量联合学习方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040039062A (ko) * 2002-10-30 2004-05-10 (주)웰텍소프트 조도차와 양안시 혼합 방식에 의한 3차원 형상 계측을위한 디지털 현미경
JP4069855B2 (ja) * 2003-11-27 2008-04-02 ソニー株式会社 画像処理装置及び方法
CN101308018B (zh) * 2008-05-30 2010-09-15 汤一平 基于双目全方位视觉传感器的立体视觉测量装置
DE102010064593A1 (de) * 2009-05-21 2015-07-30 Koh Young Technology Inc. Formmessgerät und -verfahren
US9582889B2 (en) * 2009-07-30 2017-02-28 Apple Inc. Depth mapping based on pattern matching and stereoscopic information
JP5809390B2 (ja) * 2010-02-03 2015-11-10 株式会社リコー 測距・測光装置及び撮像装置
CN103563363A (zh) * 2011-05-19 2014-02-05 汤姆逊许可公司 立体视觉图像的自动转换以便允许同时进行图像的立体视觉和平面视觉显示
JP2013025298A (ja) * 2011-07-26 2013-02-04 Sony Corp 立体画像撮像装置
JP6045417B2 (ja) * 2012-12-20 2016-12-14 オリンパス株式会社 画像処理装置、電子機器、内視鏡装置、プログラム及び画像処理装置の作動方法
JP6565188B2 (ja) * 2014-02-28 2019-08-28 株式会社リコー 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
US9389069B2 (en) * 2014-03-26 2016-07-12 Alces Technology, Inc. Compact 3D depth capture systems
US11206388B2 (en) * 2014-12-01 2021-12-21 Sony Corporation Image processing apparatus and image processing method for aligning polarized images based on a depth map and acquiring a polarization characteristic using the aligned polarized images
JP6488203B2 (ja) * 2015-07-01 2019-03-20 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像処理システム、多視点カメラ、および画像処理方法
CN105513064B (zh) * 2015-12-03 2018-03-20 浙江万里学院 一种基于图像分割和自适应权重的立体匹配方法
US10559095B2 (en) * 2016-08-31 2020-02-11 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and medium
CN106780590B (zh) * 2017-01-03 2019-12-24 成都通甲优博科技有限责任公司 一种深度图的获取方法及系统
CN106910222A (zh) * 2017-02-15 2017-06-30 中国科学院半导体研究所 基于双目立体视觉的人脸三维重建方法
CN107330930B (zh) * 2017-06-27 2020-11-03 晋江市潮波光电科技有限公司 三维图像深度信息提取方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010256138A (ja) 2009-04-23 2010-11-11 Canon Inc 撮像装置及びその制御方法
JP2015114307A (ja) 2013-12-16 2015-06-22 ソニー株式会社 画像処理装置と画像処理方法および撮像装置
WO2017138245A1 (ja) 2016-02-08 2017-08-17 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
CN113313740A (zh) 2021-05-17 2021-08-27 北京航空航天大学 一种基于平面连续性的视差图和表面法向量联合学习方法

Also Published As

Publication number Publication date
US20210217191A1 (en) 2021-07-15
CN111465818A (zh) 2020-07-28
WO2019116708A1 (ja) 2019-06-20
CN111465818B (zh) 2022-04-12
JPWO2019116708A1 (ja) 2020-12-17

Similar Documents

Publication Publication Date Title
WO2017159382A1 (ja) 信号処理装置および信号処理方法
CN108496178B (zh) 用于估计未来路径的系统和方法
JP6834964B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US11206388B2 (en) Image processing apparatus and image processing method for aligning polarized images based on a depth map and acquiring a polarization characteristic using the aligned polarized images
JP6819681B2 (ja) 撮像制御装置および方法、並びに車両
JP6760298B2 (ja) 情報取得装置と情報取得方法
JP6819680B2 (ja) 撮像制御装置および方法、並びに車両
JP6883215B2 (ja) 計測装置および方法、並びにプログラム
JP6764573B2 (ja) 画像処理装置、画像処理方法、およびプログラム
WO2019073920A1 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
WO2017212928A1 (ja) 画像処理装置、画像処理方法、および車両
JP6701532B2 (ja) 画像処理装置および画像処理方法
WO2019181284A1 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
JP7147784B2 (ja) 画像処理装置と画像処理方法およびプログラム
WO2019021591A1 (ja) 画像処理装置と画像処理方法とプログラムおよび画像処理システム
CN105793909B (zh) 用于借助车辆周围环境的通过摄像机采集的两个图像产生警告的方法和设备
WO2019093136A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP7136123B2 (ja) 画像処理装置と画像処理方法およびプログラムと情報処理システム
JP2013161187A (ja) 物体認識装置
WO2020036044A1 (ja) 画像処理装置と画像処理方法およびプログラム
WO2020017172A1 (ja) 情報処理装置と情報処理方法およびプログラム
WO2019221151A1 (ja) 撮像システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220815

R151 Written notification of patent or utility model registration

Ref document number: 7136123

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151