JP6340795B2 - 画像処理装置、画像処理システム、画像処理方法、画像処理プログラム、及び移動体制御装置 - Google Patents

画像処理装置、画像処理システム、画像処理方法、画像処理プログラム、及び移動体制御装置 Download PDF

Info

Publication number
JP6340795B2
JP6340795B2 JP2013273083A JP2013273083A JP6340795B2 JP 6340795 B2 JP6340795 B2 JP 6340795B2 JP 2013273083 A JP2013273083 A JP 2013273083A JP 2013273083 A JP2013273083 A JP 2013273083A JP 6340795 B2 JP6340795 B2 JP 6340795B2
Authority
JP
Japan
Prior art keywords
feature amount
image processing
polarization
image
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013273083A
Other languages
English (en)
Other versions
JP2015128228A (ja
Inventor
亮介 笠原
亮介 笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013273083A priority Critical patent/JP6340795B2/ja
Priority to EP14198105.0A priority patent/EP2889806A3/en
Publication of JP2015128228A publication Critical patent/JP2015128228A/ja
Application granted granted Critical
Publication of JP6340795B2 publication Critical patent/JP6340795B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Vascular Medicine (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、所定の撮像領域を撮像して取得した偏光画像を処理することで、撮像領域に存在する物体を検出する画像処理装置、画像処理システム、画像処理方法、及び画像処理プログラム、並びにその検出結果を利用して、車両やロボットなどの移動体を制御する移動体制御装置に関する。
カメラ装置の撮像素子上に領域分割した偏光フィルタを配置し、画素毎に取得する光の偏光方向(P偏光、S偏光)を変えることで、偏光成分情報としてP偏光成分の強度に対応するP偏光成分情報を含むP偏光画像、及び偏光成分情報としてS偏光成分の強度に対応するS偏光成分情報を含むS偏光画像を取得し、それらの偏光画像から差分偏光度(SDOP:Sub Degree of Polarization)などの偏光情報を取得することで、物体の識別を可能にした立体物識別装置が知られている(特許文献1)。
より詳しく述べると、例えば、道路のアスファルト部分の差分偏光度を基準差分偏光度とし、識別対象領域の差分偏光度と基準差分偏光度との差分である相対差分偏光度が閾値以上の領域を路面構造物領域(マンホールなど)として抽出する。このように、差分偏光度の絶対量ではなく相対量を用いることで、撮影環境の違い(昼間と夜間などの時間帯の違い、晴天と雨天などの天候の違い)等の影響で、識別対象領域の差分偏光度の算出値にズレが生じても、同じ影響でズレが生じている基準差分偏光度との相対量を用いることで、ズレによる誤検出を防止している。
そして、抽出された路面構造物領域のエッジ情報と、予め記憶しておいた路面構造物の形状テンプレートの情報とを用いて、近似曲線を取得し、最小二乗法やハフ変換やモデル方程式を用いて、形状近似認識を行い、路面構造物を特定する。
しかしながら、上記の立体物識別装置では、識別対象領域の内外の偏光情報の差分に基づいて、識別対象物のエッジを抽出する構成であるため、前記識別対象外の部分(上記の基準差分偏光度)をどこに選ぶかにより、偏光の光源方向依存性、即ちカメラ装置に対する光源の方向の変化に基づき前記偏光情報の差分値に大きく変動が生じ、誤検出が多いという問題がある。
本発明は、このような問題を解決するためになされたものであり、その目的は、撮像装置により取得した偏光画像を利用した物体認識処理において、認識性能を向上させることである。
本発明は、所定の撮像領域を撮像して取得した偏光画像を処理して、前記撮像領域に存在する物体を識別する画像処理装置であって、前記偏光画像から識別対象の形状を示す領域内の局所領域における偏光情報の差分に基づく第1の特徴量を取得する第1の特徴量取得手段と、前記撮像領域を撮像して取得した輝度画像から前記領域内の局所領域における輝度情報の差分に基づく第2の特徴量を取得する第2の特徴量取得手段と、前記第1の特徴量取得手段により取得された前記第1の特徴量と前記第2の特徴量取得手段により取得された前記第2の特徴量とが並列に入力され、並列に入力された該第1の特徴量および該第2の特徴量を用いて、前記識別対象の物体を識別する対象識別手段と、を有し、前記局所領域における偏光情報の差分は、隣接する局所領域間の偏光情報の差分である、画像処理装置である。
本発明によれば、撮像装置により取得した偏光画像を利用した物体認識処理において、認識性能を向上させることができる。また、入力される特徴量の次元数が増加するため、検出性能を向上させることができる。また、特徴がある領域が輝度と偏光とで異なるため、2種類の特徴量を組み合わせることで、認識性能を向上させることもできる。
本発明の実施形態に係る画像処理装置を含む移動体制御装置の概略構成を示すブロック図である。 図1における輝度/偏光画像生成部、画像認識部、及び車両制御部を実現するハードウェアであるコンピュータシステムの一例を示すブロック図である。 図1における撮像装置に設けられている光学フィルタの正面図である。 図1における撮像装置に設けられている光学フィルタ、撮像素子及び基板の断面図である。 物体による反射のモデルを説明するための図である。 多数の人物の平均像の輝度画像を示す図である。 多数の人物の平均像の輝度画像のSobelフィルタ出力を示す図である。 図6における輝度画像を輝度値とともに示す図である。 多数の人物の平均像の偏光画像を偏光情報の強度値とともに示す図である。 図1における画像認識部の第1の実施形態の機能ブロック図である。 図9における偏光情報特徴量算出部の一例について説明するための図である。 図1における画像認識部の第2の実施形態の機能ブロック図である。 図1における画像認識部の第3の実施形態の機能ブロック図である。 本発明の第1の実施形態の画像認識部及び第2の実施形態の画像認識部の効果について説明するためのグラフの一例を示す図である。 従来の輝度画像のみを用いる認識結果、並びに本発明の実施形態に係る偏光画像及び輝度画像を用いる認識結果について説明するための図である。
以下、本発明の実施形態について図面を参照して説明する。
〈移動体制御装置の概略構成〉
図1は、本発明の実施形態に係る画像処理装置を含む移動体制御装置の概略構成を示すブロック図である。
この移動体制御装置は、撮像装置10、輝度/偏光画像生成部20、画像認識部30、及び車両制御部40を備えている。ここで、輝度/偏光画像生成部20、及び画像認識部30が画像処理装置を構成する。また、この画像処理装置と撮像装置10とが画像処理システムを構成し、この画像処理装置と車両制御部40とが移動体制御装置を構成する。
この移動体制御装置は移動体としての車両に搭載され、フロントガラスの前方の撮像領域に存在する人や他の車両などを検出したとき、減速や停止制御を行うものである。ただし、本発明に係る移動体制御装置は、車両以外の移動体、例えばロボットの制御に適用することもできる。
撮像装置10は、偏光カメラと呼ばれる偏光画像の取得機能を有するものであり、撮像レンズと、撮像素子と、光学フィルタとを内蔵しており、フロントガラスの前方の撮像領域からの入射光を撮像素子上に結像させ、電気信号に変換することで、撮像領域の画像Iを取得する。ここで、画像Iは画素毎にP偏光成分情報を含むP偏光画像と、画素毎にS偏光成分情報を含むS偏光画像とからなる。P偏光画像及びS偏光画像を取得するための手段の詳細については後述する。
画像Iは輝度/偏光画像生成部20に入力される。輝度/偏光画像生成部20は、画像Iから輝度画像、及びSDOPなどの偏光情報を含む偏光画像を生成して、それらの画像からなる画像Iを出力する。
画像Iは、画像認識部30に入力される。画像認識部30は、画像Iのうちの偏光画像のみ、又は偏光画像及び輝度画像の双方を用いて、対象物(人や車両)を検出する。画像認識部30の詳細については後述する。
画像認識部30による認識結果は、移動体制御手段としての車両制御部40へ送出される。車両制御部40は、入力された認識結果に基づいて、車両のブレーキやステアリング操作の補助などの車両制御を行う。
〈画像処理装置及び車両制御部のハードウェア構成〉
図2は、図1における輝度/偏光画像生成部20、画像認識部30、及び車両制御部40を実現するハードウェアであるコンピュータシステムの一例を示すブロック図である。
このコンピュータシステム200は、バス210と、それぞれがバス210に接続された各種の制御及び処理を行うCPU220、ROM230、RAM240、HDD(ハードディスク)250、及びI/O260を備えている。I/O260には撮像装置10が接続される。
RAM240は、CPU220の作業領域として利用される。ROM230(書き換え可能なものも含む)は、各種制御プログラムやテーブル、パラメータなどの固定情報の記録領域として利用される。
輝度/偏光画像生成部20、画像認識部30、及び車両制御部40を実現する画像処理プログラムは、図示されていない光学ドライブ装置にDVD−ROMなどの記録媒体をセットすることで、HDD250に一旦保存された後に必要なときにRAM240にロードされる。処理の対象となる画像はI/O260に撮像装置10を介して入力される。
〈P偏光画像及びS偏光画像の取得〉
次に撮像装置10においてP偏光画像及びS偏光画像を取得する手段について説明する。図3は、図1における撮像装置10に設けられている光学フィルタの正面図であり、図4は、図1における撮像装置10に設けられている光学フィルタ、撮像素子及び基板の断面図である。
光学フィルタ13において、フィルタ基板131は、撮像レンズ(図示せず)を介して光学フィルタ13に入射する入射光を透過させる透明な基板である。フィルタ基板131の撮像素子12側の面には、偏光フィルタ層132が形成されている。偏光フィルタ層132を覆うように、更に充填層133が形成されている。
光学フィルタ13に入射した光のうち、偏光フィルタ層132を透過した光は、基板ST上の撮像素子12の画素領域に入射する。偏光フィルタ層132には撮像素子12の画素サイズに対応した偏光子によりSWS(サブ波長構造)の領域分割偏光フィルタが形成されている。
ここでは、偏光子としてはS偏光成分透過領域POL1とP偏光成分透過領域POL2が横方向(行方向)に短冊状に交互に形成されている。このため、撮像素子12の縦方向に並ぶ画素PC1、PC2はS偏光成分透過領域POL1に対向し、画像PC1、PC2の右隣に縦方向(列方向)に並ぶ画素PC3、PC4はP偏光成分透過領域POL2に対向する。
従って、画素PC1、PC2の光電変換出力はS偏光成分情報を含み、P偏光成分情報を含まない。また、画素PC3、PC4の光電変換出力はP偏光成分情報を含み、S偏光成分情報を含まない。
そこで、画素PC1、PC2のP偏光成分情報については、その両側の2個の画素のP偏光成分情報の平均値、即ち画素PC3、PC4の右隣の2個の画素の光電変換出力と、画素PC1、PC2の2列左の画素の光電変換出力の平均値を用いる。同様に、画素PC3、PC4のS偏光成分情報については、その両側の2個の画素のS偏光成分情報の平均値、即ち画素PC1、PC2の左隣の2個の画素の光電変換出力と、画素PC3、PC4の2列右の2個の画素の光電変換出力の平均値を用いる。他の画素についても同様に処理する。
このように処理することで、撮像素子12の画素毎に、P偏光成分情報を含む光電変換出力であるP偏光画像、及びS偏光成分情報を含む光電変換出力であるS偏光画像を取得することができる。
なお、S偏光成分情報を含み、P偏光成分情報を含まない画素PC1、PC2などの光電変換出力、P偏光成分情報を含み、S偏光成分情報を含まない画素PC3、PC4などの光電変換出力から差分偏光画像を形成することにより、視差画像として各種情報検知に利用することができる。
ここでは、撮像素子としてはモノクロセンサを想定しているが、これに限定されるものでなく、カラーセンサであってもよい。また、撮像装置10として、例えば特許文献1に記載されている各種偏光カメラ(カメラ前面に偏光子を配置しておき、偏光子を回転させながら複数枚の偏光角が異なる画像を取得するようなカメラなど)を採用することもできる。
〈輝度画像及び偏光情報の取得〉
次に、輝度/偏光画像生成部20が、画像Iから輝度画像、及び偏光情報を含む偏光画像を生成する手順について説明する。
まず輝度画像は、「(S偏光画像+P偏光画像)/2」、即ちS偏光画像の偏光情報成分とP偏光画像の偏光情報成分の平均値を算出することで取得する。また、偏光画像は、偏光情報としてSDOP(差分偏光度)を含むものを取得する。
SDOPは、ストークスパラメータ:S、Sを用いて以下の式〔1〕により定義される量である。
SDOP=S/S={I(0,φ)−I(90,φ)}/{I(0,φ)+I(90,φ)} …式〔1〕
ここで、I(0,φ)は、軸角度を0度としたときの偏光子を通した光強度、I(90,φ)は軸角度を90度としたときの偏光子を通した光強度である。
先に説明した「領域分割偏光フィルタ」の例では、I(0,φ)はS偏光成分透過領域POL1の透過光を受光した画素の受光強度であり、I(90,φ)はP偏光成分透過領域POL2の透過光を受光した画素の受光強度である。
従って、SDOPは、「{(S偏光画像)−(P偏光画像)}/{(S偏光画像)+(P偏光画像)}」=「{(S偏光画像)−(P偏光画像)}/(輝度画像)」として取得することができる。
〈偏光の特性などについて〉
前述したように、画像認識部30は、SDOPなどの偏光情報を用いて物体を認識する。ここで、偏光情報は大きく光源の影響を受けるため、その物理量をそのまま使用したのでは、識別したい対象の特徴を上手く記述することが出来ない。以下に偏光の特性について、またその課題に対処する方法、即ち画像認識部30において、識別したい対象の特徴を記述する方法について説明する。
物体表面の反射特性は、双方向反射分布関数(Bi-directional Reflectance Distribution Function 以下「BRDF」)により表現される。
物体表面上の「ある点におけるBRDF」は入射方向と反射方向の双方向に依存し、照明方向からの入射光の強さに対する、観測方向への反射光の強さの比として定義される。
「偏光現象」を記述する反射モデルは種々提案されている。以下では、鏡面反射成分として「Torrance Sparrowモデル」を用い、拡散反射成分として「Lambertモデル」を用いる。
図5は、物体OBによる反射のモデルを示している。この図において、Nは物体OBの反射位置における「外向き法線ベクトル」を表す。Lは、前記反射位置から光源へ向かうベクトルで「光源ベクトル」と呼ぶ。Vは、前記反射位置から観察位置へ向かうベクトルで「視線方向ベクトル」と呼ぶ。Hは、光源ベクトルLと視線方向ベクトルVとの成す角を2等分する方向のベクトルで簡単に「2等分方向ベクトル」と呼ぶ。前記の各ベクトル:N、L、V、Hは「同一平面」上に位置する。この同一平面内で、角:ψ、θ、α、θ、及びθを、図示のように定める。
物体OBによる「S偏光BRDF:ρ(ψ,θ)」は、以下の式〔2〕により与えられ、「P偏光BRDF:ρ(ψ,θ)」は、以下の式〔3〕により与えられる。
ρ(ψ,θ)=k)D+kcosθ …式〔2〕
ρ(ψ,θ)=k)D+kcosθ …式〔3〕
式〔2〕及び〔3〕における右辺の第1項が鏡面反射モデル項(Torrance Sparrowモデル)、第2項が拡散反射モデル項(Lambertモデル)である。また、kはS偏光の鏡面反射係数、kはP偏光の鏡面反射係数を表し、kは拡散反射係数を表す。
また、R)、R)は、それぞれS偏光、P偏光に対する「フレネル反射率」であり、以下の式〔4〕、〔5〕により与えられる。
)={(ncosθ−ncosθ’)/(ncosθ+ncosθ’)} …式〔4〕
)={(ncosθ’−ncosθ)/(ncosθ’+ncosθ)} …式〔5〕
ここで、n、nは、それぞれ空気及び物体OBの屈折率である。
また、角:θ’は、角:θ及び屈折率:n、nと以下の式〔6〕の関係にある。
sinθ’=(n/n)sinθ …式〔6〕
従って、θ’は下記の式〔7〕で与えられる。
θ’=sin−1{(n/n)sinθ} …式〔7〕
上記フレネル反射率の項により、反射モデルの挙動として偏光依存性が反映される。
上記の式〔2〕、〔3〕におけるDは、反射位置における微小面積の「法線分布項」であり、以下の式〔8〕で表される。
D=exp(−α/2a) …式〔8〕
ここで、αは分布関数の中心座標値であり、図5における角度パラメータ:αに対応している。また、aは分布関数における標準偏差である。なお、「a」は微小面積の「角度分布に関するパラメータ」であり、機械工学で定義される「表面粗さ」(物体表面の凹凸を示す高さの分布の標準偏差を示すことが一般的)とは、物理的な関連性はない。また、法線分布項:Dは正規分布を表すガウス分布となっている。
次に、偏光情報について説明する。偏光情報として種々のものが考えられるが、以下では偏光情報として、「偏光度」、「差分偏光度(SDOP)」及び「偏光比」について説明する。
「偏光度(Degree of polarization)」は、偏光現象に関する周知のストークスパラメータ:S、S、S、Sを用いて定義される量であり、以下「DOP」と略記する。
DOPは、ストークスパラメータ:S〜Sを用いて、以下の式〔9〕により定義される。
DOP={√(S +S +S )}/S …式〔9〕
SDOPは、前述したとおり、ストークスパラメータ:S、Sを用いて以下の式〔10〕により定義される量である。
SDOP=S/S={I(0,φ)−I(90,φ)}/{I(0,φ)+I(90,φ)}={ρ(ψ,θ)−ρ(ψ,θ)}/{ρ(ψ,θ)+ρ(ψ,θ)} …式〔10〕
ストークスパラメータ:S=S=0の場合には、以下の式〔11〕の関係が成り立つ。
DOP=|SDOP| …式〔11〕
そこで、この場合のSDOPも「偏光度」と呼ぶことにする。
偏光比は上記I(0,φ)とI(90,φ)との比であり、以下の式〔12〕により定義される。
偏光比=I(0,φ)/I(90,φ) …式〔12〕
なお、偏光比は、上記のように「I(0,φ)とI(90,φ)との比」であるので、上記の式〔12〕に代えて、以下の式〔13〕で表してもよい。
偏光比=I(90,φ)/I(0,φ) …式〔13〕
以上の偏光情報を用いて有用な情報を取り出す方法を以下に示す。
図5を用いて説明した反射モデルでは、反射光の偏光状態は、物体OBの材質(屈折率、表面状態、内部散乱係数)、光源と物体の角度、物体と観測点の角度を変数として表せる。即ち、上記偏光状態は、以下の式〔14〕により表すことができる。
偏光状態=F(光源状態、材質、角度) …式〔14〕
ここで、Fは関数であることを表す。
この式において、各変数は以下のとおりである。また、光源状態・材質・角度のうち、どれか2つが決まれば残りの1つが定まる、という関係となっている。なお、「σ」は材質のざらつき具合を示すものであり、「a」と同じである。
光源状態=ψの角度分布
材質=k、k,k,n,σ
角度=θ
図5を用いて説明した反射モデルでは、物体OBの表面での「正反射によるスペキュラー光」を表す項(Rs、Rpの項)が偏光状態を特徴付ける重要な量となっている。観察対象である物体OBに対して、撮像装置10と光源が同じ角度にあるような場合には、スペキュラー光は殆ど戻って来ず、その結果「偏光情報が得られない」ことが分かる。
光源の状態をコントロールできない場合には、このような困難があるため、光源の条件を固定できない車載用途などへの応用を考えた場合には以下のことを考えていく必要がある。
偏光状態は式〔14〕で示したような関係にあるため、照射光を投射しない車載カメラでは、光源状態に依存して「偏光画像の持つ偏光情報」が変化する。即ち、例えば「路面と白線など異なる材質のもの」を区別する場合にも光源の状態によって、偏光情報(例えばSDOP)は変化してしまう。これが偏光を利用する場合の難しさである。なお、偏光情報は、角度によっても変化するが「路面上の同じ角度のもの」を見る場合であれば、角度による偏光情報の変化は無視することができる。
認識処理を行う際には、何か物体の特徴量を用いて認識を行う必要があるが、単独で偏光を特徴量として用いる場合には、光源の影響を受けてしまう。そのため、光源状態によらない、偏光を活かした特徴量を導き出すことが必要となる。
前述の式〔2〕、〔3〕によれば、光源の高度(図5の角:ψ、即ち、角:θにより定まる。)によりS偏光成分とP偏光成分の反射強度の大きさは変化する。しかし、反射強度の大きさは常に、P偏光成分の方がS偏光成分よりも大きい。また、S偏光成分とP偏光成分の「反射強度の差」は、表面反射が大きい(即ち、内部散乱が小さい)ものほど大きい。
大雑把に言って、偏光度としての絶対量は捨て、相対量のみを見ることによって、光源状態によらず、対象のある部分の表面反射が大きい物質か、小さい物質か(散乱が大きな物質か、小さな物質か)という情報を得ることが出来る。つまり、SDOPは光源角度によって、大きく変化するが、ある角度で見たときに対象の局所領域を構成する材質Aと材質Bでの偏光情報の大小関係がA>Bとなっていた場合には、他の角度でもA>Bとなっている場合が多いということである。
そこで、前記のある角度で見たときに材質Aと材質Bでの偏光情報の大小関係がA>Bとなっていた場合には、他の角度でもA>Bとなっている条件に関して以下解析を行う。前述のとおり、材質を表すパラメータはk、k,k,n,σであるので、これらのパラメータが変化した場合に角度によらず、同じ方向にSDOP値が変化する条件を導き出す。
ここで、式〔2〕〜〔5〕、〔8〕及び〔10〕より、SDOPを求めると、下記の式〔15〕のようになる。
Figure 0006340795
ここで、空気中からの光線の入射を考えn=1として、その場合のフレネル反射光をそれぞれ以下の式〔16〕、〔17〕に示す。
(n)={(cosθ−ncosθ’)/(cosθ+ncosθ’)} …式〔16〕
(n)={(cosθ’−ncosθ)/(cosθ’+ncosθ)} …式〔17〕
式〔16〕、〔17〕を用いて式〔15〕を整理すると、以下の式〔18〕が得られる。
Figure 0006340795
この式〔18〕が今回定義したモデルに対するSDOPの理論式である。ここで、鏡面反射成分と拡散成分の比を示すパラメータとして、「k=(k/k)」導入すると、以下の式〔19〕のように整理される。
Figure 0006340795
次に、材質を示すパラメータk、n、σに関して式〔19〕の右辺を微分して、θやθなどの角度によらない動きを見ていく。
まず下記の式〔20〕に示すように、kに関して式〔19〕の右辺を微分する。
Figure 0006340795
なお、以後、式〔20〕における偏微分記号を「∂/∂k」と記載することがある。偏微分される関数が他の文字で表される場合も同様である。
ここで、式が複雑になるため、下記の式〔21〕、〔22〕、〔23〕に示す関数f、g、hを定義し、置き換えを行うと、式〔20〕は〔24〕となる。
f=exp(−α/2σ){R(n)−R(n)} …式〔21〕
g=2cosθ …式〔22〕
h=exp(−α/2σ){R(n)+R(n)} …式〔23〕
Figure 0006340795
ここで、「−π/2≦θ≦π/2」であるから、f、g、hともに正の値のみ取り得る。そのため、「(∂/∂k)(SDOP)≧0」となり、常に角度によらずkを変化させた場合、一定の方向にSDOPの値は変化する。
次に、下記の式〔25〕に示すように、σに関して式〔19〕の右辺を微分する。
Figure 0006340795
ここで、式が複雑になるため、下記の式〔26〕、〔27〕、〔28〕に示す関数f、g、hを定義し、置き換えを行うと、式〔25〕は〔29〕となる。
f=k{R(n)−R(n)} …式〔26〕
g=k{R(n)+R(n)} …式〔27〕
h=2cosθ …式〔28〕
Figure 0006340795
ここで、f、g、hが共に正の値のみを取り得ること、また各項も正の値のみを取り得ることを考えると、「(∂/∂σ)(SDOP)≧0」となり、常に角度によらずσを変化させた場合、一定の方向にSDOPの値は変化する。
次に、下記の式〔30〕に示すように、nに関して式〔19〕の右辺を微分する。
Figure 0006340795
ここで、式が複雑になるため、下記の式〔31〕、〔32〕に示す関数f、gを定義し、置き換えを行うと、式〔30〕は式〔33〕となる。
f=kexp(−α/2σ) …式〔31〕
g=2cosθ …式〔32〕
Figure 0006340795
ここで、「(g/f)>>2R(n)」であり、かつ「(g/f)>>2R(n)」の場合を仮定すると、式〔33〕の分子は以下の式〔34〕となる。
(g/f)(∂/∂n)R(n)−(g/f)(∂/∂n)R(n) …式〔34〕
また、「(∂/∂n)R(n)>(∂/∂n)R(n)」であると考えられるので、「(g/f)>>2R(n)」であり、かつ「(g/f)>>2R(n)」の条件が成立する場合には、「(∂/∂n)≧0」であり、nを変化させた場合、常に角度によらず一定の方向にSDOPの値は変化する。
ここで、fとgには、下記の式〔35〕に示す関係がある。
(g/f)=2cosθ/{kexp(−α/2σ)}=2kcosθ/{kexp(−α/2σ)} …式〔35〕
この式〔35〕の右辺の分子は拡散反射成分を示しており、分母はスペキュラー成分(マイクロファセットによる分布も含む)を示している。また、R(n)≦1、R(n)≦1であることを考えると、スペキュラー成分に対して、拡散成分が一定量以上ある場合、この近似条件が成り立ち、「(∂/∂n)≧0」であり、nを変化させた場合、常に角度によらず一定の方向にSDOPの値は変化する。
以上の解析より、スペキュラー成分に対して、拡散成分が一定量以上ある場合、前記のある光源角度の時の材質Aと材質Bでの偏光情報の大小関係がA>Bとなっていた場合には、他の角度でもA>Bとなっていることが分かる。一般的に鏡面の物体以外は、スペキュラー成分に対して、拡散成分が大きいため、この条件を満たしている物体が多い。
次に実際の画像を例に上記の議論が正しいことを検証する。
図6は様々な方向から光が当たった962枚の人物の平均像の輝度画像を示す図である。ここで、図6Aは輝度画像(生画像)を示し、図6Bは輝度画像をSobelフィルタで処理して、エッジ抽出及び平均化した後の平均輝度画像を示す。これらの2つの画像では、人のシルエットが表現されていることが分かる。特にSobelフィルタ後の画像を見ると分かるように、肩から手の領域で特徴が顕著である。
図7は、図6Aに示す輝度画像の解像度を1/4に落とし、輝度値と共に示す図である。この図において、下端の横方向に並ぶ数値、左端の縦方向に並ぶ数値は、それぞれこの輝度画像の左上端を原点としたxy直交座標のx座標、y座標の値である。また、画像上の数値は輝度値である。図示のように、(x,y)=(6,8)、(5,8)、(10,8)の領域である肩の付近が高輝度(輝度値:53、47、46)になっている。
図8は、様々な方向から光が当たった962枚の人物の平均像の偏光画像(生画像)の解像度を1/4に落とし、偏光情報(ここではSDOP)の強度値と共に示す図である。
偏光画像の強度値は、輝度画像の輝度値と比べると、全体的に値が大きく、コントラストは小さい(そのため、図6Aの輝度画像に対応する偏光画像は略真っ白になり、図6Bの平均輝度画像に対応する平均偏光画像は略真っ黒になる。)が、(x,y)=(8,4)及びその付近の領域である頭部に特徴があることが分かる。これは毛髪の材料の光学的な特徴が、他の服などの部分と異なり、偏光情報として表れているためである。
つまり、この画像は様々な方向から光が当たった人物の平均像を示しているが、その場合にも、偏光画像ではそれ以外の部分と比較して、頭部が白く写っており、人物の他の部位と比較して頭部はSDOPが大きいことが分かる。
このように光源状態によらず、前述の通り、ある光源角度で見たときに対象の局所領域を構成する材質Aと材質Bでの偏光情報の大小関係がA>Bとなっていた場合には、他の光源角度でもA>Bとなっている場合が多い。また、特徴がある領域が輝度と偏光とで異なるため、相互に補い合う関係となり、検出性能が向上する可能性が高い。
そのため、例えば上記の人画像を人検出用のトレーニング画像とし、例えば偏光画像において、その服部分(例えば胸部)と頭部の差分を特徴量の次元の一つとすると、光源状態によらず、人の検出を行うことが出来る。これが識別対象の形状を示す領域内の局所領域の差分に基づく特徴量を用いることで効果が出る理由である。
また、例えば多数の車両を後方から撮像して取得した平均像の偏光画像を車両検出用のトレーニング画像とし、その偏光画像において、リヤウィンドウとボディ後部との差分を特徴量の次元の一つとすることで、光源状態によらず、車両検出を行うことが出来る。特に車両のウィンドウはガラスでの鏡面反射になることから、偏光状態に大きく特徴が出るため、本特許の方法で偏光情報を利用することで車両の検出精度を大きく向上することができる。
次に、以上の解析の結果に基づいて提案した画像認識部について説明する。
〈画像認識部の第1の実施形態〉
図9は、図1における画像認識部30の第1の実施形態の機能ブロック図である。
この画像認識部30−1は、第1の特徴量取得手段としての偏光情報特徴量算出部31と、対象識別手段としての対象識別部32とを備えている。
偏光情報特徴量算出部31は、入力された偏光画像より、識別対象の形状を示す領域内の局所領域の偏光情報の差分に基づく特徴量を取得する。対象識別部32は、偏光情報特徴量算出部31により取得された偏光情報特徴量より、公知のSVM(サポートベクタマシン)やAdaboostアルゴリズムなどを用い物体を識別し、対象検出結果を出力する。
偏光情報特徴量算出部31は、偏光情報(偏光度又は差分偏光度又は偏光比)に対して、識別対象の形状を示す領域内の局所領域における差分に基づく特徴量を用いる。局所領域の差分には、Haar-like特徴量、ピクセル差分特徴量、HOG特徴量、EOH特徴量などがある(非特許文献1)。
EOH特徴量の場合には、最初にソーベルフィルタを用いてエッジ画像を生成し、それをもとに、エッジ強度とエッジ方向を算出している。そのため、ソーベルフィルタでエッジを抽出する処理によって、識別対象の形状を示す領域内の隣接する局所領域の差分の情報を取り出し、その情報を元に特徴量を構成している。
また、HOG特徴量の場合も、同じく最初にx方向、y方向にエッジを抽出し、それをもとにエッジ方向ごとのエッジ強度を算出している。そのため、x方向、y方向にエッジを抽出する処理によって、識別対象の形状を示す領域内の隣接する局所領域の差分の情報を取り出し、その情報を元に特徴量を構成している。
Haar-like特徴量も同様に、隣接する識別対象の形状を示す領域内の隣接する局所領域の差分に基づき特徴量を構成している。また、ピクセル差分特徴量は、隣接する部分のみならず識別対象の形状を示す領域内において、離れた二点の局所領域における差分に基づき特徴量を構成している。
なお、輝度画像に対してこれらの特徴量を用いることは公知である(非特許文献1、2)。しかし、偏光情報に対してこれらの特徴量を用いることは、上述した解析の結果に基づいて、発明者が新規に提案したものである。
図10は、偏光情報特徴量算出部31の一例について説明するための図である。ここでは、偏光画像からHOG特徴量を算出する手順について説明する。
図10Aは、入力される偏光画像について説明するための図である。なお、ここでは人の線画を示しているが、実際には図8に示すようなグレースケール画像である。また、ここでは入力画像は、「横×縦=30×60画素」で構成されている。
偏光情報特徴量算出部31は、全ての画素について、縦方向及び横方向の勾配強度m(u,v)と勾配方向Θ(u,v)を下記の式〔36〕〜〔39〕により算出する。ここで、Iは入力される偏光画像を表し、(u,v)は画素の横方向(x方向)、縦方向(y方向)の位置を表す。
(u,v)=I(u+1,v)−I(u−1,v) …式〔36〕
(u,v)=I(u,v+1)−I(u,v−1) …式〔37〕
m(u,v)=√(f +f ) …式〔38〕
Θ(u,v)=tan−1(f/f) 式〔39〕
次に、算出された勾配強度m及び勾配方向Θを用いて、勾配方向のヒストグラムを作成する。ここでは、図10Bに示すように、5×5画素を1セルとし、勾配方向の0°〜180°を20°ずつ9分割し、方向毎に1セルに含まれる各画素の勾配強度mを加算して、図10Cに示すような9方向の勾配強度ヒストグラムを作成する。このため、1セル当たり9次元の特徴量(特徴ベクトル)が生成される。
さらに図10Dに示すように、3×3セルを1ブロックとし、1セルずつずらしながら多数のブロックを形成し、各ブロックにおいて、ブロック内の特徴量を連結して81次元(9×3×3)の特徴量とし、さらにベクトルの大きさが1となるように正規化する。
最後に、正規化後の81次元の特徴ベクトルを全て連結し、図10Eに示すようなHOG特徴量を算出する。ここでは、横方向に4ブロック、縦方向に10ブロックが配置できるため、40ブロックについて81次元、計3240次元の特徴ベクトルからなる高次元のHOG特徴量が生成される。
このHOG特徴量は対象識別部32に入力される。対象識別部32は入力されたHOG特徴量を基に、人クラスと人以外クラスを識別する。なお、対象識別部32には、予め大量の人クラスの特徴量と人以外クラスの特徴量を与えて、どういった特徴量が人クラスに該当するかを識別するように構成をトレーニングしてある。
この場合、識別対象の形状を示す領域は、トレーニング用の人の偏光画像の全体(エッジ及び内部)を囲む全てのセル内の偏光画像であり、トレーニングにより該領域より抽出した人らしさを表す情報は、上記のHOG特徴量など多数の特徴ベクトルからなる特徴量の高次元空間における、ある領域範囲である。実際の識別器では、上記の多数の特徴ベクトルからなる特徴量の高次元空間における、人らしいと判定するある領域範囲が記憶されており、入力の特徴量から人か人以外かを判別する。
〈画像認識部の第2の実施形態〉
図11は、図1における画像認識部30の第2の実施形態の機能ブロック図である。この図において、図9と同じ部分には図9と同じ参照符号が付されている。その部分については説明を省略する。
この画像認識部30−2は、前述した第1の特徴量取得手段としての偏光情報特徴量算出部31と、第2の特徴量取得手段としての輝度情報特徴量算出部33と、対象識別部34とを備えている。輝度情報特徴量算出部33は、入力される輝度画像に対して、エッジ成分に基づくHOG特徴量やEOHなど識別対象の形状を示す領域内の局所領域の輝度(輝度情報)の差分に基づく特徴量を算出する。
対象識別部34には、偏光情報特徴量算出部31により算出された偏光情報の特徴量と、輝度情報特徴量算出部33により算出された輝度情報の特徴量とが並列に入力される。対象識別部34は、入力された偏光情報の特徴量及び輝度情報の特徴量から、公知のSVMやAdaboostアルゴリズムなどを用い物体を識別し、対象検出結果を出力する。
第1の実施形態と比べると、入力される特徴量の次元数が増加するため、検出性能を向上させることができる。また、前述したように、特徴がある領域が輝度と偏光とで異なるため、2種類の特徴量を組み合わせることで、認識性能を向上させることもできる。
〈画像認識部の第3の実施形態〉
図12は、図1における画像認識部30の第3の実施形態の機能ブロック図である。この図において、図9、図10と同じ部分には図9、図10と同じ参照符号が付されている。この部分については説明を省略する。
この画像認識部30−3は、前述した第1の特徴量取得手段としての偏光情報特徴量算出部31と、対象識別部32と、前述した第2の特徴量取得手段としての輝度情報特徴量算出部33と、対象識別部35と、結果結合部36とを備えている。
対象識別部35は、入力された輝度情報の特徴量から、公知のSVMやAdaboostアルゴリズムなどを用い物体を識別し、対象検出結果を出力する。つまり、対象識別部32、対象識別部35は、それぞれ偏光情報特徴量算出部31により算出された特徴量、輝度情報特徴量算出部33により算出された特徴量を個別に使用して、対象検出結果を出力する。
結果結合部36は、対象識別部32の対象検出結果と、対象識別部35の対象検出結果とを結合する。統合のアルゴリズムとしては、例えば、両方が検出した際に最終的に検出と判定するアンド論理や、どちらかが検出した場合には、検出したと判定するオア論理とすればよい。
また、画像認識部30−3では、先に偏光情報を用いて検出して、その結果、対象物がありそうなところのみ輝度の特徴量演算と識別部での演算を行うことができるため、計算量を削減することが可能である。勿論、先に輝度情報の特徴量を用いて検出して、その後、可能性の高い部分のみ偏光情報の特徴量を用いて検出することもできる。
〈画像認識部による認識試験〉
図13は、本発明の第1の実施形態の画像認識部及び第2の実施形態の画像認識部の効果について説明するためのグラフの一例を示す図である。ここでは、偏光情報としてSDOPを採用し、偏光情報特徴量としてHOG特徴量を算出し、対象識別部としてSVMを用いた場合の人検出の試験結果を示している。
このグラフはDET (Detection Error Tradeoff)カーブである。縦軸のMissed detection rate(非検出率)は人を認識しない確率であり、横軸のFalse detection rate(誤検出率)は人以外を人と認識する確率である。縦軸、横軸ともに対数の両対数グラフである。識別部における人クラスと人以外クラスとの閾値を変化させることで、誤検出率に対する非検出率の比較を行うことができる。このグラフ上の左下に行くほど、性能が良いことを示している。
図中の破線が一般的に使われている輝度情報を特徴量とした場合、太い実線が偏光情報を特徴量とした場合(第1の実施形態の構成)、細い実線が輝度情報と偏光情報を並列に特徴量とした場合(第2の実施形態の構成)の結果である。
破線の特性と太い実線の特性を比べると、一般的に行われている輝度を用いた認識と同程度もしくは、それ以上の性能が偏光情報のみを用いた認識で得られていることが分かる。また、前述の通り、輝度情報と偏光情報とは得ている情報が異なるため、相補関係があり、輝度情報と偏光情報を別の特徴量として、両者を識別部に同時に入力することにより、人検出において、検出率約95%における誤検出率を約1×10−4から約1×10−5へと1桁も小さくすることが出来ることが分かる(図中の矢印分)。
〈画像認識部による認識結果〉
次に、図13を参照して説明した画像認識部により、実際に撮像装置10により取得された画像を処理して識別を行った結果について説明する。
図14は、従来の輝度画像のみを用いる認識結果、並びに本発明の実施形態に係る偏光画像及び輝度画像を用いる認識結果について説明するための図である。ここで、図14Aは前者の認識結果であり、図14Bは後者の認識結果である。
これらの図において、白線の枠が検出領域である。両者ともに、画面右側にいる2人は認識できているものの、画面左のバイクを誤検出している。しかしながら、バイクの誤検出の数は、前者が3、後者が1であるから、後者の方が少なく抑えられている。また、画面中央の誤りは前者のみで発生しており、後者では発生していない。このように、偏光情報の特徴量を用いることで、対象の誤検出を大きく抑えることが出来る。
なお、上記の実施形態では、S偏光成分を含み、P偏光成分を含まない画素についてのP偏光成分の取得処理、及び、P偏光成分を含み、S偏光成分を含まない画素についてのS偏光成分の取得処理を撮像装置10内で実行しているが、この処理を撮像装置10と輝度/偏光画像生成部20との間で実行することもできる。
また、上記の実施形態では、S偏光画像とP偏光画像の平均から輝度画像を取得する処理を輝度/偏光画像生成部20内で行っているが、この処理を撮像装置10で行うように構成することもできる。
また、輝度/偏光画像生成部20、画像認識部30、及び車両制御部40を撮像装置10内に設けることもできる。
10…撮像装置、20…輝度/偏光画像生成部、30,30−1,30−2,30−3…画像認識部、31…偏光情報特徴量算出部、32,34,35…対象識別部、33…輝度情報特徴量算出部、36…結果結合部、40…車両制御部。
http://www.vision.cs.chubu.ac.jp/04/pdf/TS03.pdf(平成25年12月13日検索) 映像情報メディア学会誌Vol.64,No.3,pp.322-324(2010)
特開2011−150687号公報

Claims (15)

  1. 所定の撮像領域を撮像して取得した偏光画像を処理して、前記撮像領域に存在する物体を識別する画像処理装置であって、
    前記偏光画像から識別対象の形状を示す領域内の局所領域における偏光情報の差分に基づく第1の特徴量を取得する第1の特徴量取得手段と、
    前記撮像領域を撮像して取得した輝度画像から前記領域内の局所領域における輝度情報の差分に基づく第2の特徴量を取得する第2の特徴量取得手段と、
    前記第1の特徴量取得手段により取得された前記第1の特徴量と前記第2の特徴量取得手段により取得された前記第2の特徴量とが並列に入力され、並列に入力された該第1の特徴量および該第2の特徴量を用いて、前記識別対象の物体を識別する対象識別手段と、を有し、
    前記局所領域における偏光情報の差分は、隣接する局所領域間の偏光情報の差分である、画像処理装置。
  2. 所定の撮像領域を撮像して取得した偏光画像を処理して、前記撮像領域に存在する物体を識別する画像処理装置であって、
    前記偏光画像から識別対象の形状を示す領域内の局所領域における偏光情報の差分に基づく第1の特徴量を取得する第1の特徴量取得手段と、
    前記撮像領域を撮像して取得した輝度画像から前記領域内の局所領域における輝度情報の差分に基づく第2の特徴量を取得する第2の特徴量取得手段と、
    前記第1の特徴量取得手段により取得された前記第1の特徴量と前記第2の特徴量取得手段により取得された前記第2の特徴量とが並列に入力され、並列に入力された該第1の特徴量および該第2の特徴量を用いて、前記識別対象の物体を識別する対象識別手段と、を有し、
    前記局所領域における偏光情報の差分は、離れた二点の局所領域における偏光情報の差分である、画像処理装置。
  3. 請求項1又は2に記載された画像処理装置において、
    前記偏光情報は偏光度である、画像処理装置。
  4. 請求項1又は2に記載された画像処理装置において、
    前記偏光情報は差分偏光度である、画像処理装置。
  5. 請求項1又は2に記載された画像処理装置において、
    前記偏光情報は偏光比である、画像処理装置。
  6. 請求項1又は2に記載された画像処理装置において、
    前記対象識別手段は、サポートベクタマシンに基づいて、識別対象の物体のクラスとそれ以外のクラスとを識別する、画像処理装置。
  7. 請求項1又は2に記載された画像処理装置において、
    前記対象識別手段は、Adaboostに基づいて、識別対象の物体のクラスとそれ以外のクラスとを識別する、画像処理装置。
  8. 請求項1又は2に記載された画像処理装置において、
    前記対象識別手段は、人検出用の情報を有する、画像処理装置。
  9. 請求項に記載された画像処理装置において、
    前記対象識別手段は、人の頭部の偏光情報の特徴量を用いる、画像処理装置。
  10. 請求項1又は2に記載された画像処理装置において、
    前記対象識別手段は、車両検出用の情報を有する、画像処理装置。
  11. 偏光画像の取得機能を有する撮像装置と、請求項1乃至10のいずれかに記載された画像処理装置とを有する画像処理システム
  12. 請求項10に記載された画像処理装置と、該画像処理装置による識別結果に基づいて、移動体を制御する移動体制御手段とを有する移動体制御装置
  13. 所定の撮像領域を撮像して取得した偏光画像を処理して、前記撮像領域に存在する物体を識別する機能を有する画像処理装置により実行される画像処理方法であって、
    前記偏光画像から識別対象の形状を示す領域内の局所領域における偏光情報の差分に基づく第1の特徴量を取得する第1の特徴量取得ステップと、
    前記撮像領域を撮像して取得した輝度画像から前記領域内の局所領域における輝度情報の差分に基づく第2の特徴量を取得する第2の特徴量取得ステップと、
    前記第1の特徴量取得ステップにより取得された前記第1の特徴量と前記第2の特徴量取得ステップにより取得された前記第2の特徴量とが並列に入力され、並列に入力された該第1の特徴量および該第2の特徴量を用いて、前記識別対象の物体を識別する対象識別ステップと、を有し、
    前記局所領域における偏光情報の差分は、隣接する局所領域間の偏光情報の差分である、画像処理方法
  14. 所定の撮像領域を撮像して取得した偏光画像を処理して、前記撮像領域に存在する物体を識別する機能を有する画像処理装置により実行される画像処理方法であって、
    前記偏光画像から識別対象の形状を示す領域内の局所領域における偏光情報の差分に基づく第1の特徴量を取得する第1の特徴量取得ステップと、
    前記撮像領域を撮像して取得した輝度画像から前記領域内の局所領域における輝度情報の差分に基づく第2の特徴量を取得する第2の特徴量取得ステップと、
    前記第1の特徴量取得ステップにより取得された前記第1の特徴量と前記第2の特徴量取得ステップにより取得された前記第2の特徴量とが並列に入力され、並列に入力された該第1の特徴量および該第2の特徴量を用いて、前記識別対象の物体を識別する対象識別ステップと、を有し、
    前記局所領域における偏光情報の差分は、離れた二点の局所領域における偏光情報の差分である、画像処理方法。
  15. コンピュータを請求項1乃至10のいずれかに記載された画像処理装置の各手段として機能させるための画像処理プログラム。
JP2013273083A 2013-12-27 2013-12-27 画像処理装置、画像処理システム、画像処理方法、画像処理プログラム、及び移動体制御装置 Expired - Fee Related JP6340795B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013273083A JP6340795B2 (ja) 2013-12-27 2013-12-27 画像処理装置、画像処理システム、画像処理方法、画像処理プログラム、及び移動体制御装置
EP14198105.0A EP2889806A3 (en) 2013-12-27 2014-12-16 Image processing device, image processing system, mobile object control apparatus, image recognition method, and carrier means

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013273083A JP6340795B2 (ja) 2013-12-27 2013-12-27 画像処理装置、画像処理システム、画像処理方法、画像処理プログラム、及び移動体制御装置

Publications (2)

Publication Number Publication Date
JP2015128228A JP2015128228A (ja) 2015-07-09
JP6340795B2 true JP6340795B2 (ja) 2018-06-13

Family

ID=52102573

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013273083A Expired - Fee Related JP6340795B2 (ja) 2013-12-27 2013-12-27 画像処理装置、画像処理システム、画像処理方法、画像処理プログラム、及び移動体制御装置

Country Status (2)

Country Link
EP (1) EP2889806A3 (ja)
JP (1) JP6340795B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6547275B2 (ja) 2014-10-29 2019-07-24 株式会社リコー 情報処理システム、情報処理装置、情報処理方法、及びプログラム
JP6585668B2 (ja) * 2017-07-20 2019-10-02 セコム株式会社 物体検出装置
WO2019123795A1 (ja) * 2017-12-21 2019-06-27 ソニー株式会社 画像処理装置と画像処理方法およびプログラム
JP7381369B2 (ja) 2020-03-04 2023-11-15 セコム株式会社 画像処理装置、画像処理方法及び画像処理プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5176289B2 (ja) * 2006-06-05 2013-04-03 三菱電機株式会社 赤外線目標選択装置
JP5665159B2 (ja) * 2007-02-23 2015-02-04 パナソニックIpマネジメント株式会社 距離画像センサ
JP5664152B2 (ja) * 2009-12-25 2015-02-04 株式会社リコー 撮像装置、車載用撮像システム及び物体識別装置
JP2011150687A (ja) 2009-12-25 2011-08-04 Ricoh Co Ltd 立体物識別装置、並びに、これを備えた移動体制御装置及び情報提供装置
JP5686281B2 (ja) * 2009-12-25 2015-03-18 株式会社リコー 立体物識別装置、並びに、これを備えた移動体制御装置及び情報提供装置
JP5867807B2 (ja) * 2010-12-08 2016-02-24 株式会社リコー 車両識別装置
JP2012185602A (ja) * 2011-03-04 2012-09-27 Ricoh Co Ltd 画像処理システム、画像処理装置、方法、プログラムおよび記録媒体
JP5672112B2 (ja) * 2011-03-30 2015-02-18 富士通株式会社 ステレオ画像較正方法、ステレオ画像較正装置及びステレオ画像較正用コンピュータプログラム
JP5899957B2 (ja) * 2012-01-20 2016-04-06 株式会社リコー 画像処理システム及びそれを備えた車両

Also Published As

Publication number Publication date
EP2889806A2 (en) 2015-07-01
EP2889806A3 (en) 2015-08-05
JP2015128228A (ja) 2015-07-09

Similar Documents

Publication Publication Date Title
CN114766003B (zh) 用于利用偏振增强传感器系统和成像系统的系统和方法
US9818023B2 (en) Enhanced face detection using depth information
US9235902B2 (en) Image-based crack quantification
US7929728B2 (en) Method and apparatus for tracking a movable object
JP4263737B2 (ja) 歩行者検知装置
US10043279B1 (en) Robust detection and classification of body parts in a depth map
EP3460715B1 (en) Template creation apparatus, object recognition processing apparatus, template creation method, and program
EP2704056A2 (en) Image processing apparatus, image processing method
JP6351243B2 (ja) 画像処理装置、画像処理方法
JP6340795B2 (ja) 画像処理装置、画像処理システム、画像処理方法、画像処理プログラム、及び移動体制御装置
JP6410450B2 (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
US8634596B2 (en) Three-dimensional multilayer skin texture recognition system and method
CN101383005A (zh) 一种利用辅助规则纹理的乘客目标图像和背景分离方法
JP2013206458A (ja) 画像における外観及びコンテキストに基づく物体分類
Tian et al. Human Detection using HOG Features of Head and Shoulder Based on Depth Map.
JP6185807B2 (ja) シワ状態分析方法及びシワ状態分析装置
US9846807B1 (en) Detecting eye corners
US11341348B2 (en) Hand biometrics system and method using digital fingerprints
KR101815697B1 (ko) 위조 얼굴 판별 장치 및 방법
TWI606404B (zh) 可變形物體分類之強健分析及藉由影像感測器之辨識
Wang et al. LBP-based edge detection method for depth images with low resolutions
Hadi et al. Fusion of thermal and depth images for occlusion handling for human detection from mobile robot
JP5935118B2 (ja) 物体検出装置および物体検出方法
JP6606340B2 (ja) 画像検出装置、画像検出方法およびプログラム
CN112016495A (zh) 人脸识别的方法、装置和电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180417

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180430

R151 Written notification of patent or utility model registration

Ref document number: 6340795

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees