JP2016009379A - 対象物検出装置及び要素選択装置 - Google Patents

対象物検出装置及び要素選択装置 Download PDF

Info

Publication number
JP2016009379A
JP2016009379A JP2014130341A JP2014130341A JP2016009379A JP 2016009379 A JP2016009379 A JP 2016009379A JP 2014130341 A JP2014130341 A JP 2014130341A JP 2014130341 A JP2014130341 A JP 2014130341A JP 2016009379 A JP2016009379 A JP 2016009379A
Authority
JP
Japan
Prior art keywords
data
elements
feature
acquired
threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014130341A
Other languages
English (en)
Other versions
JP6350018B2 (ja
Inventor
一樹 加藤
Kazuki Kato
一樹 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2014130341A priority Critical patent/JP6350018B2/ja
Publication of JP2016009379A publication Critical patent/JP2016009379A/ja
Application granted granted Critical
Publication of JP6350018B2 publication Critical patent/JP6350018B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 処理負荷の低減を図ることができる対象物検出装置、及び要素選択装置を提案する。
【解決手段】 観測データ(カメラの画像やLidarの測距点の集合)から特定の対象物(歩行者や車両)を識別器により識別する処理において、当該処理において高精度な識別が可能となる2値化特徴の生成のための閾値を決定する。この閾値の数に応じて要素ごとに2値化特徴の次元数が定まるが、識別性能の高い要素については、2値化特徴の次元数が減少することとなり、マッチング時に内積計算回数を減らせ、処理負荷の低減が可能である。
【選択図】図11

Description

本発明は、対象物検出装置及び要素選択装置に関する。
従来、車両に搭載されたカメラやLidarなどのセンサで取得された情報(観測データ)から、車両外部の歩行者や他の車両などの対象物を識別する技術が提案されている。このような対象物を識別する技術の一例として、予め作成された識別器(モデル)により、観測データをマッチングする方法がある。
識別器は予め学習データとしてPosデータ(識別対象のデータ)とNegデータ(識別対象以外のデータ)を用いて学習を行うことで作成することができ、特徴量の形で表されることが一般的である。
特徴量とは、入力されたデータを変換して得られる物体の特徴を表すパラメータであって、代表的な特徴量としてHoGやSIFTが挙げられる。この入力データを特徴量に変換したものと識別器との内積計算(高次元のベクトル演算)を、画像の注目位置を変更しながら実施し、各位置で類似度を計算する。その後、各注目画素位置で計算された類似度を閾値処理することで対象物体を識別することが可能となる。
識別器を用いることによって高い精度での対象物の識別が可能となるが、高次元の内積計算をする必要があるため処理負荷が高くなり、処理時間が長くなってしまいやすい。このような課題を解決するためには、内積計算を行う特徴次元を圧縮することが考えられる。
例えば、入力のパターンの特徴量をその要素のベクトルに分解し、それぞれの特徴ベクトルについて各々判別分析によって得られる判別行列を予め用意する。その判別行列によって規定される判別空間に観測データから生成した各特徴ベクトルを射影して次元を圧縮した後に、得られた特徴ベクトルを合わせて、再度判別行列によって再度射影することによって、特徴ベクトルの次元を圧縮する方法が提案されている(特許文献1参照)。これにより、特徴量の次元をS次元からT次元(S>T)に圧縮することができる。
特開2009−140513号公報
特許文献1の技術では、特徴量計算の際、予め1度S次元の特徴量を計算した後、T次元に次元圧縮する。そのため、次元圧縮された特徴量と識別器との内積計算については高速化が可能であるものの、そもそも次元圧縮された特徴量を算出する段階においてメモリ使用量増加や処理時間の増加という問題が発生してしまう。
本発明の目的は、処理負荷の低減を図ることができる対象物検出装置及び要素選択装置を提案することである。
請求項1に記載の発明は、特徴量取得手段(11、S42)と、2値化手段(11、S45)と、検出手段(11、S46、S47)とを備える対象物検出装置である。
特徴量取得手段は、観測手段(3)により取得されるデータであって対象物の存在により変化する観測データから取得可能な特徴量の複数の要素を観測データから取得する。
2値化手段は、特徴量取得手段により取得された複数の特徴量の要素に基づいて、その特徴量の各要素について所定の閾値を基準として2値(一例として、「0」又は「1」で示される値)化された2値化特徴量を算出する。
検出手段は、2値化手段により算出された複数の2値化特徴量と、予め準備された対象物モデルと、の類似度合に基づいて対象物を検出する。
そして上記2値化手段は、各要素に対して予めそれぞれ定められた閾値を用いて特徴量の要素の2値化を行うことを特徴とする。
このように構成された対象物検出装置は、観測手段により取得された観測データから取得された特徴量を2値化した値を用いて対象物の検出処理を実行する。そのため、観測データの全域から取得した2値化していない特徴量と対象物モデルとの類似度合に基づき対象物を検出する場合と比較すると、内積計算の高速化や、特徴量を浮動小数点ではなく2値で表せることによる処理時のメモリ使用量の低減など、処理負荷の低減を図ることができる。
請求項7に記載の発明は、要素選択手段(11、S3−S8)を備える要素選択装置である。要素選択手段は、観測手段(3)により取得されるデータであって対象物の存在により変化する観測データから取得可能な特徴量の複数の要素のうちいずれか1つ以上を用いて、観測データと予め準備された対象物モデルとの類似度合に基づいて観測データから対象物を検出する検出手段(11、S25、S26)において用いられる上記複数の要素を選択する。
この要素選択手段は、上記複数の要素それぞれについて、観測データが上記対象物の存在する観測データであるか否かの識別に当該要素が有用であると判定された要素を特徴量の複数の要素の中から選択することを特徴とする。
このように構成された要素選択装置は、観測データが上記対象物の存在する観測データであるか否かの識別に当該要素が有用であると判定された要素を選択する。検出手段はその要素のみを用いて対象物の検出処理を実行する。そのため、全ての特徴量の要素を観測データから取得して、その特徴量と対象物モデルとの類似度合に基づき対象物を検出する場合と比較すると、有用である要素を用いて高精度での検出処理が可能となると共に、処理の高速化や処理におけるメモリ使用量の低減などを図ることができる。
なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。
障害物検出システムの全体構成を示すブロック図である。 特徴量選別処理の処理手順を説明するフローチャートである。 特徴量の算出方法を説明する図である。 HoG特徴のヒストグラムの一例である。 PosデータとNegデータに基づく投票数ヒストグラムの一例である。 投票数ヒストグラムの差分をとった状態を示す図である。 PosデータとNegデータに基づく投票数ヒストグラムの一例である。 物体識別処理の処理手順を説明するフローチャートである。 閾値算出処理の処理手順を説明するフローチャートである。 PosデータとNegデータの投票数ヒストグラムに基づく閾値決定方法及び各要素の2値化後の特徴量の要素について説明する図である。 2値化による物体識別処理の処理手順を説明するフローチャートである。 変形例の特徴量選別方法を説明する図である。
以下に本発明の実施形態を図面と共に説明する。
[第1実施形態]
(1−1)障害物検出システムの構成
本実施形態の障害物検出システム1は自動車等の車両に搭載されて用いられるシステムであって、図1に示すように、車載カメラ3と、表示手段5と、対象物検出装置7と、を備えている。この障害物検出システム1は、車載カメラ3にて撮影された撮像画像から車両周辺の人や物などの検出すべき対象物(以下、単に対象物と記載する)を検出し、検出された対象物を表示手段5に表示させることができる。
車載カメラ3は、車両周辺を撮影する撮影装置であって、例えば公知のCCDイメージセンサやCMOSイメージセンサなどを用いることができる。車載カメラ3は、所定の時間間隔(一例として100ms)で車両の進行方向を中心とした車両周辺を撮影し、撮影した撮像画像を対象物検出装置7に出力する。
表示手段5は、画像を表示する液晶ディスプレイ又はヘッドアップディスプレイを有し、対象物検出装置7から入力される信号に従って画像を表示する。例えば、車両と衝突する可能性の高い対象物を検出したときに警告画面を表示する。
対象物検出装置7は、車載カメラ3にて撮影された撮像画像を取得し、画像処理により所定の対象物を検出する。また検出された対象物と車両が衝突するか否かを予測する。
この対象物検出装置7は、CPU11と、CPU11が実行するプログラム等を記憶するROM13と、CPU11によるプログラム実行時に作業領域として使用されるRAM15と、フラッシュメモリやEEPROM等の不揮発性メモリ17などを備えるコンピュータシステムとして構成されており、プログラムの実行により所定の処理を実行する。
CPU11は、公知技術であるHoG(Histogram of Gradient)と呼ばれるエッジの勾配強度及び勾配方向を基に計算される特徴量を用いて撮像画像から対象物を検出する処理を行う。この特徴量は画像における所定の単位領域(後述する単位画像53)ごとに算出されるものであり、単位領域ごとに複数の要素からなる特徴量として表すことができる。以降、この単位領域ごとに算出される複数の要素の集合をHoG特徴と記載する。
不揮発性メモリ17には、車載カメラ3にて撮影された撮像画像から対象物を検出する際に実行するマッチング処理に用いるモデルである識別器の情報と、対象物に応じて設定される、撮像画像から取得すべき特徴量の情報と、が記憶されている。
識別器とは、対象物についての典型的なHoG特徴を表すデータであり、事前に撮影した多数の対象物の撮像画像に基づいて作成されたものである。また不揮発性メモリ17には、CPU11による処理に用いられる様々なデータが記憶される。
(1−2)CPU11による処理
本実施形態の対象物検出装置7のCPU11は、特徴量選別処理と、物体識別処理と、を実行する。
(1−2−1)特徴量選別処理
対象物検出装置7のCPU11が実行する特徴量選別処理について、図2に示すフローチャートに基づいて説明する。この処理は、複数の要素からなるHoG特徴の中から、後述する物体識別処理において対象物の検出に用いる要素を選別する処理である。HoG特徴は複数の要素を含む多次元情報であるため、その次元数を低減することで処理負荷の低減を図る。
S1では、CPU11は学習データの入力を行う。学習データとは複数の画像データであり、共通の対象物を撮影した撮像画像のデータであるPos(Positive)データ、及び、共通の対象物以外を撮影した撮像画像のデータであるNeg(Negative)データ、のいずれかに分類される。学習データは、Posデータ、Negデータのそれぞれについて異なるデータを多数含む。
S2では、CPU11は、入力した学習データそれぞれに対して特徴量の算出を行う。本実施形態においてはHoG特徴としてk次元(本実施形態では9次元)の情報を算出する。なお以下の説明において、kとはHoG特徴の次元数であり、HoG特徴に含まれる特徴量の数を指すものとする。以下に、特徴量の算出方法を説明する。
学習データの入力画像は、図3(a)、(b)に示すように、基本画像51をQ×Rの複数の画素からなる矩形領域(Q、Rは自然数)単位に分割してなる単位画像53である。本実施形態では、4×4画素からなる矩形領域を単位画像53とする。
そしてこのような単位画像53に対して、以下の式(1)〜(4)に従い、画像を構成する画素ごとに、輝度の勾配強度E及び勾配方向θを算出する。なお、下記式において、I(x、y)とは、画像の水平方向の座標をx、鉛直方向の座標をyとしたときの画素(x、y)における輝度値を表すものとする。
そして各単位画像53について、その画像の各画素から得られる勾配強度E(x、y)を、予め定めた勾配方向(0°〜180°を20°毎のk(k=9)方向に分割したそれぞれの方向)をビンとして、図4に示すようにヒストグラム化する。このヒストグラムがHoG特徴を示しており、このHoG特徴はk個の特徴量H(a)(aは1〜9の整数)を有している。なお本実施形態では、ヒストグラムの投票値を単位画像53ごとに正規化し、投票値のとり得る範囲を0〜1とした正規化特徴量を使用する。
なお、上記のHoG特徴の算出法はあくまで一例であり、投票値をEではなく1とするなど、様々な計算方法でHoG特徴を求めることができる。また、上記のE,θは輝度から算出したが、これに限られるものではない。例えば、Iを画素のR,G,Bとし、それぞれで式(1)〜(4)を実施し、その中でEが最大となる値を、その画素の最終的なE,θの値として採用してもよい。
全ての学習データについてHoG特徴の算出が終了すると、処理がS3に移行する。1つの学習データからは、基本画像51に含まれる単位画像53の数のHoG特徴が算出される。
続くS3〜S8では、S2にて算出した複数の学習データそれぞれにて求められた、特徴量を構成するk種類の要素H(a)のうち、いずれか1種類について、その要素H(a)が対象物の検出に用いるべき要素(即ち、対象物の存在する撮像画像のデータであるか否かの識別に有用である要素)であるか否かを判断する。そして、k種類の要素の判定が終了するまでS3〜S8を繰りかえす。
S3では、CPU11は、投票数ヒストグラムを作成する。ここでは、S2にて算出した複数の学習データのHoG特徴に基づいて、k種類の特徴量の要素のうちのいずれか1種類の要素H(a)について注目し、横軸を要素の投票値(大きさ)H(a)、縦軸をデータ数(データの出現頻度)とし、PosデータとNegデータでそれぞれヒストグラムD(Pos),D(Neg)を作成する。図5(a)、(b)は、それぞれ要素H(1)、要素H(2)の投票数ヒストグラムの例である。
なお、上述した横軸、縦軸が本発明における一方の軸、他方の軸の例である。縦軸と横軸は入れ替わってもよい。以下の説明で登場するヒストグラムにおいても同様である。
S4では、CPU11は、S3にて作成した投票数ヒストグラムD(Pos),D(Neg)の差分D(Diff)を以下の式にて算出する。
D(Diff)=|D(Pos)−D(Neg)|
算出されたD(Diff)の例を図6(a)、(b)に示す。D(Diff)を算出した後、処理がS5に移行する。
S5では、CPU11は、投票数の閾値計算を行う。ここでは、図6(a)、(b)に示すように、S4にて算出したD(Diff)が所定の第1閾値以下の投票数Thij(i:特徴量番号(i=1,…,k)、j=1,…,N)の総数である閾値数Nを取得する。本実施形態では第1閾値は0であり、第1閾値以下となったD(Diff)の数、即ち値が0となったD(Diff)の投票数Thijの数をカウントする。
なお、2つのヒストグラムの交点がビン上で生じているとは限らず、必ず0になるビンが存在するとは限らないため、第1閾値は0でなくともよい。但し、なるべく0に近い値とすることが好ましい。
S6では、CPU11は、S5にて算出した閾値数Nが所定の第2閾値以下であるか否かを判定する。閾値数Nが小さいほど、その要素H(a)が、撮像画像のデータが対象物の存在する観測データであるか否かの識別において有用であると考えられる。その理由を以下に説明する。
Posデータを表す上で共通ではない要素(例えば、歩行者識別における「服の模様」、「背景」など)における投票数ヒストグラムは、図7に示すように投票数の分布がPosデータ、Negデータに関らず散在している。
つまり、Posデータ及びNegデータの投票数の分布は収束せず偏りが少なく特徴的ではないため、対象物の検出に有効な要素とはならない。この場合にD(Pos),D(Neg)の差分をとると、D(Pos),D(Neg)の交差する点が多いことから閾値数Nは大きな値となる。よって、閾値数Nが小さいほどその要素H(a)が有用であると判断できる。
なお第1閾値が0でない場合は、D(Pos)とD(Neg)が第1閾値以下に接近すれば閾値数Nは増大する。D(Pos)とD(Neg)が接近した投票数の数(閾値数N)が多ければ、PosデータとNegデータの投票数ヒストグラムの特徴に差が少なく、有用ではないと判断できる。
一方、図5(a)、(b)のように、Posデータ及びNegデータの両方又は一方が収束している場合、図7(a)では閾値数N=1、図7(b)では閾値数N=2となるように、その要素H(a)の閾値数Nは小さくなる。
このような理由により、閾値数Nが所定の第2閾値より小さければ、その要素H(a)はPos,Negの識別に有効であり、対象物の検出に適するものと判断できる。一方、閾値数Nが所定の閾値より大きければ、その要素は対象物の検出(画像データが対象物の存在する画像データであるか否かの識別)に適するものではないと判断できる。
そこで、S6において、閾値数Nが所定の第2閾値以下であれば(S6:YES)、処理がS7に移行して、当該要素H(a)を対象物の検出に使用する要素として設定する。その後、処理がS9に移行する。
一方、閾値数Nが所定の第2閾値を超えていれば(S6:NO)、処理がS8に移行して、当該要素H(a)を、特徴量を構成する要素のうち対象物の検出に使用しない要素として設定する。その後、処理がS9に移行する。
S9では、CPU11は、全ての要素H(a)について、S7又はS8の設定が終了したか否かを判断する。全ての要素H(a)について終了していなければ(S9:NO)、処理がS3に戻り、閾値数Nの閾値判定による使用及び不使用の判定が行われていない要素H(a)に対して、S3〜S8の処理を実行する。一方、全ての要素H(a)について終了していれば(S9:YES)、本処理を終了する。
以上の処理により、後述する物体識別処理にて用いられる要素を物体識別処理の前に予め決定することができる。以降、この決定された1つ以上の要素を選別特徴量とも記載する。加えて、識別器も選別特徴量で表されることになる。
ところで、本実施形態においては検出すべき対象物は、歩行者又は車両、というように1つだけではなく、複数種類であってもよい。その場合には、本処理は対象物ごとに実行され、対象物ごとに異なる選別特徴量が設定される。
(1−2−2)物体識別処理
対象物検出装置7のCPU11が実行する物体識別処理について、図8に示すフローチャートに基づいて説明する。この処理では、車載カメラ3にて撮影された撮像画像から、車両又は歩行者を検出する。この処理は、対象物検出装置7の起動中、所定の周期(例えば100ms)にて実行される。
S21では、CPU11は車載カメラ3にて撮影された撮像画像のデータを取得する。
S22では、CPU11は、検出すべき対象物を選択する。選択を行う基準は特に限定されないが、例えば、本処理を繰り返すごとに、又は所定の周期で、選択される対象物が自動的に切り替わるように構成されていてもよいし、予め運転者が行った入力操作に基づいて1種類又は複数種類の対象物を選択する構成であってもよい。
S23では、CPU11は、S22にて事前に求められている、選択された対象物に対応する選別特徴量の情報を取得する。
S24では、CPU11は、S21にて取得した撮像画像から選別特徴量を算出する。ここでは撮像画像全体を対象として、特徴量選別処理で使用すべき要素として決定された要素を算出する。
特徴量の算出方法は図2のS2にて実行した特徴量の算出方法と同様であるが、選別特徴量以外の要素については算出しない。仮に、対象物が歩行者である場合には要素H(1),H(5),H(9)のみを算出すると設定されていた場合には、それ以外の要素については算出せず、HoG特徴は従来の(画像データから取得可能な最大の)9次元ではなく、3次元のデータとなる。
S25では、CPU11は内積計算を行う。ここでは、撮像画像から、選択された対象物に対応する識別器の領域と同じサイズの領域を切り出し、切り出す位置を少しずつずらしながら、切り出した画像の選別特徴量と、識別器の選別特徴量と、の内積計算を行う。
S26では、CPU11は、内積計算の結果を閾値処理することにより、対象物を検出する。即ちS25、S26では対象物の識別器と撮像画像を内積計算によるマッチングを行い、類似度合が大きいときに対象物であると判定する。
S27では、CPU11は、検出結果を出力する。具体的には表示手段5に対して検出した対象物の情報を表示させることが考えられる。表示内容は特に限定されず、車両と対象物の位置関係を示す鳥瞰図を表示したり、衝突の危険がある場合にその報知を行ったりすることが考えられる。S27の後、本処理を終了する。
(1−3)効果
本実施形態の障害物検出システム1において、対象物検出装置7のCPU11(本発明における要素選択手段及び検出手段の一例)は、車載カメラ3にて撮影された撮像画像のデータ(本発明における観測データの一例)から取得可能な特徴量であって複数の要素からなるHoG特徴のうち、1つ以上の要素を含む選別特徴量を撮像画像のデータから取得する。このときCPU11は、複数の特徴量の要素のうち対象物に応じて予め定められた要素のみを選別特徴量として撮像画像のデータから取得する。
そしてCPU11は、取得した選別特徴量と、予め準備された識別器(本発明における対象物モデルの一例)と、の類似度合(一致度合)に基づいて対象物を検出する。ここで、選別特徴量とは、対象物の存在する撮像画像のデータであるか否かの識別に当該要素が有用であると判定された要素である。
このように構成された対象物検出装置7は、撮像画像から取得可能な特徴量の中から、予め定められた選別特徴量を用いて対象物の検出処理を実行するため、内積計算によりマッチングを行うときや撮像画像から特徴量を算出するときに、処理の高速化や処理におけるメモリ使用量の低減を図ることができる。
また本実施形態においては、選別特徴量として取得する特徴量は、横軸を要素の投票値(大きさ)、縦軸をデータ数(データの出現頻度)とし、各々が共通の対象物を観測した複数の異なる学習データから取得されたPosデータのヒストグラムであるD(Pos)(本発明における第1のヒストグラムの一例)と、各々が上記対象物以外を観測した複数の異なる学習データから取得されたNegデータのヒストグラムであるD(Neg)(本発明における第2のヒストグラムの一例)と、の差分が所定の第1閾値以下であるビンの数が所定の第2閾値以下であるものである。
即ち、本実施形態の対象物検出装置7は、対象物の識別性能が高いと考えられる要素のみを各処理に用いているため、撮像画像から対象物を高い精度で検出することができる。
なお、本実施形態においてはPosデータ、Negデータそれぞれについてヒストグラムを作成する構成を例示したが、Posデータから取得された特徴量の要素に対するデータ数の分布と、Negデータから取得された特徴量の要素に対するデータ数の分布と、の差異に基づいて、当該対象物において識別に有用な特徴量の要素か否かが判定されたものであれば、必ずしもヒストグラムを用いて判定されていなくともよい。Posデータ及びNegデータの少なくともいずれか一方の特徴量の要素の分布に偏りや収束が見られれば、その特徴量は識別性能が高いと判断することができる。
また本実施形態の対象物検出装置7は、複数の識別器によって複数の対象物を検出可能であり、CPU11が選別特徴量として取得する要素は対象物ごとに設定されている。
よって本実施形態の対象物検出装置7は、複数の対象物を検出可能であって、対象物に応じて適切な選別特徴量を用いることができる。
[第2実施形態]
(2−1)障害物検出システムの構成
本実施形態の障害物検出システムは、第1実施形態の障害物検出システム1と同様のハードウェア構成を有する一方で、対象物検出装置7のCPU11による処理が相違するため、その点について説明する。
本実施形態の障害物検出システムが解決しようとする課題を説明する。観測データにおける歩行者や車両などの検出に識別器(モデル)を使用する方法において、これら識別器と観測データから生成される特徴量は主に浮動小数点の値で表される場合がある。このとき、識別処理の際に行う内積計算では「浮動小数点×浮動小数点」の処理を非常に多くの回数行う必要があり、この処理に多くの処理時間を要するという問題がある。
そこで、識別器と特徴量それぞれを「0」又は「1」で近似する「2値化(バイナリ化)」を行うことで、低メモリ化、及び、内積演算をビット演算で行うことによる内積計算処理の高速化を図る。しかしながら、特徴量を2値化するときの閾値を、特徴量の各要素で画一的に設定すると適切な閾値とならない恐れがある。本実施形態では、特徴量を2値化するときの閾値として識別に適した値を求める。
(2−2)CPU11による処理
対象物検出装置7のCPU11は、閾値算出処理と、物体識別処理と、を実行する。
(2−2−1)閾値算出処理
対象物検出装置7のCPU11が実行する閾値算出処理について、図9に示すフローチャートに基づいて説明する。この処理は、複数の要素により構成されるHoG特徴の各要素について、適切な閾値の数と値を算出する処理である。
S31では、CPU11は、学習データの入力を行い、S32では、入力した学習データに対して特徴量の算出を行う。このS31、S32処理は、上述したS1、S2の処理と同様である。
S33,S34は、上述したS3,S4の処理と同様に、CPU11は投票数ヒストグラムを作成して差分を算出する。図10(a)、(b)に要素H(1)、要素H(2)の投票数ヒストグラムの例を示す。差分をとったときに0となる点は図10(a)においてはTh11の1点、図10(b)においてはTh21、Th22の2点である。この要素の投票数(大きさ)Thijが、2値化処理における閾値となる。
S35では、CPU11は、投票数の閾値算出を行う。ここではS34にて算出した差分が所定の閾値(本実施形態では0)以下となるときに、その点の要素の投票数(大きさ)閾値として算出する。
S36では、CPU11は、全ての要素H(a)について、投票数の閾値算出処理が終了したか否かを判断する。全ての要素について算出処理が終了していなければ(S36:NO)、処理がS33に戻り、投票数の閾値処理が行われていない特徴量に対して、S33〜S35の処理を実行する。一方、全ての要素について算出処理が終了していれば(S36:YES)、本処理を終了する。
(2−2−2)物体識別処理
対象物検出装置7のCPU11が実行する物体識別処理について、図11に示すフローチャートに基づいて説明する。この処理では、車載カメラ3にて撮影された撮像画像から、車両又は歩行者を検出する。この処理は、対象物検出装置7の起動中、所定の周期(例えば100ms)にて実行される。
S41では、CPU11は車載カメラ3にて撮影された撮像画像のデータを取得する。
S42では、CPU11は、S41にて取得した撮像画像に対し、S2と同様の特徴量算出を行う。
S43では、CPU11は、検出すべき対象物を選択する。この処理は、S22と同様の処理である。
S44では、CPU11は、S43にて選択された対象物に対応する、2値化処理時の閾値情報(閾値の数、閾値の値)を取得する。この閾値情報は、事前に予め実施した閾値算出処理で求められた情報である。
S45では、CPU11は、S42にて算出した要素に対し、S44で取得した閾値情報に基づいて2値化処理を行う。
2値化処理の方法を説明する。図10(a)において、要素H(1)がTh11未満の投票数の場合はNegデータとの類似性が高く、Th11を超える投票数の場合はPosデータとの類似性が高いと判定できる。ここで、閾値は上述したようにTh11の1つである。
この閾値を基準として要素H(1)について閾値処理を行うと、上記閾値未満であれば「0」、上記閾値以上であれば「1」と2値化して表すことができる。図10(a)の例では、H(1)が閾値以上であり、2値化後のH(1)は「1」となり、1次元の2値特徴量で表される。
一方、図10(b)においては、要素H(2)がTh21未満の投票数の場合はNegデータとの類似性が高く、Th21以上かつTh22未満の投票数の場合はPosデータとの類似性が高く、Th22以上の場合はNegデータとの類似性が高い。
この場合は、閾値がTh21,Th22の2つとなるため、2回の閾値処理によって2値化を実現できる。各閾値について、特徴量H(2)が当該閾値未満であれば「0」とし、当該閾値以上であれば「1」として順に表すと、特徴量H(2)がTh21未満であれば「00」、Th21以上Th22未満であれば「10」、Th22以上であれば「11」というように、2次元の2値特徴量で表される。図10(b)の例では、2値化後のH(2)は「10」となる
なお閾値が3つ以上である場合も同様に、閾値の数に応じて2値化特徴の次元数が増えることとなる。
S46では、CPU11は内積計算を行う。ここでは、撮像画像から、選択された対象物に対応する識別器の領域と同じサイズの領域を切り出し、切り出す位置を少しずつずらしながら、切り出した画像を2値化した特徴量と、識別器と、の内積計算を行う。なお、ここで用いられる識別器は、閾値算出処理にて算出された閾値情報に基づいて2値化された特徴量を用いて学習して生成された識別器である。
S47では、CPU11は、内積計算の結果を閾値処理することにより、対象物を検出する。S48では、CPU11は、検出結果を出力する。このS47、S48の処理は、S26、S27と同様の処理である。S48の後、本処理を終了する。
(2−3)効果
本実施形態の障害物検出システム1において、対象物検出装置7のCPU11(本発明における特徴量取得手段、2値化手段、検出手段の一例)は、車載カメラ3にて撮影された撮像画像のデータから取得可能なHoG特徴を撮像画像のデータから取得する。そして、CPU11は取得されたHoG特徴に基づいて、複数の要素について所定の閾値を基準として2値化された要素(本発明における2値化特徴量の一例)を算出する。このときCPU11は、複数の要素に対して予め定められた閾値を用いて特徴量の2値化を行う。
そしてCPU11は、複数の2値化された特徴量と、予め準備された識別器と、の類似度合に基づいて対象物を検出する。
よって本実施形態の対象物検出装置7は、撮像画像から取得された特徴量を2値化した値を用いて対象物の検出処理を実行するため、内積計算がビット演算で処理できるため、処理の高速化やメモリ使用量の低減を図ることができる。
また本実施形態においては、特徴量を2値化するために用いる閾値は、横軸を要素の投票値(大きさ)、縦軸をデータ数(データの出現頻度)としたヒストグラムにおいて、各々が共通の対象物を観測した複数の異なる学習データから取得されたPosデータのヒストグラムであるD(Pos)(本発明における第1のヒストグラムの一例)と、各々が上記対象物以外を観測した複数の異なる学習データから取得されたNegデータのヒストグラムであるD(Neg)(本発明における第2のヒストグラムの一例)と、の差分が所定の閾値以下であるビンに対応する特徴量に基づく値である。
即ち、本実施形態の対象物検出装置7は、2値化処理の閾値を対象物の識別性能が高くなる値としているため、撮像画像から対象物を高い精度で検出することができる。
また本実施形態の対象物検出装置7は、複数の識別器によって複数の対象物を検出可能であり、CPU11が特徴量を2値化する際に基準とする各要素の閾値は対象物ごとに設定されている。また、各要素で次元数も異なる。
よって本実施形態の対象物検出装置7は、複数の対象物を検出可能であって、対象物に応じて各要素で良好な識別性能を発揮する適切な閾値を用いることができる。
[変形例]
以上本発明の実施形態について説明したが、本発明は、上記実施形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の形態をとり得ることはいうまでもない。
例えば、上記各実施形態においては、図2にて説明した特徴量選別処理、及び図8にて説明した閾値算出処理を対象物検出装置7にて実行する構成を例示したが、これらの処理は対象物検出装置7にて実行されず、他の情報処理装置にて予め実行されるものであってもよい。つまり、対象物検出装置7は、選別特徴量や閾値情報を予め有しているか外部から取得して物体識別処理を実行する構成であってもよい。
また上記各実施形態においては、観測データとして撮像画像データを用いる構成を例示したが、装置外部を観測可能な観測手段により取得されるデータであって対象物の存在により情報が変化するデータ(画像や測距点の集合)であれば、それ以外のデータを用いることもできる。例えば、レーザレーダ―(Lidar)やレーダー(Radar)などのセンサで取得される、車両外部の存在する対象までの距離を測定できるデータ(測距点の集合データ)を用いることができる。
また、第1実施形態と第2実施形態とを組み合わせた構成としてもよい。即ち、検出すべき対象物ごとに選別特徴量が設定されており、撮像画像から選別特徴量が取得されると共に、その取得した特徴量それぞれを2値化して対象物の検出を行うように構成されていてもよい。
また上記各実施形態では、HoG特徴を構成する要素を特徴量として利用する構成を例示したが、HoG特徴以外の手法で特徴量を求めてもよい。例えば、SIFT特徴を利用することが考えられる。
また上記第1実施形態では、Posデータ及びNegデータの投票数ヒストグラムを用いて特徴量の選別を行う構成を例示したが、投票数ヒストグラムを正規分布などで近似(定式化)し、その平均値μPos、μNeg及び、分散値σ Pos, σ Negとの関係から、その特徴量の識別性能を判定してもよい。
具体的には、図12(a)〜(c)に示すように、投票数ヒストグラムを下記(5)式で示す正規分布に近似したときに、下記(6)式で示す条件1、及び、下記(7)式で示す条件2、を共に満たさない場合には、その特徴量は識別性能が低いと判定し、対象物の検出において使用しない特徴量と判断する。
なお条件1は、平均値の差が所定の閾値以上大きいことであり、条件2は、Posデータ及びNegデータの分布の分散値が共に大きいことである。下記式中のα及びβは予め定められた閾値である。
図12(a),(b)に示す特徴量の要素H(1)、H(2)の場合は、いずれの条件も満たすため識別性能の高い特徴量と判断される。一方、図12(c)に示す要素H(3)の場合は、条件2を満たさないため使用しない要素と判定される。
1…障害物検出システム、3…車載カメラ、7…対象物検出装置、11…CPU。

Claims (10)

  1. 観測手段(3)により取得されるデータであって対象物の存在により変化する観測データから取得可能な特徴量の複数の要素を、前記観測データから取得する特徴量取得手段(11、S42)と、
    前記特徴量取得手段により取得された前記複数の要素に基づいて、前記特徴量の各要素について所定の閾値を基準として2値化された2値化特徴量を算出する2値化手段(11、S45)と、
    前記2値化手段により算出された複数の前記2値化特徴量と、予め準備された対象物モデルと、の類似度合に基づいて前記対象物を検出する検出手段(11、S46、S47)と、を備え、
    前記2値化手段は、前記特徴量の各要素に対して予め定められた閾値を用いて前記特徴量の2値化を行う
    ことを特徴とする対象物検出装置。
  2. 前記2値化手段が前記特徴量の要素を2値化するために用いる閾値は、一方の軸を要素の投票値、他方の軸をデータ数としたヒストグラムにおいて、各々が共通の前記対象物を観測した複数の異なる前記観測データから取得された第1のヒストグラムと、各々が前記対象物以外を観測した複数の異なる前記観測データから取得された第2のヒストグラムと、の差分が所定の閾値以下であるビンに対応する前記特徴量の要素の値である
    ことを特徴とする請求項1に記載の対象物検出装置。
  3. 前記2値化手段において、ヒストグラムの差分の閾値は前記特徴量の要素ごとに異なる
    ことを特徴とする請求項2に記載の対象物検出装置。
  4. 前記2値化手段において、前記特徴量の各要素を2値化するために用いる閾値の数に応じて、前記特徴量の要素ごとに2値化後の特徴量の次元数が異なる
    ことを特徴とする請求項2又は請求項3に記載の対象物検出装置。
  5. 前記2値化手段において、前記特徴量の各要素を2値化するために用いる閾値の数が0の場合は、当該要素については前記検出手段による前記対象物の検出に使用しない
    ことを特徴とする請求項2から請求項4のいずれか1項に記載の対象物検出装置。
  6. 前記検出手段は、複数の前記対象物モデルによって複数の前記対象物を検出可能であり、
    前記2値化手段が2値化する際に基準とする前記複数の各要素の前記閾値は、前記対象物ごとに設定されている
    ことを特徴とする請求項1から請求項5のいずれか1項に記載の対象物検出装置。
  7. 観測手段(3)により取得されるデータであって対象物の存在により変化する観測データから取得可能な特徴量の複数の要素のうちのいずれか1つ以上を用いて、前記観測データと予め準備された対象物モデルとの類似度合に基づいて前記観測データから前記対象物を検出する検出手段(11、S25、S26)において用いられる前記複数の要素を選択する要素選択手段(11、S3−S8)を備え、
    前記要素選択手段は、前記複数の要素それぞれについて、前記観測データが前記対象物の存在する観測データであるか否かの識別に当該要素が有用であると判定された要素を前記特徴量の複数の要素の中から選択する
    ことを特徴とする要素選択装置。
  8. 前記要素選択手段により選択された前記要素は、一方の軸を要素の投票値、他方の軸をデータ数としたヒストグラムにおいて、各々が共通の前記対象物を観測した複数の異なる前記観測データから取得された当該要素から作成した第1のヒストグラムと、各々が前記対象物以外を観測した複数の異なる前記観測データから取得された当該要素から作成した第2のヒストグラムと、の差分が所定の第1閾値以下であるビンの数が所定の第2閾値以下であるものである
    ことを特徴とする請求項7に記載の要素選択装置。
  9. 前記要素選択手段により選択された前記要素は、各々が共通の前記対象物を観測した複数の異なる前記観測データから取得された当該要素に対するデータ数の分布と、各々が前記対象物以外を観測した複数の異なる前記観測データから取得された当該要素に対するデータ数の分布と、の差異に基づいて前記識別に有用である要素か否かが判定された結果、有用である要素として判定されたものである
    ことを特徴とする請求項7に記載の要素選択装置。
  10. 観測手段(3)により取得されるデータであって対象物の存在により変化する観測データから取得可能な特徴量を構成する複数の要素のうち、請求項7〜請求項9のいずれか1項に記載の要素選択装置の備える要素選択手段により選択された1つ以上の要素を用いて、前記観測データと予め準備された対象物モデルとの類似度合に基づいて前記観測データから前記対象物を検出する検出手段(11、S25、S26)を備え、
    前記検出手段は、複数の前記対象物モデルによって複数の前記対象物を検出可能であり、
    前記要素選択手段により選択された前記要素は、前記対象物ごとに選択されている
    ことを特徴とする対象物検出装置。
JP2014130341A 2014-06-25 2014-06-25 対象物検出装置及び要素選択装置 Active JP6350018B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014130341A JP6350018B2 (ja) 2014-06-25 2014-06-25 対象物検出装置及び要素選択装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014130341A JP6350018B2 (ja) 2014-06-25 2014-06-25 対象物検出装置及び要素選択装置

Publications (2)

Publication Number Publication Date
JP2016009379A true JP2016009379A (ja) 2016-01-18
JP6350018B2 JP6350018B2 (ja) 2018-07-04

Family

ID=55226880

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014130341A Active JP6350018B2 (ja) 2014-06-25 2014-06-25 対象物検出装置及び要素選択装置

Country Status (1)

Country Link
JP (1) JP6350018B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3451233A1 (en) 2017-08-30 2019-03-06 Fujitsu Limited Biological-image processing unit and method and program for processing biological image

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7187034B2 (ja) 2019-07-01 2022-12-12 株式会社 ベアック 貼り付け装置及び貼り付け方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005157679A (ja) * 2003-11-25 2005-06-16 Sony Corp 対象物検出装置及び方法、並びに集団学習装置及び方法
JP2005309535A (ja) * 2004-04-16 2005-11-04 Hitachi High-Technologies Corp 画像自動分類方法
JP2008052590A (ja) * 2006-08-25 2008-03-06 Toshiba Corp インターフェース装置及びその方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005157679A (ja) * 2003-11-25 2005-06-16 Sony Corp 対象物検出装置及び方法、並びに集団学習装置及び方法
JP2005309535A (ja) * 2004-04-16 2005-11-04 Hitachi High-Technologies Corp 画像自動分類方法
JP2008052590A (ja) * 2006-08-25 2008-03-06 Toshiba Corp インターフェース装置及びその方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3451233A1 (en) 2017-08-30 2019-03-06 Fujitsu Limited Biological-image processing unit and method and program for processing biological image
US10755073B2 (en) 2017-08-30 2020-08-25 Fujitsu Limited Biological-image processing unit and method and program for processing biological image

Also Published As

Publication number Publication date
JP6350018B2 (ja) 2018-07-04

Similar Documents

Publication Publication Date Title
TWI651662B (zh) 影像標註方法、電子裝置及非暫態電腦可讀取儲存媒體
JP6088792B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
US8306318B2 (en) Image processing apparatus, image processing method, and computer readable storage medium
JP5922257B2 (ja) 車両周辺監視装置
US10079974B2 (en) Image processing apparatus, method, and medium for extracting feature amount of image
JP4970381B2 (ja) 特徴抽出装置、特徴抽出方法、画像処理装置、及び、プログラム
JP5765026B2 (ja) 画像処理装置及びプログラム
JP6095817B1 (ja) 物体検出装置
JP4946878B2 (ja) 画像識別装置及びプログラム
JP6410450B2 (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
CN109313699A (zh) 用于对一车辆的输入图像进行目标识别的装置和方法
US20230394796A1 (en) Information processing device, information processing method, and program recording medium
Duarte et al. Addressing the class imbalance problem in the automatic image classification of coastal litter from orthophotos derived from UAS imagery
JPWO2012046426A1 (ja) 物体検出装置、物体検出方法および物体検出プログラム
JP5349622B2 (ja) パターン識別装置
JP6350018B2 (ja) 対象物検出装置及び要素選択装置
JP5201184B2 (ja) 画像処理装置及びプログラム
JP6375911B2 (ja) カーブミラー検出装置
JP2015148895A (ja) 物体数分布推定方法
JP5335554B2 (ja) 画像処理装置及び画像処理方法
JP4285640B2 (ja) オブジェクト識別方法および装置ならびにプログラム
EP2993623B1 (en) Apparatus and method for multi-object detection in a digital image
JP2009123234A (ja) オブジェクト識別方法および装置ならびにプログラム
JP6326622B2 (ja) 人物検出装置
Liu et al. Automatic grape bunch detection in vineyards for precise yield estimation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180521

R151 Written notification of patent or utility model registration

Ref document number: 6350018

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250