JP2011150626A - 画像分類方法、装置、及びプログラム - Google Patents

画像分類方法、装置、及びプログラム Download PDF

Info

Publication number
JP2011150626A
JP2011150626A JP2010012966A JP2010012966A JP2011150626A JP 2011150626 A JP2011150626 A JP 2011150626A JP 2010012966 A JP2010012966 A JP 2010012966A JP 2010012966 A JP2010012966 A JP 2010012966A JP 2011150626 A JP2011150626 A JP 2011150626A
Authority
JP
Japan
Prior art keywords
image
block
feature
learning
blocks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010012966A
Other languages
English (en)
Other versions
JP5407897B2 (ja
Inventor
Hajime Sakano
肇 坂野
Tomohiro Suzuki
智広 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2010012966A priority Critical patent/JP5407897B2/ja
Publication of JP2011150626A publication Critical patent/JP2011150626A/ja
Application granted granted Critical
Publication of JP5407897B2 publication Critical patent/JP5407897B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

【課題】画像の周囲の状況を考慮することで特徴画像が含まれる領域と含まれない領域とをより正確に分類することができる画像分類方法、装置、及びプログラムを提供する。
【解決手段】特徴画像抽出装置1に設けられる画像処理装置30は、画像に含まれる特徴画像についての特徴量と当該特徴画像とは異なる非特徴画像についての特徴量とを用いて、画像を分類するために設定された複数のクラスの境界を学習する学習部32と、複数のブロックに区分された分類すべき画像のうちの任意の第1ブロックの特徴量と、第1ブロックとは異なる第2ブロックの特徴量と、上記の学習部32の学習結果とを用いて、第1,第2ブロックを複数のクラスの何れか1つのクラスに分類する分類部34と、分類部34の分類結果に基づいて、第1ブロックが第2ブロックよりも特徴画像の可能性が高いことを示すか、或いは逆の可能性が高いことを示すかの判定を行う抽出部35とを備える。
【選択図】図1

Description

本発明は、画像を領域毎に複数のクラスに分類する画像分類方法、装置、及びプログラムに関する。
近年、画像処理技術は、ディジタル処理技術の進展に伴って飛躍的に進歩しており、様々な分野に応用されている。近年では、車載カメラから得られる画像から未舗装路の轍等を自動的に検出し、その検出結果に基づいて車両の運転状態を自動制御する技術も開発されている。この技術では、轍を示す画像の特徴をいくつかの指標(例えば、輝度の平均や分散等)を用いて数値化して予め分類器に学習させておき、新たに得られた画像を複数の領域に分割し、各々の領域を分類器で分類することによって、その画像を轍が含まれる領域と轍が含まれない領域とに分類している。
また、以下の特許文献1には、バーコードやQRコードと呼ばれる2次元コード等の対象を様々な撮影角度や照明条件下で撮影した画像を学習サンプルとして予め登録・学習しておき、その学習結果を用いることで対象の判別精度を高める技術の一例が開示されている。尚、この特許文献1では、学習サンプルの重み係数を、サポートベクターマシン(Support Vector Machine)で用いられるSMO(Sequential Minimal Optimization)アルゴリズムに基づいて算出する点が開示されている。
特開2004−213567号公報
ところで、画像のある領域に特徴的な画像(特徴画像)が含まれるかどうかを判別する場合には、その領域のみに着目していたのでは正確な判別を行うことができず、周囲の状況を考慮して初めて正確な判別を行うことができることがある。例えば、上述した未舗装路の轍が含まれる領域と含まれない領域とに分類する場合においては、小石を敷き詰めた様な模様がある領域が草地に挟まれている画像の場合には、その模様がある領域が轍(特徴画像)が含まれる領域である可能性が高い。しかしながら、同じ模様の領域が土の領域に挟まれている画像の場合には、土の領域が轍である可能性が高い。
従来は、未舗装路の轍が含まれる領域と含まれない領域とに分類する場合には、処理対象の領域のみに着目して轍が含まれる領域であるか否かを判別しており、処理対象の領域以外の領域は全く考慮されていない。このため、予め想定していた状況とは異なる状況の画像(例えば、小石を敷き詰めた様な模様の領域が土の領域に挟まれている画像)が得られた場合には、本来の轍が含まれる領域以外の領域を誤って轍らしい領域として認識してしまい、認識精度が悪化する可能性があるという問題があった。
本発明は、上記事情に鑑みてなされたものであり、画像の周囲の状況を考慮することで特徴画像が含まれる領域と含まれない領域とをより正確に分類することができる画像分類方法、装置、及びプログラムを提供することを目的とする。
上記課題を解決するために、本発明の画像分類方法は、複数のブロック(B)に区分されて複数種類の特徴量を用いて評価される画像を、領域毎に複数のクラスに分類する画像分類方法であって、前記画像に含まれる特徴画像についての特徴量と当該特徴画像とは異なる非特徴画像についての特徴量とを用いて、予め前記複数のクラスの境界を学習する第1ステップと、分類すべき画像を複数のブロックに区分し、当該複数のブロックのうちの任意の第1ブロックの特徴量と、当該第1ブロックとは異なる第2ブロックの特徴量と、前記第1ステップの学習結果とを用いて、前記第1,第2ブロックを前記複数のクラスの何れか1つのクラスに分類する第2ステップと、前記第2ステップの分類結果に基づいて、前記第1ブロックが前記第2ブロックよりも前記特徴画像の可能性が高いことを示しているか、又は、前記第2ブロックが前記第1ブロックよりも前記特徴画像の可能性が高いことを示しているかを判定する第3ステップとを含むことを特徴としている。
また、本発明の画像分類方法は、前記複数のクラスは、任意の2つのブロックのうちの先のブロックに前記特徴画像が含まれる可能性が高い第1クラスと、前記任意の2つのブロックのうちの後のブロックに前記特徴画像が含まれる可能性が高い第2クラスとを有することを特徴としている。
また、本発明の画像分類方法は、検出対象の画像領域を構成する複数のブロックの中から、指定の領域内の2つのブロックの組み合わせを所定の生成規則に基づき生成し、前記学習結果を用いたクラス分類の結果から前記特徴画像が含まれている可能性が高いと判定された事が多いブロックを前記特徴画像として抽出する第4ステップを含むことを特徴としている。
また、本発明の画像分類方法は、前記組み合わせの生成規則が、総当り方式、又は、総当りの組み合わせから一定の比率で間引きをした組み合わせであることを特徴としている。
また、本発明の画像分類方法は、前記第1ステップが、前記複数のクラスの各々に含まれるデータの一部が他のクラスに含まれることを許容して前記境界を学習するステップであることを特徴としている。
また、本発明の画像分類方法は、前記第1ステップが、サポートベクターマシンを用いて、前記複数のクラスの各々に含まれるデータとの距離が最大となる前記境界を学習するステップであることを特徴としている。
また、本発明の画像分類方法は、前記特徴量が、前記ブロック毎の輝度の平均値、輝度の標準偏差、模様の方向性、及び粒度の少なくとも1つを表すものであることを特徴としている。
また、本発明の画像分類方法は、通路の画像と通路以外の画像との組を用いて行った学習結果を用いて、轍画像とそれ以外の部分を分類することを特徴としている。
上記課題を解決するために、本発明の画像分類装置は、複数のブロック(B)に区分されて複数種類の特徴量を用いて評価される画像を、領域毎に複数のクラスに分類する画像分類装置(30)であって、前記画像に含まれる特徴画像についての特徴量と当該特徴画像とは異なる非特徴画像についての特徴量とを用いて、前記複数のクラスの境界を学習する学習手段(32)と、複数のブロックに区分された分類すべき画像のうちの任意の第1ブロックの特徴量と、当該第1ブロックとは異なる第2ブロックの特徴量と、前記学習手段の学習結果とを用いて、前記第1,第2ブロックを前記複数のクラスの何れか1つのクラスに分類する分類手段(34)と、前記分類手段の分類結果に基づいて、前記第1ブロックが前記第2ブロックよりも前記特徴画像の可能性が高いことを示しているか、又は、前記第2ブロックが前記第1ブロックよりも前記特徴画像の可能性が高いことを示しているかを判定する判定手段(35)とを備えることを特徴としている。
また、本発明の画像分類装置は、前記複数のクラスが、任意の2つのブロックのうちの先のブロックに前記特徴画像が含まれる可能性が高い第1クラスと、前記任意の2つのブロックのうちの後のブロックに前記特徴画像が含まれる可能性が高い第2クラスとを有することを特徴としている。
また、本発明の画像分類装置は、検出対象の画像領域を構成する複数のブロックの中から、指定の領域内の2つのブロックの組み合わせを所定の生成規則に基づき生成し、前記学習結果を用いたクラス分類の結果から前記特徴画像が含まれている可能性が高いと判定された事が多いブロックを前記特徴画像として抽出する抽出手段を備えることを特徴としている。
また、本発明の画像分類装置は、前記組み合わせの生成規則が、総当り方式、又は、総当りの組み合わせから一定の比率で間引きをした組み合わせであることを特徴としている。
また、本発明の画像分類装置は、前記学習手段が、前記複数のクラスの各々に含まれるデータの一部が他のクラスに含まれることを許容して前記境界を学習することを特徴としている。
また、本発明の画像分類装置は、前記学習手段が、サポートベクターマシンを用いて、前記複数のクラスの各々に含まれるデータとの距離が最大となる前記境界を学習することを特徴としている。
また、本発明の画像分類装置は、前記特徴量が、前記ブロック毎の輝度の平均値、輝度の標準偏差、模様の方向性、及び粒度の少なくとも1つを表すものであることを特徴としている。
また、本発明の画像分類装置は、通路の画像と通路以外の画像との組を用いて行った学習結果を用いて、轍画像とそれ以外の部分を分類することを特徴としている。
本発明の画像分類プログラムは、コンピュータを、複数のブロック(B)に区分されて複数種類の特徴量を用いて評価される画像を、領域毎に複数のクラスに分類する画像分類手段として機能させる画像分類プログラムであって、前記コンピュータを、特徴画像についての特徴量と当該特徴画像とは異なる非特徴画像についての特徴量とを用いて、前記複数のクラスの境界を学習する学習手段(32)と、複数のブロックに区分された分類すべき画像のうちの任意の第1ブロックの特徴量と、当該第1ブロックとは異なる第2ブロックの特徴量と、前記学習手段の学習結果とを用いて、前記第1,第2ブロックを前記複数のクラスの何れか1つのクラスに分類する分類手段(34)と、前記分類手段の分類結果に基づいて、前記第1ブロックが前記第2ブロックよりも前記特徴画像の可能性が高いことを示しているか、又は、前記第2ブロックが前記第1ブロックよりも前記特徴画像の可能性が高いことを示しているかを判定する判定手段(35)として機能させることを特徴としている。
本発明によれば、画像に含まれる特徴画像についての特徴量と特徴画像とは異なる非特徴画像についての特徴量とを用いて複数のクラスの境界を予め学習しておき、分類すべき画像を複数のブロックに区分し、複数のブロックのうちの任意の第1,第2ブロックの特徴量と上記の学習結果とを用いて、第1,第2ブロックを前記複数のクラスの何れか1つのクラスに分類し、それぞれのクラス分類の結果に基づき、第1ブロックが第2ブロックよりも特徴画像の可能性が高いことを示しているか、又は、第2ブロックが第1ブロックよりも前記特徴画像の可能性が高いことを示しているかを判定している。これにより、着目しているブロック(例えば、第1ブロック)の周囲に配置されるブロック(例えば、第2ブロック)を考慮した分類が行われることになるため、特徴画像が含まれる領域と含まれない領域とをより正確に分類することができるという効果がある。更に、1つのブロックを複数のブロックと比較して集計を行うことで、より正確に分類を行うことが可能となる。
本発明の一実施形態による画像分類装置を備える特徴画像抽出装置の要部構成を示すブロック図である。 学習部32で行われる処理を説明するための図である。 学習動作を説明するための図である。 中心ブロック特定部33で特定される中心ブロックの一例を示す図である。 分類部34の動作を説明するための図である。 抽出された特徴画像の一例を示す図である。
以下、図面を参照して本発明の一実施形態による画像分類方法、装置、及びプログラムについて詳細に説明する。尚、以下の説明では、未舗装路の轍を特徴画像とし、轍が写し込まれた画像から最も轍らしい領域(例えば、轍の中心部分)の画像を分類して抽出する場合を例に挙げて説明する。図1は、本発明の一実施形態による画像分類装置を備える特徴画像抽出装置の要部構成を示すブロック図である。
図1に示す通り、特徴画像抽出装置1は、A/D(アナログ/ディジタル)コンバータ10、記憶装置20、画像処理装置30、及びRAM(Random Access Memory)40を備えており、外部から入力される画像信号から最も轍らしい領域を抽出する。尚、図1に示す特徴画像抽出装置1は、例えばパーソナルコンピュータ等のコンピュータによって実現され、災害救助車両や工事車両等の特殊車両に搭載されて車両の進行方向を撮影する車載カメラ(図示省略)から入力される画像信号から特徴画像(未舗装路の轍)を抽出する。
A/Dコンバータ10は、不図示の車載カメラから入力される画像信号をディジタルデータに変換し、入力画像を示す入力画像データとして画像処理装置30に出力する。尚、本実施形態においては、視野が約60°であって解像度がVGA(横640×縦480画素)であり、モノクロの画像信号を出力する車載カメラが特殊車両に搭載されているとする。つまり、上記の入力画像データは、入力画像を構成する横640×縦480個の各画素の輝度を示す輝度データからなるデータである。尚、車載カメラからディジタル化された画像信号が出力される場合には、A/Dコンバータ10を省略することができる。
記憶装置20は、例えばハードディスクによって実現され、特徴画像抽出プログラムPG、複数種類のガボールフィルタF1〜F30、複数種類のセンターサラウンドフィルタF31〜F35、及びSVM(Support Vector Machine:サポートベクターマシン)モデルM1を記憶する。この記憶装置20は、画像処理装置30からの読み出し要求に応じて上記の特徴画像抽出プログラムPG、ガボールフィルタF1〜F30、センターサラウンドフィルタF31〜F35、SVMモデルM1を画像処理装置30に出力する。また、画像処理装置30からの作成・更新要求に応じてSVMモデルM1の作成・更新を行う。
ここで、特徴画像抽出プログラムPGは、入力画像データから特徴画像である未舗装路の最も轍らしい領域を抽出する処理を特徴画像抽出装置1で実現するためのプログラムである。この特徴画像抽出プログラムPGが画像処理装置30によって読み出されて実行されることにより、画像処理装置30において、特徴量算出部31、学習部32、中心ブロック特定部33、分類部34、及び抽出部35の各機能が実現される。尚、特徴画像抽出プログラムPGは、学習部32及び分類部34を実現する画像分類プログラムを含んだプログラムである。
また、ガボールフィルタF1〜F30は、2次元ガウス関数と2次元平面上を一方向に伝播する正弦波関数とを乗じて得られる2次元ガボール関数を利用した空間周波数フィルタであり、2次元ウェーブレットフィルタの一形態である。互いに直交するX軸及びY軸からなる2次元直交座標系における2次元ガボール関数GB(x,y)は以下の(1)式で表される。尚、以下の(1)式において、uは波の角周波数、σはガウス関数の標準偏差(ガウス窓の幅)を示すパラメータである。また、2次元ガボール関数GB(x,y)は、波の方向を示すパラメータ(方向パラメータ)として角周波数uの偏角φを有している。
以上の2次元ガボール関数GB(x,y)を利用したガボールフィルタを用いて、入力画像データをフィルタリングすることにより、入力画像の周波数特性やテクスチャ(模様)方向特性を抽出することができる。具体的には、入力画像において、方向パラメータ(偏角φ)と平行なテクスチャ方向を有すると共に、周波数パラメータ(角周波数u)に近い周波数特性を有する領域が感度良く抽出される。
本実施形態では、方向パラメータ(角周波数uの偏角φ)及び周波数パラメータ(角周波数u)が異なる30種類のガボールフィルタF1〜F30が記憶装置20に記憶されている。ここで、上記の周波数パラメータは、抽出すべき特徴画像である轍の幅に応じて設定される。例えば、波の波長(周期)が視野上で1.5〜4度(25〜50cm)程度となるように角周波数uが設定される。かかる設定によって、轍が感度良く抽出されやすくなる。尚、本実施形態では、30種類のガボールフィルタF1〜F30が記憶装置20に記憶されている例について説明するが、その数や種類は入力画像の解像度や画像処理装置30の処理能力に応じて適宜変更することができる。
また、センターサラウンドフィルタF31〜F35は、画像上の円形状を強調する円環状のフィルタである。互いに直交するX軸及びY軸からなる2次元直交座標系におけるセンターサラウンドフィルタCS(x,y;σ)は、以下の(2)式で表される。
このセンターサラウンドフィルタCS(x,y;σ)は、上記(2)式中のσを変えることでフィルタサイズ(円環の大きさ)を変えることができる。これにより、円形形状の物体の画像をその径に応じて強調させたり、逆に強調させなかったりすることができる。本実施形態では、フィルタサイズが互いに異なる5種類のセンターサラウンドフィルタF31〜F35が用意されており、これらは例えば未舗装路の路面の粗さや小石等の小物体の密度を評価するために用いられる。尚、ガボールフィルタと同様に、センターサラウンドフィルタの数や種類は、入力画像の解像度や画像処理装置30の処理能力に応じて適宜変更することができる。
SVMモデルM1は、轍が写し込まれた画像から最も轍らしい領域の画像を分類する際に用いられるものであり、画像処理装置30における学習部32の学習結果に応じて作成・更新され、画像処理装置30の分類部34で用いられる。尚、詳細は後述するが、本実施形態では、画像を複数のブロックに分割し、これら複数のブロックのうちの任意の2つを選択し、先に選択したブロックに轍が含まれる可能性が高いクラスA(第1クラス)と、後に選択したブロックに轍が含まれる可能性が高いクラスB(第2クラス)とに分類している。SVMモデルM1は、上記のクラスAとクラスBとの境界を示す境界線情報であるということができる。尚、SVMモデルM1の学習方法及び使用方法の詳細については後述する。
画像処理装置30は、例えばCPU(中央処理装置)であり、記憶装置20から読み出した特徴画像抽出プログラムPGに従って、入力画像データに対して所定の画像処理を行うことにより、特徴画像である未舗装路の最も轍らしい領域を抽出する。この画像処理装置30では、上記特徴画像抽出プログラムPGが実行されることによって特徴量算出部31、学習部32(学習手段)、中心ブロック特定部33、分類部34(分類手段)、及び抽出部35(判定手段、抽出手段)の各機能が実現される。
特徴量算出部31は、入力画像データを複数のブロックに区分して複数種類のフィルタ処理を行い、入力画像データの評価に用いるブロック毎の特徴量をフィルタ処理の種類毎に求める。具体的には、入力画像データを一辺が20画素程度からなる正方形のブロックに区分し、各々のブロック毎に以下に示す37種類の特徴量を求める。ここで、ブロックは互いに一部重複しても良い。また、ブロックの形状も正方形だけではなく、円形などある特定の規則で生成される曲線で区切られていても良い。更に、規則性があれば同じ大きさである必要はなく、例えば、手前(画面下段)ほどその位置に比例して大きくなる区切り方などの大きさ変化を行っても良い。
(a)輝度の平均値:1種類
(b)輝度の標準偏差:1種類
(c)ガボールフィルタによって得られる特徴量:30種類
(d)センターサラウンドフィルタによって得られる特徴量:5種類
上記(a)はブロックの明るさを表す特徴量であり、(b)はブロックの面の粗さを表す特徴量である。これらの特徴量は、特徴量算出部31が入力画像データを複数のブロックに区分した後にそれぞれ求める。上記(c)はブロックの模様の方向性を表す特徴量であり、特徴量算出部31が入力画像データを複数のブロックに区分した後に、記憶装置20からガボールフィルタF1〜F30を読み出してフィルタリングすることにより求める。上記(d)はブロックの粒度を表す特徴量であり、特徴量算出部31が入力画像データを複数のブロックに区分した後に、記憶装置20からセンターサラウンドフィルタF31〜F35を読み出してフィルタリングすることにより求める。
学習部32は、サポートベクターマシンを備えており、特徴量算出部31で算出された37種類の特徴量を学習データとして用いてSVMモデルM1の作成・更新を行う。ここで、サポートベクターマシンとは、一般的には文字認識、画像認識、音声認識等のパターン認識で用いられて、サンプルのクラスを判別する空間を学習する手法をいい、サポートベクターと呼ばれる最前線のサンプルに基づいてクラスを分ける最適な判別面(境界)を求めるものである。
図2は、学習部32で行われる処理を説明するための図である。いま、説明を簡単にするために、特徴量算出部31で算出される37種類の特徴量のうちの2つの特徴量のみについて考え、これらを第1,第2パラメータとする。SVMモデルM1は、轍の画像(特徴画像)についての第1,第2パラメータと、轍とは異なる画像(非特徴画像)についての第1,第2パラメータと、クラスを示す情報とからなる学習用データを学習部32に入力し、この学習データを用いた学習が行われることにより作成される。
ここで、轍の画像についての第1,第2パラメータが、轍とは異なる画像についての第1,第2パラメータよりも先に渡される場合には、上記のクラスを示す情報としてクラスA(先の画像に轍が含まれる可能性が高いクラス)が指定される。これに対し、轍の画像についての第1,第2パラメータが、轍とは異なる画像についての第1,第2パラメータよりも後に渡される場合には、上記のクラスを示す情報としてクラスB(後の画像に轍が含まれる可能性が高いクラス)が指定される。尚、クラスA,Bの指定はユーザによって行われる。
図2(a)は、学習部32に入力される学習用データの分布の一例を示す図である。図2においては、クラスAが指定された学習用データを四角印(□)で示しており、クラスBが指定された学習用データを丸印(○)で示している。尚、図2では横軸に第1パラメータをとり、縦軸に第2パラメータをとっている。学習部32は、サポートベクターマシンを用いて、図2(b)に示す通り、クラスAが指定された学習用データとクラスBが指定された学習用データとの境界Z1示すSVMモデルM1を作成する。ここで、境界Z1は、Aクラスが指定された学習用データのうちの境界Z1に最も近い学習用データとの距離(マージン)m1と、Bクラスが指定された学習用データのうちの境界Z1に最も違い学習用データとの距離m2とが最大になるように求められる。
尚、ここでは説明を簡単にするために、2つのパラメータのみを考えている。よって、学習部32で求められる境界Z1は、図2(b)に示す通り、二次元平面内における直線で表すことができる。しかしながら、学習部32は、実際には74個(37個+37個)のパラメータを用いて学習を行うため、求められる境界は74次元の空間を仕切る境界となり、SVMモデルM1はこの境界を表す境界情報になる。
このように、多くのパラメータを用いる場合には、学習用データの分布が極めて複雑になり、境界を求めるのが困難になる場合が考えられる。このため、境界を求める際に、以下の(A),(B)に示す手法を用いても良い。
(A)学習用データの境界からの「はみ出し」を許容する(ソフトマージン)
(B)学習用データをカーネル関数と呼ばれる関数で変換することで非線形に拡張する
上記(A)の手法では、「はみ出し」を許容する量を示す新たなパラメータ「C」を導入する。このパラメータ「C」の値が小さい程、「はみ出し」が許容される範囲が大きくなる。また、上記(B)の手法を用いることで、複数の曲線状の境界を生成することができ、いわゆる「飛び地」状になっている学習用データも良好に分けることができるようになる。上記のカーネル関数としては、例えばガウシアンカーネルと呼ばれる種類のカーネルを用いることができる。ガウシアンカーネルを用いた場合には、パラメータ「σ」を調整することで境界の滑らかさを調整することができる。パラメータ「σ」の値が大きい程、境界線が滑らかになり、境界線の本数を少なくすることができる。
以上の(A),(B)に示す手法を用いることによって、図2(c)に示す通り、3本の曲線状の境界線Z11〜Z13を求めることができる。ここで、図2(c)を参照すると、境界線Z11と境界線Z12との間において、クラスBが指定された学習用データ(丸印で示されたデータ)の1つが、クラスAが指定された学習用データ(四角印で示されたデータ)に混じっていることが分かる。これは、上記(A)の手法の「はみ出し」を許容した結果である。
中心ブロック特定部33は、特徴量算出部31によって区分された複数のブロックのうち、特徴画像(未舗装路の轍)が含まれる可能性のあるブロックを中心ブロックとして特定する。ここで、中心ブロックを特定する方法としては、例えば特徴量算出部31で求められた特徴量を用いて轍を含む通路であると推定される通路領域を特定し、特定された通路領域の中心線を求め、この中心線が通るブロックを中心ブロックとする方法が挙げられる。
尚、このように中心ブロックを自動的に特定するのではなく、特徴画像抽出装置1のユーザによって指示されたブロックを中心ブロックにしても良い。また、中心ブロックとして使用するブロックは、画像の最下部から画像の高さの1/4程度までの領域に含まれるブロックであるのが望ましい。これは、画像の上部に行くほど画像が不鮮明になり、中心ブロックが誤った位置に検出される可能性が高くなるからである。
分類部34は、中心ブロック特定部33で特定された中心ブロックについての37種類の特徴量、中心ブロック以外のブロックについての37種類の特徴量、及び記憶装置20から読み出したSVMモデルM1を用いて、それら2つのブロックをクラスA又はクラスBに分類する。この分類を行うことによって、中心ブロック特定部33で特定された中心ブロックが轍らしいのか、又は中心ブロック以外のブロックが轍らしいのかを判別することが可能になる。
本実施形態では、以上の分類を行うことで、中心ブロック特定部33で特定された中心ブロックが轍であるか否かを、その中心ブロック以外のブロックを参照して判別する処理と同等の処理が結果として行われることになる。これにより、例えば、車載カメラから得られた画像が、小石を敷き詰めた様な模様がある領域が草地に挟まれている画像である場合、及び同模様の領域が土の領域に挟まれている画像である場合の何れの場合であっても、轍を正確に判別することが可能になる。抽出部35は、分類部34で分類されたブロックのうち、轍らしい画像が写り込んでいるブロックを抽出する。
RAM40は、画像処理装置30が各種画像処理を実行する上で必要なデータや、上記の入力画像データを必要に応じて一時的に記憶するために使用される書換え可能な揮発性メモリである。
次に、上記構成における特徴画像抽出装置1の動作について説明する。特徴画像抽出装置1の動作は、SVMモデルM1を作成する学習動作(第1ステップ)と、車載カメラから得られる画像から轍を抽出する抽出動作(第2ステップ)とに大別される。尚、抽出動作時には、不図示の車載カメラ及び特徴画像抽出装置1を搭載する車両が未舗装路を走行しており、車載カメラからは轍が写り込んだ入力画像が得られるものとする。以下、学習動作及び抽出動作について順に説明する。
〔学習動作〕
図3は、学習動作を説明するための図である。尚、学習動作は、特徴画像である轍の抽出処理に先だって予め行われる動作である。まず、図3(a)に示す通り、轍が写り込んでいる画像G1〜Gnがユーザによって複数用意される。具体的には、小石を敷き詰めた様な模様がある領域が草地に挟まれている画像、或いは同模様の領域が土の領域に挟まれている画像等の複数種類の画像が用意される。尚、この画像は不図示の車載カメラから得られる画像であるのが望ましいが、他のカメラで撮影した画像であっても良い。
次いで、用意された画像G1〜Gnの各々を順に特徴画像抽出装置1に入力する。入力された画像G1〜Gnは、A/Dコンバータ10に順に入力されてディジタルデータに変換され、入力画像データとして画像処理装置30に出力される。A/Dコンバータ10からの入力画像データは、特徴量算出部31に入力されて図3(a)に示す通り複数のブロックBに区分される。図3(a)に示す例では横方向に約30、縦方向に約23のブロックBに区分されている。
画像G1〜Gnの区分が終了すると、画像G1〜Gnの評価に用いるブロック毎の特徴量をフィルタ処理の種類毎に求める処理が特徴量算出部31で行われる。具体的に、特徴量算出部31は、区分したブロック毎の輝度の平均値及び輝度の標準偏差を自身の演算によって求める。これにより、各ブロックの明るさを示す特徴量と各ブロックの面の粗さを表す2種類の特徴量が求められる。
また、特徴量算出部31は、記憶装置20からガボールフィルタF1〜F30を読み出してブロックに区分された入力画像データをフィルタリングすることにより、各ブロックの模様の方向性を表す30種類の特徴量を求める。更に、記憶装置20からセンターサラウンドフィルタF31〜F35を読み出してブロックに区分された入力画像データをフィルタリングすることにより、各ブロックの粒度を表す5種類の特徴量を求める。以上の処理を行うことによって、37種類の特徴量がブロック毎に求められる。
以上の処理が終了すると、複数のブロックBに区分された画像G1〜Gnの各々について、ユーザの指示により轍の画像が含まれるブロック(轍ブロック)と、轍の画像が含まれないブロック(非轍ブロック)とが特定され、図3(b)に示す学習用データD1,D2を作成する処理が行われる。ここで、学習用データD1はクラスAが指定された学習用データであり、学習用データD2はクラスBが指定された学習用データである。
学習用データD1は、ユーザがクラスAの学習用データを作成すべき旨を指示した後に、轍ブロック(例えば、図3(a)に示す画像G1のブロックB11)及び非轍ブロック(例えば、図3(a)に示す画像G1のブロックB21)を順に指定することで作成される。かかる指定を行うと、図3(b)に示す通り、轍ブロックであるブロックB11の37種類の特徴量、非轍ブロックであるブロックB21の37種類の特徴量、及びクラスAを示す情報が順に並べられた学習用データD1が作成される。
学習用データD2は、ユーザがクラスBの学習用データを作成すべき旨を指示した後に、非轍ブロック(例えば、図3(a)に示す画像G1のブロックB22)及び轍ブロック(例えば、図3(a)に示す画像G1のブロックB12)を順に指定することで作成される。かかる指定を行うと、図3(b)に示す通り、非轍ブロックであるブロックB22の37種類の特徴量、轍ブロックであるブロックB12の37種類の特徴量、及びクラスBを示す情報が順に並べられた学習用データD2が作成される。
ユーザが以上の手順を繰り返し、画像G1〜Gnの各々について様々なブロックの組み合わせを指示することにより、多種多様のブロックの組み合わせについての学習用データD1,D2が作成される。ユーザの指示に基づいて作成された学習用データD1,D2は学習部32に入力される。そして、図2を用いて説明した手法により、クラスAとクラスBとの境界を示す境界線情報であるSVMモデルM1を作成する処理が行われ、かかる処理によって作成されたSVMモデルM1は記憶装置20に記憶される。尚、一度SVMモデルM1を作成した後に、新たな学習用データD1,D2を用いて学習部32で学習させると、記憶装置20に記憶されたSVMモデルM1は更新される。
〔抽出動作〕
車載カメラから轍が写り込んだ入力画像が得られると、その入力画像はA/Dコンバータ10に入力されてディジタルデータに変換され、入力画像データとして画像処理装置30に出力される。A/Dコンバータ10からの入力画像データは、特徴量算出部31に入力されて複数のブロックに区分される。例えば、図4に示す通り、横方向に約30、縦方向に約23のブロックBに区分される。
入力画像の区分が終了すると、入力画像データの評価に用いるブロック毎の特徴量をフィルタ処理の種類毎に求める処理が特徴量算出部31で行われる。具体的に、特徴量算出部31は、区分したブロック毎の輝度の平均値及び輝度の標準偏差を自身の演算によって求める。これにより、各ブロックの明るさを示す特徴量と各ブロックの面の粗さを表す2種類の特徴量が求められる。
また、特徴量算出部31は、記憶装置20からガボールフィルタF1〜F30を読み出してブロックに区分された入力画像データをフィルタリングすることにより、各ブロックの模様の方向性を表す30種類の特徴量を求める。更に、記憶装置20からセンターサラウンドフィルタF31〜F35を読み出してブロックに区分された入力画像データをフィルタリングすることにより、各ブロックの粒度を表す5種類の特徴量を求める。以上の処理を行うことによって、37種類の特徴量がブロック毎に求められる。
入力画像データの各ブロックについて、複数種類の特徴量を算出する処理が終了すると、次に中心ブロックを特定する処理が中心ブロック特定部33で行われる。例えば、以上の処理で求められた特徴量を用いて轍を含む通路であると推定される通路領域を特定し、特定された通路領域の中心線を求め、その中心線が通るブロックを中心ブロックとする処理が行われる。図4は、中心ブロック特定部33で特定される中心ブロックの一例を示す図である。図4に示す例では、轍と草との境界付近に位置する6個の中心ブロックCBが特定されている。
中心ブロックCBの特定が終了すると、記憶装置20から分類部34にSVMモデルM1が読み出され、分類部34において、中心ブロックCBの特徴量、中心ブロックCB以外のブロックの特徴量、及びSVMモデルM1を用いて、それら2つのブロックがクラスA又はクラスBに分類される。図5は、分類部34の動作を説明するための図である。分類部34は、まず図4に示す6個の中心ブロックCBのうちの何れか1つと、中心ブロックCB以外のブロックBのうちの何れか1つ(中心ブロックCBの近傍に位置するブロックが望ましい)とを選択する。尚、選択された2つのブロックのうち、先に選択されたブロックを「第1ブロック」といい、後に選択されたブロックを「第2ブロック」という。
次に、分類部34は、図5に示す通り、第1ブロックについての37種類の特徴量V1と第2ブロックについての37種類の特徴量V2とを連結した74次元の特徴量V10を作成する。そして、この特徴量V10と記憶装置20から読み出したSVMモデルM1とを用いて第1,第2ブロックをクラスA又はクラスBに分類する。ここで、クラスAに分類された場合には、第1ブロックがより轍ブロックらしいということができ、クラスBに分類された場合には、第2ブロックがより轍ブロックらしいと言うことができる。選択するブロックを変えながら以上の処理が繰り返し行われる。以上の分類が終了すると、分類部34の分類結果を用いて、轍が写り込んでいるブロックが抽出部35によって抽出される。
具体的には、比較対象と同じ画面上の高さに存在する(つまり、同じ横の列に含まれる)全てのブロックとの分類が分類部34において実施され、その結果を抽出部35が受け取る。その結果を元に抽出部35は、全てのブロックについてクラス分けの回数と、クラス分けの結果として轍に含まれる可能性が2ブロックのうち高い方であると推定(判定)した回数の比を求める(第3ステップ)。更に、抽出部35は、比率が最も高いブロックが最も轍の特徴が強く現れている位置であるとして轍抽出を行う(第4ステップ)。比較する面積が多い場合には、周囲の一定幅の領域に限定して処理することで処理時間がかかり過ぎることを防ぐことも可能である。
図6は、抽出された特徴画像の一例を示す図である。以上の処理によって、図4に示す画像から、図6中の斜線を付したブロックBEが抽出される。図4に示す例では、轍と草との境界付近に6個の中心ブロックCBが配置されていた。これに対し、図6に示す例では、轍と草との境界付近ではなく、轍の略中心付近に位置するブロックが抽出されていることが分かる。これによって、中心ブロック特定部33によって特定された中心ブロックCBよりも正確に轍ブロックを抽出することができる。
以上説明した通り、本実施形態によれば、轍の画像についての特徴量と、轍の画像とは異なる画像(例えば、草地や土の画像)についての特徴量とを用いて、複数のクラス(クラスA及びクラスB)の境界を予め学習しておき、分類すべき画像を複数のブロックに区分して、当該複数のブロックのうちの任意の第1,第2ブロックの特徴量と、上記の学習結果とを用いて、第1,第2ブロックを複数のクラスの何れか1つのクラスに分類している。この処理によって、中心ブロック特定部33で特定された中心ブロックが轍ブロックであるか否かを、その中心ブロック以外のブロックを参照して判別する処理と同等の処理が結果として行われることになり、特徴画像が含まれる領域と含まれない領域とをより正確に分類することができる。
以上、本発明の実施形態について説明したが、本発明は上記実施形態に制限されず、本発明の範囲内で自由に変更が可能である。例えば、上記実施形態において、クラスの分類精度が低い場合には、分類に失敗したデータを重点的に学習データに追加してSVMモデルM1を学習し直すことにより、分類の精度をより高めることが可能である(ブートストラップ法)。
また、上記実施形態では、説明を簡単にするために、分類部34の分類結果に基づいて、轍が写り込んでいるブロックを抽出部35が単純に抽出する例について説明した。しかしながら、分類部34の分対結果に基づいてブロックの轍らしさを順位付けし、その順位が高いブロックから順に抽出部35が抽出するようにしても良い。かかる処理を行うことによって、轍らしい領域を複数抽出することができる。また、総当たり方式でブロックを順位付けするのではなく、トーナメント方式によって順位付けしても良い。また、順位付けは必ずしも厳密である必要はなく、ある順位以上であれば轍であると判定して抽出しても良い。
また、上記実施形態では、中心ブロックを特定する方法として、轍を含む通路であると推定される通路領域の中心線を用いる方法、及びユーザの指示によって特定する方法を例に挙げて説明したが、これ以外の方法を用いることも可能である。例えば、車両にレーザレーダを設け、このレーザレーダの測定結果に基づいて中心ブロックを特定しても良い。
32 学習部
34 分類部
35 抽出部
B ブロック

Claims (17)

  1. 複数のブロックに区分されて複数種類の特徴量を用いて評価される画像を、領域毎に複数のクラスに分類する画像分類方法であって、
    前記画像に含まれる特徴画像についての特徴量と当該特徴画像とは異なる非特徴画像についての特徴量とを用いて、予め前記複数のクラスの境界を学習する第1ステップと、
    分類すべき画像を複数のブロックに区分し、当該複数のブロックのうちの任意の第1ブロックの特徴量と、当該第1ブロックとは異なる第2ブロックの特徴量と、前記第1ステップの学習結果とを用いて、前記第1,第2ブロックを前記複数のクラスの何れか1つのクラスに分類する第2ステップと、
    前記第2ステップの分類結果に基づいて、前記第1ブロックが前記第2ブロックよりも前記特徴画像の可能性が高いことを示しているか、又は、前記第2ブロックが前記第1ブロックよりも前記特徴画像の可能性が高いことを示しているかを判定する第3ステップと
    を含むことを特徴とする画像分類方法。
  2. 前記複数のクラスは、任意の2つのブロックのうちの先のブロックに前記特徴画像が含まれる可能性が高い第1クラスと、
    前記任意の2つのブロックのうちの後のブロックに前記特徴画像が含まれる可能性が高い第2クラスと
    を有することを特徴とする請求項1記載の画像分類方法。
  3. 検出対象の画像領域を構成する複数のブロックの中から、指定の領域内の2つのブロックの組み合わせを所定の生成規則に基づき生成し、前記学習結果を用いたクラス分類の結果から前記特徴画像が含まれている可能性が高いと判定された事が多いブロックを前記特徴画像として抽出する第4ステップを含むことを特徴とする請求項1又は請求項2記載の画像分類方法。
  4. 前記組み合わせの生成規則は、総当り方式、又は、総当りの組み合わせから一定の比率で間引きをした組み合わせであることを特徴とする請求項3の画像分類方法。
  5. 前記第1ステップは、前記複数のクラスの各々に含まれるデータの一部が他のクラスに含まれることを許容して前記境界を学習するステップであることを特徴とする請求項1から請求項4の何れか一項に記載の画像分類方法。
  6. 前記第1ステップは、サポートベクターマシンを用いて、前記複数のクラスの各々に含まれるデータとの距離が最大となる前記境界を学習するステップであることを特徴とする請求項1から請求項5の何れか一項に記載の画像分類方法。
  7. 前記特徴量は、前記ブロック毎の輝度の平均値、輝度の標準偏差、模様の方向性、及び粒度の少なくとも1つを表すものであることを特徴とする請求項1から請求項6の何れか一項に記載の画像分類方法。
  8. 通路の画像と通路以外の画像との組を用いて行った学習結果を用いて、轍画像とそれ以外の部分を分類することを特徴とする請求項1から請求項7の何れか一項に記載の画像分類方法。
  9. 複数のブロックに区分されて複数種類の特徴量を用いて評価される画像を、領域毎に複数のクラスに分類する画像分類装置であって、
    前記画像に含まれる特徴画像についての特徴量と当該特徴画像とは異なる非特徴画像についての特徴量とを用いて、前記複数のクラスの境界を学習する学習手段と、
    複数のブロックに区分された分類すべき画像のうちの任意の第1ブロックの特徴量と、当該第1ブロックとは異なる第2ブロックの特徴量と、前記学習手段の学習結果とを用いて、前記第1,第2ブロックを前記複数のクラスの何れか1つのクラスに分類する分類手段と、
    前記分類手段の分類結果に基づいて、前記第1ブロックが前記第2ブロックよりも前記特徴画像の可能性が高いことを示しているか、又は、前記第2ブロックが前記第1ブロックよりも前記特徴画像の可能性が高いことを示しているかを判定する判定手段と
    を備えることを特徴とする画像分類装置。
  10. 前記複数のクラスは、任意の2つのブロックのうちの先のブロックに前記特徴画像が含まれる可能性が高い第1クラスと、
    前記任意の2つのブロックのうちの後のブロックに前記特徴画像が含まれる可能性が高い第2クラスと
    を有することを特徴とする請求項9記載の画像分類装置。
  11. 検出対象の画像領域を構成する複数のブロックの中から、指定の領域内の2つのブロックの組み合わせを所定の生成規則に基づき生成し、前記学習結果を用いたクラス分類の結果から前記特徴画像が含まれている可能性が高いと判定された事が多いブロックを前記特徴画像として抽出する抽出手段を備えることを特徴とする請求項9又は請求項10記載の画像分類装置。
  12. 前記組み合わせの生成規則は、総当り方式、又は、総当りの組み合わせから一定の比率で間引きをした組み合わせであることを特徴とする請求項11の画像分類装置。
  13. 前記学習手段は、前記複数のクラスの各々に含まれるデータの一部が他のクラスに含まれることを許容して前記境界を学習することを特徴とする請求項9から請求項12の何れか一項に記載の画像分類装置。
  14. 前記学習手段は、サポートベクターマシンを用いて、前記複数のクラスの各々に含まれるデータとの距離が最大となる前記境界を学習することを特徴とする請求項9から請求項13の何れか一項に記載の画像分類装置。
  15. 前記特徴量は、前記ブロック毎の輝度の平均値、輝度の標準偏差、模様の方向性、及び粒度の少なくとも1つを表すものであることを特徴とする請求項9から請求項14の何れか一項に記載の画像分類装置。
  16. 通路の画像と通路以外の画像との組を用いて行った学習結果を用いて、轍画像とそれ以外の部分を分類することを特徴とする請求項9から請求項15の何れか一項に記載の画像分類装置。
  17. コンピュータを、複数のブロックに区分されて複数種類の特徴量を用いて評価される画像を、領域毎に複数のクラスに分類する画像分類手段として機能させる画像分類プログラムであって、
    前記コンピュータを、特徴画像についての特徴量と当該特徴画像とは異なる非特徴画像についての特徴量とを用いて、前記複数のクラスの境界を学習する学習手段と、
    複数のブロックに区分された分類すべき画像のうちの任意の第1ブロックの特徴量と、当該第1ブロックとは異なる第2ブロックの特徴量と、前記学習手段の学習結果とを用いて、前記第1,第2ブロックを前記複数のクラスの何れか1つのクラスに分類する分類手段と、
    前記分類手段の分類結果に基づいて、前記第1ブロックが前記第2ブロックよりも前記特徴画像の可能性が高いことを示しているか、又は、前記第2ブロックが前記第1ブロックよりも前記特徴画像の可能性が高いことを示しているかを判定する判定手段と
    して機能させることを特徴とする画像分類プログラム。
JP2010012966A 2010-01-25 2010-01-25 画像分類方法、装置、及びプログラム Active JP5407897B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010012966A JP5407897B2 (ja) 2010-01-25 2010-01-25 画像分類方法、装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010012966A JP5407897B2 (ja) 2010-01-25 2010-01-25 画像分類方法、装置、及びプログラム

Publications (2)

Publication Number Publication Date
JP2011150626A true JP2011150626A (ja) 2011-08-04
JP5407897B2 JP5407897B2 (ja) 2014-02-05

Family

ID=44537523

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010012966A Active JP5407897B2 (ja) 2010-01-25 2010-01-25 画像分類方法、装置、及びプログラム

Country Status (1)

Country Link
JP (1) JP5407897B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180120056A (ko) * 2017-04-26 2018-11-05 김정희 학습 데이터 전처리 방법 및 시스템
WO2019194029A1 (ja) * 2018-04-02 2019-10-10 日本電気株式会社 画像処理装置、画像処理方法、及びプログラムを記憶する記憶媒体
KR20210050168A (ko) * 2019-10-28 2021-05-07 주식회사 뷰온 딥러닝 모델에 적용하기 위한 학습 데이터 확장방법, 딥러닝을 이용한 이미지 분류장치 및 그 방법
KR20210103381A (ko) * 2020-02-13 2021-08-23 주식회사 루닛 데이터의 전향적 전처리 장치 및 그 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009175932A (ja) * 2008-01-23 2009-08-06 Ihi Corp 移動ロボットの走行領域判別装置及び走行領域判別方法
JP2010045613A (ja) * 2008-08-13 2010-02-25 Ntt Docomo Inc 画像識別方法および撮像装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009175932A (ja) * 2008-01-23 2009-08-06 Ihi Corp 移動ロボットの走行領域判別装置及び走行領域判別方法
JP2010045613A (ja) * 2008-08-13 2010-02-25 Ntt Docomo Inc 画像識別方法および撮像装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180120056A (ko) * 2017-04-26 2018-11-05 김정희 학습 데이터 전처리 방법 및 시스템
KR102077804B1 (ko) 2017-04-26 2020-04-07 김정희 학습 데이터 전처리 방법 및 시스템
WO2019194029A1 (ja) * 2018-04-02 2019-10-10 日本電気株式会社 画像処理装置、画像処理方法、及びプログラムを記憶する記憶媒体
JP2019185142A (ja) * 2018-04-02 2019-10-24 日本電気株式会社 画像処理装置、画像処理方法、プログラム
JP7160432B2 (ja) 2018-04-02 2022-10-25 日本電気株式会社 画像処理装置、画像処理方法、プログラム
US11989693B2 (en) 2018-04-02 2024-05-21 Nec Corporation Image-processing device, image processing method, and storage medium on which program is stored
KR20210050168A (ko) * 2019-10-28 2021-05-07 주식회사 뷰온 딥러닝 모델에 적용하기 위한 학습 데이터 확장방법, 딥러닝을 이용한 이미지 분류장치 및 그 방법
KR102282087B1 (ko) * 2019-10-28 2021-07-27 주식회사 뷰온 딥러닝 모델에 적용하기 위한 학습 데이터 확장방법, 딥러닝을 이용한 이미지 분류장치 및 그 방법
KR20210103381A (ko) * 2020-02-13 2021-08-23 주식회사 루닛 데이터의 전향적 전처리 장치 및 그 방법
KR102395564B1 (ko) 2020-02-13 2022-05-10 주식회사 루닛 데이터의 전향적 전처리 장치 및 그 방법

Also Published As

Publication number Publication date
JP5407897B2 (ja) 2014-02-05

Similar Documents

Publication Publication Date Title
JP6041923B2 (ja) 情報処理方法及び情報処理装置
Arietta et al. City forensics: Using visual elements to predict non-visual city attributes
CN109117879B (zh) 图像分类方法、装置及系统
JP6088792B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
EP2063393B1 (en) Color classifying method, color recognizing method, color classifying device, color recognizing device, color recognizing system, computer program, and recording medium
CN109711345B (zh) 一种火焰图像识别方法、装置及其存储介质
CN102113335B (zh) 图像处理设备和方法
TW201926140A (zh) 影像標註方法、電子裝置及非暫態電腦可讀取儲存媒體
JP5922257B2 (ja) 車両周辺監視装置
CN105608441B (zh) 一种车型识别方法及系统
CN109697441B (zh) 一种目标检测方法、装置及计算机设备
WO2019026104A1 (ja) 情報処理装置、情報処理プログラム及び情報処理方法
JP5257274B2 (ja) 移動体検出装置、移動体検出方法及びコンピュータプログラム
CN104036284A (zh) 基于Adaboost算法的多尺度行人检测方法
JP2005190400A (ja) 顔画像検出方法及び顔画像検出システム並びに顔画像検出プログラム
CN104835175A (zh) 一种基于视觉注意机制的核环境中目标检测方法
WO2020189242A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP5388291B2 (ja) 識別器生成方法、コンピュータプログラム、識別器生成装置及び所定物体検出装置
CN104463240B (zh) 一种仪表定位方法及装置
JP5407897B2 (ja) 画像分類方法、装置、及びプログラム
CN106056165A (zh) 一种基于超像素关联性增强Adaboost分类学习的显著性检测方法
JP2009163682A (ja) 画像識別装置及びプログラム
CN102369541B (zh) 执行图像信息的自动分类的方法
Niu et al. Automatic localization of optic disc based on deep learning in fundus images
JP5531643B2 (ja) 通路検出方法、装置、及びプログラム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120117

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131021

R151 Written notification of patent or utility model registration

Ref document number: 5407897

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250