JP5333080B2 - 画像認識システム - Google Patents

画像認識システム Download PDF

Info

Publication number
JP5333080B2
JP5333080B2 JP2009206328A JP2009206328A JP5333080B2 JP 5333080 B2 JP5333080 B2 JP 5333080B2 JP 2009206328 A JP2009206328 A JP 2009206328A JP 2009206328 A JP2009206328 A JP 2009206328A JP 5333080 B2 JP5333080 B2 JP 5333080B2
Authority
JP
Japan
Prior art keywords
image
dictionary
unit
recognition
situation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009206328A
Other languages
English (en)
Other versions
JP2011059810A (ja
Inventor
裕丈 石神
勝之 今西
泰男 吉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Nippon Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Nippon Soken Inc filed Critical Denso Corp
Priority to JP2009206328A priority Critical patent/JP5333080B2/ja
Publication of JP2011059810A publication Critical patent/JP2011059810A/ja
Application granted granted Critical
Publication of JP5333080B2 publication Critical patent/JP5333080B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、本発明は、画像中の物体の認識に用いられる画像認識システムに関するものである。
従来から、画像認識用の辞書を用いて画像中の物体を認識する技術が知られている。例えば、特許文献1には、機械学習手法によって生成した、検出対象物体をモデル化した1つの辞書を用いて、検出対象画像から検出対象物体を検出する技術が開示されている。詳しくは、特許文献1には、予め歩行者について機械学習した辞書(具体的には、矩形の輝度差を特徴とするhaar-like特徴による、cascade of boostedクラス判別器)を用いて、検出対象画像から歩行者を検出する技術が開示されている。
また、非特許文献1では、機械学習手法の1つであるアダブースト(Adaboost)学習法によって生成した辞書を用いて画像中の顔の認識を行う技術が開示されている。アダブースト学習法では、対象画像が所定の対象物を表す画像であるか否かを評価する複数の弱判別器の中からいくつかの弱識別器を選択し、これらの弱判別器の集合によって、判別エラー率の低い強判別器を構築する。そして、カスケード構造をとった複数の強判別器によって画像認識用の辞書を構成する。
特開2008−20951号公報
Paul Viola、Michael J.Jones、"Rapid Object Detection Using a Boosted Cascade of Simple Features"、IEEE Computer Vision and Pattern Recognition、Vol 1、pp.511-518、2001.12 Michael J.Jones、Paul Viola、"Face Recognition Using Boosted Local Features"、Mitsubishi Electric Research Lab,Technical Report、TR2003−025、2003.
しかしながら、従来の技術では、多様な状況(例えば、異なる場所や異なる時間帯等)にわたって対象物を精度良く判別できる画像認識用の辞書を得ることが非常に困難であるという問題を有していた。詳しくは、ある状況において対象物を精度良く判別できる画像認識用の辞書は、別の状況において対象物を精度良く判別できる画像認識用の辞書とは限らないため、多様な状況における対象物を機械学習することによって、多様な状況にわたって対象物を精度良く判別できる1つの画像認識用の辞書を得ることは非常に困難である。非特許文献1の場合を例に挙げると、多様な状況にわたって対象物を精度良く判別できる1つの画像認識用の辞書を得ようとした場合、強判別器の構築条件に収束せず、目的とする精度の辞書を得ることはできない。
また、多様な状況にわたって対象物を精度良く判別できる1つの画像認識用の辞書を得ることがもし出来たとしても、当該辞書に含まれるデータ量は膨大になってしまい、当該辞書を用いて画像中の対象物を認識しようとした場合に認識処理に要する時間が大幅に増加してしまう。
従って、従来の技術では、多様な状況にわたって対象物を精度良く判別できるだけの認識性能の向上と認識処理に要する時間の増加を抑えることとを両立することができないという問題を有していた。
本発明は、上記従来の問題点に鑑みなされたものであって、その目的は、多様な状況にわたって対象物を精度良く判別できるだけの認識性能の向上を可能とするとともに、認識処理に要する時間の増加をより抑えることを可能にする画像認識システムを提供することにある。
請求項1、2の画像認識システムでは、画像認識用の辞書として、状況別に用意された複数の画像例をもとにこの対象物の特徴を学習して予め当該状況別に各々構築された複数の辞書が、辞書データベース部に格納されている。つまり、請求項1、2の構成によれば、状況別に対象物をそれぞれ精度良く判別できるように特化した辞書が状況別に複数用意されていることになるので、個々の辞書については、多様な状況にわたって対象物を精度良く判別できる1つの画像認識用の辞書に比べて、遥かにデータ量を少なくすることができる。
また、請求項1、2の構成によれば、上述の個々の辞書の中から、撮像手段で画像が得られたときの状況に応じた辞書を選択して、対象物であるか否かの判定を行い、この判定結果に基づいて対象物の認識を行うので、上述の個々の辞書によって、多様な状況にわたって対象物を精度良く判別することが可能になる。
さらに、対象物であるか否かの判定は、上述の個々の辞書の中から選択した辞書を用いて行うので、上述の個々の辞書すべてを用いて対象物であるか否かの判定を行う場合に比べてデータの処理量を低減することができ、対象物であるか否かの判定の処理に要する時間を短く抑えることができる。よって、多様な状況にわたって対象物を精度良く判別できる1つの画像認識用の辞書を用いる場合に比べても、対象物であるか否かの判定の処理に要する時間を短く抑えることができ、認識処理に要する時間の増加をより抑えることが可能になる。
従って、請求項1、2の構成によれば、多様な状況にわたって対象物を精度良く判別できるだけの認識性能の向上が可能となるとともに、認識処理に要する時間の増加をより抑えることが可能となる。
さらに、請求項1、2の構成によれば、画像認識装置では、辞書データベース部に格納されている複数の辞書のうち、選択して取得した辞書を用いて照合や判定の処理を行うので、上述の複数の辞書を画像認識装置側に保存しておく構成に比べ、保存に必要となるメモリ容量を抑えることができ、例えば画像認識装置の車両への搭載等が容易になる。
また、請求項の構成によれば、表示手段で表示を行った対象物の認識の結果中に対象物の認識の誤りが存在した場合に、その認識の誤りが存在した箇所を含む画像例を、学習データ格納部に格納されている状況別に用意された複数の画像例に統合し、この統合した画像例をもとに対象物の特徴を再学習して辞書を新たに構築するので、同様の認識の誤りを今後行わない辞書を新たに得ることが可能となる。さらに、辞書データベース部に格納されている同一状況についての辞書よりも認識性能が高い旨の評価が行われた場合に、辞書データベース部に格納されている辞書を新たに構築された辞書に更新するので、再学習によって認識性能が向上した場合にのみ更新を行って、認識性能の向上のみを図ることができる。
また、請求項の構成によれば、同様の認識の誤りを今後行わない辞書を新たに得ることが可能となるとともに、再学習によって認識性能が向上した場合にのみ更新を行って、認識性能の向上のみを図ることができる。さらに、学習データ格納部、未認識・誤認識シーン格納部、再学習用画像抽出手段、辞書再学習手段、および辞書評価手段を画像認識装置でなく、外部装置に備えるので、画像認識装置でのデータの処理量や格納量を低減することができ、画像認識装置での処理の負荷の軽減や必要なメモリ容量の削減が可能になる。よって、画像認識装置の構成の簡略化や小型化を行うことが可能となり、画像認識装置の車載等をより容易にすることが可能になる。
また、請求項の構成によれば、複数の車両の各々に搭載される複数の画像認識装置の入力受け付け手段で受け付けた未認識・誤認識入力、画像取得手段で取得した画像、状況検出手段で検出した状況をもとに、1つの画像認識装置だけでは得られない未認識や誤認識の事例についても再学習することができるので、さらに認識性能の高い辞書を構築することが可能になる。
また、請求項のように、撮像手段で画像が得られた場所を、前述の状況として状況検出手段が検出する態様としてもよい。これによれば、例えば市街、郊外、田舎等の明るさの傾向がそれぞれ異なる多様な場所にわたって対象物を精度良く判別できるだけの認識性能の向上が可能となる。
また、請求項のように、撮像手段で画像が得られた時間帯を、前述の状況として状況検出手段が検出する態様としてもよい。これによれば、例えば昼、夕方、夜等の明るさの傾向がそれぞれ異なる多様な時間帯にわたって対象物を精度良く判別できるだけの認識性能の向上が可能となる。
また、請求項の構成において、請求項のように、画像認識装置が車両に搭載され、撮像手段が当該車両の周辺の画像を撮像するとともに、状況検出手段が当該車両の位置の情報をもとに撮像手段で画像が得られた場所を検出する態様としてもよい。
また、請求項の構成において、請求項のように、画像認識装置が車両に搭載され、撮像手段が当該車両の周辺の画像を撮像するとともに、状況検出手段が時刻の情報をもとに撮像手段で画像が得られた時間帯を検出する態様としてもよい。
また、請求項の構成によれば、画像取得手段で取得した画像を解析し、撮像手段で画像が得られた状況を推定するので、位置の情報を得なくても場所を検出したり、時刻の情報を得なくても時間帯を検出したりすることが可能になる。よって、位置の情報や時刻の情報を得るための手段を設けるコストを抑えることが可能になる。
画像認識システム100の概略的な構成を示すブロック図である。 画像認識装置1の概略的な構成を示すブロック図である。 矩形特徴のパターンの一例を示す図である。 表示装置での表示例を示す図である。 画像認識装置1での動作フローの一例を示すフローチャートである。 自車両の現在位置を示す模式図である。 従来の辞書の認識性能と本発明の辞書の認識性能とを示すグラフである。 収集センタ3の概略的な構成を示すブロック図である。 画像認識システム100での動作フローの一例を示すフローチャートである。 表示装置での未認識となった対象物を含む表示例を説明する図である。 再学習前の辞書の認識性能と再学習後の辞書の認識性能とを示すグラフである。
以下、本発明の実施形態について図面を用いて説明する。図1は、本発明が適用された画像認識システム100の概略的な構成を示すブロック図である。図1に示す画像認識システム100は、画像認識装置1および収集センタ3を含んでいる。また、画像認識装置1は、複数の車両のそれぞれに搭載されているものとする。さらに、各画像認識装置1と収集センタ3とは、携帯電話網やネットワーク等の通信網2を介して情報の送受信を可能なように各々接続されている。
なお、図1では、画像認識システム100にそれぞれ車両に搭載された画像認識装置1を複数含む構成を示したが、必ずしもこれに限らない。画像認識装置1は、画像認識システム100に1つ含まれている構成であってもよいし、2つよりも多く含まれている構成であってもよい。
まず、図2を用いて画像認識装置1の概略的な構成について説明を行う。図2は、画像認識装置1の概略的な構成を示すブロック図である。図2に示すように、画像認識装置1は、画像取得部11、画像抽出部12、画像記憶部13、状況検出部14、装置側通信部15、辞書選択部16、選択辞書格納部17、照合部18、判定部19、画像表示部20、操作入力部21、および情報収集部22を備えている。なお、本実施形態では、画像認識装置1で認識対象とする物体(つまり、対象物)を歩行者とした場合の例を挙げて以降の説明を行う。
画像取得部11は、撮像手段としての撮像装置で得られた画像(以下、撮像画像と呼ぶ)を逐次取得する。よって、画像取得部11は、請求項の画像取得手段として機能する。また、撮像装置は、画像認識装置1が搭載されている車両の前方や後方等の当該車両の周辺の画像を撮像するものとする。なお、撮像装置は、光学情報をデータ列化することによって画像化するカメラであるものとする。また、本実施形態では、画像認識装置1に撮像装置を含まない構成を示したが、必ずしもこれに限らず、画像認識装置1に撮像装置も含む構成としてもよい。
画像抽出部12は、撮像画像から対象物らしき物体を含む所定の領域の画像を、この物体の距離に応じた大きさで切り出して抽出する。よって、画像抽出部12は、請求項の照合用画像抽出手段として機能する。具体的には、近傍にあると推定される物体ほど大きく切り出し、遠方にあると推定される物体ほど小さく切り出す。物体までの距離については、例えば図示しない距離センサなどで検出してもよい。また、画像抽出部12においては、後述する照合部18での照合の処理を高速化するために、撮像画像についてのインテグラルイメージも作成するものとする。なお、このインテグラルイメージについては周知の方法で作成されるものとし、本実施形態では、照合部18での処理時にこのインテグラルイメージを参照することによって処理を高速化するものとする。
画像記憶部13は、画像取得部11で取得した過去の一定時間分の撮像画像をメモリに記録する。なお、画像記憶部13は、画像取得部11で取得した撮像画像を常に新しく記録していきながらも、古くなったデータから順次消去を行うものとする。
状況検出部14は、撮像装置で画像が得られた場所や時間帯等の状況を検出する。本実施形態では、一例として、撮像装置で画像が得られた場所(市街、郊外、田舎のうちのいずれか)および時間帯(昼間、夜間のうちのいずれか)を状況検出部14が検出するものとして以降の説明を続ける。
例えば、状況検出部14は、画像認識装置1を搭載している車両(つまり、自車両)の、撮像装置で画像が得られたときの現在位置の情報をもとに、撮像装置で画像が得られた場所が市街、郊外、田舎のうちのいずれに該当するかを判断し、撮像装置で画像が得られた場所を検出する。例えば、自車両の現在位置の情報については、自車両に搭載された周知のナビゲーション装置の位置検出器で検出した自車両の現在位置の情報を取得する構成とすればよい。また、自車両の現在位置の情報をもとに、撮像装置で画像が得られた場所が市街、郊外、田舎のうちのいずれに該当するかを判断する方法については、以下のようにすればよい。つまり、上述のナビゲーション装置の地図データのメッシュごとに、各メッシュに対応する地域が市街、郊外、田舎のうちのいずれに該当するかに応じて市街、郊外、田舎のうちのいずれかを示すID等の識別情報を予め対応付けておき、自車両の現在位置が含まれるメッシュに対応付けられた識別情報をもとに、撮像装置で画像が得られた場所が市街、郊外、田舎のうちのいずれに該当するかを判断すればよい。なお、メッシュとは、地図データを分割する単位であって、経緯線で地域を系統的に多数の正方形などに分割した所定の大きさの区画である。また、本実施形態では、場所の例として市街、郊外、田舎を示したが、必ずしもこれに限らない。ここで言うところの場所としては、後述する判定パターンの特徴量に影響を与える明るさ等の傾向がそれぞれ異なりさえすれば、他の区分けとする構成としてもよい。
また、例えば、状況検出部14は、撮像装置で画像が得られたときの時刻の情報をもとに、撮像装置で画像が得られた時間帯が昼間、夜間のうちのいずれに該当するかを判断し、撮像装置で画像が得られた時間帯を検出する。よって、状況検出部14は、請求項の状況検出手段として機能する。例えば、時刻の情報については、前述のナビゲーション装置に備えられている計時手段から取得する構成とすればよい。なお、状況検出部14に計時手段を備えることによって、この計時手段から時刻の情報を取得する構成としてもよい。また、時刻の情報をもとに、撮像装置で画像が得られた時間帯が昼間、夜間のうちのいずれに該当するかを判断する方法については、日の出から日の入りまでの時刻を昼間に予め対応付けておくとともに、日の入りから日の出までの時刻を夜間に予め対応付けておき、撮像装置で画像が得られた時刻が昼間、夜間のうちのいずれに該当するかを判断すればよい。なお、昼間、夜間にそれぞれ対応付ける時刻は、例えば季節や月数に応じて設定を変更する構成が好ましい。また、本実施形態では、時間帯の例として昼間と夜間とを示したが、必ずしもこれに限らない。ここで言うところの時間帯としては、後述する判定パターンの特徴量に影響を与える明るさ等の傾向がそれぞれ異なりさえすればよく、昼間、朝方・夕方、夜間といった区分けにする構成としてもよいし、朝方、昼間、夕方、夜間といった区分けにする構成としてもよい。
なお、状況検出部14は、画像取得部11で取得した撮像画像を解析し、撮像手段で画像が得られた状況(本実施形態の例では場所と時間帯との組み合わせ)を推定することによって、撮像手段で画像が得られた状況を検出する構成としてもよい。例えば、予め状況別の撮像画像ごとに、周波数解析や輝度解析を行った解析結果の傾向をそれぞれ調べておき、当該状況別に解析結果の傾向を対応付けておく。そして、画像取得部11で取得した撮像画像を周波数解析や輝度解析等によって解析した解析結果が、当該状況別に対応付けられた解析結果の傾向のうちのどの解析結果の傾向に類似しているかによって、撮像手段で画像が得られた状況を推定し、撮像手段で画像が得られた状況を検出する構成とすればよい。これによれば、前述のナビゲーション装置から現在位置の情報や時刻の情報を得なくても場所や時間帯を検出することが可能になるので、前述のナビゲーション装置から現在位置の情報や時刻の情報を得るための手段を設けるコストを抑えることが可能になる。また、状況検出部14に計時手段を備えなくても時間帯を検出することが可能になるので、この計時手段を備えるコストを抑えることが可能になる。
装置側通信部15は、通信網2を介して収集センタ3との間で通信を行うものである。詳しくは、装置側通信部15は、後述の情報収集部22から送られてきた情報や辞書選択部16から送られてきた後述の読み出し指示を収集センタ3へ向けて送信したり、収集センタ3から送信されてくる後述の照合用辞書を受信したりする。よって、装置側通信部15は、請求項の画像認識装置側送信手段として機能する。
ここで、以降の説明の便宜上、収集センタ3の辞書データベース(DB)部32(図8参照)についての説明を以下で行う。辞書DB部32は、状況別に用意された対象物の複数の画像例をもとにこの対象物の特徴を学習して予め当該状況別に構築された複数種類の判定パターンとこの複数種類の判定パターンに対応する判定閾値とを少なくとも対応付けて格納している。よって、判定パターンは、請求項のパターンに相当する。また、辞書DB部32には、状況別に構築された複数種類の判定パターンの各集合が格納されることにもなるので、辞書DB部32は、請求項の辞書データベース部として機能する。そして、この複数種類の判定パターンの各集合が、それぞれ請求項の辞書に相当する。以降では、この複数種類の判定パターンの各集合を辞書と呼ぶ。本実施形態の例では、場所が「市街」で時間帯が「昼間」、場所が「市街」で時間帯が「夜間」、場所が「郊外」で時間帯が「昼間」、場所が「郊外」で時間帯が「夜間」、場所が「田舎」で時間帯が「昼間」、場所が「田舎」で時間帯が「夜間」についての、状況別に構築された6種類の辞書が辞書DB部32に格納されることになる。また、1つの判定パターンがいわゆる弱判別器に相当し、対象物の複数の画像例をもとにこの対象物の特徴を学習して予め構築された複数種類の判定パターンの集合がいわゆる強判別器に相当する。なお、ここで言うところの学習とは、例えばアダブースト学習法による学習であるものとする。
また、例えば、非特許文献2に開示されている物体検出方法のアルゴリズムにおける矩形特徴とその閾値とを、本実施形態の判定パターンおよび判定閾値として用いることが可能である。なお、非特許文献2に開示されている物体検出手法のアルゴリズムとは、画像中の一定の矩形領域から、矩形特徴(Rectangle Filter)を用いて特徴量(いわゆるHaar-Like特徴量)を抽出し、判別関数を用いてその特徴量を評価することにより、その矩形領域が対象物を表しているものであるか否かを評価するものである。また、矩形特徴とは、図3に示すような白矩形および黒矩形からなる局所領域に含まれる画素の輝度の総和の組み合わせで表されるものであって、矩形特徴の強度は図中の白矩形に含まれる画素の輝度値の平均と図中の黒矩形に含まれる画素の輝度の平均の差として表される。つまり、図中の白矩形の平均輝度から図中の黒矩形の平均輝度を引いた値が矩形特徴の強度となる。なお、矩形特徴としては、互いに隣接する複数個の矩形から構成される様々なものを用いることができ、図3に示したものの他にも、白矩形と黒矩形とからなるパターンが異なるものや大きさ、位置、角度などが異なるものを複数用いることが可能である。また、矩形特徴の閾値とは、矩形特徴ごとに設定される値であって、上述の学習において対象物の判別エラーを最小にする値として求められたものである。以降では、非特許文献2に開示されている物体検出方法のアルゴリズムにおける矩形特徴とその閾値とを、本実施形態の判定パターンおよび判定閾値として用いるものとして説明を続ける。
また、辞書DB部32は、前述の複数種類の判定パターンとこの複数種類の判定パターンの判定閾値とに加え、この複数種類の判定パターンに対応する所定の正解得点および所定の不正解得点を対応付けて格納している。なお、所定の正解得点および所定の不正解得点とは、上述の学習によって判定パターンに対して設定されている「重み」である。つまり、辞書DB部32には、判定パターンとこの判定パターンに対応する判定閾値とこの判定パターンに対応する正解得点および不正解得点とが判定パターンの種類の数だけ対応付けられて格納されている。
辞書選択部16は、状況検出部14で検出した状況に応じた辞書を装置側通信部15および後述のセンタ側通信部31を介して収集センタ3の辞書DB部32から選択して取得し、選択辞書格納部17に格納する。よって、辞書選択部16は、請求項の辞書選択手段として機能する。詳しくは、辞書選択部16は、状況検出部14で検出した状況と同じ状況についての辞書を辞書DB部32から読み出す指示(つまり、読み出し指示)を装置側通信部15およびセンタ側通信部31を介して収集センタ3に送信し、収集センタ3の後述する読み出し部33によって辞書DB部32からこの読み出し指示に従った辞書を読み出させ、読み出した辞書(以下、照合用辞書と呼ぶ)をセンタ側通信部31および装置側通信部15を介して取得する。
辞書選択部16は、例えば状況検出部14によって場所が「市街」、時間帯が「昼間」と検出された場合には、場所が「市街」で時間帯が「昼間」についての辞書を、辞書DB部32に格納されている6種類の辞書のうちから選択して取得し、選択辞書格納部17に格納する。
選択辞書格納部17は、辞書選択部16で取得した辞書を格納する。選択辞書格納部17としては、例えばRAM等の一時保存メモリを用いる構成とすればよい。また、選択辞書格納部17は、新たな辞書が格納された場合に古い辞書を消去する構成とすればよい。
なお、本実施形態では、撮像装置で画像が得られた状況として、場所および時間帯を状況検出部14が検出する構成を示したが、必ずしもこれに限らない。例えば、撮像装置で画像が得られた状況として、場所のみを状況検出部14が検出する構成としてもよいし、時間帯のみを状況検出部14が検出する構成としてもよい。また、撮像装置で画像が得られた状況として、場所および時間帯以外を状況検出部14が検出する構成としてもよく、例えば撮像装置で画像が得られた状況として、晴天、曇天、雨天等の天候を状況検出部14が検出する構成としてもよい。なお、天候については、例えばVICS(登録商標)センタ等から配信される気象情報を取得し、この気象情報をもとに検出する構成とすればよい。
また、撮像装置で画像が得られた状況として、場所、時間帯、天候等の種々の組み合わせのいずれを状況検出部14で検出する構成としてもよい。なお、辞書DB部32に格納する辞書については、状況検出部14で検出する状況の種類に応じて当該状況別に用意する構成とすればよい。
照合部18は、画像抽出部12で抽出した画像(以下、照合用抽出画像と呼ぶ)と選択辞書格納部17に格納されている照合用辞書中の判定パターンの集合(以下、物体認識モデルと呼ぶ)の各判定パターンとを順次照合することによって、照合用抽出画像と各判定パターンとのパターン類似度(つまり、対象物らしさ)を示す評価値を算出する。なお、物体認識モデルの各判定パターンは、照合用辞書中の各判定パターンに対応する判定閾値、正解得点、および不正解得点とID等の識別子によって紐付けされているものとする。
本実施形態の例では、照合部18は、物体認識モデル中の判定パターンが表現する照合用抽出画像中の部分領域の輝度明暗の差分値(つまり、前述の矩形特徴の強度)を算出する。そして、照合部18は、算出した差分値が、この判定パターンに紐付けられている判定閾値以上の場合は、対象物である可能性が高いものとして、この判定パターンに紐付けられている正解得点を評価値として算出する。また、算出した差分値が、この判定パターンに紐付けられている判定閾値未満の場合は、対象物である可能性が高くないものとして、この判定パターンに紐付けられている不正解得点を評価値として算出する。そして、照合部18は、画像抽出部12で抽出した照合用抽出画像に対して、物体認識モデルの各判定パターンについて上述の評価値の算出を順次行う。
また、照合部18は、照合用抽出画像と判定パターンとの照合を行う際に、照合用抽出画像と判定パターンとの大きさを合わせて照合を行うものとする。なお、照合用抽出画像と判定パターンとの大きさを合わせる場合には、照合用抽出画像の大きさを変化させて判定パターンの大きさに合わせる構成であってもよいし、判定パターンの大きさを変化させて照合用抽出画像の大きさに合わせる構成であってもよい。ただし、照合用抽出画像の大きさを変化させて判定パターンの大きさに合わせる構成とした場合には、前述のインテグラルイメージを再度作成しなければならなくなるため、判定パターンの大きさを変化させて照合用抽出画像の大きさに合わせる構成がより好ましい。
判定部19は、照合部18で順次算出した評価値をもとに、対象物の適否の判定を行う。例えば、判定部19は、照合部18で順次算出した評価値の総和を求め、この総和が所定の閾値以上か否かを判定することによって、対象物の適否の判定を行う。具体的には、所定の閾値以上であると判定した場合には、対象とした照合用抽出画像を、対象物を含む候補画像とし、当該照合用抽出画像について、(対象とした照合用抽出画像に含まれている物体が)対象物である旨の判定を行う。また、所定の閾値未満であると判定した場合には、対象とした照合用抽出画像を、対象物を含まない非候補画像とし、当該照合用抽出画像について、対象物でない旨の判定を行う。そして、対象物である旨の判定が行われた照合用抽出画像に含まれる照合の対象となった物体を対象物として決定し、決定した結果を画像表示部20に出力して表示させる(つまり、判定部19での判定結果に基づいて対象物の認識を行った結果を画像表示部20で表示させる)。よって、照合部18および判定部19は、請求項の照合判定手段として機能する。なお、ここで言うところの所定の閾値とは、例えば予め学習によって照合用抽出画像中の対象物の存否の判定のエラーを最小化させるように設定される値である。
画像表示部20は、画像取得部11で逐次取得した撮像画像を表示装置に逐次表示するとともに、対象物の認識を行った結果を表示装置に表示させる。よって、画像表示部20は、請求項の表示手段として機能する。なお、表示装置は、フルカラー表示が可能なものであり、液晶ディスプレイ、有機ELディスプレイ、プラズマディスプレイ等を用いて構成することができる。また、表示装置としては、前述のナビゲーション装置のディスプレイを用いる構成としてもよい。
例えば、画像表示部20は、撮像画像を表示装置に表示するとともに、当該撮像画像中の対象物を強調する強調表示を行う。なお、強調表示としては、例えば図4に示すように対象物を囲う方形の枠等の表示を行う構成とすればよい。なお、判定部18で対象物である旨の判定が行われなかった場合には、対象とした照合用抽出画像に含まれている物体については強調表示を行わない。また、一旦対象物として認識された対象物については、対象物を追跡する周知の手法によって追跡を行い、後続する撮像画像中の当該対象物についても強調表示を継続するものとする。
操作入力部21は、ユーザからの操作入力を受け付けるものであって、例えば上述の画像表示部20の表示装置と一体になったタッチスイッチもしくはメカニカルなスイッチ等が用いられる。また、操作入力部21は、画像表示部20で表示を行った対象物の認識の結果中に対象物の認識の誤りが存在したことを示す入力(つまり、対象物の認識の誤りが存在したことを指摘する入力)をユーザから受け付ける。よって、操作入力部21は、請求項の入力受け付け手段として機能する。また、対象物の認識の誤りが存在したことを指摘する入力は、請求項の未認識・誤認識指摘入力に相当する。そして、操作入力部21は、対象物の認識の誤りが存在したことを指摘する入力を受け付けた場合に、対象物の認識の誤りが存在したことを示す信号(以下、誤り指摘信号と呼ぶ)を情報収集部22に送る。なお、ここで言うところの対象物の認識の誤りとは、対象物でないものを対象物として認識してしまった誤認識や対象物が存在するのにも関わらず対象物を認識できなかった未認識などである。
情報収集部22は、操作入力部21から誤り指摘信号が送られてきたことをトリガとして、過去の一定時間(例えば10秒程度)分の撮像画像を画像記憶部13から取得するとともに、対象物の認識の誤りが存在したことを指摘された撮像画像が得られた場所および時間帯を状況検出部14から取得する。そして、情報収集部22は、取得した撮像画像と場所および時間帯とを装置側通信部15に送り、装置側通信部15から送信させる。
続いて、図5を用いて、画像認識装置1での対象物の認識に関連する処理の一例についての説明を行う。図5は、画像認識装置1での動作フローの一例を示すフローチャートである。なお、本フローは、自車両のイグニッションスイッチがオンされたときに開始される。
まず、ステップS1では、画像取得部11が撮像画像を取得し、この撮像画像を画像抽出部12に送ってステップS2に移る。ステップS2では、状況検出処理を行ってステップS3に移る。状況検出処理では、ステップS1で取得した撮像画像が撮像装置で得られた場所および時間帯を、状況検出部14が検出する。ステップS3では、辞書選択処理を行ってステップS4に移る。辞書選択処理では、ステップS2で検出した場所および時間帯に応じた照合用辞書を、辞書選択部16が辞書DB部32から選択して取得し、選択辞書格納部17に格納する。
ステップS4では、画像抽出処理を行ってステップS5に移る。画像抽出処理では、ステップS1で取得した撮像画像から対象物らしき物体を含む所定の領域の画像を切り出して照合用抽出画像を抽出する。ステップS5では、照合処理を行ってステップS6に移る。照合処理では、ステップS4で抽出した照合用抽出画像とステップS3で選択辞書格納部17に格納された照合用辞書中の物体認識モデルの各判定パターンとを照合することによって、照合用抽出画像と各判定パターンとのパターン類似度を示す評価値を算出する。
ステップS6では、判定処理を行ってステップS7に移る。判定処理では、ステップS5で順次算出した評価値の総和が所定の閾値以上か否かを判定部19が判定し、所定の閾値以上であると判定した場合には、対象とした照合用抽出画像を候補画像とする。また、所定の閾値未満であると判定した場合には、対象とした照合用抽出画像を非候補画像とする。
ステップS7では、画像抽出部12で順次抽出されるべき照合用抽出画像の全てについて照合処理および判定処理が終了(つまり、全抽出画像終了)していた場合(ステップS7でYes)には、ステップS8に移る。また、画像抽出部12で順次抽出されるべき照合用抽出画像の全てについては照合処理および判定処理が終了していなかった場合(ステップS7でNo)には、ステップS4に戻ってフローを繰り返す。なお、画像抽出部12で順次抽出されるべき照合用抽出画像の数は、撮像画像中の対象物らしき物体の数によって決まる。
ステップS8では、ステップS6において候補画像が存在した場合には、対象物あり(ステップS8でYes)として、ステップS9に移る。また、ステップS6において候補画像が存在しなかった場合には、対象物なし(ステップS8でNo)として、ステップS10に移る。ステップS9では、対象物である旨の判定が行われた照合用抽出画像に含まれる照合の対象となった物体を対象物として決定し、決定した結果を画像表示部20に出力して表示(つまり、結果表示)させて、ステップS10に移る。なお、ステップS8で対象物なしであった場合には、画像表示部20では対象物の強調表示のない撮像画像の表示が行われる。
ステップS10では、自車両のイグニッションスイッチがオフ(つまり、イグニッションオフ)になった場合(ステップS10でYes)には、フローを終了する。また、イグニッションオフになっていない場合(ステップS10でNo)には、ステップS1に戻ってフローを繰り返す。なお、図5のフローは、アクセサリスイッチがオンになったときに開始し、アクセサリスイッチがオフになったときに終了する構成としてもよい。
以上の構成によれば、場所と時間帯との組み合わせ別(つまり、状況別)に対象物をそれぞれ精度良く判別できるように特化した辞書が場所と時間帯との組み合わせ別に複数用意されていることになるので、個々の辞書については、市街、郊外、田舎といった場所および昼間、夜間といった時間にわたって対象物を精度良く判別できる1つの画像認識用の辞書に比べて、遥かにデータ量を少なくすることができる。また、以上の構成によれば、辞書DB部32中の個々の辞書の中から、撮像手段で画像が得られたときの場所と時間帯との組み合わせに応じた照合用辞書を辞書選択部16で選択して、対象物であるか否かの判定を行い、この判定結果に基づいて対象物の認識を行うので、上述の個々の辞書によって、市街、郊外、田舎といった場所および昼間、夜間といった時間にわたって対象物を精度良く判別することが可能になる。
さらに、対象物であるか否かの判定は、辞書DB部32中の個々の辞書の中から辞書選択部16で選択した照合用辞書を用いて行うので、上述の個々の辞書すべてを用いて対象物であるか否かの判定を行う場合に比べてデータの処理量を低減することができ、対象物であるか否かの判定の処理に要する時間を短く抑えることができる。よって、市街、郊外、田舎といった場所および昼間、夜間といった時間にわたって対象物を精度良く判別できる1つの画像認識用の辞書を用いる場合に比べても、対象物であるか否かの判定の処理に要する時間を短く抑えることができ、認識処理に要する時間の増加をより抑えることが可能になる。従って、以上の構成によれば、多様な状況にわたって対象物を精度良く判別できるだけの認識性能の向上が可能となるとともに、認識処理に要する時間の増加をより抑えることが可能となる。
また、以上の構成によれば、画像認識装置1では、辞書DB部32中の個々の辞書のうち、選択して取得した照合用辞書を用いて照合処理や判定処理を行うので、上述の個々の辞書を画像認識装置1側に保存しておく構成(つまり、辞書DB部32を画像認識装置1に備える構成)に比べ、保存に必要となるメモリ容量を抑えることができ、画像認識装置1の車両への搭載が容易になる。
ここで、本発明における作用効果について、具体的に図6および図7を用いて説明を行う。図6は、自車両の現在位置を示す模式図である。なお、図6中の円と矢印との組み合わさったシンボルが自車両の現在位置を示している。また、図7は、従来の辞書の認識性能と本発明の辞書の認識性能とを示すグラフである。なお、図7の縦軸は歩行者認識率(%)を表しており、横軸は誤認識率(個/frame)を表している。また、図7中の菱形の点が本発明の辞書による結果を表しており、三角の点が従来の辞書による結果を表している。
本例では、20:00時に図6に示すように駅周辺を走行している場合、つまり、場所が「市街」で時間帯が「夜間」の状況を想定してシミュレーションを行った結果を示す。詳しくは、場所が「市街」で時間帯が「夜間」の撮像画像をサンプルとして、本発明の場所が「市街」で時間帯が「夜間」についての辞書(以下、本発明の辞書)と従来の辞書とをそれぞれ用いて歩行者の認識を行わせ、システム要求誤認識率を満たす点での、本発明の辞書と従来の辞書とのそれぞれの歩行者認識率を求めて比較する。なお、サンプルとなった撮像画像について正しい対象物の位置(つまり、正解枠)が与えられており、この正確枠にどれだけの割合で一致するかによって歩行者認識率が求められる。また、ここで言うところのシステム要求誤認識率とは、例えば製品として耐え得る範囲内の誤認識率であって、任意に設定可能な値である。本例では、システム要求誤認識率は、誤認識率が4.0個/frame以下の範囲内であるものとする。
ここで、システム要求誤認識率を満たす点として図7中の楕円で囲った点を例に挙げて作用効果の説明を行う。図7に示すように、本発明の辞書の歩行者認識率は従来の辞書による歩行者認識率よりも高い。詳しい値としては、従来の辞書の歩行者認識率が50.5%であるのに対し、本発明の辞書の歩行者認識率は54.9%である。また、従来の辞書の判定パターン数が574であるのに対し、本発明の辞書は判定パターン数が304であり、データ量がより少ない。このように、本発明の構成によれば、認識処理に用いる辞書のデータ量をより抑えて認識処理に要する時間の増加をより抑えながら、認識性能の向上を行うことができる。
次に、図8を用いて、収集センタ3の概略的な構成について説明を行う。図8は、収集センタ3の概略的な構成を示すブロック図である。図8に示すように、収集センタ3は、センタ側通信部31、辞書DB部32、読み出し部33、未認識・誤認識シーンDB部34、画像抽出部35、学習データDB部36、再学習部37、および辞書評価部38を備えている。
センタ側通信部31は、通信網2を介して画像認識装置1との間で通信を行うものである。詳しくは、画像認識装置1から送信されてくる撮像画像と場所および時間帯とを受信して未認識・誤認識シーンDB部34に送ったり、画像認識装置1から送信されてくる読み出し指示を受信して読み出し部33に送ったり、読み出し部33から送られてくる照合用辞書を画像認識装置1へ向けて送信したりする。
読み出し部33は、センタ側通信部31から送られてくる読み出し指示に従った辞書を辞書DB部32から読み出し、読み出した辞書(つまり、照合用辞書)をセンタ側通信部31に送る。読み出し部33は、例えば場所が「市街」、時間帯が「昼間」の状況についての辞書を読み出す読み出し指示を受けた場合には、場所が「市街」で時間帯が「昼間」についての辞書を、辞書DB部32に格納されている6種類の辞書のうちから選択して読み出す。
未認識・誤認識シーンDB部34は、センタ側通信部31から送られてきた撮像画像と場所および時間帯とを対応付けて格納する。つまり、未認識・誤認識シーンDB部34には、対象物の認識の誤りが存在したことを指摘された撮像画像を含む過去10数秒程度の撮像画像と当該対象物の認識の誤りが存在したことを指摘された撮像画像が得られた場所および時間帯とが対応付けて格納されることになる。よって、未認識・誤認識シーンDB部34は、請求項の未認識・誤認識シーンデータベース部として機能する。
画像抽出部35は、未認識・誤認識シーンDB部34に格納された撮像画像から、対象物の認識の誤りが存在した箇所を含む所定の領域の画像を画像例として抽出する。よって、画像抽出部35は、請求項の再学習用画像抽出手段として機能する。撮像画像から対象物の認識の誤りが存在した箇所を含む所定の領域の画像を抽出する方法としては、例えば辞書DB部32の辞書よりも認識処理の速度が遅い代わりに、辞書DB部32の辞書よりもデータ量が多く認識性能がより高い辞書を格納したDBを収集センタ3に備え、このDBの辞書を用いて正しい対象物を特定することによって、誤りの種類の特定とともに未認識や誤認識した箇所を特定し、対象物の認識の誤りが存在した箇所を含む所定の領域の画像を画像例として抽出する方法がある。なお、ここで言うところの所定の領域とは、任意に設定可能な範囲である。
また、他の方法としては、未認識と誤認識とのうちどちらの誤りが生じているかを示す入力(つまり、誤りの種類を指摘する入力)、および表示装置に表示されている撮像画像中の対象物の認識の誤りが生じている箇所を示す入力(つまり、誤りが生じている箇所を指摘する入力)を操作入力部21でユーザから受け付け、この入力をもとにして誤りの種類の特定とともに未認識や誤認識した箇所を特定し、対象物の認識の誤りが存在した箇所を含む所定の領域の画像を画像例として抽出する方法を用いてもよい。なお、誤りが生じている箇所を指摘する入力をユーザから受け付ける場合には、タッチスイッチを利用することによって撮像画像中の誤りが生じている箇所を特定する構成とすればよい。この場合、誤りの種類を指摘する入力および誤りが生じている箇所を指摘する入力が請求項の未認識・誤認識指摘入力に相当する。また、操作入力部21は、誤りの種類を指摘する入力と誤りが生じている箇所を指摘する入力とを受け付けた場合に、誤りの種類を示すID等の識別情報および誤りが生じている箇所を示す撮像画像中の座標情報を情報収集部22に送り、情報収集部22が、取得した撮像画像と場所および時間帯と識別情報と座標情報とを装置側通信部15に送り、装置側通信部15からセンタ側通信部31に送信させる構成とすればよい。そして、未認識・誤認識シーンDB部34は、センタ側通信部31で受信した撮像画像と場所および時間帯と識別情報と座標情報とを対応付けて格納し、画像抽出部35が、未認識・誤認識シーンDB部34に格納された撮像画像から、当該撮像画像に対応付けられた座標情報をもとに対象物の認識の誤りが存在した箇所を含む所定の領域の画像を画像例として抽出する。また、識別情報については、再学習部37での後述する再学習時に、対象物の認識の誤りの種類を特定して、認識の誤りの種類に合わせた再学習を行うのに利用する構成とすればよい。
学習データDB部36は、辞書DB部32に格納されている辞書を構築するために用いた状況別(本実施形態の例では、場所と時間帯との組み合わせ別)に用意された対象物の複数の画像例を格納している。よって、学習データDB部36は、請求項の学習データデータベース部として機能する。
再学習部37は、画像抽出部35で抽出した画像例(以下、抽出画像例と呼ぶ)と学習データDB部36の画像例(以下、学習画像例と呼ぶ)とを統合した画像例をもとに対象物の特徴を再学習して辞書を新たに構築する。詳しくは、抽出画像例を、当該抽出画像例を抽出した撮像画像に未認識・誤認識シーンDB部34で対応付けられていた状況と同じ状況についての学習画像例と統合した画像例をもとに再学習を行う。よって、再学習部37は、請求項の辞書再学習手段として機能する。また、再学習についても、アダブースト学習法による学習によって例えば認識の誤りの種類に合わせた再学習を行うものとすればよい。つまり、誤認識した物体を含む所定の領域の画像を画像例として画像抽出部35で抽出した場合には、この誤認識した物体を含む所定の領域の画像を、対象物を含まない画像例(いわゆる不正解画像)として再学習を行い、同様の誤認識を今後行わないようにすることになる。また、未認識となった対象物を含む所定の領域の画像を画像例として画像抽出部35で抽出した場合には、この未認識となった対象物を含む所定の領域の画像を、対象物を含む画像例(いわゆる正解画像)として再学習を行い、同様の未認識を今後行わないようにすることになる。そして、再学習部37では、再学習を行った後、新たに構築された辞書(以下、更新用辞書と呼ぶ)を辞書評価部38に送る。
辞書評価部38は、再学習部37から送られてきた更新用辞書をもとに、当該更新用辞書の、対象物についての認識性能を評価する。よって、辞書評価部38は、請求項の辞書評価手段として機能する。詳しくは、辞書評価部38は、再学習部37から送られてきた更新用辞書をもとに、この更新用辞書(つまり、再学習後の辞書)について前述のシミュレーションと同様のシミュレーションを行って、対象物についての認識性能を求める。また、辞書評価部38は、当該更新用辞書と同一状況(本実施形態の例では、場所と時間帯との組み合わせ)についての再学習前の辞書を辞書DB部32から読み出し、この再学習前の辞書について前述のシミュレーションと同様のシミュレーションを行って、対象物についての認識性能を求める。そして、辞書評価部38は、シミュレーションによって求めた再学習前の辞書の認識性能と再学習後の辞書の認識性能とを比較し、再学習後の辞書の認識性能が再学習前の辞書の認識性能よりも高いと判定した場合に、当該再学習後の辞書を辞書DB部32に格納されている当該再学習前の辞書の代わりに辞書DB部32に格納し、辞書DB部32に格納されている辞書の更新を行う。
よって、収集センタ3は、請求項の外部装置として機能する。なお、本実施形態では、請求項の外部装置として、1つまたは複数のサーバからなる収集センタ3を想定しているが、必ずしもこれに限らない。例えば、請求項の外部装置として、他車両に搭載されるコンピュータおよび通信端末を用いる構成としてもよい。
続いて、図9を用いて、画像認識システム100での再学習に関連する処理の一例についての説明を行う。図9は、画像認識システム100での動作フローの一例を示すフローチャートである。なお、本フローは、自車両のイグニッションスイッチがオンされたときに開始される。
まず、ステップS21では、画像認識装置1で図5のフローに示した処理を行い、対象物の認識結果を画像表示部20の表示装置に表示し、ステップS22に移る。つまり、対象物が存在すると判定した場合には、その対象物を強調表示した撮像画像を表示し、対象物が存在しないと判定した場合には、強調表示のない撮像画像を表示する。ステップS22では、画像認識装置1の操作入力部21で対象物の認識の誤りが存在したことを指摘する入力を受け付けた場合(ステップS22でYes)には、ステップS23に移る。また、画像認識装置1の操作入力部21で対象物の認識の誤りが存在したことを指摘する入力を受け付けていない場合(ステップS22でNo)には、ステップS21に戻ってフローを繰り返す。
ステップS23では、画像認識装置1で情報収集処理を行ってステップS24に移る。情報収集処理では、情報収集部22が、過去の10秒程度分の撮像画像を画像記憶部13から取得するとともに、対象物の認識の誤りが存在したことを指摘された撮像画像が得られた場所および時間帯を状況検出部14から取得する。ステップS24では、ステップS23で取得した撮像画像と場所および時間帯とを装置側通信部15からセンタ側通信部31に送信(つまり、収集センタ3へ情報送信)し、ステップS25に移る。ステップS25では、画像認識装置1の装置側通信部15から送信されてきた撮像画像と場所および時間帯とを収集センタ3のセンタ側通信部31が受信(つまり、収集センタ3で情報受信)し、ステップS26に移る。なお、センタ側通信部31から送られてきた撮像画像と場所および時間帯とは、前述したようにお互い対応付けて未認識・誤認識シーンDB部34に格納する。
ステップS26では、再学習用画像抽出処理を行ってステップS27に移る。再学習用画像抽出処理では、前述したように、収集センタ3の画像抽出部35が、未認識・誤認識シーンDB部34に格納された撮像画像から、対象物の認識の誤りが存在した箇所を含む所定の領域の画像を画像例として抽出する。ステップS27では、再学習処理を行ってステップS28に移る。再学習処理では、ステップS27で抽出した画像例と当該抽出画像例を抽出した撮像画像に未認識・誤認識シーンDB部34で対応付けられていた状況と同じ状況についての学習データDB部36の画像例とを統合した画像例をもとに、収集センタ3の再学習部37が前述の再学習を行って更新用辞書を新たに構築する。
ステップS28では、更新用辞書評価処理を行ってステップS29に移る。更新用辞書評価処理では、ステップS27で新たに構築した更新用辞書の、対象物についての認識性能を、収集センタ3の辞書評価部38が評価する。ステップS29では、再学習後の辞書の認識性能が再学習前の辞書の認識性能よりも高かった(つまり、認識性能が向上した)場合(ステップS29でYes)には、ステップS30に移る。また、再学習後の辞書の認識性能が再学習前の辞書の認識性能よりも高くなかった(つまり、認識性能が向上しなかった)場合(ステップS29でNo)には、ステップS31に移る。
ステップS30では、辞書更新処理を行ってステップS31に移る。辞書更新処理では、当該再学習後の辞書を辞書DB部32に格納されている当該再学習前の辞書の代わりに辞書DB部32に格納し、辞書DB部32に格納されている辞書の更新を行う。ステップS31では、自車両のイグニッションスイッチがオフ(つまり、イグニッションオフ)になった場合(ステップS31でYes)には、フローを終了する。また、イグニッションオフになっていない場合(ステップS31でNo)には、ステップS21に戻ってフローを繰り返す。なお、図9のフローは、アクセサリスイッチがオンになったときに開始し、アクセサリスイッチがオフになったときに終了する構成としてもよい。
以上の構成によれば、再学習によって、同様の認識の誤りを今後行わない辞書を新たに得ることができるとともに、再学習によって認識性能が向上した場合にのみ更新を行って、認識性能の向上のみを図ることができる。また、以上の構成によれば、未認識・誤認識シーンDB部34、画像抽出部35、学習データDB部36、再学習部37、および辞書評価部38を画像認識装置1でなく、収集センタ3に備えているので、画像認識装置1でのデータの処理量や格納量を低減することができ、画像認識装置1での処理の負荷の軽減や必要なメモリ容量の削減を可能にしている。よって、以上の構成によれば、画像認識装置1の構成の簡略化や小型化を行うことが可能であり、画像認識装置1の車載等がより容易になる。
ここで、本発明における再学習の作用効果について、具体的に図10および図11を用いて説明を行う。図10は、表示装置での未認識となった対象物を含む表示例を説明する図である。また、図10中の破線の円で囲った物体が、未認識となった対象物を示している。なお、この破線の円は、未認識となった対象物の説明のためのものであって、画像表示部20の表示装置では表示されない。また、図11は、再学習前の辞書の認識性能と再学習後の辞書の認識性能とを示すグラフである。なお、図11の縦軸は歩行者認識率(%)を表しており、横軸は誤認識率(個/frame)を表している。また、図11中の菱形の点が再学習後の辞書による結果を表しており、三角の点が再学習前の辞書による結果を表している。
本例では、前述の図7の説明のときと同様に、場所が「市街」で時間帯が「夜間」の状況を想定してシミュレーションを行った結果を示す。詳しくは、場所が「市街」で時間帯が「夜間」の撮像画像をサンプルとして、場所が「市街」で時間帯が「夜間」についての再学習前の辞書と再学習後の辞書とをそれぞれ用いて歩行者の認識を行わせ、システム要求誤認識率を満たす点での、本発明の辞書と従来の辞書とのそれぞれの歩行者認識率を求めて比較する。なお、本例でも、システム要求誤認識率は、誤認識率が4.0個/frame以下の範囲内であるものとする。また、本例では、認識の誤りとして図10に示すような未認識が存在した撮像画像中の、未認識となった対象物を含む所定の領域の画像を画像例に新たに加えて再学習を行って得られた再学習後の辞書を用いて上述のシミュレーションを行った結果を示している。
ここで、システム要求誤認識率を満たす点として図11中の楕円で囲った点を例に挙げて作用効果の説明を行う。図11に示すように、再学習後の辞書の歩行者認識率は再学習前の辞書による歩行者認識率よりも高い。詳しい値としては、再学習前の辞書の歩行者認識率が75.9%であるのに対し、再学習後の辞書の歩行者認識率は85.2%である。また、再学習前の辞書の判定パターン数が304であるのに対し、再学習後の辞書は判定パターン数が453と増加しているが、前述の従来の辞書の判定パターン数の574よりも少なく、従来の辞書よりはデータ量がより少ない。このように、本発明の構成によれば、認識処理に用いる辞書のデータ量をより抑えて認識処理に要する時間の増加をより抑えながら、再学習によって更なる認識性能の向上を図ることができる。
なお、本実施形態では、未認識・誤認識シーンDB部34、画像抽出部35、学習データDB部36、再学習部37、および辞書評価部38を収集センタ3に備え、再学習を収集センタ3側で行う構成を示したが、必ずしもこれに限らない。例えば、未認識・誤認識シーンDB部34、画像抽出部35、学習データDB部36、再学習部37、および辞書評価部38を画像認識装置1に備え、画像認識装置1側で再学習を行う構成としてもよい。この場合には、情報収集部22は、取得した撮像画像と場所および時間帯とを装置側通信部15に送らずに、画像認識装置1に備えられた未認識・誤認識シーンDB部34に当該撮像画像と当該場所および時間帯とを対応付けて格納する構成とすればよい。
また、本実施形態では、辞書DB部32を収集センタ3に備える構成を示したが、必ずしもこれに限らない。例えば、辞書DB部32を画像認識装置1に備える構成としてもよい。この場合には、辞書選択部16は、装置側通信部15および後述のセンタ側通信部31を介さずに、画像認識装置1に備えられた辞書DB部32から状況検出部14で検出した状況に応じた辞書を選択して取得する構成とすればよい。
さらに、辞書DB部32、未認識・誤認識シーンDB部34、画像抽出部35、学習データDB部36、再学習部37、および辞書評価部38を画像認識装置1に備えることによって、対象物の認識や再学習を画像認識装置1で行う構成としてもよい。なお、この場合、画像認識装置1に装置側通信部15を備えない構成とすればよい。
なお、前述の実施形態では、対象物を人とする構成を示したが、必ずしもこれに限らない。例えば、対象を人以外のもの(例えば車両や犬など)とする構成であってもよい。
また、前述の実施形態では、光学情報をデータ列化して画像化するカメラを撮像装置として用いる構成を示したが、必ずしもこれに限らない。例えば、距離情報をデータ列化して画像化する距離センサ(例えばレーダなど)のアレイ構成等を撮像装置として用いる構成であってもよい。
なお、本発明は、上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
1 画像認識装置、2 通信網、3 収集センタ(外部装置)、11 画像取得部(画像取得手段)、12 画像抽出部(照合用画像抽出手段)、13 画像記憶部、14 状況検出部(状況検出手段)、15 装置側通信部(画像認識装置側送信手段)、16 辞書選択部(辞書選択手段)、17 選択辞書格納部、18 照合部(照合判定手段)、19 判定部(照合判定手段)、20 画像表示部(表示手段)、21 操作入力部(入力受け付け手段)、22 情報収集部、31 センタ側通信部、32 辞書DB部(辞書データベース部)、33 読み出し部、34 未認識・誤認識シーンDB部(未認識・誤認識シーンデータベース部)、35 画像抽出部(再学習用画像抽出手段)、36 学習データDB部(学習データデータベース部)、37 再学習部(辞書再学習手段)、38 辞書評価部(辞書評価手段)、100 画像認識システム

Claims (9)

  1. 撮像手段で得られた画像を取得する画像取得手段と、
    前記画像取得手段で取得した画像から、所定の領域の画像を抽出する照合用画像抽出手段と、を備える画像認識装置と、
    前記画像認識装置との間で情報の送受信を行う外部装置と、を含み、
    前記外部装置は、
    状況別に用意された認識対象とする物体である対象物の複数の画像例をもとにこの対象物の特徴を学習して予め当該状況別に各々構築された、複数種類のパターンの集合からなる複数の辞書を格納している辞書データベース部を備え、
    前記画像認識装置は、
    前記撮像手段で画像が得られたときの前記状況を検出する状況検出手段と、
    前記状況検出手段で検出した状況に応じた前記辞書を前記外部装置の前記辞書データベース部から選択して取得する辞書選択手段と、
    前記照合用画像抽出手段で抽出する所定の領域の画像と前記辞書選択手段で選択して取得した辞書中の複数種類のパターンとを順次照合していくことによって、前記対象物であるか否かの判定を行う照合判定手段と、をさらに備え、前記照合判定手段での判定結果に基づいて前記対象物の認識を行うのに加え、
    前記照合判定手段での判定結果に基づいて前記対象物の認識を行った結果を表示する表示手段と、
    前記辞書を構築するために用いた前記状況別に用意された複数の画像例を格納している学習データデータベース部と、
    前記表示手段で表示を行った前記対象物の認識の結果中に前記対象物の認識の誤りが存在したことを示す入力である未認識・誤認識指摘入力をユーザから受け付ける入力受け付け手段と、
    前記入力受け付け手段で前記未認識・誤認識指摘入力を受け付けた場合に、誤った前記対象物の認識のもととなった、前記画像取得手段で取得した画像と前記状況検出手段で検出した状況とが対応付けて格納される未認識・誤認識シーンデータベース部と、
    前記未認識・誤認識シーンデータベース部に格納された前記画像取得手段で取得した画像から、前記認識の誤りが存在した箇所を含む所定の領域の画像を画像例として抽出する再学習用画像抽出手段と、
    当該画像に対応付けられた前記状況検出手段で検出した状況に従って、前記再学習用画像抽出手段で抽出した画像例を、前記学習データデータベース部に格納されている前記状況別に用意された複数の画像例に統合し、この統合した画像例をもとに前記対象物の特徴を再学習して前記辞書を新たに構築する辞書再学習手段と、
    前記辞書再学習手段で新たに構築された辞書の、前記対象物についての認識性能を評価する辞書評価手段と、をさらに備え、
    前記辞書データベース部に格納されている同一状況についての辞書よりも前記認識性能が高い旨の評価を前記辞書評価手段で行った場合に、前記辞書再学習手段で新たに構築された辞書を前記辞書データベース部に格納する新たな前記辞書として更新を行うことを特徴とする画像認識システム。
  2. 撮像手段で得られた画像を取得する画像取得手段と、
    前記画像取得手段で取得した画像から、所定の領域の画像を抽出する照合用画像抽出手段と、を備える画像認識装置と、
    前記画像認識装置との間で情報の送受信を行う外部装置と、を含み、
    前記外部装置は、
    状況別に用意された認識対象とする物体である対象物の複数の画像例をもとにこの対象物の特徴を学習して予め当該状況別に各々構築された、複数種類のパターンの集合からなる複数の辞書を格納している辞書データベース部を備え、
    前記画像認識装置は、
    前記撮像手段で画像が得られたときの前記状況を検出する状況検出手段と、
    前記状況検出手段で検出した状況に応じた前記辞書を前記外部装置の前記辞書データベース部から選択して取得する辞書選択手段と、
    前記照合用画像抽出手段で抽出する所定の領域の画像と前記辞書選択手段で選択して取得した辞書中の複数種類のパターンとを順次照合していくことによって、前記対象物であるか否かの判定を行う照合判定手段と、をさらに備え、前記照合判定手段での判定結果に基づいて前記対象物の認識を行うのに加え、
    前記照合判定手段での判定結果に基づいて前記対象物の認識を行った結果を表示する表示手段と、
    前記表示手段で表示を行った前記対象物の認識の結果中に前記対象物の認識の誤りが存在したことを示す入力である未認識・誤認識指摘入力をユーザから受け付ける入力受け付け手段と、
    前記入力受け付け手段で前記未認識・誤認識指摘入力を受け付けた場合に、誤った前記対象物の認識のもととなった、前記画像取得手段で取得した画像と前記状況検出手段で検出した状況とを対応付けて前記外部装置に送信する画像認識装置側送信手段と、をさらに備え、
    前記外部装置は、
    前記辞書を構築するために用いた前記状況別に用意された複数の画像例を格納している学習データデータベース部と、
    前記画像認識装置側送信手段から送信されてきた前記画像取得手段で取得した画像と前記状況検出手段で検出した状況とが対応付けて格納される未認識・誤認識シーンデータベース部と、
    前記未認識・誤認識シーンデータベース部に格納された前記画像取得手段で取得した画像から、前記認識の誤りが存在した箇所を含む所定の領域の画像を画像例として抽出する再学習用画像抽出手段と、
    当該画像に対応付けられた前記状況検出手段で検出した状況に従って、前記再学習用画像抽出手段で抽出した画像例を、前記学習データデータベース部に格納されている前記状況別に用意された複数の画像例に統合し、この統合した画像例をもとに前記対象物の特徴を再学習して前記辞書を新たに構築する辞書再学習手段と、
    前記辞書再学習手段で新たに構築された辞書の、前記対象物についての認識性能を評価する辞書評価手段と、
    前記辞書データベース部に格納されている同一状況についての辞書よりも前記認識性能が高い旨の評価を前記辞書評価手段で行った場合に、前記辞書再学習手段で新たに構築された辞書を前記辞書データベース部に格納する新たな前記辞書として更新を行うことを特徴とする画像認識システム。
  3. 複数の車両の各々に搭載される複数の前記画像認識装置を含むことを特徴とする請求項に記載の画像認識システム。
  4. 前記状況検出手段は、前記状況として、前記撮像手段で画像が得られた場所を検出することを特徴とする請求項1〜のいずれか1項に記載の画像認識システム。
  5. 前記状況検出手段は、前記状況として、前記撮像手段で画像が得られた時間帯を検出することを特徴とする請求項1〜のいずれか1項に記載の画像認識システム。
  6. 前記画像認識装置は、車両に搭載され、
    前記撮像手段として、前記車両の周辺の画像を撮像する撮像手段をさらに備えており、
    前記状況検出手段は、前記車両の位置の情報をもとに前記撮像手段で画像が得られた場所を検出することを特徴とする請求項に記載の画像認識システム。
  7. 前記画像認識装置は、車両に搭載され、
    前記撮像手段として、前記車両の周辺の画像を撮像する撮像手段をさらに備えており、
    前記状況検出手段は、時刻の情報をもとに前記撮像手段で画像が得られた時間帯を検出することを特徴とする請求項に記載の画像認識システム。
  8. 前記状況検出手段は、前記画像取得手段で取得した画像を解析し、前記撮像手段で画像が得られた状況を推定することによって、前記撮像手段で画像が得られた状況を検出することを特徴とする請求項またはに記載の画像認識システム。
  9. 前記画像認識装置は、車両に搭載され、
    前記外部装置は、前記画像認識装置との間で通信網を介して情報の送受信を行うことを特徴とする請求項1のいずれか1項に記載の画像認識システム。
JP2009206328A 2009-09-07 2009-09-07 画像認識システム Expired - Fee Related JP5333080B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009206328A JP5333080B2 (ja) 2009-09-07 2009-09-07 画像認識システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009206328A JP5333080B2 (ja) 2009-09-07 2009-09-07 画像認識システム

Publications (2)

Publication Number Publication Date
JP2011059810A JP2011059810A (ja) 2011-03-24
JP5333080B2 true JP5333080B2 (ja) 2013-11-06

Family

ID=43947392

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009206328A Expired - Fee Related JP5333080B2 (ja) 2009-09-07 2009-09-07 画像認識システム

Country Status (1)

Country Link
JP (1) JP5333080B2 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6047901B2 (ja) * 2012-03-26 2016-12-21 富士通株式会社 登録方法、抽出方法、時間帯振り分け方法、登録プログラム、抽出プログラム、登録装置、および抽出装置
JP6225820B2 (ja) * 2014-05-09 2017-11-08 株式会社デンソー 車両用対象物検出装置
JP2016009387A (ja) * 2014-06-25 2016-01-18 本田技研工業株式会社 画像処理装置
JP6482195B2 (ja) * 2014-07-02 2019-03-13 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
JP6256239B2 (ja) * 2014-07-25 2018-01-10 株式会社デンソー 歩行者検出装置および歩行者検出方法
KR102164635B1 (ko) * 2014-12-12 2020-10-12 현대자동차주식회사 차량의 자율 주행을 위한 전자 장치 및 방법
JP6384419B2 (ja) * 2015-07-24 2018-09-05 トヨタ自動車株式会社 動物種類判定装置
JP7026062B2 (ja) * 2016-03-17 2022-02-25 アビジロン コーポレイション 機械学習によってオブジェクト分類器を訓練するためのシステム及び方法
JP6172353B2 (ja) * 2016-07-13 2017-08-02 ソニー株式会社 端末装置、物体識別方法、情報処理装置、及びプログラム
JP6794197B2 (ja) * 2016-09-12 2020-12-02 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6567488B2 (ja) * 2016-12-22 2019-08-28 日本電信電話株式会社 学習データ生成装置、開発データ生成装置、モデル学習装置、それらの方法、及びプログラム
JP6389296B1 (ja) * 2017-03-29 2018-09-12 西日本電信電話株式会社 映像データ処理装置、映像データ処理方法、及びコンピュータプログラム
JP7308421B2 (ja) * 2018-07-02 2023-07-14 パナソニックIpマネジメント株式会社 学習装置、学習システム、及び学習方法
JP7273470B2 (ja) 2018-08-14 2023-05-15 キヤノン株式会社 医用情報処理装置及び医用情報処理方法、プログラム
JP7370694B2 (ja) * 2018-08-14 2023-10-30 キヤノン株式会社 医用情報処理装置及び医用情報処理方法、プログラム
WO2020059706A1 (ja) * 2018-09-20 2020-03-26 富士フイルム株式会社 学習用データ収集装置、学習用データ収集方法、及びプログラム
JP2020134990A (ja) * 2019-02-13 2020-08-31 カシオ計算機株式会社 データベース生成方法、データベース生成装置およびデータベース生成プログラム
JP7156107B2 (ja) * 2019-03-12 2022-10-19 株式会社デンソー 車載装置、学習システムおよびデータ送信方法
CN112955928A (zh) * 2019-04-04 2021-06-11 松下知识产权经营株式会社 信息处理方法以及信息处理系统
JP7074723B2 (ja) * 2019-07-04 2022-05-24 Kddi株式会社 学習装置及びプログラム
US11487973B2 (en) 2019-07-19 2022-11-01 UiPath, Inc. Retraining a computer vision model for robotic process automation
JP7445856B2 (ja) * 2019-09-30 2024-03-08 パナソニックIpマネジメント株式会社 物体認識装置、物体認識システムおよび物体認識方法
WO2022107595A1 (ja) * 2020-11-17 2022-05-27 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、プログラム
JP7407901B1 (ja) 2022-12-23 2024-01-04 能美防災株式会社 防災機器の設置補助システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3988510B2 (ja) * 2002-04-11 2007-10-10 株式会社デンソー 情報端末
JP2004354711A (ja) * 2003-05-29 2004-12-16 Matsushita Electric Ind Co Ltd 音声認識システム
JP2005032163A (ja) * 2003-07-11 2005-02-03 Nec Commun Syst Ltd 顔照合システム
JP2007329762A (ja) * 2006-06-08 2007-12-20 Fujitsu Ten Ltd 物体候補領域検出装置、物体候補領域検出方法、歩行者認識装置、および車両制御装置
JP2008165496A (ja) * 2006-12-28 2008-07-17 Toyota Central R&D Labs Inc 画像正規化装置、対象物検出装置、対象物検出システム及びプログラム

Also Published As

Publication number Publication date
JP2011059810A (ja) 2011-03-24

Similar Documents

Publication Publication Date Title
JP5333080B2 (ja) 画像認識システム
CN108256574B (zh) 机器人定位方法及装置
JP5423631B2 (ja) 画像認識装置
CN105844128B (zh) 身份识别方法和装置
CN108830199B (zh) 识别交通灯信号的方法、装置、可读介质及电子设备
CN105745687B (zh) 情景感知移动目标检测
CN109977823B (zh) 行人识别跟踪方法、装置、计算机设备和存储介质
CN108932479A (zh) 一种人体异常行为检测方法
CN104598883B (zh) 一种多摄像机监控网络中目标再识别的方法
CN111325141B (zh) 交互关系识别方法、装置、设备及存储介质
JP5106356B2 (ja) 画像監視装置
CN106373146B (zh) 一种基于模糊学习的目标跟踪方法
CN111881741B (zh) 车牌识别方法、装置、计算机设备和计算机可读存储介质
CN111783654B (zh) 车辆重识别方法、装置及电子设备
US20210097306A1 (en) Automatic license plate recognition (alpr) and vehicle identification profile methods and systems
CN111507145A (zh) 嵌入式车载环视系统库位障碍物检测方法、系统及装置
CN111950498A (zh) 一种基于端到端实例分割的车道线检测方法及装置
CN112669615A (zh) 一种基于摄像头的停车位检测方法和系统
Ling et al. A model for automatic recognition of vertical texts in natural scene images
CN108710828A (zh) 识别目标物的方法、装置和存储介质以及车辆
JP5293321B2 (ja) 対象物識別装置及びプログラム
CN117671799B (zh) 结合深度测量的人体跌倒检测方法、装置、设备及介质
CN114120309A (zh) 一种仪表读数识别方法、装置及计算机设备
CN110765940B (zh) 目标对象统计方法和装置
CN116912763A (zh) 一种融合步态人脸模态的多行人重识别方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130715

R150 Certificate of patent or registration of utility model

Ref document number: 5333080

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees