JP2010033321A - 画像処理アルゴリズムの評価システム - Google Patents
画像処理アルゴリズムの評価システム Download PDFInfo
- Publication number
- JP2010033321A JP2010033321A JP2008194770A JP2008194770A JP2010033321A JP 2010033321 A JP2010033321 A JP 2010033321A JP 2008194770 A JP2008194770 A JP 2008194770A JP 2008194770 A JP2008194770 A JP 2008194770A JP 2010033321 A JP2010033321 A JP 2010033321A
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- image
- processing algorithm
- disturbances
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
【課題】画像処理することにより移動体の状況を判断する画像処理アルゴリズムのロバスト性を、短時間で確実に評価する。
【解決手段】実写画像データベース50には、車載のノーズビューカメラにより撮影した多数の画像データSが蓄積されている。実写画像データベース50から出力された1つの画像データSには、天候外乱シミュレータ51により各種の天候外乱を示す画像が重畳され、基本外乱シミュレータ52によりカメラの各種外乱である基本外乱を示す画像が重畳される。画像処理装置3に設定された画像処理アルゴリズムは、天候外乱と基本外乱が重畳された画像データSを画像処理して、移動体がカメラ設置位置に到着するまでの時間である接近交差時間Tを求める。各種外乱を含む多数の画像データSと接近交差時間Tとを比較判断することにより、画像処理アルゴリズムのロバスト性を精度良く評価する。
【選択図】図1
【解決手段】実写画像データベース50には、車載のノーズビューカメラにより撮影した多数の画像データSが蓄積されている。実写画像データベース50から出力された1つの画像データSには、天候外乱シミュレータ51により各種の天候外乱を示す画像が重畳され、基本外乱シミュレータ52によりカメラの各種外乱である基本外乱を示す画像が重畳される。画像処理装置3に設定された画像処理アルゴリズムは、天候外乱と基本外乱が重畳された画像データSを画像処理して、移動体がカメラ設置位置に到着するまでの時間である接近交差時間Tを求める。各種外乱を含む多数の画像データSと接近交差時間Tとを比較判断することにより、画像処理アルゴリズムのロバスト性を精度良く評価する。
【選択図】図1
Description
本発明は画像処理アルゴリズムの評価システムに関し、画像処理アルゴリズムのロバスト性がどの程度あるのかを、容易かつ系統的・定量的に評価することができるように工夫したものである。
自動車を運転して、見通しの悪い交差点で頭出しをする場合には、交差する道路の左右の安全を確認することが困難であることがある。
そこで、自動車のフロントバンパーの左右に、それぞれノーズビューカメラを搭載し、ノーズビューカメラで撮影した左右の画像を、車室内のモニタに映し出して安全確認をする車載画像システムが、自動車に搭載されるようになってきた。
そこで、自動車のフロントバンパーの左右に、それぞれノーズビューカメラを搭載し、ノーズビューカメラで撮影した左右の画像を、車室内のモニタに映し出して安全確認をする車載画像システムが、自動車に搭載されるようになってきた。
この車載画像システムの概要を、道路の交差点を上方から示す図2を参照して説明する。同図に示すように、自動車1の前部(例えばフロントバンパー)の左右に、それぞれ、ノーズビューカメラ2a,2bを備えている。
右側のノーズビューカメラ2aの視野は、交差する道路の右側(図2において視野α)であり、この視野αに入る移動体(例えば自動車10や自転車や歩行者など)を撮影する。左側のノーズビューカメラ2bの視野は、交差する道路の左側(図2において視野β)であり、この視野βに入る移動体(例えば自動車11や自転車や歩行者など)を撮影する。
なお、自動車1を運転している運転者の視野は、図2において視野γである。
なお、自動車1を運転している運転者の視野は、図2において視野γである。
右側のノーズビューカメラ2aで撮影した視野αの範囲の右側の動画の画像データと、左側のノーズビューカメラ2bで撮影した視野βの範囲の左側の動画の画像データは、自動車1の車室内に配置した1台のモニタに送られる。
このモニタは、運転席に座った運転者が視認できる位置に配置されており、モニタの画面の右側半分に右側画像が映し出され、モニタの画面の左側半分に左側画像が映し出される。つまり、1つのモニタに、右側画像と左側画像が左右に分かれて同時に映し出される。
このモニタは、運転席に座った運転者が視認できる位置に配置されており、モニタの画面の右側半分に右側画像が映し出され、モニタの画面の左側半分に左側画像が映し出される。つまり、1つのモニタに、右側画像と左側画像が左右に分かれて同時に映し出される。
このため運転者は、モニタ画面を見ることにより、視野α,βに存在する(即ち運転者の死角に入っている)移動体を確認することができ、安全確認ができる。
最近では、交差点事故の更なる低減を目指して、上記のノーズビューカメラ2a、2bにより撮影した画像データを画像処理して、運転者に情報提供をする「車載ノーズビューカメラによる移動体検出システム」が開発されている。
このシステムでは、ノーズビューカメラ2a、2bにより撮影した画像データを画像処理することにより、接近してくる移動体を検出して移動体がカメラ設置位置に到着する時点を予測し、移動体がカメラ設置位置に到着すると予測した時点からみて所定時間前(例えば2秒前)になると、移動体が接近していることを運転者に対して適切に情報提供(警告)をする。
なお、移動体がカメラ設置位置に到着するまでの時間を、「接近交差時間」と定義している。
「接近交差時間」について、道路の交差点を上方から示す図3を用いて更に説明すると、ノーズビューカメラ2a、2bを含む「車載ノーズビューカメラによる移動体検出システム」を搭載した自動車1に対して、移動体である自動車10が右側カメラ2aのカメラ位置(図3ではラインAで示した位置)を横切るまでの時間を、この移動体(自動車10)の接近交差時間(TTR:Time To Crossing)といい、移動体である自動車11が左側カメラ2bのカメラ位置(図3ではラインBで示した位置)を横切るまでの時間を、この移動体(自動車11)の接近交差時間(TTR:Time To Crossing)という。
「接近交差時間」について、道路の交差点を上方から示す図3を用いて更に説明すると、ノーズビューカメラ2a、2bを含む「車載ノーズビューカメラによる移動体検出システム」を搭載した自動車1に対して、移動体である自動車10が右側カメラ2aのカメラ位置(図3ではラインAで示した位置)を横切るまでの時間を、この移動体(自動車10)の接近交差時間(TTR:Time To Crossing)といい、移動体である自動車11が左側カメラ2bのカメラ位置(図3ではラインBで示した位置)を横切るまでの時間を、この移動体(自動車11)の接近交差時間(TTR:Time To Crossing)という。
次に「車載ノーズビューカメラによる移動体検出システム」の概要を図4を参照して説明する。
図4において、ノーズビューカメラ2a,2bにより撮影して得た画像データSは、車載の画像処理装置3に送られる。画像処理装置3には画像処理アルゴリズムが設定されている。
図4において、ノーズビューカメラ2a,2bにより撮影して得た画像データSは、車載の画像処理装置3に送られる。画像処理装置3には画像処理アルゴリズムが設定されている。
画像処理装置3は、画像処理アルゴリズムにより、次のような手順により画像処理をする。
(1)画像データSの各画像における移動体の特徴点を抽出する。
(2)各画像の特徴点を追跡する。
(3)追跡した一連の特徴点のうち、ノイズ除去フィルタにより画面の中央方向に接近するもののみを選択する。
つまり、ノイズ除去フィルタにより、雨や雪などの天気による外乱画像を除去している。
(3)選択した特徴点を三次元復元して、接近交差時間を所定の演算周期(例えば100ms)毎に算出する。
(1)画像データSの各画像における移動体の特徴点を抽出する。
(2)各画像の特徴点を追跡する。
(3)追跡した一連の特徴点のうち、ノイズ除去フィルタにより画面の中央方向に接近するもののみを選択する。
つまり、ノイズ除去フィルタにより、雨や雪などの天気による外乱画像を除去している。
(3)選択した特徴点を三次元復元して、接近交差時間を所定の演算周期(例えば100ms)毎に算出する。
画像処理アルゴリズムには多数のパラメータが含まれており、パラメータを変更することにより、画像処理アルゴリズムの調整・修正ができるようになっている。
図5(a),(b)は、演算により求めた接近交差時間の一例を示す。
なお、図5(a),(b)において、縦軸は接近交差時間(秒)、横軸は時刻(秒)であり、点線は理論値を示し、実線は画像処理装置3により求めた接近交差時間である。
図5(a),(b)においては、横軸の時刻が6秒のときに、移動体がカメラ設置位置に到達する状態を示している。
なお、図5(a),(b)において、縦軸は接近交差時間(秒)、横軸は時刻(秒)であり、点線は理論値を示し、実線は画像処理装置3により求めた接近交差時間である。
図5(a),(b)においては、横軸の時刻が6秒のときに、移動体がカメラ設置位置に到達する状態を示している。
図5(a)に実線で示す接近交差時間は、晴天時に、一定の車速で移動体が接近してきたときの画像を画像処理アルゴリズムにより処理して得たものである。この例では、時刻が6秒の時点からみて、3.5秒前から移動体を検出して接近交差時間を算出することができている。
図5(b)に実線で示す接近交差時間は、降雪時に、一定の車速で移動体が接近してきたときの画像を画像処理アルゴリズムにより処理して得たものである。この例では、時刻が6秒の時点からみて、2.5秒前から移動体を検出して接近交差時間を算出することができている。
図5(b)に実線で示す接近交差時間は、降雪時に、一定の車速で移動体が接近してきたときの画像を画像処理アルゴリズムにより処理して得たものである。この例では、時刻が6秒の時点からみて、2.5秒前から移動体を検出して接近交差時間を算出することができている。
このようにして接近交差時間を求め、この接近交差時間が2秒になったら、移動体が接近していることを運転者に対して適切に情報提供(警告)をするようにしている。
上述した移動体検出システムでは、降雨や降雪などの天候の違い(環境外乱)があっても、一定の性能が維持できる性能(ロバスト性)が求められている。
そこで従来では、移動体検出システムの画像処理装置3に設定した画像処理アルゴリズムのロバスト性を検証するために、天候や移動体の種類や移動速度が異なる各種の実環境下で大量の撮影をし、この大量の画像データを順に画像処理装置3に送り、一定の性能が発揮できているか否かを、各画像データ毎に検証していた。
つまり、実環境下で撮影した画像データを画像処理したときに、接近交差時間の検出開始時刻のバラツキや、接近交差時間の検出精度などについて検証していた。
つまり、実環境下で撮影した画像データを画像処理したときに、接近交差時間の検出開始時刻のバラツキや、接近交差時間の検出精度などについて検証していた。
そして、特定の画像データを画像処理装置3に送ったときに、ロバスト性が維持できない場合には、画像処理アルゴリズムのパラメータの変更等を行って、ロバスト性を向上させるように画像処理アルゴリズムの修正・調整を行っていた。
しかし、上述した移動体検出システムが実際に使用される実環境下でのあらゆる外乱を含む画像を取得するのは、現実的には困難である。
例えば、天候だけを考えても、「雪,雨,霧」といった環境での画像を取得するには、それぞれ実際にこのような天候が発生するのを待たなければならなかった。
更に、雪だけを考えても、雪の量や風の影響など、様々な要因によって画像の見かけが変わるため、単に雪の環境での1シーン画像を取得すれば十分というわけではない。
例えば、天候だけを考えても、「雪,雨,霧」といった環境での画像を取得するには、それぞれ実際にこのような天候が発生するのを待たなければならなかった。
更に、雪だけを考えても、雪の量や風の影響など、様々な要因によって画像の見かけが変わるため、単に雪の環境での1シーン画像を取得すれば十分というわけではない。
しかも、大量の画像データを取得したとしても、撮影した画像データは、多様な実環境を基準にすれば、実際の環境のうちの一部の環境状況を示すものでしかなく、実際の多様な実環境において、ロバスト性があるか否か精度の高い検証をすることができなかった。
このため、従来の手法では、検証できなかった環境下でのロバスト性があるか否かを判定することができなかった。
このため、従来の手法では、検証できなかった環境下でのロバスト性があるか否かを判定することができなかった。
また実環境で撮影した画像は、各環境条件において自然環境に応じて変化していくため、再現性がなく定量評価をすることが困難であった。
例えば、降雨の環境下であったときに、風の影響で雨滴の落下方向が変化していったときや、降水量が少量から大量に段階的に変化していったときに、雨滴落下方向の変化や降水量の変化に応じてロバスト性がどのように変化していくかを定量的に評価することが困難であった。
例えば、降雨の環境下であったときに、風の影響で雨滴の落下方向が変化していったときや、降水量が少量から大量に段階的に変化していったときに、雨滴落下方向の変化や降水量の変化に応じてロバスト性がどのように変化していくかを定量的に評価することが困難であった。
また例えば、雨滴の落下方向の変化や降水量の多少にかかわらずロバスト性を平均的に向上させるためには、どのパラメータをどの程度変更すればよいかということを定量的に判定することも困難であった。
従来の手法では、実環境で撮影した画像を処理したときに得た接近交差時間の特性を、設計者が検討・判断して、いわば試行錯誤的に、特定のパラメータの値を変更して、ロバスト性を向上させようとしていた。しかも、変更するパラメータの特定や、パラメータの変更量は、設計者の知識や経験や推測により決定していた。
従来の手法では、実環境で撮影した画像を処理したときに得た接近交差時間の特性を、設計者が検討・判断して、いわば試行錯誤的に、特定のパラメータの値を変更して、ロバスト性を向上させようとしていた。しかも、変更するパラメータの特定や、パラメータの変更量は、設計者の知識や経験や推測により決定していた。
このため、ロバスト性を向上させようとしても、大量の画像データと、長時間の試験時間が必要であり、しかも、大量の画像データを用いて長時間の検証をしたとしても、多様な実環境で実際に使用されたときにロバスト性があるかどうかの見込みや確信を得ることができなかった。
したがって、実運用の時点で初めて遭遇する外乱があったときに、所定の性能を発揮できない恐れがあった。
したがって、実運用の時点で初めて遭遇する外乱があったときに、所定の性能を発揮できない恐れがあった。
また従来では、カメラや電子回路により生じる外乱(基本外乱)に対して、ロバスト性を向上させるような手法や工夫がされていなかった。
本発明は、上記従来技術に鑑み、系統的で定量的に、環境外乱や基本外乱に対する画像処理アルゴリズムのロバスト性の検証ができる、画像処理アルゴリズムの評価システムを提供することを目的とする。
上記課題を解決する本発明の構成は、カメラにより撮影して得た画像データを画像処理することにより、状況を判断する画像処理アルゴリズムの性能を評価する評価システムであって、
各種の天候状態を表す天候外乱を示す画像を、コンピュータグラフィックス用ソフトウエアにより生成し、生成した各種の天候外乱を示す画像を、前記画像データに重畳する天候外乱シミュレータと、
前記カメラで発生する各種の基本外乱を示す画像をコンピュータグラフィックス用ソフトウエアにより生成し、生成した各種の基本外乱を示す画像を前記画像データに重畳する基本外乱シミュレータと、
前記画像処理アルゴリズムが設定されており、天候外乱を示す画像と基本外乱を示す画像の少なくとも一方が重畳された前記画像データを前記画像処理アルゴリズムにより画像処理して、状況を判断する画像処理装置とを有することを特徴とする。
各種の天候状態を表す天候外乱を示す画像を、コンピュータグラフィックス用ソフトウエアにより生成し、生成した各種の天候外乱を示す画像を、前記画像データに重畳する天候外乱シミュレータと、
前記カメラで発生する各種の基本外乱を示す画像をコンピュータグラフィックス用ソフトウエアにより生成し、生成した各種の基本外乱を示す画像を前記画像データに重畳する基本外乱シミュレータと、
前記画像処理アルゴリズムが設定されており、天候外乱を示す画像と基本外乱を示す画像の少なくとも一方が重畳された前記画像データを前記画像処理アルゴリズムにより画像処理して、状況を判断する画像処理装置とを有することを特徴とする。
また本発明の構成は、屋外でカメラにより撮影して得た動画の画像データを画像処理することにより、移動体が前記カメラの設置位置に到着するまでの時間である接近交差時間を求める画像処理アルゴリズムの性能を評価する評価システムであって、
各種の天候状態を表す天候外乱を示す画像を、コンピュータグラフィックス用ソフトウエアにより生成し、生成した各種の天候外乱を示す画像を、前記画像データに重畳する天候外乱シミュレータと、
前記カメラで発生する各種の基本外乱を示す画像をコンピュータグラフィックス用ソフトウエアにより生成し、生成した各種の基本外乱を示す画像を前記画像データに重畳する基本外乱シミュレータと、
前記画像処理アルゴリズムが設定されており、天候外乱を示す画像と基本外乱を示す画像が重畳された前記画像データを前記画像処理アルゴリズムにより画像処理して、接近交差時間を求める画像処理装置とを有することを特徴とする。
各種の天候状態を表す天候外乱を示す画像を、コンピュータグラフィックス用ソフトウエアにより生成し、生成した各種の天候外乱を示す画像を、前記画像データに重畳する天候外乱シミュレータと、
前記カメラで発生する各種の基本外乱を示す画像をコンピュータグラフィックス用ソフトウエアにより生成し、生成した各種の基本外乱を示す画像を前記画像データに重畳する基本外乱シミュレータと、
前記画像処理アルゴリズムが設定されており、天候外乱を示す画像と基本外乱を示す画像が重畳された前記画像データを前記画像処理アルゴリズムにより画像処理して、接近交差時間を求める画像処理装置とを有することを特徴とする。
また本発明の構成は、前記の画像処理アルゴリズムの評価システムにおいて、
前記画像処理装置により求められた状況判断データを記録する記録手段と、
前記画像処理装置に設定された前記画像処理アルゴリズムのパラメータを変更するパラメータ変更部とを有することを特徴とする。
前記画像処理装置により求められた状況判断データを記録する記録手段と、
前記画像処理装置に設定された前記画像処理アルゴリズムのパラメータを変更するパラメータ変更部とを有することを特徴とする。
また本発明の構成は、前記の画像処理アルゴリズムの評価システムにおいて、
前記カメラは、自動車の前部に備えられて、自動車の右側や左側の視野範囲を撮影するものであることを特徴とする。
前記カメラは、自動車の前部に備えられて、自動車の右側や左側の視野範囲を撮影するものであることを特徴とする。
本発明では、カメラにより撮影して得た画像データに対して、各種の天候外乱と各種の基本外乱を重畳することができるので、カメラにより撮影して得た画像データを基に、天候外乱と基本外乱が異なる多数の画像データを生成することができる。
このため、カメラにより撮影した得た画像データの数が限定されていても、天候外乱と基本外乱が異なる多数の画像データを基に、画像処理アルゴリズムのロバスト性の評価をすることができ、評価の精度が向上する。
このため、カメラにより撮影した得た画像データの数が限定されていても、天候外乱と基本外乱が異なる多数の画像データを基に、画像処理アルゴリズムのロバスト性の評価をすることができ、評価の精度が向上する。
また天候外乱と基本外乱を、それぞれ系統的に変化させることができるので、外乱を系統的に変化させたときの画像処理アルゴリズムのロバスト性の評価を定量的に判定することができる。
このように系統的に外乱を変化させたときの画像処理アルゴリズムのロバスト性を定量的に評価できるので、ロバスト性を向上させるために、画像処理アルゴリズムのどのパラメータをどの程度変化させればよいかの予測や判断を容易に行うことができ、よりロバスト性の高い画像処理アルゴリズムを短時間で容易に構築することが可能となる。
このように系統的に外乱を変化させたときの画像処理アルゴリズムのロバスト性を定量的に評価できるので、ロバスト性を向上させるために、画像処理アルゴリズムのどのパラメータをどの程度変化させればよいかの予測や判断を容易に行うことができ、よりロバスト性の高い画像処理アルゴリズムを短時間で容易に構築することが可能となる。
以下に本発明を実施するための最良の形態を実施例に基づき詳細に説明する。
図1は本発明の実施例に係る画像処理アルゴリズムの評価システムを示すブロック構成図である。
図1に示す画像処理装置3は、前述した「車載ノーズカメラによる移動体検出システム」に使用されるのと同じ画像処理装置である。この画像処理装置3には、画像データSを画像処理して接近交差時間(状況判断データ)Tを求める画像処理アルゴリズムが設定されている。
実写画像データベース50には、前述したノーズビューカメラ2a,2bにより、各種の実環境下で撮影をして得た多数の動画の画像データSが記録・蓄積されている。この実写画像データベース50からは、蓄積した多数の画像データのうちから選択した特定の1つの画像データSが出力される。出力された画像データSは、伝送ラインLを介して画像処理装置3に送られるようになっている。
伝送ラインLには、天候外乱シミュレータ51と基本外乱シミュレータ52が介装されている。
天候外乱シミュレータ51は、コンピュータグラフィックス用ソフトウエアにより生成した各種の天候外乱を示す画像を、画像データSに重畳する。
天候外乱を示す画像としては、降雨状態を示す画像や、降雪状態を示す画像や、霧発生状態を示す画像を生成することができる。
降雨状態を示す画像においては、雨の量や、雨の降る角度や、雨粒の反射率などを設定できるようになっている。降雪状態を示す画像では、雪の量や、雪の降る角度や、雪粒の反射率などを設定できるようになっている。霧発生状態を示す画像では、霧の濃さや、霧の流れる角度などを設定できるようになっている。
天候外乱を示す画像としては、降雨状態を示す画像や、降雪状態を示す画像や、霧発生状態を示す画像を生成することができる。
降雨状態を示す画像においては、雨の量や、雨の降る角度や、雨粒の反射率などを設定できるようになっている。降雪状態を示す画像では、雪の量や、雪の降る角度や、雪粒の反射率などを設定できるようになっている。霧発生状態を示す画像では、霧の濃さや、霧の流れる角度などを設定できるようになっている。
このため天候外乱シミュレータ51は、実写画像がカメラに入力されるまでに発生する天候外乱を、画像データSに模擬的に付加することができる。
基本外乱シミュレータ52は、コンピュータグラフィックス用ソフトウエアにより生成した各種の基本外乱を示す画像を、画像データSに重畳する。
基本外乱とは、カメラ内部で発生する外乱であり、カメラの内部のレンズや、撮像素子の特性や電子回路で発生する外乱である。
基本外乱シミュレータ52では、これらの基本外乱を模擬するため、画像データSに対して、コントラスト変化や、ガウシアンノイズ付加や、ゴマ塩ノイズ付加や、ガンマ値変化や、色温度変化や、歪み付加や、画像ぼけ付加や、変形付加を行って、基本外乱を示す画像を重畳している。
基本外乱とは、カメラ内部で発生する外乱であり、カメラの内部のレンズや、撮像素子の特性や電子回路で発生する外乱である。
基本外乱シミュレータ52では、これらの基本外乱を模擬するため、画像データSに対して、コントラスト変化や、ガウシアンノイズ付加や、ゴマ塩ノイズ付加や、ガンマ値変化や、色温度変化や、歪み付加や、画像ぼけ付加や、変形付加を行って、基本外乱を示す画像を重畳している。
このため基本外乱シミュレータ52は、カメラで発生する基本外乱を、画像データSに模式的に付加することができる。
実写画像データベース50から出力された画像データSには、天候外乱シミュレータ51により天候外乱を示す画像が重畳され、更に基本外乱シミュレータ52により基本外乱を示す画像が重畳される。
このため、画像処理装置3には、天候外乱を示す画像と基本外乱を示す画像が重畳された画像データSが入力される。
なお、天候外乱と基本外乱の両方を画像データSに重畳するのが基本であるが、天候外乱と基本外乱の一方のみを画像データSに重畳することもできる。
このため、画像処理装置3には、天候外乱を示す画像と基本外乱を示す画像が重畳された画像データSが入力される。
なお、天候外乱と基本外乱の両方を画像データSに重畳するのが基本であるが、天候外乱と基本外乱の一方のみを画像データSに重畳することもできる。
画像処理装置3は、天候外乱を示す画像と基本外乱を示す画像の双方、または一方が重畳された画像データSを、画像処理アルゴリズムにより画像処理して接近交差時間(状況判断データ)Tを求める。画像処理装置3により求められた接近交差時間(状況判断データ)Tは処理データ記録部53に送られて記録される。
処理データ記録部53に記録された接近交差時間(状況判断データ)Tは、表示部54にて、モニタに表示されたりプリントアウトされる。
処理データ記録部53に記録された接近交差時間(状況判断データ)Tは、表示部54にて、モニタに表示されたりプリントアウトされる。
パラメータ変更部55は、画像処理装置3に設定した画像処理アルゴリズムのパラメータを変更することができる。パラメータを変更することにより、画像処理アルゴリズムの調整・修正ができる。
図1に示す画像処理アルゴリズムの評価システムでは、実写画像データベース50から出力する特定の画像データSに対して、天候外乱シミュレータ51により各種の天候外乱を重畳することができると共に、基本外乱シミュレータ52により各種の基本外乱を重畳することができるため、特定の1つの画像データSに対して、天候外乱と基本外乱が異なる多数の画像データSを生成することができる。
このように天候外乱と基本外乱が異なる多数の画像データSを画像処理装置3により処理することにより、天候外乱と基本外乱が異なる多数の画像データSにおける多数の接近交差時間Tを求めることができる。
このように天候外乱と基本外乱が異なる多数の画像データSを画像処理装置3により処理することにより、天候外乱と基本外乱が異なる多数の画像データSにおける多数の接近交差時間Tを求めることができる。
しかも、実写画像データベース50から出力する特定の画像データSを別の画像データSに変更することにより、この別の画像データSに対しても、天候外乱と基本外乱が異なる多数の画像データSを生成することができ、この天候外乱と基本外乱が異なる多数の別の画像データSを画像処理装置3により処理して、天候外乱と基本外乱が異なる多数の画像データSにおける多数の接近交差時間Tを求めることができる。
結局、実写画像データベース50に記録・蓄積した画像データSの数と、天候外乱シミュレータレータ51により付与することができる天候外乱の種類の数と、基本外乱シミュレータ52により付与することができる基本外乱の種類の数を乗算した数の、異なる種類の画像データSを生成して、接近交差時間Tを求めることができる。
したがって、実写画像データベース50に記録・蓄積した画像データSが、基本的なシーン(光景)を撮影したものだけであっても、この基本的なシーンに対して天候変更があったときの多数のシーンや、カメラ等に取り付け誤差等が発生したときの多数のシーンを生成することができ、各種の外乱発生状態での接近交差時間Tを求めることができる。
この結果、実写画像データベース50に記録・蓄積する画像データSの数が限定されていても、実写画像データベース50に記録・蓄積した画像データ数に対して、極めて多数のシーンでの接近交差時間Tを求めることができる。
このように大量の接近交差時間Tを求めることができるので、画像処理装置3に設定された画像処理アルゴリズムのロバスト性をより精度高く検証することができる。
このように大量の接近交差時間Tを求めることができるので、画像処理装置3に設定された画像処理アルゴリズムのロバスト性をより精度高く検証することができる。
また、実際に撮影して得なければならない画像データSは、基本的なシーン(例えば晴れた日のシーン)を撮影したものだけですむため、実際に撮影して画像データを取得するのが容易になると共に、取得する画像データの数を、必要最小限にすることができる。
更に、天候外乱と基本外乱を、系統的に変化させていくことにより、画像処理アルゴリズムのロバスト性を定量的に評価することができる。
例えば、天候外乱シミュレータ51により画像データSに降雨状態を示す画像を重畳した場合、雨の量を少量から大量まで段階的に変化させていけば、雨量が異なる降雨状態を示す画像が重畳された各画像データS毎の接近交差時間Tを求めることができる。
このようにすれば、降雨量の変化により接近交差時間Tがどのように変化していくのかを検証することができ、降雨量の変化に応じた画像処理アルゴリズムのロバスト性を系統的且つ定量的に検証することができる。
このようにすれば、降雨量の変化により接近交差時間Tがどのように変化していくのかを検証することができ、降雨量の変化に応じた画像処理アルゴリズムのロバスト性を系統的且つ定量的に検証することができる。
例えば、降雨量が増加していくことにより、接近交差時間の開始時刻や接近交差時間の精度がどのように変化していくのかを検証することができる。
他の外乱についても、同様にして、他の外乱が系統的に変化したときの、画像処理アルゴリズムのロバスト性を定量的に評価することができる。
このように、外乱が系統的に変化したときに、接近交差時間の開始時刻や接近交差時間の精度がどのように変化していくのかを検証して、画像処理アルゴリズムのロバスト性を定量的に評価することができるため、画像処理アルゴリズムのロバスト性を更に向上させるために、どのようなパラメータをどの程度変更すればよいかを、明確に検出または予測できる。
したがって、パラメータ変更部55により、ロバスト性を更に向上させると検出または予測されたパラメータを変更して、画像処理アルゴリズムの修正・調整をすることができる。
そして、パラメータ変更後において、再び外乱を系統的に変化させていって、接近交差時間の開始時刻や接近交差時間の精度がどのように変化していくのかを検証することにより、変更したパラメータの種類やパラメータの変更量が適切であったか否かを、正確に確認することができる。
このようにパラメータの変更、変更後の検証を繰り返すことにより、確実に画像処理アルゴリズムのロバスト性を、各外乱毎に向上させることができる。
かくして、本実施例によれば、画像処理アルゴリズムのロバスト性を精度良く検出することができる。
また、ロバスト性を向上させるために寄与するパラメータの選定と、選定したパラメータ値の変更を的確に行うことができ、これによりロバスト性を向上させるように画像処理アルゴリズムのパラメータを系統的かつ定量的に調整・修正することができる。
また、ロバスト性を向上させるために寄与するパラメータの選定と、選定したパラメータ値の変更を的確に行うことができ、これによりロバスト性を向上させるように画像処理アルゴリズムのパラメータを系統的かつ定量的に調整・修正することができる。
本発明は、「車載ノーズビューカメラによる移動体検出システム」に使用される画像処理装置用の画像処理アルゴリズムに限らず、画像データを処理して特定の処理結果(状況判断データ)を求める画像処理アルゴリズムの評価をする場合にも適用することができる。
1 自動車
2a,2b ノーズビューカメラ
3 画像処理装置
10,11 自動車(移動体)
50 実写画像データベース
51 天候外乱シミュレータ
52 基本外乱シミュレータ
53 処理データ記録部
54 表示部
55 パラメータ変更部
S 画像データ
T 接近交差時間
L 伝送ライン
2a,2b ノーズビューカメラ
3 画像処理装置
10,11 自動車(移動体)
50 実写画像データベース
51 天候外乱シミュレータ
52 基本外乱シミュレータ
53 処理データ記録部
54 表示部
55 パラメータ変更部
S 画像データ
T 接近交差時間
L 伝送ライン
Claims (4)
- カメラにより撮影して得た画像データを画像処理することにより、状況を判断する画像処理アルゴリズムの性能を評価する評価システムであって、
各種の天候状態を表す天候外乱を示す画像を、コンピュータグラフィックス用ソフトウエアにより生成し、生成した各種の天候外乱を示す画像を、前記画像データに重畳する天候外乱シミュレータと、
前記カメラで発生する各種の基本外乱を示す画像をコンピュータグラフィックス用ソフトウエアにより生成し、生成した各種の基本外乱を示す画像を前記画像データに重畳する基本外乱シミュレータと、
前記画像処理アルゴリズムが設定されており、天候外乱を示す画像と基本外乱を示す画像の少なくとも一方が重畳された前記画像データを前記画像処理アルゴリズムにより画像処理して、状況を判断する画像処理装置と、
を有することを特徴とする画像処理アルゴリズムの評価システム。 - 屋外でカメラにより撮影して得た動画の画像データを画像処理することにより、移動体が前記カメラの設置位置に到着するまでの時間である接近交差時間を求める画像処理アルゴリズムの性能を評価する評価システムであって、
各種の天候状態を表す天候外乱を示す画像を、コンピュータグラフィックス用ソフトウエアにより生成し、生成した各種の天候外乱を示す画像を、前記画像データに重畳する天候外乱シミュレータと、
前記カメラで発生する各種の基本外乱を示す画像をコンピュータグラフィックス用ソフトウエアにより生成し、生成した各種の基本外乱を示す画像を前記画像データに重畳する基本外乱シミュレータと、
前記画像処理アルゴリズムが設定されており、天候外乱を示す画像と基本外乱を示す画像が重畳された前記画像データを前記画像処理アルゴリズムにより画像処理して、接近交差時間を求める画像処理装置と、
を有することを特徴とする画像処理アルゴリズムの評価システム。 - 請求項1または請求項2に記載の画像処理アルゴリズムの評価システムにおいて、
前記画像処理装置により求められた状況判断データを記録する記録手段と、
前記画像処理装置に設定された前記画像処理アルゴリズムのパラメータを変更するパラメータ変更部と、
を有することを特徴とする画像処理アルゴリズムの評価システム。 - 請求項1乃至請求項3の何れか一項に記載の画像処理アルゴリズムの評価システムにおいて、
前記カメラは、自動車の前部に備えられて、自動車の右側や左側の視野範囲を撮影するものであることを特徴とする画像処理アルゴリズムの評価システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008194770A JP2010033321A (ja) | 2008-07-29 | 2008-07-29 | 画像処理アルゴリズムの評価システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008194770A JP2010033321A (ja) | 2008-07-29 | 2008-07-29 | 画像処理アルゴリズムの評価システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010033321A true JP2010033321A (ja) | 2010-02-12 |
Family
ID=41737717
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008194770A Withdrawn JP2010033321A (ja) | 2008-07-29 | 2008-07-29 | 画像処理アルゴリズムの評価システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010033321A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140006463A (ko) * | 2012-07-05 | 2014-01-16 | 현대모비스 주식회사 | 차선 인식 방법 및 장치 |
JP5561396B1 (ja) * | 2013-02-19 | 2014-07-30 | 日本電気株式会社 | 運転支援システムおよび運転支援方法 |
CN110876054A (zh) * | 2018-08-29 | 2020-03-10 | 杭州海康威视数字技术股份有限公司 | 一种目标算法的测试方法、装置和系统 |
DE112021003088T5 (de) | 2020-09-07 | 2023-04-27 | Hitachi Astemo, Ltd. | Bilderkennungs-simulatorvorrichtung |
WO2024014414A1 (ja) * | 2022-07-14 | 2024-01-18 | 三菱重工機械システム株式会社 | データ処理アルゴリズム評価装置 |
-
2008
- 2008-07-29 JP JP2008194770A patent/JP2010033321A/ja not_active Withdrawn
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140006463A (ko) * | 2012-07-05 | 2014-01-16 | 현대모비스 주식회사 | 차선 인식 방법 및 장치 |
JP5561396B1 (ja) * | 2013-02-19 | 2014-07-30 | 日本電気株式会社 | 運転支援システムおよび運転支援方法 |
US9230179B2 (en) | 2013-02-19 | 2016-01-05 | Nec Corporation | Driver assistance system, driver assistance method and information storage medium |
CN110876054A (zh) * | 2018-08-29 | 2020-03-10 | 杭州海康威视数字技术股份有限公司 | 一种目标算法的测试方法、装置和系统 |
DE112021003088T5 (de) | 2020-09-07 | 2023-04-27 | Hitachi Astemo, Ltd. | Bilderkennungs-simulatorvorrichtung |
WO2024014414A1 (ja) * | 2022-07-14 | 2024-01-18 | 三菱重工機械システム株式会社 | データ処理アルゴリズム評価装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11620837B2 (en) | Systems and methods for augmenting upright object detection | |
US7253389B2 (en) | Mobile body surrounding surveillance apparatus, mobile body surrounding surveillance method, control program and computer-readable recording medium | |
CN110738842A (zh) | 事故责任划分及行为分析方法、装置、设备及存储介质 | |
CN112349144B (zh) | 一种基于单目视觉的车辆碰撞预警方法及系统 | |
JP6520740B2 (ja) | 物体検出方法、物体検出装置、およびプログラム | |
JP6571424B2 (ja) | 故障診断装置 | |
JPH0750769A (ja) | 車両用後側方監視方法 | |
JP2008028957A (ja) | 車両用画像処理装置 | |
US20150178902A1 (en) | Image processing apparatus and image processing method for removing rain streaks from image data | |
JP2010033321A (ja) | 画像処理アルゴリズムの評価システム | |
CN104756172A (zh) | 用于车辆的向后移动指示装置 | |
Reway et al. | Test method for measuring the simulation-to-reality gap of camera-based object detection algorithms for autonomous driving | |
JP2022140530A (ja) | 情報記録装置、情報記録方法及び情報記録用プログラム | |
WO2018149539A1 (en) | A method and apparatus for estimating a range of a moving object | |
WO2019116686A1 (ja) | 道路地図生成システム及び道路地図生成方法 | |
KR102521656B1 (ko) | 객체를 인식하는 방법 및 장치 | |
US9308918B2 (en) | Object collision warning system and method for a motor vehicle | |
JP2011150573A (ja) | ドライブレコーダ | |
JP2004355139A (ja) | 車両認識装置 | |
CN109963077A (zh) | 半导体器件、成像系统和程序 | |
CN113420714A (zh) | 一种采集图像上报方法、装置及电子设备 | |
Hasirlioglu et al. | Raindrops on the windshield: Performance assessment of camera-based object detection | |
US20230103670A1 (en) | Video analysis for efficient sorting of event data | |
US20130202152A1 (en) | Selecting Visible Regions in Nighttime Images for Performing Clear Path Detection | |
TWI630818B (zh) | Dynamic image feature enhancement method and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20111004 |