JP7268471B2 - 検証方法 - Google Patents

検証方法 Download PDF

Info

Publication number
JP7268471B2
JP7268471B2 JP2019089229A JP2019089229A JP7268471B2 JP 7268471 B2 JP7268471 B2 JP 7268471B2 JP 2019089229 A JP2019089229 A JP 2019089229A JP 2019089229 A JP2019089229 A JP 2019089229A JP 7268471 B2 JP7268471 B2 JP 7268471B2
Authority
JP
Japan
Prior art keywords
image
verification
camera
original image
comparison
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019089229A
Other languages
English (en)
Other versions
JP2020184735A (ja
Inventor
敏之 土本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2019089229A priority Critical patent/JP7268471B2/ja
Priority to US16/865,058 priority patent/US11308341B2/en
Publication of JP2020184735A publication Critical patent/JP2020184735A/ja
Application granted granted Critical
Publication of JP7268471B2 publication Critical patent/JP7268471B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00002Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
    • H04N1/00026Methods therefor
    • H04N1/00029Diagnosis, i.e. identifying a problem by comparison with a normal state

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

この明細書における開示は、カメラの検証方法に関する。
従来、カメラの撮像した画像から対象物を認識する画像認識技術が知られている。例えば特許文献1には、車両に搭載されたカメラの撮影した画像から、車両の走行レーンを画像認識する技術が開示されている。
特開2010-256878号公報
上記の画像認識技術を利用する場合には、カメラの光学特性が画像認識の精度に及ぼす影響を予め検証する必要がある。検証方法としては、検証対象のカメラで実景を撮像することでカメラの光学特性の影響を受けた撮像データを取得し、その撮像データから認識対象物を正しく画像認識できるか否かを評価することが考えられる。しかし、上記の検証方法では、世代や仕様等の変更によってカメラの光学特性が変更されると、新たに実景を撮像する必要が生じ得る。
開示される目的は、カメラの光学特性の変更に伴う実景の撮像の必要性を低減可能な検証方法を提供することである。
この明細書に開示された複数の態様は、それぞれの目的を達成するために、互いに異なる技術的手段を採用する。また、特許請求の範囲およびこの項に記載した括弧内の符号は、ひとつの態様として後述する実施形態に記載の具体的手段との対応関係を示す一例であって、技術的範囲を限定するものではない。
開示された検証方法のひとつは、コンピュータ(100)によって実施され、検証対象カメラ(30)を検証する検証方法であって、少なくとも1つのプロセッサ(101)にて実行される処理に、検証対象カメラとは異なる原画像カメラ(10)による実景の撮像画像(Ri)から原画像カメラの光学特性を補正した原画像(Oi)を準備し(S100)、原画像に検証対象カメラの光学特性の影響を付与した検証用画像(Vi)を準備し(S110)、検証対象カメラにより撮像された画像の画像認識に適用される検証対象アルゴリズムを実行して検証用画像を画像認識し(S120)、検証用画像の画像認識結果を評価する(S136)、というステップを含む。
これによれば、検証対象カメラの光学特性が変更されても、原画像に新たな光学特性の影響を付与することで検証用画像を生成できる。このため、原画像に検証対象カメラの光学特性の影響を付与した検証用画像を生成し、当該検証用画像を画像認識することで、検証対象カメラの光学特性の画像認識機能への影響を検証することができる。故に、検証対象カメラの光学特性が変更されたとしても、新たに実景を撮像する必要性が低減される。
第1実施形態に係る検証方法を提供する構成を示すブロック図である。 原画像生成処理の一例を示すフローチャートである。 検証対象カメラの検証処理の一例を示すフローチャートである。 検証方法の概要と処理された画像を示す概略図である。
(第1実施形態)
第1実施形態の検証方法について、図1~図4を参照しながら説明する。第1実施形態の検証方法は、車両に搭載される検証対象カメラ30の画像認識の精度を、検証対象カメラ30およびそれを含む車両システムの開発段階において検証する。検証方法は、開発者の使用するパーソナルコンピュータやワークステーション等のコンピュータである検証装置100によって実行される。
検証対象カメラ30は、車両の自動運転または高度運転支援に利用可能な情報を検出する自律センサとして車両に搭載されるカメラである。検証対象カメラ30は、車両の周囲に存在する人や他車両等の移動物体、および道路設置や区画線等の静止物体を検出し、検出情報を車載ネットワークに出力する。検出情報は、自動運転または高度運転支援に必要な走行計画の算出に利用される。検出情報は、ライダ、ミリ波レーダ、ソナー等の他の自律センサの検出情報と組み合わされて利用されるものであってもよい。
検証対象カメラ30は、車両の前方の所定範囲を撮像範囲とする。検証対象カメラ30は、車両のフロントウインドシールド内側の、座席に着座した乗員の視界を実質妨げない箇所に装着される。検証対象カメラ30は、レンズユニット31と、イメージャ32と、制御回路33とを備えている。
レンズユニット31は、レンズセットとレンズホルダとによって構成されている。レンズセットは、複数枚のレンズによって構成されている。レンズセットは、所期のレンズ画角、明るさ、分解能を確保するようなレンズ構成とされている。レンズホルダは、レンズセットを内部に収容する略円筒状の収容部材であり、内部に光像を導く光路空間を区画形成している。
イメージャ32は、例えばCCDまたはCMOS等といったカラー式もしくはモノクロ式撮像素子を主体に構成されている。イメージャ32は、所期の画素数、ダイナミックレンジ、感度を確保する構成とされている。イメージャ32は、当該撮像素子の前側に例えばIRカットフィルタ等を組み合わせたものであってもよい。イメージャ32は、全体として矩形平板状に形成されている。イメージャ32は、レンズホルダに収容されて、光路空間内に配置されている。イメージャ32には、レンズユニット31内のレンズセットを通過した実景の光像が結像される。イメージャ32は、結像された光像を受光し、そのデータを電気信号として制御回路33に出力する。
制御回路33は、プロセッサ33a、RAM33b、メモリ装置33cおよび入出力インターフェイス33dを有するマイクロコンピュータを主体として含む構成である。プロセッサ33aは、RAM33bと結合された演算処理のためのハードウェアである。プロセッサ33aは、RAM33bへのアクセスにより、後述する各機能部の機能を実現して検証方法を提供するための種々の処理を実行する。メモリ装置103は、不揮発性の記憶媒体を含む構成であり、プロセッサにて実行される種々のプログラムを格納している。
制御回路33は、画像処理プログラムを実行することで、イメージャ32から出力された信号を画像処理し、実景の画像を生成する画像処理機能を備えている。加えて制御回路33は、イメージャ32による撮像時の露光状態を含めたイメージャ32の撮像作動を、制御する。例えば制御回路33は、自車両の一部が映る画素の範囲を避けて、有効画素の範囲を設定する。制御回路33は、設定された範囲内の有効画素の画素値に基づき、次回撮影時の露光状態を制御する。
制御回路33は、画像に映る撮像範囲内の認識対象物を画像認識する画像認識機能を備えている。制御回路33は、メモリ装置33cの記憶領域331に格納された画像認識プログラムをプロセッサ33aにて実行することで、画像認識のための所定のアルゴリズム(検証対象アルゴリズム)を実行し、画像認識機能を実現する。
制御回路33は、画像認識機能によって、車両の走行計画生成のために必要な物体を認識対象物として認識する。認識対象物は、例えば車両の周囲に存在する人や他車両等の移動物体、および道路設置や区画線等の静止物体等である。制御回路33は、画像認識機能によって認識対象物の位置、形状、属性等を認識し、認識結果を車載ネットワークへ出力する。
画像認識機能の認識精度は、レンズユニット31のレンズ特性およびイメージャ32の特性といった、検証対象カメラ30の光学特性に影響を受ける。例えば、実景の光像がレンズ特性によって歪んだ状態でイメージャ32上に結像されると、画像処理機能により生成される画像も歪んだ状態となる。これにより、実景に映る物体の形状や大きさが本来のものと乖離すると、画像認識機能が認識対象物を正しく認識できない場合がある。例えば、画像に映る認識対象物自体の未認識、認識対象物の形状、属性等の誤認識、認識対象物の存在しない領域での認識対象物の誤認識等が発生し得る。また、歪みの他に、解像度、露出、ダイナミックレンジ、明暗、画角等の光学特性も、画像認識機能の認識精度に影響を与え得る。
検証装置100は、上述した検証対象カメラ30の光学特性による影響下で画像認識機能が認識対象物を正しく認識できているか否かを評価することで、検証対象カメラ30の認識精度を検証する。検証に際し、検証装置100は、原画像カメラ10および比較用カメラ20と通信可能に接続される。
原画像カメラ10および比較用カメラ20は、それぞれ検証対象カメラ30と同様にレンズユニット11、21と、イメージャ12、22と、制御回路13、23とを備えている。
原画像カメラ10は、後述の原画像Oiの生成に必要な撮像画像である実景画像Riを撮像するカメラである。原画像カメラ10のレンズユニット11およびイメージャ12は、検証対象カメラ30と比較して劣化の少ない画像の撮像が可能な構成、言い換えれば高画質な撮像が可能な構成となっている。すなわち、原画像カメラ10は、検証対象カメラ30と比較してより実景に近い実景画像Riを生成可能である。換言すれば、原画像カメラ10による実景画像Riは、形状、色相、明度、彩度、明るさ等の実景の情報の欠落や変形が、検証対象カメラ30による撮像画像よりも少ない。例えば、原画像カメラ10は、検証対象カメラ30よりも歪みの小さい画像の撮像が可能となっている。加えて原画像カメラ10は、検証対象カメラ30よりも解像度が高くなるように構成されていてもよい。また、原画像カメラ10は、検証対象カメラ30よりもダイナミックレンジが大きくなるように構成されていてもよい。
比較用カメラ20は、検証装置100の生成する画像が原画像Oiとして採用可能か否かの評価に必要な比較用の画像を提供するカメラである。比較用カメラ20は、撮像される画像の劣化が検証対象カメラ30と同程度、または劣化の大きい構成となっている。なお、比較用カメラ20は、検証対象カメラ30と同じものであってもよい。原画像カメラ10および比較用カメラ20は、それぞれ予め実際の道路を走行する車両から実景を撮像し、実景を撮像した画像を生成している。
検証装置100は、プロセッサ101、RAM102、メモリ装置103および入出力インターフェイス104を有する制御回路を主体に構成されている。プロセッサ101は、RAM102と結合された演算処理のためのハードウェアである。プロセッサ101は、RAM102へのアクセスにより、後述する各機能部の機能を実現するための種々の処理を実行する。メモリ装置103は、不揮発性の記憶媒体を含む構成であり、プロセッサ101にて実行される種々のプログラムを格納している。
検証装置100は、メモリ装置103に記憶された検証プログラムをプロセッサ101によって実行することで、原画像生成部110、検証用画像生成部120、画像認識部130、および認識結果評価部140を機能部として実装する。
原画像生成部110は、原画像カメラ10による実景画像Riを取得し、実景画像Riから原画像カメラ10の光学特性を実質的に除去するフィルタ処理を実施する。これにより原画像生成部110は、原画像カメラ10の光学特性を補正された補正画像を生成する。
原画像生成部110の実行するフィルタ処理は、実景画像Riの実景に対する歪みの補正処理を少なくとも含む。加えて、フィルタ処理には、解像度の復元処理、露出の復元処理、ダイナミックレンジの補正処理、明暗の補正処理、画角の補正処理等も含む。これらの各処理にて用いるパラメータは、原画像カメラ10におけるレンズユニット11のレンズ特性に基づいて定められる。また、レンズ特性に加えて、イメージャ12の特性に基づいてパラメータが定められてもよい。
原画像生成部110は、上述のフィルタ処理によって実景画像Riから生成された補正画像を原画像Oiの候補とし、原画像Oiとして使用可能か否かを評価する。原画像生成部110は、使用可能と評価した補正画像を原画像Oiとして採用し、メモリ装置103に確保された記憶領域115に記憶する。
例えば原画像生成部110は、比較用カメラ20による撮像画像を用いて、補正画像が原画像Oiとして使用可能か否かを評価する。詳記すると、原画像生成部110は、補正画像に対して比較用カメラ20の光学特性の影響を付与した画像(以下、比較用特性画像)を生成する。加えて、原画像生成部110は、比較用カメラ20によって実景を撮像した画像(以下、比較用実景画像)を取得する。
次に原画像生成部110は、比較用特性画像および比較用実景画像のそれぞれに対して、画像認識処理を施す。このとき原画像生成部110は、比較用カメラ20に記憶されたものと同等のアルゴリズムである比較用アルゴリズムによる処理を実現するプログラムを実行することで、画像認識を実施する。原画像生成部110は、比較用特性画像を用いた画像認識結果と、比較用実景画像を用いた画像認識結果とが一致した場合に、補正画像を原画像Oiとして採用する。すなわち、原画像生成部110は、他のカメラの光学特性の影響を付与しても、そのカメラで実景を撮像した場合と同等の画像認識結果を得られる画像を、原画像Oiとする。
検証用画像生成部120は、画像処理によって、原画像Oiに検証対象カメラ30の光学特性の影響を付与した検証用画像Viを生成する。検証用画像Viの生成において検証用画像生成部120は、予めメモリ装置103の記憶領域125に記憶された検証対象カメラ30の光学特性に関するデータを利用する。付与される光学特性の影響には、例えばレンズによる画像の歪み、解像度の劣化、露出の変化、ダイナミックレンジの変化、明暗の変化、画角の変化等を含む。なお、検証用画像生成部120は、レンズ特性の影響に加えて、イメージャ32の特性の影響を付与してもよい。
画像認識部130は、予めメモリ装置103に記憶された画像認識プログラムを実行することで、検証用画像Viの画像認識を実施する。この画像認識プログラムは、検証対象カメラ30にて実行されるものと同等のアルゴリズム、すなわち検証対象アルゴリズムによる処理を実現するプログラムであり、メモリ装置103の記憶領域135に格納されている。画像認識部130は、この画像認識プログラムの実行により、検証対象カメラ30により撮像された画像の画像認識に適用される検証対象アルゴリズムを実行し、検証対象カメラ30にて行われる画像認識処理を再現可能となっている。画像認識部130は、画像認識結果を認識結果評価部140に提供する。
認識結果評価部140は、検証用画像Viの画像認識結果を評価する。認識結果評価部140は、認識対象物を認識できているか否かと、認識対象物ではないものを認識対象物として誤認識していないかとを評価する。認識結果評価部140は、リファレンスデータおよび他センサデータを用いて評価を行う。
リファレンスデータは、認識対象物の原画像Oi中の位置、形状、属性等の正解情報を含むデータである。リファレンスデータは、原画像Oiと紐づけられている。リファレンスデータは、例えば原画像Oiから作業者が認識対象物を判別し、正解情報を入力することで生成される。リファレンスデータは、メモリ装置103に確保された記憶領域145に予め格納されている。
他センサデータは、ライダ、ミリ波レーダ等の、カメラ以外の自律センサによる認識対象物の認識結果を含むデータである。他センサデータは、原画像カメラ10を搭載した車両における実景画像Riの撮影走行時に、他の自律センサによって並行して取得される。他センサデータは、メモリ装置103に確保された記憶領域146に予め格納されている。
認識結果評価部140は、リファレンスデータの認識対象物に関する正解情報と、画像認識部130にて認識された認識対象物に関する情報との一致度を評価する。詳記すると、認識結果評価部140は、検証対象カメラ30の光学特性の影響を付与した特性付リファレンスデータをまず生成し、この特性付リファレンスデータに含まれる正解情報との一致度を検証対象カメラ30による認識対象物の認識率として出力する。
認識結果評価部140は、他センサデータにおいて認識対象物として認識されていないものが画像認識部130にて認識対象物として認識されている誤認識率を評価する。認識結果評価部140は、例えば認識率および誤認識率を、検証装置100のディスプレイに評価結果として表示する。これにより、検証装置100は、車両システムに採用可能な光学特性を検証対象カメラ30が備えているのか否かを、開発者から判断可能な状態とする。
次に、検証装置100の実行する検証処理の一例について、図2および図3に示すフローチャートに基づき説明する。図2は、検証処理のうちの原画像Oiの生成処理を示している。図2の処理は、例えば開発者の操作入力が行われた場合に開始される。
まず検証装置100は、ステップS10にて、実景画像Riを取得してステップS20へと進む。ステップS20では、原画像カメラ10による実景画像Riから、原画像カメラ10の光学特性を補正した補正画像を生成する。
次にステップS30では、補正画像から特定シーン画像を抽出する。特定シーン画像は、補正画像の評価に適した特定シーンが撮像された画像である。特定シーンは、例えば写っている認識対象物の数や種類の多さ等に基づき決定される。特定シーン画像を抽出するとステップS40へと進む。
ステップS40では、画像処理により特定シーン画像に比較用カメラ20の光学特性の影響を付与し、比較用特性画像を生成してステップS50へと進む。ステップS50では、比較用特性画像を画像認識処理し、比較用特性画像から認識対象物を抽出する。
次にステップS60にて、比較用カメラ20で特定シーンを撮像した比較用実景画像を画像認識処理して認識対象物を抽出する。比較用実景画像は、例えば予め撮像されて比較用カメラ20から検証装置100のメモリ装置103へと転送されたものである。なお、ステップS60の代わりに、予め記憶された比較用実景画像の画像認識結果を読み出してもよい。
次にステップS70にて、比較用特性画像の画像認識結果と、比較用実景画像の画像認識結果とが一致するか否かを判定する。すなわち、比較用特性画像から抽出された認識対象物の位置、形状、属性等が、比較用実景画像から抽出された認識対象物の位置、形状、属性等と一致するか否かを判定する。ステップS70では、例えば2つの画像認識結果の一致率を数値化し、その値が予め設定された閾値を上回る場合に、画像認識結果が一致したと判定する。
画像認識結果が一致しないと判定した場合には、原画像カメラ10の光学特性を十分に補正できておらず、画像認識結果へ影響を与えているため、ステップS80へと進む。ステップS80では、補正画像の生成に使用したフィルタのパラメータを変更し、ステップS20へと戻る。これにより、ステップS20にて異なるフィルタによる補正画像を再度生成し、一連の処理を繰り返す。
一方で、ステップS70にて画像認識結果が一致すると判定した場合には、ステップS90へと進む。ステップS90では、比較用特性画像の生成に使用した補正画像を原画像Oiとして採用し、メモリ装置103に保存したのち、一連の処理を終了する。
図3は、検証処理のうち原画像Oiの生成処理の後に実行される処理を示す。一連の処理は、開発者の操作入力に基づいて開始されてもよく、原画像Oiの生成処理に続いて自動的に開始されてもよい。
まず検証装置100は、ステップS100にて、記憶領域115に保存された原画像OiをRAM102に読み出すことで、原画像Oiを準備する。次にステップS110にて、記憶された原画像Oiおよび検証対象カメラ30の光学特性のデータに基づき、検証対象カメラ30の光学特性の影響を付与した検証用画像Viを生成する。検証対象カメラ30は原画像カメラ10よりも画像の劣化が大きいため、この検証対象カメラ30の光学特性の影響が付与された検証用画像Viも、原画像Oiより劣化の大きいものとなる(図4参照)。原画像次にステップS120にて、検証対象カメラ30にて行われるものと同等の画像認識処理を、検証用画像Viに対して実行する。
次にステップS130にて、リファレンスデータをメモリ装置103から読み出すことで準備し、ステップS132へと進む。ステップS132では、リファレンスデータに対して、記憶領域125から読み出した検証対象カメラ30の光学特性の影響を付与した特性付リファレンスデータを生成する。具体的には、リファレンスデータに含まれる原画像Oi中の認識対象物の位置、形状などに関する正解情報を、光学特性がもたらす原画像Oiの歪み等に応じて、検証用画像Vi中の認識対象物に関する正解情報に変換する。次にステップS134では、他センサデータを記憶領域146から読み出すことで取得する。
次にステップS136にて、特性付リファレンスデータおよび他センサデータを利用して検証用画像Viの画像認識結果を評価する。ステップS136では、検証用画像Viに映る認識対象物の認識率および誤認識率が、画像認識結果として評価される。次にステップS140にて、ステップS136での評価結果をディスプレイ等に出力する。ステップS140の処理を実行すると、一連の処理を終了する。
次に第1実施形態の検証方法のもたらす作用効果について説明する。
第1実施形態の検証方法では、原画像Oiに検証対象カメラ30の光学特性の影響を付与した検証用画像Viが生成されて画像認識部130にて画像認識処理され、その画像認識結果が評価される。これによれば、検証対象カメラ30の光学特性が変更されても、原画像Oiに新たな光学特性の影響を付与することで検証用画像Viを生成できる。故に、検証対象カメラ30により新たに実景を撮像する必要性が低減される。以上により、検証対象カメラ30の光学特性の変更によって検証のための時間やコスト等が増大することを抑制可能な検証方法が提供される。
また、第1実施形態の検証方法では、検証対象カメラ30の光学特性の影響が、検証用画像Viに対して画像処理により付与される。これによれば、検証対象カメラ30により原画像Oiを撮像する場合等と比較して、検証用画像Viは、検証対象カメラ30の光学特性以外の影響を受けづらくなる。したがって、検証対象カメラ30の光学特性以外の要因の、画像認識結果の評価への影響が、抑制され得る。
加えて第1実施形態の原画像カメラ10は、検証対象カメラ30よりも撮像画像の劣化が少ない。このため、原画像カメラ10の光学特性を補正した原画像Oiの生成がより容易になる。
第1実施形態の検証装置100は、原画像Oiから予め認識対象物を抽出したリファレンスデータを準備し、リファレンスデータに検証対象カメラ30の光学特性の影響を付与したデータを生成する。検証装置100は、このデータに基づき画像認識結果を評価する。これによれば、検証装置100は、検証対象カメラ30の光学特性が変更された場合であっても、リファレンスデータに新たな光学特性の影響を付与することで、画像認識結果の評価が可能となる。したがって、検証対象カメラ30の光学特性が変更されても、新たなリファレンスデータを生成し直す必要性が低減される。
また、第1実施形態の検証装置100は、実景画像Riから原画像Oiの候補となる補正画像を生成し、比較用カメラ20の光学特性を補正画像に付与した比較用特性画像を生成する。検証装置100は、比較用特性画像と、比較用カメラ20による比較用実景画像とを画像認識する。検証装置100は、この画像認識結果同士が一致するか否か判定し、一致すると判定した場合に、補正画像を原画像Oiとして採用する。
これによれば、検証装置100は、比較用特性画像と比較用実景画像の画像認識結果を比較することにより、原画像カメラ10の光学特性が画像認識結果に影響を与えない程度に補正されているか否かを判定できる。したがって、検証装置100は、原画像Oiに残留する原画像カメラ10の光学特性が検証対象カメラ30の検証に影響を与えることを抑制できる。
(他の実施形態)
この明細書における開示は、例示された実施形態に制限されない。開示は、例示された実施形態と、それらに基づく当業者による変形態様を包含する。例えば、開示は、実施形態において示された部品および/または要素の組み合わせに限定されない。開示は、多様な組み合わせによって実施可能である。開示は、実施形態に追加可能な追加的な部分をもつことができる。開示は、実施形態の部品および/または要素が省略されたものを包含する。開示は、ひとつの実施形態と他の実施形態との間における部品および/または要素の置き換え、または組み合わせを包含する。開示される技術的範囲は、実施形態の記載に限定されない。開示されるいくつかの技術的範囲は、特許請求の範囲の記載によって示され、さらに特許請求の範囲の記載と均等の意味及び範囲内での全ての変更を含むものと解されるべきである。
上述の実施形態において、検証対象カメラ30は、画像認識機能を備える構成であるとした。これに代えて、検証対象カメラ30は、画像認識機能を備えず、撮像データを車載ECU等の画像認識機能を備える他の制御装置に出力する構成であってもよい。このような検証対象カメラ30を検証する場合、検証装置100は、撮像データの画像認識をする制御装置の画像認識プログラムを利用して検証用画像Viの画像認識を行えばよい。
上述の実施形態において、検証装置100は、メモリ装置103に予め記憶された画像認識プログラムによって、画像認識処理を実行するとした。これに代えて、検証装置100は、検証対象カメラ30の制御回路33に対して検証用画像Viを出力し、制御回路33での画像認識結果を取得する構成であってもよい。
上述の実施形態において、検証装置100は、原画像カメラ10の撮像した実景画像Riから原画像Oiを生成するとしたが、これに代えて、他の装置にて生成された原画像Oiを取得する構成であってもよい。例えば、検証装置100は、他の事業者から配信される原画像Oiを取得してもよい。
上述の実施形態において、検証装置100は、画像処理によって原画像Oiに検証対象カメラ30の光学特性の影響を付与することで、検証用画像Viを生成するとした。これに代えて、検証装置100は、検証対象カメラ30から原画像Oiの撮像データを検証用画像Viとして取得する構成であってもよい。この場合、検証対象カメラ30は、スクリーン等に投影された原画像Oiを撮像することで、その撮像データを取得する構成とすればよい。
上述の実施形態のプロセッサは、1つまたは複数のCPU(Central Processing Unit)を含む処理部である。こうしたプロセッサは、CPUに加えて、GPU(Graphics Processing Unit)およびDFP(Data Flow Processor)等を含む処理部であってよい。さらにプロセッサは、FPGA(Field-Programmable Gate Array)、並びにAIの学習および推論等の特定処理に特化したIPコア等を含む処理部であってもよい。こうしたプロセッサの各演算回路部は、プリント基板に個別に実装された構成であってもよく、またはASIC(Application Specific Integrated Circuit)およびFPGA等に実装された構成であってもよい。
各プログラムを記憶するメモリ装置には、フラッシュメモリおよびハードディスク等の種々の非遷移的実体的記憶媒体(non-transitory tangible storage medium)が採用可能である。こうした記憶媒体の形態も、適宜変更されてよい。例えば記憶媒体は、メモリカード等の形態であり、検証装置100に設けられたスロット部に挿入されて、制御回路に電気的に接続される構成であってよい。
本開示に記載の制御回路およびその手法は、コンピュータプログラムにより具体化された1つ乃至は複数の機能を実行するようにプログラムされたプロセッサを構成する専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の装置およびその手法は、専用ハードウェア論理回路により、実現されてもよい。もしくは、本開示に記載の装置およびその手法は、コンピュータプログラムを実行するプロセッサと1つ以上のハードウェア論理回路との組み合わせにより構成された1つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。
10 原画像カメラ、 20 比較用カメラ、 30 検証対象カメラ、 100 検証装置(コンピュータ)、 101 プロセッサ、 110 原画像生成部、 130 画像認識部、 Ri 実景画像(撮像画像)、 Oi 原画像、 Vi 検証用画像。

Claims (5)

  1. コンピュータ(100)によって実施され、検証対象カメラ(30)を検証する検証方法であって、
    少なくとも1つのプロセッサ(101)にて実行される処理に、
    前記検証対象カメラとは異なる原画像カメラ(10)による実景の撮像画像(Ri)から前記原画像カメラの光学特性を補正した原画像(Oi)を準備し(S100)、
    前記原画像に前記検証対象カメラの光学特性の影響を付与した検証用画像(Vi)を準備し(S110)、
    前記検証対象カメラにより撮像された画像の画像認識に適用される検証対象アルゴリズムを実行して前記検証用画像を画像認識し(S120)、
    前記検証用画像の画像認識結果を評価する(S136)、
    というステップを含む検証方法。
  2. 前記検証用画像を取得するステップでは、
    前記検証対象カメラの光学特性の影響を、画像処理により付与する請求項1に記載の検証方法。
  3. 前記原画像カメラによる前記撮像画像から前記原画像の候補となる補正画像を生成し(S20)、
    前記原画像カメラとは異なる比較用カメラ(20)の光学特性を前記補正画像に付与した比較用特性画像を生成し(S40)、
    前記比較用カメラにより撮像された画像の画像認識に適用される比較用アルゴリズムを実行して前記比較用特性画像を画像認識し(S50)、
    前記比較用カメラにより実景を撮像した比較用実景画像を前記比較用アルゴリズムの実行により画像認識し(S60)、
    前記比較用特性画像の画像認識結果と、前記比較用実景画像の画像認識結果とが一致するか否かを判定し(S70)、
    画像認識結果同士が一致すると判定した場合には、前記補正画像を前記原画像として採用する(S90)、
    というステップをさらに含む請求項1または請求項2に記載の検証方法。
  4. 前記原画像を準備するステップでは、
    前記検証対象カメラによる前記撮像画像よりも劣化の少ない前記原画像カメラによる前記撮像画像から生成された前記原画像を取得する請求項1から請求項3のいずれか1項に記載の検証方法。
  5. 前記原画像から予め認識対象物を抽出したリファレンスデータを準備し(S130)、
    前記リファレンスデータに前記検証対象カメラの光学特性の影響を付与した特性付リファレンスデータを生成する(S132)、
    というステップをさらに含み、
    画像認識結果を評価するステップでは、
    前記特性付リファレンスデータに基づいて画像認識結果を評価する請求項1から請求項4のいずれか1項に記載の検証方法。
JP2019089229A 2019-05-09 2019-05-09 検証方法 Active JP7268471B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019089229A JP7268471B2 (ja) 2019-05-09 2019-05-09 検証方法
US16/865,058 US11308341B2 (en) 2019-05-09 2020-05-01 Verification method, verification device, and non-transitory tangible storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019089229A JP7268471B2 (ja) 2019-05-09 2019-05-09 検証方法

Publications (2)

Publication Number Publication Date
JP2020184735A JP2020184735A (ja) 2020-11-12
JP7268471B2 true JP7268471B2 (ja) 2023-05-08

Family

ID=73045329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019089229A Active JP7268471B2 (ja) 2019-05-09 2019-05-09 検証方法

Country Status (2)

Country Link
US (1) US11308341B2 (ja)
JP (1) JP7268471B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019134022B3 (de) * 2019-12-11 2020-11-19 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Verfahren und Vorrichtungen zum Emulieren von Kameraobjektiven

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006300890A (ja) 2005-04-25 2006-11-02 Toyota Motor Corp 画像処理検査装置及び画像処理検査方法
JP2016146143A (ja) 2015-02-09 2016-08-12 キヤノン株式会社 画像処理方法および装置システム
JP2018088587A (ja) 2016-11-28 2018-06-07 キヤノン株式会社 画像処理方法および画像処理装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0901104B1 (en) * 1997-08-29 2003-10-29 Fuji Photo Film Co., Ltd. Image processing system
US20050136509A1 (en) * 2003-09-10 2005-06-23 Bioimagene, Inc. Method and system for quantitatively analyzing biological samples
US8295562B2 (en) * 2006-01-13 2012-10-23 Carl Zeiss Microimaging Ais, Inc. Medical image modification to simulate characteristics
TWI319679B (en) * 2006-05-19 2010-01-11 Primax Electronics Ltd Method for enabling output device to emulate colors of target camera
JP4873721B2 (ja) 2007-02-27 2012-02-08 京セラ株式会社 画像処理方法及び装置
CN102090067B (zh) 2008-08-04 2013-03-20 松下电器产业株式会社 摄像装置、图像处理方法、图像处理程序及半导体集成电路
JP2010256878A (ja) 2009-03-30 2010-11-11 Equos Research Co Ltd 情報表示装置
DE102011107458A1 (de) * 2011-07-15 2013-01-17 Audi Ag Verfahren zum Evaluieren einer Objekterkennungseinrichtung eines Kraftfahrzeugs
EP2549759B1 (en) * 2011-07-19 2016-01-13 Axis AB Method and system for facilitating color balance synchronization between a plurality of video cameras as well as method and system for obtaining object tracking between two or more video cameras
JP6471934B2 (ja) * 2014-06-12 2019-02-20 パナソニックIpマネジメント株式会社 画像認識方法、カメラシステム
JP6433187B2 (ja) * 2014-08-07 2018-12-05 キヤノン株式会社 情報処理装置、その制御方法およびコンピュータプログラム
JP6582642B2 (ja) 2014-08-11 2019-10-02 セイコーエプソン株式会社 車両用撮像装置、車両用撮像表示システム、及び車両

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006300890A (ja) 2005-04-25 2006-11-02 Toyota Motor Corp 画像処理検査装置及び画像処理検査方法
JP2016146143A (ja) 2015-02-09 2016-08-12 キヤノン株式会社 画像処理方法および装置システム
JP2018088587A (ja) 2016-11-28 2018-06-07 キヤノン株式会社 画像処理方法および画像処理装置

Also Published As

Publication number Publication date
US11308341B2 (en) 2022-04-19
US20200356797A1 (en) 2020-11-12
JP2020184735A (ja) 2020-11-12

Similar Documents

Publication Publication Date Title
US20180308282A1 (en) Shape measuring apparatus and method
US10636130B2 (en) Image processing device
JP6230751B1 (ja) 物体検出装置および物体検出方法
US10726539B2 (en) Image processing apparatus, image processing method and storage medium
US9292759B2 (en) Methods and systems for optimized parameter selection in automated license plate recognition
US11195055B2 (en) Image processing method, image processing apparatus, storage medium, image processing system, and manufacturing method of learnt model
JP2016015638A (ja) 故障検出装置および故障検出プログラム
RU2012145349A (ru) Способ и устройство обработки изображений для устранения артефактов глубины
KR102559021B1 (ko) 불량 이미지 생성 장치 및 방법
WO2010047226A1 (ja) 車線区画線検出装置、車線区画線検出方法、及び車線区画線検出プログラム
CN107018407B (zh) 信息处理装置、评价用图、评价系统、以及性能评价方法
WO2019085929A1 (zh) 图像处理方法及其装置、安全驾驶方法
JP7268471B2 (ja) 検証方法
JP2021051347A (ja) 距離画像生成装置及び距離画像生成方法
US11393116B2 (en) Information processing apparatus, method thereof, and non-transitory computer-readable storage medium
US20230069608A1 (en) Object Tracking Apparatus and Method
CN112184827A (zh) 校准多个摄像机的方法及装置
US8483449B2 (en) Registration device, checking device, program, and data structure
CN116452676A (zh) 一种摄像头标定方法、装置、设备及可读存储介质
WO2017090097A1 (ja) 車両用外界認識装置
JP6677141B2 (ja) 駐車枠認識装置
US11107197B2 (en) Apparatus for processing image blurring and method thereof
KR102119388B1 (ko) Avm 시스템 및 카메라 공차 보정 방법
JP6677142B2 (ja) 駐車枠認識装置
JP2021051348A (ja) 物体距離推定装置及び物体距離推定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230404

R151 Written notification of patent or utility model registration

Ref document number: 7268471

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151