JP2015191369A - 物体検出装置 - Google Patents

物体検出装置 Download PDF

Info

Publication number
JP2015191369A
JP2015191369A JP2014067124A JP2014067124A JP2015191369A JP 2015191369 A JP2015191369 A JP 2015191369A JP 2014067124 A JP2014067124 A JP 2014067124A JP 2014067124 A JP2014067124 A JP 2014067124A JP 2015191369 A JP2015191369 A JP 2015191369A
Authority
JP
Japan
Prior art keywords
image
learning
window
color
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014067124A
Other languages
English (en)
Other versions
JP6340228B2 (ja
Inventor
雄基 原口
Yuki Haraguchi
雄基 原口
長谷川 弘
Hiroshi Hasegawa
弘 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Priority to JP2014067124A priority Critical patent/JP6340228B2/ja
Priority to PCT/JP2015/057957 priority patent/WO2015146728A1/ja
Publication of JP2015191369A publication Critical patent/JP2015191369A/ja
Application granted granted Critical
Publication of JP6340228B2 publication Critical patent/JP6340228B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】誤検出を抑制することができる物体検出装置を提供することを課題とする。
【解決手段】物体検出装置1において、検出窓設定部11は、RGB空間を有する撮影画像に対して検出窓を設定する。検出窓が撮影画像21から切り出されることにより、窓画像22が生成される。形状抽出部13は、グレースケールに変換された窓画像22に対してエッジを強調する処理を実行して、エッジ窓画像24を生成する。色抽出部14は、窓画像22からR成分を抽出して、R成分窓画像25を生成する。尤度算出部16は、エッジ窓画像24とR成分窓画像25とを合成した合成窓画像を用いて、検出窓が自動車の後面を含むであろう車両尤度27を算出する。
【選択図】図1

Description

本発明は、物体検出装置に関し、さらに詳しくは、カメラにより撮影された撮影画像から対象物を検出する物体検出装置に関する。
カメラが撮影した画像などに検出対象が存在するか否かを判定する物体検出装置が存在する。物体検出装置は、たとえば、カメラとともに車両に搭載される。カメラは、自車両の進行方向を撮影して撮影画像を生成する。物体検出装置は、カメラにより撮影された撮影画像から、自車両の前を走行する他の車両を検出する。
カメラにより撮影された撮影画像から車両を検知する車両検知装置が、特許文献1に開示されている。特許文献1に開示された車両検知装置は、車両の前方の景色を撮影する単眼カメラにより撮影された画像から縦方向に延びるエッジ(縦エッジ)を検出する。撮影された画像に車両が存在するか否かが、検出された縦方向のエッジのペアの中心位置と幅に基づいて判断される。
また、カメラにより撮影された画像を用いて車両前方を監視する車両用外界認識装置(認識装置)が、特許文献2に開示されている。この認識装置は、カメラにより撮影された画像から複数の縦エッジを検出し、水平方向に並ぶ2本の縦エッジのペアの中心位置及び幅に基づいて、車両候補領域を特定する。認識装置は、特定された車両候補領域ごとに、車両らしさを示すHOG(Histograms of Oriented Gradients)特徴量及びHOF(Histograms of Flow)を算出する。これらの特徴量に基づいて、車両候補領域に車両が存在するか否かが判断される。
特開2005−156199号公報 特開2013−205410号公報
上記特許文献1,2に開示されているように、従来の物体検出装置は、カメラにより撮影された画像(撮影画像)から抽出されたエッジ特徴量を用いて、車両が撮影画像内に存在するかを判断している。しかし、撮影画像は、車両の他に、電信柱、道路標識などの他の物体を含む。他の物体は、車両と同様に縦方向に延びるエッジで構成される場合がある。従来の車両検出装置は、縦方向に伸びる2本のエッジのペアが他の物体の形状を示しているにも関わらず、このエッジのペアに基づいて、撮影画像に車両が存在すると誤って判断する場合がある。
本発明は、上記問題点に鑑み、誤検出を抑制することができる物体検出装置を提供することを目的とする。
上記課題を解決するため、請求項1記載の発明は、カラーのフレーム画像に対して検出窓を設定する検出窓設定部と、前記検出窓に含まれる物体の形状を示す特徴量を前記フレーム画像から抽出して形状特徴データを生成する形状抽出部と、前記検出窓から所定の色成分を抽出して色特徴データを生成する色抽出部と、前記形状特徴データと前記色特徴データとから、前記検出窓が対象物を含むであろう尤度を算出する尤度算出部と、を備える。
請求項2記載の発明は、請求項1に記載の物体検出装置であって、さらに、前記形状特徴データと前記色特徴データとから、前記尤度の算出対象となる算出対象データを生成する生成部、を備え、前記尤度算出部は、前記生成部により生成された算出対象データから前記尤度を算出する。
請求項3記載の発明は、請求項2に記載の物体検出装置であって、前記形状特徴データは、前記検出窓のエッジを強調したエッジ画像であり、前記色特徴データは、前記検出窓が有する複数の色成分から前記所定の色成分を抽出した色成分画像であり、前記生成部は、前記エッジ画像と前記色成分画像とを合成して前記算出対象データを生成する。
請求項4記載の発明は、請求項3に記載の物体検出装置であって、前記生成部は、前記エッジ画像の各画素が有する画素値と、前記色成分画像の各画素が有する画素値の少なくとも一方を重み付けする。
請求項5記載の発明は、請求項2に記載の物体検出装置であって、前記形状特徴データは、前記フレーム画像のエッジを強調したエッジ画像であり、前記色特徴データは、前記フレーム画像が有する複数の色成分から前記所定の色成分を抽出した色成分画像であり、前記生成部は、前記エッジ画像の各画素が有する画素値を配列したデータ列と、前記色成分画像の各画素が有する画素値を配列したデータ列とを連結することにより、前記算出対象データを生成する。
請求項6記載の発明は、請求項5に記載の物体検出装置であって、前記生成部は、前記エッジ画像のサイズを変更し、サイズが変更されたエッジ画像の各画素が有する画素値を配列したデータ列と、前記色成分画像の各画素が有する画素値を配列したデータ列とを連結する。
請求項7記載の発明は、請求項5又は請求項6に記載の物体検出装置であって、前記生成部は、前記色成分画像のサイズを変更し、前記エッジ画像の各画素が有する画素値を配列したデータ列と、サイズが変更された色成分画像の各画素が有する画素値を配列したデータ列とを連結する。
請求項8記載の発明は、請求項1ないし請求項7のいずれかに記載の物体検出装置であって、前記形状抽出部は、対象物を含む学習画像から学習用の形状特徴データを生成し、前記色抽出部は、前記学習画像から前記学習用の色特徴データを生成し、前記物体検出装置は、前記学習用の形状特徴データ及び前記学習用の色特徴データを用いて、前記対象物のパターンデータを生成する学習部、を含み、前記尤度算出部は、前記パターンデータを用いて、前記尤度を算出する。
請求項9記載の発明は、物体検出装置に搭載されるコンピュータに、カラーのフレーム画像に対して検出窓を設定するステップと、前記検出窓に含まれる物体の形状を示す特徴量を前記フレーム画像から抽出して形状特徴データを生成するステップと、前記検出窓から所定の色成分を抽出して色特徴データを生成するステップと、前記形状特徴データと前記色特徴データとから、前記検出窓が対象物を含むであろう尤度を算出するステップと、を実行させるための物体検出プログラムである。
本発明に係る物体検出装置は、検出窓に含まれる物体の形状を示す特徴量を抽出して形状特徴データを生成し、検出窓に含まれる所定の色成分を抽出して色特徴データを生成する。物体検出装置は、形状特徴データ及び色特徴データを用いて、検出窓に対象物が存在する度合いを示す尤度を算出する。尤度の算出に形状特徴データだけでなく、色特徴データを用いることにより、誤検出の発生を抑制することができる。
本発明の第1の実施の形態に係る物体検出装置の構成を示す機能ブロック図である。 図1に示す物体検出装置により実行される学習処理のフローチャートである。 図2に示す学習処理における画像の変化を示す図である。 図1に示す物体検出処理により実行される車両検出処理のフローチャートである。 図1に示す物体検出装置に入力される撮影画像の一例を示す図である。 図4に示す車両検出処理における画像の遷移の一例を示す図である。 図4に示す車両検出処理における画像の遷移の他の例を示す図である。 本発明の第2の実施の形態に係る物体検出装置の構成を示す機能ブロック図である。 図8に示す物体検出装置により実行される学習処理のフローチャートである。 図9に示す学習処理における画像の遷移を示す図である。 図8に示す連結部により生成される連結学習データの構造を示す図である。 図8に示す物体検出装置により実行される車両検出処理のフローチャートである。 図12に示す車両検出処理における画像の遷移の一例を示す図である。 図12に示す車両検出処理における画像の遷移の他の例を示す図である。
以下、図面を参照し、本発明の実施の形態を詳しく説明する。図中同一又は相当部分には同一符号を付してその説明は繰り返さない。
[第1の実施の形態]
{1.全体構成}
図1は、本発明の第1の実施の形態に係る物体検出装置1の構成を示す機能ブロック図である。物体検出装置1は、カメラ100が撮影した画像から、自動車を後方から見た画像を検出する。物体検出装置1は、カメラ100とともに自動車などの車両に搭載される。
カメラ100は、自動車のダッシュボード上に設置され、前方の景色を撮影して画像データ20を生成する。画像データ20は、複数のフレームにより構成される動画像であり、フレーム単位で物体検出装置1に入力される。各フレームは、RGB色空間を有するカラー画像である。物体検出装置1は、1つのフレーム(以下、「撮影画像21」と呼ぶ。)から、物体検出装置1が搭載された自動車(自車両)の前を走行する自動車を後方から見た画像(後面画像)を検出する。
図1に示すように、物体検出装置1は、検出窓設定部11と、画像変換部12と、形状抽出部13と、色抽出部14と、画像合成部15と、尤度算出部16と、判断部17と、学習部18と、記憶部19とを備える。
検出窓設定部11は、撮影画像21に対して検出窓を設定する。検出窓は、撮影画像21から後面画像を検出するための単位領域である。検出窓設定部11は、撮影画像21から検出窓を切り出して、窓画像22を生成する。撮影画像21がRGB色空間を有するため、窓画像22もRGB色空間を有する。
画像変換部12は、窓画像22をグレースケールに変換することにより、グレースケール窓画像23を生成する。形状抽出部13は、グレースケール窓画像23に対してエッジを強調する処理を実行することにより、エッジ窓画像24を生成する。エッジ窓画像24は、検出窓に含まれる物体の形状を示す特徴量を窓画像22から抽出したデータである。
色抽出部14は、RGB色空間を有する窓画像22からR(赤)成分を抽出することによりR成分窓画像25を生成する。R成分窓画像25は、検出窓が有する各画素のR成分を抽出したデータである。
画像合成部15は、形状抽出部13により生成されたエッジ窓画像24と、色抽出部14とにより生成されたR成分窓画像25とを合成して、合成窓画像26を生成する。合成窓画像26は、尤度算出部16において、車両尤度27の算出に用いられるデータである。
尤度算出部16は、ニューラルネットワークを用いて、検出窓に自動車の後面が存在するであろう尤度(車両尤度27)を合成窓画像26から算出する。1つの検出窓に対して、1つの車両尤度27が算出される。尤度算出部16は、車両尤度27の算出の際に、自動車の後面のパターンが記録されたパターンデータ50Aを参照する。
判断部17は、尤度算出部16により算出された検出窓ごとの車両尤度27に基づいて、撮影画像21内に後面画像が存在するか否かを判断する。
学習部18は、物体検出装置1に入力される学習画像から生成される合成学習画像36を用いて、自動車の後面のパターンを学習する。学習部18には、学習用のニューラルネットワークのアルゴリズムが実装される。学習部18は、学習の結果として、パターンデータ50Aを生成する。合成学習画像36の詳細については、後述する。
記憶部19は、フラッシュメモリやハードディスク装置などであり、パターンデータ50Aを記憶する。
{2.物体検出装置1の動作}
物体検出装置1は、撮影画像21から後面画像を検出する処理(車両検出処理)を開始する前に、パターンデータ50Aを生成する処理(学習処理)を実行する。以下、学習処理と車両検出処理とをそれぞれ説明する。
{2.1.学習処理}
図2は、物体検出装置1により実行される学習処理のフローチャートである。図3は、学習処理の際に用いられる画像の遷移を示す図である。図2及び図3を参照しながら、学習処理を実行する物体検出装置1の動作を説明する。
物体検出装置1は、パターンデータ50Aを生成するために、複数の学習画像32を使用する。図2は、1つの学習画像32に対して実行される処理を示している。物体検出装置1は、1つの学習画像32が入力された場合、図2に示す処理を開始する。
学習画像32は、検出対象である自動車の後面画像を含むカラー画像であり、RGB色空間を有する。学習画像32のサイズ(高さ及び幅)は、窓画像22のサイズと同じである。このため、検出窓設定部11は、学習処理に関与せず、学習画像32に対して検出窓を設定しない。
物体検出装置1は、ステップS11,S12を実行することにより、学習画像32に含まれる自動車の後面の形状を示す特徴量を、学習画像32から抽出する。具体的には、画像変換部12が、学習画像32をグレースケールに変換して、グレースケール学習画像33を生成する(ステップS11)。
形状抽出部13は、グレースケール学習画像33に対して、エッジを強調する処理を実行して、エッジ学習画像34を生成する(ステップS12)。ステップS12は、グレースケール学習画像33から自動車の後面の形状を示す特徴量を抽出するために実行される。学習画像32おいて、自動車の後面は、台形に近い形状をしている。このため、ステップS12では、横方向に延びるエッジを強調する処理と、縦方向に延びるエッジを強調する処理とが実行される。各方向に伸びるエッジの強調処理には、例えば、Sobelフィルタが用いられる。
次に、形状抽出部13は、エッジ学習画像34に対して重み付けを行う(ステップS13)。具体的には、形状抽出部13は、エッジ学習画像34が有する各画素の画素値に対して1よりも小さい係数を乗算する。以下、重み付けされたエッジ学習画像34の画素値を、Ew(x,y)と記載する。図3では、重み付けされたエッジ学習画像34の表示を省略している。ステップS13を実行する理由については、後述する。
エッジ学習画像34が有する画素の画素値の最大値は255であり、最小値は0である。図3に示すエッジ学習画像34において、255に近い画素値を有する画素ほど黒く表示され、0に近い画素値を有する画素ほど白く表示される。後述するR成分学習画像35及び合成学習画像36の各画素も、図3において同様に表示される。
色抽出部14は、学習画像32が有する各画素からR成分を抽出し(ステップS14)、R成分学習画像35を生成する。具体的には、色抽出部14は、下記式(1)を実行することにより、R成分学習画像35が有する各画素の画素値を決定する。
図3に示すように、学習画像32の左上頂点を原点とした場合において、右向きの軸をx軸、下向きの軸をy軸として定義する。式(1)において、R(x,y)は、座標(x,y)に位置する学習画像32の画素が有するR成分値である。RED(x,y)は、座標(x,y)に位置するR成分学習画像35の画素の画素値である。
R(x,y)がしきい値ThREDよりも大きい場合、色抽出部14は、RED(x,y)をR(x,y)に設定する。R(x,y)がしきい値ThRED以下である場合、色抽出部14は、RED(x,y)を0に設定する。つまり、色抽出部14は、しきい値ThREDよりも大きいR成分値を有する画素を学習画像32から抽出することにより、R成分学習画像35を生成する。R成分学習画像35のサイズは、学習画像32のサイズと同じである。
図3に示すように、R成分学習画像35において、領域351,352が黒く表示されている。2つの領域351は、学習画像32に含まれる自動車のテールランプに対応する。2つの領域352は、方向指示器に相当する。方向指示器の色は黄色であるため、領域352は、しきい値ThREDよりも大きいR成分値を有するため、領域351と同様に黒く表示される。
なお、色抽出部14は、RED(x,y)がしきい値ThREDよりも大きいか否かの判断に加えて、他の条件が満たされているか否かを判断してもよい。例えば、色抽出部14は、下記の2つの条件が両者ともに満たされているか否かを判断する。第1の条件は、学習画像32が有する画素のR成分値とG成分値との差分絶対値が所定のしきい値(ThREDと異なる)よりも大きいことである。第2の条件は、学習画像32が有する画素のR成分値とB成分値との差分絶対値がThREDと異なる上記の所定のしきい値よりも大きいことである。これら2つの条件が満たされる場合、色抽出部14は、座標(x,y)における学習画像32の画素の表示色が赤であると判断し、この画素のR成分値をR成分学習画像35が有する画素の画素値に設定する。これにより、赤以外の表示色がR成分学習画像35に反映されることを防ぐことができる。あるいは、色抽出部14は、RED(x,y)を設定する際に、第1の条件及び第2の条件のいずれか一方の条件を用いてもよい。第2の条件で用いられるしきい値は、第1の条件で用いられるしきい値と異なっていてもよい。
また、色抽出部14は、RED(x,y)がしきい値ThREDよりも大きいか否かの判断に加えて、下記式(2)及び式(3)が満たされているか否かを判断してもよい。
式(2)において、G(x,y)は、座標(x,y)に位置する学習画像32の画素が有するG成分値であり、Cは、予め設定された係数である。式(3)において、B(x,y)は、座標(x,y)に位置する学習画像32の画素が有するB成分値であり、Cは、予め設定された係数である。係数C,Cは、例えば、2に設定される。係数C,Cは、互いに異なる値であってもよい。色抽出部14は、式(2)及び式(3)が満たされる場合、座標(x,y)における学習画像32の画素の表示色が赤であると判断し、この画素のR成分値をR成分学習画像35が有する画素の画素値に設定する。あるいは、色抽出部14は、RED(x,y)を設定する際に、式(2)及び式(3)のいずれか一方のみを用いてもよい。
画像合成部15は、形状抽出部13により重み付けされたエッジ学習画像34と、色抽出部14により生成されたR成分学習画像35とを合成して、合成学習画像36を生成する(ステップS15)。画像合成部15は、Ew(x,y)をRED(x,y)に加算する。画像合成部15は、最大値が255となるように加算値を正規化することにより、合成学習画像36が生成される。
この結果、合成学習画像36は、学習画像32から抽出された車両の形状を示す特徴と、学習画像32におけるR成分の分布の特徴との両者を反映したデータとなる。画像合成部15は、生成した合成学習画像36を学習部18に出力する。
学習部18は、合成学習画像36に含まれる自動車の後面のパターンを、ニューラルネットワークを用いて学習する(ステップS16)。学習部18は、学習の結果をパターンデータ50Aに反映させる。パターンデータ50Aには、検出対象である自動車の後面の形状だけでなく、自動車の後面における赤色部分(テールランプ及び方向指示器)のパターンの配置が反映される。
このように、物体検出装置1は、1つの学習画像32に対して図2に示す処理を実行する。自動車の後面のパターン(車種、自動車までの距離など)が異なる様々な学習画像32が、物体検出装置1に入力される。学習処理は、物体検出装置1に入力される学習画像32の数に応じて繰り返される。これにより、パターンデータ50Aには、各々の学習画像32に含まれる自動車の後面のパターンが反映される。
{2.2.車両検出処理}
図4は、物体検出装置1により実行される車両検出処理のフローチャートである。物体検出装置1は、カメラ100から撮影画像21が入力されるたびに、図4に示す処理を実行して、撮影画像21内に後面画像が存在するか否かを判断する。
図5は、物体検出装置1に入力される撮影画像21の一例を示す図である。上述するように、撮影画像21は、RGB空間を有するカラー画像であるが、図5では、撮影画像21をグレースケールで表している。
図4及び図5を参照しながら、車両検出処理を実行する物体検出装置1の動作を説明する。検出窓設定部11は、撮影画像21に対して、後面画像を検出するための検出窓40を1つ設定する(ステップS21)。
ステップS21〜S28が繰り返されることにより、撮影画像21に対して複数の検出窓40が設定される。撮影画像21の左上頂点に位置する検出窓40が、最初に設定される。検出窓設定部11は、撮影画像21を左上から右下にかけてスキャンするように複数の検出窓を設定する。新たに検出窓40が設定される場合、検出窓設定部11は、既に設定された検出窓40の一部と重複するように新しい検出窓40を設定することが望ましい。
検出窓設定部11は、撮影画像21において、検出窓40を設定する領域を限定してもよい。物体検出装置1が自車両よりも前を走行する自動車を検出する場合、撮影画像21の上側の領域に、前を走行する自動車が存在する可能性は低い。検出窓設定部11は、例えば、撮影画像21の上方3分の1の領域を検出窓40の設定範囲から除外してもよい。
物体検出装置1は、ステップS22〜S26に示す処理を実行して、窓画像22から合成窓画像26を生成する。合成窓画像26は、学習部18により学習される合成学習画像36の生成手順と同じ手順で生成される。図4に示す処理のうち、ステップS22〜S26の処理は、図2に示すステップS11〜S15の処理と同じである。このため、ステップS22〜S26に関する説明を一部省略する。
図6は、車両検出処理を実行するときの画像の遷移の一例を示す図である。図6に示す窓画像42は、図5に示す撮影画像21と別の撮影画像21に対して設定された検出窓40から切り出された画像である。
画像変換部12は、窓画像42をグレースケールに変換することにより、グレースケール窓画像43を生成する(ステップS22)。形状抽出部13は、グレースケール窓画像43に対してエッジを強調する処理を実行して、エッジ窓画像44を生成する(ステップS23)。ステップS12で用いられたSobelフィルタが、エッジ窓画像44の生成に用いられる。これにより、グレースケール窓画像43に含まれる物体の形状を示す特徴量が、グレースケール窓画像43から抽出される。形状抽出部13は、エッジ窓画像44が有する各画素の画素値に対して、ステップS13で用いた係数を乗算する(ステップS24)。図6において、重み付け処理が施されたエッジ窓画像44の表示を省略している。
色抽出部14は、上記式(1)を用いて、RGB色空間を有する窓画像42の各画素からR成分を抽出して、R成分窓画像45を生成する(ステップS25)。
画像合成部15は、R成分窓画像45と、重み付け処理が施されたエッジ窓画像44とを合成して合成窓画像46を生成する(ステップS26)。これにより、合成窓画像46は、窓画像42に含まれる物体の形状を示す特徴量と、窓画像42におけるR成分の分布とが反映されたデータとなる。
尤度算出部16は、ニューラルネットワークを用いて、合成窓画像46から車両尤度27を算出する(ステップS27)。車両尤度27の算出の際には、パターンデータ50Aが参照される。車両尤度27は、検出窓40が後面画像を含む度合いを示し、0以上1以下の数値である。検出窓40に後面画像が存在する可能性が高いほど、車両尤度27は、1に近づく。検出窓40に後面画像が存在する可能性が低いほど、車両尤度27は、0に近づく。
物体検出装置1は、車両尤度27の算出(ステップS27)が終了した後に、撮影画像21に対する検出窓40の設定が終了したか否かを確認する(ステップS28)。検出窓40の設定が終了していない場合(ステップS28においてNo)、物体検出装置1は、新たな検出窓40を設定するために、ステップS21に戻る。一方、全ての検出窓40の設定が終了した場合(ステップS28においてYes)、判断部17は、検出窓40ごとに算出された複数の車両尤度27を用いて、撮影画像21内に後面画像が存在するか否かを判断する(ステップS29)。
判断部17は、各検出窓40の中心座標に基づいて、複数の車両尤度27の空間的な分布図を作成する。判断部17は、作成した分布図に基づいて、撮影画像21が後面画像を含むか否かを判断する。後面画像が撮影画像21から検出された場合、判断部17は、分布図を用いて自動車の後面の大きさを特定し、特定した大きさに基づいて、撮影画像21から検出された自動車までの距離を特定してもよい。
以下、学習処理及び車両検出処理において、重み付け処理(ステップS13,S24)が実行される理由を説明する。図3に示すように、学習画像32において、しきい値ThREDよりも大きいR成分値を有する画素の領域は、テールランプ及び方向指示器に対応する範囲である。このため、R成分学習画像35は、エッジ学習画像34に比べて単純な画像となる。
R成分学習画像35では、テールランプ及び方向指示器に対応する以外の領域が白であるため、R成分が目立っている。しかし、合成学習画像36では、テールランプ及び方向指示器に対応する領域以外の領域が、エッジにより黒く表されているため、合成学習画像36では、R成分がエッジよりも目立たなくなる。R成分学習画像35とエッジ学習画像34とを単に合成して合成学習画像36を生成した場合、合成学習画像36において、R成分学習画像35の画素値の寄与が、エッジ学習画像34の画素値の寄与と同じとなる。しかし、R成分がエッジよりも目立たないため、学習部18による合成学習画像36の学習の際に、R成分のパターンの学習結果がパターンデータ50Aに反映されづらくなる。
この結果、車両検出処理において算出される車両尤度27の精度が低下するおそれがある。具体的には、窓画像22が自動車の後面を含まないにもかかわらず、窓画像22の左右に赤色の領域が存在する場合、この窓画像22から1に近い車両尤度27が算出される可能性が高い。つまり、ステップS13を実行しない場合、パターンデータ50Aにおいて、R成分学習画像35のパターンの影響が、エッジ学習画像34のパターンの影響よりも大きくなる。
このように、車両尤度27の精度の低下を防ぐために、形状抽出部13は、R成分学習画像35に対して重み付け処理(ステップS13)を実行することにより、パターンデータ50Aにおけるエッジ学習画像34の影響を小さくする。ステップS24も、同様の理由により実行される。
以下、窓画像22から算出される車両尤度27の具体例を説明する。図6に示すように、窓画像42は、後面画像を含む。このため、窓画像42から生成されるエッジ窓画像44は、自動車の後面の形状に応じた幾何学的な形状(長方形、台形など)を有する。窓画像42において、自動車の後面がテールランプ及び方向指示器を含むため、R成分窓画像45の左右には、画素値の大きい領域が存在する。従って、合成窓画像46は、パターンデータ50Aに記録された自動車の後面のパターンに類似するパターンを有する。尤度算出部16は、窓画像42に対応する検出窓40の車両尤度27として、後面画像が存在する可能性が高いことを示す値(0.91)を算出する。
図7は、自動車の後面を含まない窓画像52から合成窓画像56が生成されるまでの画像の遷移を示す図である。
窓画像52は、歩行者の画像を含み、後面画像を含まない。窓画像52から生成されるエッジ窓画像54は、自動車の後面の形状に似た幾何学的な形状を有しない。R成分窓画像55において、下に位置する画素が黒く表示されている。これは、窓画像52の下方に赤色の領域が存在することを示す。R成分窓画像55における赤色の領域の配置パターンは、R成分学習画像35における赤色の領域の配置パターンと大きく異なる。
エッジ窓画像54とR成分窓画像55とから生成される合成窓画像56は、パターンデータ50Aに記録された自動車の後面のパターンを有しない。この結果、尤度算出部16は、窓画像52に対応する検出窓40の車両尤度27として、0に近い値(0.23)を算出する。
以上説明したように、物体検出装置1は、窓画像22に含まれる物体の形状を示す特徴量(エッジ)だけでなく、窓画像22の色成分の情報を用いて、車両尤度27を算出する。これにより、検出窓40が、自動車の後面の形状に似た物体を含む場合であっても、この物体に対する車両尤度27を0に近づけることができる。検出窓40に対応する車両尤度27の信頼性を向上させることができ、誤検出を抑制することができる。
[第2の実施の形態]
本発明に係る第2の実施の形態について説明する。図8は、本発明の第2の実施の形態に係る物体検出装置2の構成を示す機能ブロック図である。図8に示すように、物体検出装置2は、物体検出装置1が備える画像合成部15に代えて、連結部70を有する。
連結部70は、エッジ窓画像24のデータ列と、R成分窓画像25のデータ列とを連結することにより、連結窓データ28を生成する。尤度算出部16は、連結窓データ28を用いて、検出窓40が後面画像を含むであろう車両尤度27を算出する。また、連結部70は、エッジ学習画像34のデータ列とR成分学習画像35のデータ列とを連結して、連結学習データ38を生成する。
以下、上記実施の形態と異なる点を中心に、物体検出装置2の動作について説明する。
{1.学習処理}
図9は、学習処理を実行する物体検出装置2の動作を示すフローチャートである。図10は、物体検出装置2において、学習画像32から連結学習データ38が生成されるまでの画像の遷移を示す図である。
図9に示すように、形状抽出部13は、ステップS11,S12を実行して、学習画像32からエッジ学習画像34を生成する。しかし、形状抽出部13は、エッジ学習画像34に対して重み付け処理(ステップS13)を実行しない。色抽出部14は、ステップS14を実行して、学習画像32からR成分学習画像35を生成する(ステップS14)。色抽出部14は、R成分学習画像35に対して、重み付け処理(ステップS51)を実行する。
色抽出部14は、重み付け処理(ステップS51)として、R成分学習画像35のサイズを縮小する。これにより、縮小学習画像35aが、R成分学習画像35から生成される。縮小率は、例えば、60%であり、ステップS14で用いられる重み付けの係数に相当する。エッジ学習画像34のサイズは、変更されない。
連結部70は、エッジ学習画像34のデータ列と、縮小学習画像35aのデータ列とを連結して、連結学習データ38を生成する(ステップS52)。エッジ学習画像34のデータ列は、エッジ学習画像34をラスタスキャンすることにより生成される。同様に、縮小学習画像35aのデータ列は、縮小学習画像35aをラスタスキャンすることにより生成される。エッジ学習画像34のデータ列の末尾に、縮小学習画像35aのデータ列の先頭が連結されることにより、連結学習データ38が生成される。
図11は、連結学習データ38のデータ構造を示す図である。図11に示すように、E(x,y)は、座標(x,y)に位置するエッジ学習画像34の画素の画素値であり、D(x,y)は、座標(x,y)に位置する縮小学習画像35aの画素の画素値である。連結学習データ38は、エッジ学習画像34が有する各画素の画素値と、縮小学習画像35aが有する各画素の画素値とにより構成される1次元の配列である。図10に示す連結学習データ38において、エッジ学習画像34のサイズと縮小学習画像35aのサイズとの関係を示すために、縮小学習画像35aをエッジ学習画像34の下に配置している。連結学習データ38は、上述のように、画素値の1次元配列であり、エッジ学習画像34と縮小学習画像35aとにより構成される1つの画像ではない。
学習部18は、連結学習データ38を用いて、自動車の後面の形状のパターンと、自動車の後面におけるR成分の分布のパターンとを学習し(ステップS53)、学習の結果をパターンデータ50Aに反映させる。
ここで、R成分学習画像35のサイズを縮小する処理(ステップS51)が重み付け処理に相当する理由を説明する。
エッジ学習画像34及びR成分学習画像35は、それぞれ、1つの成分値(エッジ強度、R成分値)のみを含む画像である。また、各画像のサイズは同じである。従って、エッジ学習画像34のデータ量は、R成分学習画像35のデータ量と同じである。R成分学習画像35のデータ列をエッジ学習画像34に連結した場合、連結学習データ38におけるエッジ学習画像34とR成分学習画像35との比は、1対1となる。しかし、R成分学習画像35は、上述のように、エッジ学習画像34に比べて単純な画像である。連結学習データ38では、エッジ学習画像34のデータと、R成分学習画像35のデータとが区別されているため、学習部18は、エッジ学習画像34に含まれるエッジの複雑なパターンの特徴よりも、R成分学習画像35に含まれる画素値の高い領域の単純なパターンの特徴を検出することが容易である。この結果、上記第1の実施の形態とは逆に、パターンデータ50Aにおいて、R成分学習画像35のパターンの影響が、エッジ学習画像34のパターンの影響よりも大きくなる。
縮小学習画像35aは、R成分学習画像35のサイズ(高さ及び幅)を縮小することにより生成される。縮小学習画像35aのデータ量は、エッジ学習画像34のデータ量よりも小さい。連結学習データ38において縮小学習画像35aが占める比率は、縮小率が大きくなるにつれて低下する。連結学習データ38における縮小学習画像35aの比率を小さくすることにより、パターンデータ50AにおいてR成分学習画像35の影響を小さくすることができる。従って、R成分学習画像35のサイズを縮小する処理は、R成分学習画像35が有する画素の画素値を重み付けする処理に相当する。
{2.車両検出処理}
図12は、車両検出処理を実行する物体検出装置2の動作を示すフローチャートである。図13は、物体検出装置2が車両検出処理を実行するときにおける画像の遷移の一例を示す図である。図13に示す窓画像42、グレースケール窓画像43、エッジ窓画像44、及びR成分窓画像45は、図6に示す各画像と同じである。図12及び図13を参照しながら、車両検出処理を実行する物体検出装置2の動作を説明する。
図12に示す車両検出処理において、図4に示すステップS24及びS26に代えて、サイズ変更による重み付け処理(ステップS61)と連結処理(ステップS62)が実行される。ステップS61及びS62は、ステップS51及びS52と同様の処理である。このため、ステップS61及びS62の詳細な説明を省略する。
色抽出部14は、重み付け処理(ステップS61)として、R成分窓画像45のサイズを縮小する処理を実行する。これにより、縮小窓画像45aが、R成分窓画像45から生成される。縮小率は、学習処理で用いられた縮小率と同じ(60%)である。連結部70は、エッジ窓画像44のデータ列の末尾に、縮小窓画像45aのデータ列を連結して、連結窓データ48を生成する(ステップS62)。連結窓データ48は、連結学習データ38と同様に、エッジ窓画像44が有する各画素の画素値と、縮小窓画像45aが有する各画素の画素値とにより構成される1次元の配列である。尤度算出部16は、連結窓データ48を用いて、窓画像42に対応する検出窓40の車両尤度27を算出する(ステップS27)。図13に示すように、窓画像42は、後面画像を含む。従って、窓画像42から算出される車両尤度27は、1に近い値(0.89)を有する。
図14は、物体検出装置2が車両検出処理を実行するときにおける画像の遷移の他の例を示す図である。図14に示す窓画像52、グレースケール窓画像53、エッジ窓画像54、及びR成分窓画像55は、図7に示す各画像と同じである。色抽出部14は、R成分窓画像55を縮小して縮小窓画像55aを生成する。エッジ窓画像54のデータ列に縮小窓画像55aのデータ列を連結することにより、連結窓データ58が生成される。連結窓データ48は、連結学習データ38と同様に、エッジ窓画像44が有する各画素の画素値と、縮小窓画像45aが有する各画素の画素値とにより構成される1次元の配列である。
図14に示すように、窓画像52は、後面画像を含まない。従って、窓画像52から算出される車両尤度27は、0に近い値(0.13)を有する。
以上説明したように、物体検出装置2は、物体検出装置1と同様に、窓画像22に含まれる物体の形状を示す特徴量(エッジ)だけでなく、窓画像22の色成分の情報を用いて、車両尤度27を算出する。これにより、誤検出を抑制することができる。
上記実施の形態において、物体検出装置1,2は、撮影画像21から自動車の後面を検出する例を説明したが、これに限られない。検出対象は、自動車ではなく、道路標識などの他の物体であってもよい。
上記実施の形態において、エッジ学習画像及びR成分学習画像から合成学習画像を生成する例、エッジ学習画像及びR成分学習画像から連結学習データを生成する例を説明したが、これに限られない。学習部18は、エッジ学習画像とR成分学習画像とを個別に学習してもよい。この場合、尤度算出部は、エッジ学習画像の学習により生成されたパターンデータを参照して、エッジ窓画像から第1の車両尤度を算出する。また、尤度算出部は、R成分学習画像の学習により生成されたパターンデータを参照して、R成分窓画像から第2の車両尤度を算出する。
また、上記実施の形態において、色抽出部14は、学習画像32からR成分を抽出する例を説明したが、これに限られない。色抽出部14は、検出対象の物体に応じて、G成分あるいはB成分を学習画像32から抽出してもよい。この場合、窓画像22から抽出される色成分は、学習画像32から抽出される色成分に応じて変化する。
また、上記実施の形態において、R成分窓画像25及びR成分学習画像35の各々の画素値に重み付けを行う例を説明したが、これに限られない。色抽出部14は、R成分窓画像25及びR成分学習画像35に代えて、エッジ学習画像34及びエッジ窓画像24に対して重み付けを行ってもよい。
この場合、エッジ窓画像24及びエッジ学習画像34の各画素値に対して1以上の係数が乗算される。あるいは、エッジ窓画像24及びエッジ学習画像34が100%よりも大きい倍率で拡大される。つまり、上記実施の形態に係る物体検出装置は、エッジ学習画像34及びR成分学習画像35の少なくとも一方を重み付けし、エッジ窓画像24及びR成分窓画像25の少なくとも一方を重み付けすればよい。
また、上記実施の形態において、物体検出装置1,2に入力される学習画像32のサイズが窓画像22のサイズと同じである例を説明したが、これに限られない。物体検出装置1,2に入力される学習画像32のアスペクト比が窓画像22のアスペクト比に一致していれば、物体検出装置1,2に入力される学習画像32のサイズが窓画像22のサイズと同じでなくてもよい。この場合、窓画像22から尤度を算出する前、又は、窓画像22に対して特徴量を抽出する処理を実行する前に、窓画像22のサイズを学習画像のサイズに一致するように変更すればよい。
また、上記実施の形態において、尤度算出部16及び学習部18がニューラルネットワークを用いる例を説明したが、これに限られない。学習部18は、ニューラルネットワーク以外のパターンマッチングのプログラム(例えば、サポートベクターマシン)を用いてもよい。尤度算出部16に実装されるアルゴリズムは、学習部18に実装されるアルゴリズムに応じて変更される。
上記実施の形態で説明した物体検出装置1,2において、各機能部は、LSIなどの半導体装置により個別に1チップ化されても良いし、一部又は全部を含むように1チップ化されてもよい。集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサーで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用しても良い。
また、上記実施の形態の各機能ブロックの処理の一部または全部は、プログラムにより実現されるものであってもよい。そして、上記実施の形態の各機能ブロックの処理の一部または全部は、コンピュータにおいて、中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。
また、上記実施形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは、所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。
前述した方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray Disc)、半導体メモリを挙げることができる。
上記コンピュータプログラムは、上記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。
1,2 物体検出装置
11 検出窓設定部
12 画像変換部
13 形状抽出部
14 色抽出部
15 画像合成部
16 尤度算出部
17 判断部
18 学習部
70 連結部

Claims (9)

  1. カラーのフレーム画像に対して検出窓を設定する検出窓設定部と、
    前記検出窓に含まれる物体の形状を示す特徴量を前記フレーム画像から抽出して形状特徴データを生成する形状抽出部と、
    前記検出窓から所定の色成分を抽出して色特徴データを生成する色抽出部と、
    前記形状特徴データと前記色特徴データとから、前記検出窓が対象物を含むであろう尤度を算出する尤度算出部と、
    を備える物体検出装置。
  2. 請求項1に記載の物体検出装置であって、さらに、
    前記形状特徴データと前記色特徴データとから、前記尤度の算出対象となる算出対象データを生成する生成部、
    を備え、
    前記尤度算出部は、前記生成部により生成された算出対象データから前記尤度を算出する物体検出装置。
  3. 請求項2に記載の物体検出装置であって、
    前記形状特徴データは、前記検出窓のエッジを強調したエッジ画像であり、
    前記色特徴データは、前記検出窓が有する複数の色成分から前記所定の色成分を抽出した色成分画像であり、
    前記生成部は、前記エッジ画像と前記色成分画像とを合成して前記算出対象データを生成する物体検出装置。
  4. 請求項3に記載の物体検出装置であって、
    前記生成部は、前記エッジ画像の各画素が有する画素値と、前記色成分画像の各画素が有する画素値の少なくとも一方を重み付けする物体検出装置。
  5. 請求項2に記載の物体検出装置であって、
    前記形状特徴データは、前記フレーム画像のエッジを強調したエッジ画像であり、
    前記色特徴データは、前記フレーム画像が有する複数の色成分から前記所定の色成分を抽出した色成分画像であり、
    前記生成部は、前記エッジ画像の各画素が有する画素値を配列したデータ列と、前記色成分画像の各画素が有する画素値を配列したデータ列とを連結することにより、前記算出対象データを生成する物体検出装置。
  6. 請求項5に記載の物体検出装置であって、
    前記生成部は、前記エッジ画像のサイズを変更し、サイズが変更されたエッジ画像の各画素が有する画素値を配列したデータ列と、前記色成分画像の各画素が有する画素値を配列したデータ列とを連結する物体検出装置。
  7. 請求項5又は請求項6に記載の物体検出装置であって、
    前記生成部は、前記色成分画像のサイズを変更し、前記エッジ画像の各画素が有する画素値を配列したデータ列と、サイズが変更された色成分画像の各画素が有する画素値を配列したデータ列とを連結する物体検出装置。
  8. 請求項1ないし請求項7のいずれかに記載の物体検出装置であって、
    前記形状抽出部は、対象物を含む学習画像から学習用の形状特徴データを生成し、
    前記色抽出部は、前記学習画像から前記学習用の色特徴データを生成し、
    前記物体検出装置は、
    前記学習用の形状特徴データ及び前記学習用の色特徴データを用いて、前記対象物のパターンデータを生成する学習部、
    を含み、
    前記尤度算出部は、前記パターンデータを用いて、前記尤度を算出する物体検出装置。
  9. 物体検出装置に搭載されるコンピュータに、
    カラーのフレーム画像に対して検出窓を設定するステップと、
    前記検出窓に含まれる物体の形状を示す特徴量を前記フレーム画像から抽出して形状特徴データを生成するステップと、
    前記検出窓から所定の色成分を抽出して色特徴データを生成するステップと、
    前記形状特徴データと前記色特徴データとから、前記検出窓が対象物を含むであろう尤度を算出するステップと、
    を実行させるための物体検出プログラム。
JP2014067124A 2014-03-27 2014-03-27 物体検出装置 Expired - Fee Related JP6340228B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014067124A JP6340228B2 (ja) 2014-03-27 2014-03-27 物体検出装置
PCT/JP2015/057957 WO2015146728A1 (ja) 2014-03-27 2015-03-17 物体検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014067124A JP6340228B2 (ja) 2014-03-27 2014-03-27 物体検出装置

Publications (2)

Publication Number Publication Date
JP2015191369A true JP2015191369A (ja) 2015-11-02
JP6340228B2 JP6340228B2 (ja) 2018-06-06

Family

ID=54195250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014067124A Expired - Fee Related JP6340228B2 (ja) 2014-03-27 2014-03-27 物体検出装置

Country Status (2)

Country Link
JP (1) JP6340228B2 (ja)
WO (1) WO2015146728A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018014064A (ja) * 2016-07-19 2018-01-25 Gft株式会社 室内用自走式ロボットの位置測定システム
CN111461319A (zh) * 2019-01-22 2020-07-28 斯特拉德视觉公司 可适应用户要求的基于cnn的对象检测方法及装置
JP2020119546A (ja) * 2019-01-22 2020-08-06 株式会社ストラドビジョン イメージコンカチネーションと、ターゲット物体予測ネットワークとを利用して、多重カメラ又はサラウンドビューモニタリングに利用される物体検出器を学習する方法及び学習装置、並びにこれを利用したテスティング方法及びテスティング装置
JP2021192224A (ja) * 2020-06-10 2021-12-16 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 歩行者を検出するための方法及び装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム
WO2022172470A1 (ja) * 2021-02-12 2022-08-18 オムロン株式会社 画像検査装置、画像検査方法及び学習済みモデル生成装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007180930A (ja) * 2005-12-28 2007-07-12 Canon Marketing Japan Inc 画像結合装置および画像結合方法およびプログラムおよび記録媒体
JP2008533892A (ja) * 2005-03-17 2008-08-21 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー ビデオシーケンスにおけるオブジェクト追跡の方法
JP2012221070A (ja) * 2011-04-05 2012-11-12 Nippon Telegr & Teleph Corp <Ntt> 特徴選択情報作成装置、画像識別装置、特徴選択情報作成方法、および特徴選択情報作成プログラム
JP2013254262A (ja) * 2012-06-05 2013-12-19 Toshiba Corp 移動体検出装置、移動体検出システム、および、移動体検出方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008533892A (ja) * 2005-03-17 2008-08-21 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー ビデオシーケンスにおけるオブジェクト追跡の方法
JP2007180930A (ja) * 2005-12-28 2007-07-12 Canon Marketing Japan Inc 画像結合装置および画像結合方法およびプログラムおよび記録媒体
JP2012221070A (ja) * 2011-04-05 2012-11-12 Nippon Telegr & Teleph Corp <Ntt> 特徴選択情報作成装置、画像識別装置、特徴選択情報作成方法、および特徴選択情報作成プログラム
JP2013254262A (ja) * 2012-06-05 2013-12-19 Toshiba Corp 移動体検出装置、移動体検出システム、および、移動体検出方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018014064A (ja) * 2016-07-19 2018-01-25 Gft株式会社 室内用自走式ロボットの位置測定システム
CN111461319A (zh) * 2019-01-22 2020-07-28 斯特拉德视觉公司 可适应用户要求的基于cnn的对象检测方法及装置
KR20200091331A (ko) * 2019-01-22 2020-07-30 주식회사 스트라드비젼 다중 카메라 혹은 서라운드 뷰 모니터링에 이용되기 위해, 타겟 객체 통합 네트워크 및 타겟 영역 예측 네트워크를 이용하여 핵심성과지표와 같은 사용자 요구 사항에 적응 가능한 cnn 기반 객체 검출기를 학습하는 방법 및 학습 장치, 그리고 이를 이용한 테스팅 방법 및 테스팅 장치
JP2020119547A (ja) * 2019-01-22 2020-08-06 株式会社ストラドビジョン 多重カメラまたはサラウンドビューモニタリングに利用されるために、ターゲット物体統合ネットワーク及びターゲット物体予測ネットワークを利用して、重要業績評価指標のようなユーザー要求事項に適用可能なcnn基盤の物体検出器を学習する方法及び学習装置、並びにこれを利用したテスティング方法及びテスティング装置
JP2020119546A (ja) * 2019-01-22 2020-08-06 株式会社ストラドビジョン イメージコンカチネーションと、ターゲット物体予測ネットワークとを利用して、多重カメラ又はサラウンドビューモニタリングに利用される物体検出器を学習する方法及び学習装置、並びにこれを利用したテスティング方法及びテスティング装置
KR102328731B1 (ko) 2019-01-22 2021-11-22 주식회사 스트라드비젼 다중 카메라 혹은 서라운드 뷰 모니터링에 이용되기 위해, 타겟 객체 통합 네트워크 및 타겟 영역 예측 네트워크를 이용하여 핵심성과지표와 같은 사용자 요구 사항에 적응 가능한 cnn 기반 객체 검출기를 학습하는 방법 및 학습 장치, 그리고 이를 이용한 테스팅 방법 및 테스팅 장치
CN111461319B (zh) * 2019-01-22 2023-04-18 斯特拉德视觉公司 可适应用户要求的基于cnn的对象检测方法及装置
JP2021192224A (ja) * 2020-06-10 2021-12-16 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 歩行者を検出するための方法及び装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム
JP7269979B2 (ja) 2020-06-10 2023-05-09 阿波▲羅▼智▲聯▼(北京)科技有限公司 歩行者を検出するための方法及び装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム
WO2022172470A1 (ja) * 2021-02-12 2022-08-18 オムロン株式会社 画像検査装置、画像検査方法及び学習済みモデル生成装置

Also Published As

Publication number Publication date
WO2015146728A1 (ja) 2015-10-01
JP6340228B2 (ja) 2018-06-06

Similar Documents

Publication Publication Date Title
JP6088792B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
JP4952625B2 (ja) 透視変換歪み発生文書画像補正装置および方法
JP4855556B1 (ja) 動体検出装置、動体検出方法、動体検出プログラム、動体追跡装置、動体追跡方法及び動体追跡プログラム
JP6340228B2 (ja) 物体検出装置
JP6445775B2 (ja) 画像処理装置、画像処理方法
WO2018147059A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP6110174B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
JP2014164528A (ja) 文字認識装置、文字認識方法及びプログラム
JP2011165170A (ja) 対象物検出装置及びプログラム
JP5100688B2 (ja) 対象物検出装置及びプログラム
JP5911062B2 (ja) 物体検出装置およびプログラム
JP6340227B2 (ja) 人物検出装置
US9607398B2 (en) Image processing apparatus and method of controlling the same
JP5020920B2 (ja) 歩行者検出装置及びプログラム
JP7136721B2 (ja) 演算装置、視差算出方法
JP2010237976A (ja) 光源情報取得装置、陰影検出装置、陰影除去装置、それらの方法、及びプログラム
JP5911063B2 (ja) 物体検出装置およびプログラム
JP6280412B2 (ja) 物体検出装置
JP5708305B2 (ja) 画像認識装置、画像認識方法及び画像認識用コンピュータプログラム
JP2019100937A (ja) 欠陥検査装置及び欠陥検査方法
JP6276504B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
JP2011155365A (ja) 画像処理装置および画像処理方法
JP2008040724A (ja) 画像処理装置、及び画像処理方法
JP2007043285A (ja) 振れベクトル検出装置、カメラシステム、振れベクトル検出方法、及び振れベクトル検出プログラム
JP6121768B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180123

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180329

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180424

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180514

R150 Certificate of patent or registration of utility model

Ref document number: 6340228

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees