JP7052663B2 - 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム - Google Patents

物体検出装置、物体検出方法及び物体検出用コンピュータプログラム Download PDF

Info

Publication number
JP7052663B2
JP7052663B2 JP2018181002A JP2018181002A JP7052663B2 JP 7052663 B2 JP7052663 B2 JP 7052663B2 JP 2018181002 A JP2018181002 A JP 2018181002A JP 2018181002 A JP2018181002 A JP 2018181002A JP 7052663 B2 JP7052663 B2 JP 7052663B2
Authority
JP
Japan
Prior art keywords
region
certainty
represented
threshold value
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018181002A
Other languages
English (en)
Other versions
JP2020052694A (ja
Inventor
大輔 橋本
聡 武安
公太 平野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018181002A priority Critical patent/JP7052663B2/ja
Priority to US16/545,373 priority patent/US11093801B2/en
Publication of JP2020052694A publication Critical patent/JP2020052694A/ja
Application granted granted Critical
Publication of JP7052663B2 publication Critical patent/JP7052663B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像に表された物体を検出する物体検出装置、物体検出方法及び物体検出用コンピュータプログラムに関する。
従来より、画像に表された物体を検出する技術が研究されている。近年では、物体を検出するために、いわゆるディープニューラルネットワーク(以下、単にDNNと呼ぶ)を用いることで、検出精度を向上する技術が提案されている(例えば、非特許文献1~3を参照)。
Wei Liu他、「SSD: Single Shot MultiBox Detector」、ECCV2016、2016年 Shaoqing Ren他、「Faster R-CNN: Towards Real-Time ObjectDetection with Region Proposal Networks」、NIPS、2015年 Alex Kendall他、「Multi-Task Learning Using Uncertainty to Weigh Losses for Scene Geometry and Semantics」、CVPR2018、2018年
このような技術では、既知の物体が表された多数の画像を教師データとして用いてDNNを学習することで、DNNが入力された画像上に表されたその既知の物体を高精度に検出できるようになる。しかし、教師データとして利用可能な画像の数が少ない物体が検出対象となることがある。このような物体が表された画像に対しては、DNNによる検出精度は低下する。また、既知の物体が教師データに含まれる画像における写り方とは異なる写り方をした画像に対しても、DNNによる検出精度は低下することがある。検出精度の低下を抑制するために、検出対象となる全ての物体のそれぞれについて、その物体が表された画像を教師データとして利用できることが好ましい。しかし、実際には、DNNを学習する時点において、検出対象となる全ての物体について教師データとして利用可能な画像を用意できるとは限らない。そのため、教師データとして利用可能な画像の数が少ない物体、あるいは、検出対象となる物体が教師データに含まれる画像における写り方とは異なる写り方をした画像に対しても、検出精度を向上できることが求められている。
そこで、本発明は、物体の検出精度を向上できる物体検出装置を提供することを目的とする。
一つの実施形態によれば、物体検出装置が提供される。この物体検出装置は、入力された画像上の複数の領域のそれぞれについて、検出対象となる物体が表されている確からしさを表す確信度を求め、複数の領域のうち、確信度が第1の確信度閾値以上となる第1の領域に検出対象となる物体が表されていると判定し、かつ、第1の領域に対する、第1の領域において検出対象となる物体が他の物体により隠されている隠れ領域の比率を表す隠れ率を求める第1の検出部と、隠れ率が隠れ率閾値以上となる場合、複数の領域のうち、第1の領域と少なくとも部分的に重なる第2の領域についての確信度が第1の確信度閾値よりも低い第2の確信度閾値以上となる場合に、第2の領域に検出対象となる物体が表されていると判定する第2の検出部とを有する。
この物体検出装置において、第1の検出部は、画像から物体を検出するとともに隠れ領域を検出するように予め学習された識別器に画像を入力することで隠れ率を算出することが好ましい。
この場合において、識別器は、画像が入力される第1のコンボリューションニューラルネットワークと、第1のコンボリューションニューラルネットワークからの出力に基づいて複数の領域のそれぞれについて確信度を求める第2のコンボリューションニューラルネットワークと、第1のコンボリューションニューラルネットワークからの出力に基づいて隠れ領域を検出する第3のコンボリューションニューラルネットワークとを含むことが好ましい。
また、この物体検出装置において、第2の検出部は、第1の領域と第2の領域との和集合に対する第1の領域と第2の領域間の重複領域の比が所定の閾値以上となり、かつ、第2の領域についての確信度が第2の確信度閾値以上となる場合に、第2の領域に検出対象となる物体が表されていると判定することが好ましい。
あるいは、第2の検出部は、第1の領域に対する第1の領域と第2の領域間の重複領域の比が所定の閾値以上となり、かつ、第2の領域についての確信度が第2の確信度閾値以上となる場合に、第2の領域に検出対象となる物体が表されていると判定することが好ましい。
あるいは、第2の検出部は、複数の領域のうち、第1の領域と少なくとも部分的に重なり、かつ、隠れ領域の少なくとも一部を含む領域を第2の領域とすることが好ましい。
さらに、第1の検出部は、第1の領域に表される物体の種類を推定し、その種類に応じて隠れ率閾値を設定することが好ましい。
さらにまた、第2の検出部は、隠れ率が高いほど、第2の確信度閾値を低くすることが好ましい。
あるいはまた、第2の検出部は、第1の領域に対する第2の領域の相対的な位置関係に応じて第2の確信度閾値を設定することが好ましい。
本発明の他の実施形態によれば、物体検出方法が提供される。この物体検出方法は、入力された画像上の複数の領域のそれぞれについて、検出対象となる物体が表されている確からしさを表す確信度を求め、複数の領域のうち、確信度が第1の確信度閾値以上となる第1の領域に検出対象となる物体が表されていると判定し、かつ、第1の領域に対する、第1の領域において検出対象となる物体が他の物体により隠されている隠れ領域の比率を表す隠れ率を求め、隠れ率が隠れ率閾値以上となる場合、複数の領域のうち、第1の領域と少なくとも部分的に重なる第2の領域についての確信度が第1の確信度閾値よりも低い第2の確信度閾値以上となる場合に、第2の領域に検出対象となる物体が表されていると判定する、ことを含む。
本発明のさらに他の実施形態によれば、物体検出用コンピュータプログラムが提供される。この物体検出用コンピュータプログラムは、入力された画像上の複数の領域のそれぞれについて、検出対象となる物体が表されている確からしさを表す確信度を求め、複数の領域のうち、確信度が第1の確信度閾値以上となる第1の領域に検出対象となる物体が表されていると判定し、かつ、第1の領域に対する、第1の領域において検出対象となる物体が他の物体により隠されている隠れ領域の比率を表す隠れ率を求め、隠れ率が隠れ率閾値以上となる場合、複数の領域のうち、第1の領域と少なくとも部分的に重なる第2の領域についての確信度が第1の確信度閾値よりも低い第2の確信度閾値以上となる場合に、第2の領域に検出対象となる物体が表されていると判定する、ことをコンピュータに実行させるための命令を含む。
本発明に係る物体検出装置は、物体の検出精度を向上できるという効果を奏する。
物体検出装置が実装される車両制御システムの概略構成図である。 物体検出装置の一つの実施形態である電子制御装置のハードウェア構成図である。 物体検出処理を含む車両制御処理に関する、電子制御装置のプロセッサの機能ブロック図である。 識別器として利用されるDNNの構成の一例を示す図である。 図4に示される識別器の学習に利用される教師画像の一例を示す図である。 画像上に表された物体の検出の一例を示す図である。 物体検出処理を含む車両制御処理の動作フローチャートである。
以下、図を参照しつつ、物体検出装置について説明する。発明者は、画像から検出された物体の一部がその画像において見えなくなっている場合、その物体を隠している他の物体が画像に写っている可能性が高いことに着目した。そこで、この物体検出装置は、画像から検出された物体の一部が何らかの他の物体により隠されていると想定される場合に、その隠している他の物体に関する検出条件を緩和する。これにより、この物体検出装置は、他の物体が、検出対象であるにもかかわらず、物体検出用の識別器を十分に学習できない物体(以下、説明の便宜上、レア物体と呼ぶ)であっても検出できるようにする。具体的に、この物体検出装置は、画像に表された物体を検出するように予め学習された識別器に画像を入力することで、画像上の様々な領域について検出対象となる物体が表されている確からしさを表す確信度を算出し、算出した確信度が第1の確信度閾値以上となる領域に検出対象となる物体が表されていると判定する(以下、説明の便宜上、検出された物体が表された領域を物体領域と呼ぶ)。さらに、この物体検出装置は、物体領域の面積に対する、物体領域において検出された物体が他の物体で隠された隠れ領域の面積の比率(以下、説明の便宜上、隠れ率と呼ぶ)を算出する。この物体検出装置は、隠れ率が所定の隠れ率閾値以上となり、かつ、物体領域と少なくとも一部が重複する、確信度が算出された領域(以下、説明の便宜上、候補領域と呼ぶ)との和集合の面積に対する、物体領域と候補領域間の重複領域の面積の比が所定の閾値以上となる場合に、候補領域について、第1の確信度閾値よりも低い第2の確信度閾値を適用する。そしてこの物体検出装置は、候補領域について算出された確信度が第2の確信度閾値以上である場合、候補領域にも検出対象となる物体が表されていると判定する。これにより、この物体検出装置は、候補領域にレア物体が写っている場合でも、そのレア物体の検出に失敗することを抑制して、検出精度を向上できる。なお、レア物体には、検出対象とすべき物体であっても、教師データにその物体が表された画像が含まれない物体、すなわち、未知の物体が含まれてもよい。
以下では、物体検出装置を、車両制御システムに適用した例について説明する。この例では、物体検出装置は、車両に搭載されたカメラにより得られた画像に対して物体検出処理を実行することで、車両の周囲に存在する各種の物体、例えば、他の車両、人、道路標識または道路標示などを検出する。この例では、レア物体には、例えば、特異な形状を有する車両、特異な積載物を積載する車両、特異な服装をした人、人以外の動物または道路上に落下している各種の落下物が含まれる。
図1は、物体検出装置が実装される車両制御システムの概略構成図である。また図2は、物体検出装置の一つの実施形態である電子制御装置のハードウェア構成図である。本実施形態では、車両10に搭載され、かつ、車両10を制御する車両制御システム1は、車両10の周囲を撮影するためのカメラ2と、物体検出装置の一例である電子制御装置(ECU)3とを有する。カメラ2とECU3とは、コントローラエリアネットワークといった規格に準拠した車内ネットワーク4を介して通信可能に接続される。
カメラ2は、撮像部の一例であり、CCDあるいはC-MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に撮影対象となる領域の像を結像する結像光学系を有する。そしてカメラ2は、車両10の前方を向くように、例えば、車両10の車室内に取り付けられる。そしてカメラ2は、所定の撮影周期(例えば1/30秒~1/10秒)ごとに車両10の前方領域を撮影し、その前方領域が写った画像を生成する。カメラ2により得られた画像は、カラー画像であってもよく、あるいは、グレー画像であってもよい。
カメラ2は、画像を生成する度に、その生成した画像を車内ネットワーク4を介してECU3へ出力する。
ECU3は、車両10を制御する。本実施形態では、ECU3は、カメラ2により得られた一連の画像から検出された物体に基づいて車両10を自動運転するよう、車両10を制御する。そのために、ECU3は、通信インターフェース21と、メモリ22と、プロセッサ23とを有する。
通信インターフェース21は、通信部の一例であり、ECU3を車内ネットワーク4に接続するためのインターフェース回路を有する。すなわち、通信インターフェース21は、車内ネットワーク4を介して、カメラ2と接続される。そして通信インターフェース21は、カメラ2から画像を受信する度に、受信した画像をプロセッサ23へわたす。
メモリ22は、記憶部の一例であり、例えば、揮発性の半導体メモリ及び不揮発性の半導体メモリを有する。そしてメモリ22は、ECU3のプロセッサ23により実行される物体検出処理において使用される各種のデータ、例えば、カメラ2から受信した画像、物体検出処理で利用される識別器を特定するための各種パラメータ、及び、物体検出処理で利用される各種閾値などを記憶する。さらに、メモリ22は、地図情報などを記憶してもよい。
プロセッサ23は、制御部の一例であり、1個または複数個のCPU(Central Processing Unit)及びその周辺回路を有する。プロセッサ23は、論理演算ユニット、数値演算ユニットあるいはグラフィック処理ユニットといった他の演算回路をさらに有していてもよい。そしてプロセッサ23は、車両10が走行している間、カメラ2から画像を受信する度に、受信した画像に対して物体検出処理を含む車両制御処理を実行する。そしてプロセッサ23は、検出された車両10の周囲の物体に基づいて、車両10を自動運転するよう、車両10を制御する。
図3は、物体検出処理を含む車両制御処理に関する、ECU3のプロセッサ23の機能ブロック図である。プロセッサ23は、第1の検出部31と、第2の検出部32と、運転計画部33と、車両制御部34とを有する。プロセッサ23が有するこれらの各部は、例えば、プロセッサ23上で動作するコンピュータプログラムにより実現される機能モジュールである。あるいは、プロセッサ23が有するこれらの各部は、プロセッサ23に設けられる、専用の演算回路であってもよい。また、プロセッサ23が有するこれらの各部のうち、第1の検出部31及び第2の検出部32が、物体検出処理を実行する。
第1の検出部31は、カメラ2から受信した画像を識別器に入力することで、その画像上の複数の領域のそれぞれについて、その領域に検出対象となる物体が写っている確からしさを表す確信度を求め、その確信度が第1の確信度閾値以上となる領域を物体領域として検出する。さらに、第1の検出部31は、物体領域と、その物体領域に表される物体が他の物体により隠されている隠れ領域との比率を表す隠れ率とをもとめる。
本実施形態では、第1の検出部31は、識別器として、画像上の複数の領域のそれぞれについて、検出対象となる物体の種類ごとに確信度を求めるとともに、その領域の隠れ率を求めるように予め学習されたDNNを利用する。
図4は、識別器として利用されるDNNの構成の一例を示す図である。DNN400は、画像が入力される入力側に設けられる主幹部401と、主幹部401よりも出力側に設けられる位置検出部402、種類推定部403及び隠れ領域検出部404とを有する。位置検出部402は、主幹部401からの出力に基づいて、画像上で検出対象となる物体が表された領域の外接矩形を出力する。種類推定部403は、主幹部401からの出力に基づいて、位置検出部402で検出された領域に表された物体の種類を推定する。そして隠れ領域検出部404は、主幹部401からの出力に基づいて、各領域の隠れ率を算出する。なお、位置検出部402、種類推定部403及び隠れ領域検出部404のうちの二つ以上が一体的に形成されてもよい。
主幹部401は、例えば、入力側から出力側へ向けて直列に接続される複数の層を有するコンボリューションニューラルネットワーク(CNN)とすることができる。その複数の層には2以上の畳み込み層が含まれる。さらに、主幹部401が有する複数の層には、1または複数の畳み込み層ごとに設けられるプーリング層が含まれてもよい。さらにまた、主幹部401が有する複数の層には、1以上の全結合層が含まれてもよい。例えば、主幹部401は、非特許文献1に記載されたSingle Shot MultiBox Detector(SSD)のベースレイヤーと同様の構成とすることができる。この場合、主幹部401は、VGG-16と同様に、入力側から順に、2層の畳み込み層→MaxPoolingを行う(すなわち、n×n個の入力のうちの最大値を出力する)プーリング層(以下、単にプーリング層と呼ぶ)→2層の畳み込み層→プーリング層→3層の畳み込み層→プーリング層→3層の畳み込み層→プーリング層→3層の畳み込み層→プーリング層→3層の全結合層で構成されてもよい。あるいは、主幹部401は、VGG-19、AlexNetあるいはNetwork-In-Networkといった他のCNNアーキテクチャに従って構成されてもよい。
主幹部401は、画像が入力されると、その画像に対して各層での演算を実行することで、その画像から算出したfeature mapを出力する。
位置検出部402、種類推定部403及び隠れ領域検出部404には、それぞれ、主幹部401から出力されたfeature mapが入力される。そして位置検出部402、種類推定部403及び隠れ領域検出部404は、それぞれ、例えば、入力側から出力側へ向けて直列に接続される複数の層を有するCNNとすることができる。位置検出部402、種類推定部403及び隠れ領域検出部404のそれぞれについて、CNNが有する複数の層には2以上の畳み込み層が含まれる。また、位置検出部402、種類推定部403及び隠れ領域検出部404のそれぞれについて、CNNが有する複数の層には、1または複数の畳み込み層ごとに設けられるプーリング層が含まれてもよい。なお、CNNが有する畳み込み層及びプーリング層は、位置検出部402、種類推定部403及び隠れ領域検出部404のうちの二つ以上について共通化されてもよい。さらに、位置検出部402、種類推定部403及び隠れ領域検出部404のそれぞれについて、複数の層には、1以上の全結合層が含まれてもよい。この場合、全結合層は、各畳み込み層よりも出力側に設けられることが好ましい。また全結合層には、各畳み込み層からの出力が直接入力されてもよい。また、種類推定部403の出力層は、ソフトマックス関数に従って検出対象となる物体の種類のそれぞれの確信度を算出するソフトマックス層としてもよいし、シグモイド関数に従って検出対象となる物体の種類のそれぞれの確信度を算出するシグモイド層としてもよい。一方、隠れ領域検出部404は、例えば、セグメンテーションに用いられる何れかのCNNアーキテクチャと同様の構成を有していてもよい。あるいは、隠れ領域検出部404の最終層は、離散的な隠れ度の値をクラス分類問題として推定するソフトマックス層またはシグモイド層としてもよい(例えば、0%、0%~10%、10%~50%、50%~100%の4クラス分類など)。あるいはまた、隠れ領域検出部404の最終層は、例えば連続的な隠れ度の値を回帰問題として推定する線形層としてもよい。
位置検出部402及び種類推定部403は、例えば、画像上の様々な位置、様々なイサイズ及び様々なアスペクト比の領域ごとに、検出対象となる物体の種類のそれぞれの確信度を出力するように学習される。したがって、識別器400は、画像が入力されることで、画像上の様々な位置、様々なイサイズ及び様々なアスペクト比の領域ごとに、検出対象となる物体の種類のそれぞれの確信度を出力する。第1の検出部31は、何れかの物体の種類についての確信度が第1の確信度閾値(例えば、0.8~0.9)以上となる領域を、その種類の物体が表された物体領域(第1の領域)として検出する。なお、第1の検出部31は、一つの画像上で同一種類の物体が表された物体領域が複数検出され、かつ、その物体領域同士が少なくとも部分的に重複する場合、それら複数の物体領域のうち、確信度が最大となる領域のみを出力するようにしてもよい。
一方、隠れ領域検出部404は、例えば、画像上の様々な位置、様々なサイズ及び様々なアスペクト比の領域ごとに、その領域に含まれる個々の画素について、その画素が、その領域に表されている物体を他の物体で隠している画素(以下、説明の便宜上、隠れ画素と呼ぶ)か否かを判定するように学習される。したがって、識別器400は、画像が入力されることで、位置検出部402及び種類推定部403により確信度が算出される個々の領域について隠れ画素を検出する。したがって、第1の検出部31は、位置検出部402及び種類推定部403により検出された物体領域の面積に対する、その物体領域に含まれる隠れ画素の総数の比を、その物体領域についての隠れ率として出力する。なお、隠れ画素の集合を、以下では隠れ領域と呼ぶ。
なお、隠れ領域検出部404は、画像上の様々な位置、様々なサイズ及び様々なアスペクト比の領域ごとに、その領域の隠れ率が直接求められるように学習されてもよい。その場合、隠れ領域検出部404は、例えば、画像上の様々な位置、様々なサイズ及び様々なアスペクト比の領域ごとに、その領域が他の物体で隠れている領域(隠れ領域)の割合(隠れ率)を推定するように学習される。隠れ率の推定には、前述の通り、ソフトマックス層またはシグモイド層などでクラス分類問題として離散値を推定する方法、および線形層などで回帰問題として連続値を推定する方法などが用いられる。したがって、識別器400は、画像が入力されることで、位置検出部402及び種類推定部403により確信度が算出される個々の領域について隠れ率を検出し、第1の検出部31は、隠れ率を出力する。あるいは、隠れ領域検出部404は、位置検出部402及び種類推定部403により検出された物体領域についてのみ、隠れ領域を検出するように学習されてもよい。
図5は、図4に示された識別器400の学習に利用される教師データに含まれる画像(教師画像)の一例を示す図である。教師画像500には、検出対象となる物体501の種類(例えば、車、人、動物、道路標識、道路標示、落下物、道路上のその他の物体など、図示の例では、車)と、物体501が表された領域を表す、物体501の外接矩形502とがタグ付けされる。さらに、教師画像500において、外接矩形502で囲まれた領域に含まれる画素のうち、物体501が他の物体(この例では、動物)により隠された隠れ領域503内の各画素に、隠れ画素であることがタグ付けされる。
識別器400は、図5に示されるような多数の教師画像を用いて、例えば、誤差逆伝搬法といった学習手法に従って学習される。第1の検出部31は、このように学習された識別器400を利用することで、画像から検出対象となる物体、特に、多数の教師画像を用意できる物体を精度良く検出できるとともに、物体領域内の隠れ領域を精度良く検出できる。
第1の検出部31は、検出された物体が表された物体領域の画像上での位置及び範囲と、その物体領域に表された物体の種類とを、検出された物体のリストである検出物体リストに登録する。そして第1の検出部31は、検出物体リストをメモリ22に記憶する。さらに、第1の検出部31は、物体領域の画像上での位置及び範囲と、その物体領域に含まれる隠れ領域の位置及び範囲(すなわち、各隠れ画素の位置)と、その物体領域の隠れ率とを第2の検出部32へ出力する。さらに、第1の検出部31は、物体領域と少なくとも部分的に重複する、確信度が算出された領域を候補領域(第2の領域)とし、候補領域のそれぞれについて、その候補領域の画像上での位置及び範囲と、その候補領域について求められた物体の種類ごとの確信度のうちの最大値とを、第2の検出部32へ出力する。
第2の検出部32は、物体領域について算出された隠れ率を隠れ率閾値と比較する。そして第2の検出部32は、隠れ率が隠れ率閾値以上となる場合、各候補領域のうち、物体領域に含まれる隠れ領域を所定の割合(例えば、7~9割)以上含む候補領域について、物体領域とその候補領域の和集合の面積に対する、物体領域とその候補領域間の重複領域の面積の比(Intersection over Union、IoU)を算出する。第2の検出部32は、IoUが所定の閾値(例えば、0.05~0.3)以上である場合、候補領域について算出された確信度の最大値を、第1の確信度閾値よりも低い第2の確信度閾値(例えば、第1の確信度閾値から0.1~0.2を減じた値)と比較する。そして第2の検出部32は、その確信度の最大値が第2の確信度閾値以上である場合、候補領域に、その確信度の最大値に対応する種類の物体が表されていると判定して、その候補領域を物体領域として追加検出する。そして第2の検出部32は、追加検出された物体領域の画像上での位置及び範囲と、追加検出された物体領域に表された物体の種類とを、検出物体リストに追加登録することで、検出物体リストを更新する。第2の検出部32は、更新された検出物体リストをメモリ22に記憶する。このように、候補領域についてのIoUが所定の閾値以上となるか否かを判定することで、物体領域とある程度以上重複する候補領域のみに第2の確信度閾値が適用される。そのため、第2の検出部32は、第2の確信度閾値を適用する候補領域を適切に決定できる。また、第2の確信度閾値の適用対象とする候補領域を隠れ領域を所定の割合以上含むものに限定することで、第2の検出部32は、物体領域に表された物体を隠していると想定される他の物体を含む可能性が高い候補領域に第2の確信度閾値を適用することができる。
なお、第1の検出部31で用いられる識別器が隠れ画素を検出せずに直接隠れ率を求めるように学習される場合には、第2の検出部32は、各候補領域について隠れ領域を含むか否かに関わらずにIoUを算出し、そのIoUに基づいて第2の確信度閾値を適用するか否かを判定してもよい。
図6は、画像上に表された物体の検出の一例を示す図である。画像600には車両601が表されている。車両が表された画像は一般に大量に存在するため、車両が表された多数の教師画像が識別器の学習に利用できる。そのため、車両601が表された領域611では、識別器により比較的高い確信度が出力される。その結果として、領域611に表された車両601は、第1の検出部31により検出される。
しかし、画像600では、車両601の一部は動物602により隠されている。一般に、道路上を歩く動物の画像は少ないため、動物が表された教師画像の数は比較的少ない。すなわち、動物602はレア物体となる。そのため、動物602が表された領域612については、確信度はそれほど高くならない。その結果、動物602は、第1の検出部31では検出されない。しかし、車両601の一部が動物602で隠されているので、領域611の隠れ率は隠れ率閾値以上となり、かつ、領域611と領域612についてのIoUも所定の閾値以上となる。そのため、領域612に、第1の確信度閾値よりも低い第2の確信度閾値が適用されるので、領域612に表された動物602についても、第2の検出部32により検出される。
運転計画部33は、各画像について求められた検出物体リストを参照して、車両10の周囲に存在する物体と車両10とが衝突しないように車両10の走行予定経路を1以上生成する。走行予定経路は、例えば、現時刻から所定時間先までの各時刻における、車両10の目標位置の集合として表される。例えば、運転計画部33は、カメラ2から画像を受信する度に、カメラ2についての車両10への取り付け位置などの情報を用いて視点変換処理を実行することで、受信した画像を鳥瞰画像に変換する。そして運転計画部33は、一連の鳥瞰画像に対してKalman Filterなどを用いたトラッキング処理を実行することで、各画像についての検出物体リストに登録されている物体を追跡し、その追跡結果により得られた軌跡から、物体のそれぞれの所定時間先までの予測軌跡を推定する。運転計画部33は、追跡中の各物体の予測軌跡に基づいて、何れの物体についても所定時間先までの追跡中の物体のそれぞれと車両10間の距離の予測値が所定距離以上となるように、車両10の走行予定経路を生成する。その際、運転計画部33は、例えば、車両10に搭載されたGPS受信機(図示せず)から得た、車両10の現在位置情報と、メモリ22に記憶されている地図情報とを参照して、車両10が走行可能な車線の数を確認してもよい。そして運転計画部33は、車両10が走行可能な車線が複数存在する場合には、車両10が走行する車線を変更するように走行予定経路を生成してもよい。
なお、運転計画部33は、複数の走行予定経路を生成してもよい。この場合、運転計画部33は、複数の走行予定経路のうち、車両10の加速度の絶対値の総和が最小となる経路を選択してもよい。
運転計画部33は、生成した走行予定経路を車両制御部34へ通知する。
車両制御部34は、車両10が通知された走行予定経路に沿って走行するように車両10の各部を制御する。例えば、車両制御部34は、通知された走行予定経路、及び、車速センサ(図示せず)により測定された車両10の現在の車速に従って、車両10の加速度を求め、その加速度となるようにアクセル開度またはブレーキ量を設定する。そして車両制御部34は、設定されたアクセル開度に従って燃料噴射量を求め、その燃料噴射量に応じた制御信号を車両10のエンジンの燃料噴射装置へ出力する。あるいは、車両制御部34は、設定されたブレーキ量に応じた制御信号を車両10のブレーキへ出力する。
さらに、車両制御部34は、車両10が走行予定経路に沿って走行するために車両10の進路を変更する場合には、その走行予定経路に従って車両10の操舵角を求め、その操舵角に応じた制御信号を、車両10の操舵輪を制御するアクチュエータ(図示せず)へ出力する。
図7は、プロセッサ23により実行される、物体検出処理を含む車両制御処理の動作フローチャートである。プロセッサ23は、カメラ2から画像が受信する度に、図7に示される動作フローチャートに従って車両制御処理を実行する。なお、以下に示される動作フローチャートにおいて、ステップS101~S107の処理が物体検出処理に対応する。
プロセッサ23の第1の検出部31は、画像を識別器に入力して、画像上の様々な領域について、その領域に表された検出対象となる物体の種類ごとの確信度及び隠れ率を求める(ステップS101)。そして第1の検出部31は、何れかの物体の種類についての確信度が第1の確信度閾値以上となる領域を、その種類の物体が表された物体領域として検出し、物体領域の位置及び範囲、物体領域に表された物体の種類を検出物体リストに登録する(ステップS102)。
プロセッサ23の第2の検出部32は、物体領域の隠れ率が隠れ率閾値以上か否か判定する(ステップS103)。隠れ率が隠れ率閾値以上である場合(ステップS103-Yes)、第2の検出部32は、物体領域と少なくとも部分的に重複し、かつ、物体領域に含まれる隠れ領域を所定の割合以上を含む候補領域についてIoUを算出する(ステップS104)。そして第2の検出部32は、IoUが所定の閾値ThI以上か否か判定する(ステップS105)。IoUが閾値ThI以上である場合(ステップS105-Yes)、第2の検出部32は、候補領域について求められた物体の種類ごとの確信度のうちの最大値が第1の確信度閾値よりも低い第2の確信度閾値以上か否か判定する(ステップS106)。その確信度の最大値が第2の確信度閾値以上である場合(ステップS106-Yes)、第2の検出部32は、候補領域にその確信度の最大値に対応する種類の物体が表されていると判定する。そして第2の検出部32は、その候補領域を物体領域として、その物体領域の画像上の位置及び範囲、その物体領域に表された物体の種類を検出物体リストに追加登録する(ステップS107)。
ステップS107の後、プロセッサ23の運転計画部33は、検出物体リストを参照して、検出物体リストに登録されている物体を追跡し、その追跡結果に基づいて推定されるその物体の予測軌跡と所定の距離以上となるように、車両10の走行予定経路を生成する(ステップS108)。そしてプロセッサ23の車両制御部34は、走行予定経路に沿って車両10が走行するように車両10を制御する(ステップS109)。そしてプロセッサ23は、車両制御処理を終了する。
なお、プロセッサ23は、ステップS103にて隠れ率が隠れ率閾値未満である場合(ステップS103-No)、ステップS105にてIoUが閾値ThI未満である場合(ステップS105-No)、あるいは、ステップS106にて候補領域について求められた物体の種類ごとの確信度のうちの最大値が第2の確信度閾値未満である場合(ステップS106-No)も、ステップS107以降の処理を実行すればよい。
また、第1の検出部31が、画像上で複数の物体を検出した場合には、プロセッサ23は、検出された物体が表された物体領域ごとに、ステップS102~S107の処理を実行すればよい。
以上に説明してきたように、この物体検出装置は、画像上で検出された物体が表された物体領域において隠れ率が所定の隠れ率閾値以上となり、かつ、物体領域と候補領域についてのIoUが所定の閾値以上となる場合に、候補領域について、第1の確信度閾値よりも低い第2の確信度閾値を適用する。そしてこの物体検出装置は、候補領域について算出された何れかの物体の種類についての確信度が第2の確信度閾値以上である場合、候補領域にも検出対象となる物体が表されていると判定する。これにより、この物体検出装置は、候補領域にレア物体が写っている場合でも、そのレア物体の検出に失敗することを抑制できるので、検出精度を向上できる。さらに、この物体検出装置は、比較的演算量が多い識別器による処理を1回実行するだけで、候補領域についても検出対象となる物体が表されているか否かを判定できるので、演算量を抑制できる。
なお、車両10には、複数のカメラが設けられてもよい。この場合には、プロセッサ23は、カメラごとに、そのカメラから得られた画像に対して第1の検出部31及び第2の検出部32による物体検出処理を実行すればよい。そしてプロセッサ23は、各カメラにより得られた画像から検出された物体に基づいて、運転計画部33及び車両制御部34による処理を実行すればよい。
変形例によれば、第1の検出部31は、DNN以外の識別器を利用して、物体領域及び候補領域を検出するとともに、隠れ率と確信度とを算出してもよい。例えば、第1の検出部31は、識別器として、画像上に設定されるウィンドウから算出される特徴量(例えば、Histograms of Oriented Gradients, HOG)を入力として、そのウィンドウに検出対象となる物体が表される確信度を出力するように予め学習されたサポートベクトルマシン(SVM)を用いてもよい。第1の検出部31は、画像上に設定するウィンドウの位置、サイズ及びアスペクト比を様々に変更しながら、そのウィンドウから特徴量を算出し、算出した特徴量をSVMへ入力することで、そのウィンドウについて確信度を求める。そして第1の検出部31は、確信度が第1の確信度閾値以上である場合、そのウィンドウを物体領域とする。なお、SVMは、検出対象となる物体の種類ごとに用意されてもよい。この場合には、第1の検出部31は、各ウィンドウについて、そのウィンドウから算出された特徴量をそれぞれのSVMへ入力することで、物体の種類ごとに確信度を算出すればよい。そして第1の検出部31は、物体の種類ごとの確信度のうちの最大値を第1の確信度閾値と比較し、その最大値が第1の確信度閾値以上であれば、その最大値に対応する種類の物体がそのウィンドウに表されていると判定すればよい。
また第1の検出部31は、検出対象となる物体のテンプレートを複数の部分テンプレートに分割し、部分テンプレートごとに物体領域との間でテンプレートマッチングを実行して、正規化相互相関値といった、部分テンプレートと物体領域間の類似度を算出する。そして第1の検出部31は、物体領域から、何れかの部分テンプレートに対する類似度が所定の類似度閾値以上となる部分領域を除いた残余領域を、隠れ領域として求める。したがって、第1の検出部31は、物体領域の面積に対する残余領域(すなわち、隠れ領域)の面積の比を隠れ率として算出すればよい。なお、検出対象となる物体のテンプレートは、例えば、メモリ22に予め記憶される。
この変形例では、第2の検出部32は、隠れ率が隠れ率閾値以上となる物体領域と少なくとも部分的に重複するウィンドウをそれぞれ候補領域とする。あるいは、第2の検出部32は、隠れ率が隠れ率閾値以上となる物体領域と少なくとも部分的に重複し、かつ、残余領域の所定の割合以上を含むウィンドウを候補領域としてもよい。そして第2の検出部32は、上記の実施形態と同様に、候補領域ごとにIoUを算出し、算出したIoUが所定の閾値以上となる場合、候補領域について算出された確信度を第2の確信度閾値と比較してもよい。そして第2の検出部32は、候補領域について算出された確信度が第2の確信度閾値以上である場合、その候補領域に、検出対象となる物体が表されていると判定してもよい。
他の変形例によれば、第2の検出部32は、物体領域及び候補領域について、IoUを算出する代わりに、物体領域の面積に対する、物体領域と候補領域間の重複領域の面積の比を算出してもよい。そして第2の検出部32は、その比が所定の重複比率閾値以上となる場合に、候補領域に第2の確信度閾値を適用してもよい。この変形例によれば、物体領域に対して候補領域が相対的に小さい場合でも、候補領域に対して第2の確信度閾値が適用され易くなる。その結果として、第2の検出部32は、物体領域に表された物体に対して相対的に小さいレア物体についても検出精度を向上できる。
さらに他の変形例によれば、隠れ率閾値は、第1の検出部31により検出された物体領域に表された物体の種類に応じて設定されてもよい。例えば、路面上に位置する可能性の高い物体、例えば、車、人、バイク、自転車または道路標示などは、路面上に位置する他の物体により隠される可能性が相対的に高い。一方、路面よりもある程度以上高い位置に存在する物体、例えば、信号機または道路標識などは、路面上に位置する他の物体により隠される可能性が相対的に低い。そこで、路面上に位置する可能性の高い物体に対する隠れ率閾値は、路面よりもある程度以上高い位置に存在する物体に対する隠れ率閾値よりも低く設定されてもよい。この場合、物体の種類と関連付けてその物体の種類についての隠れ率閾値がメモリ22に予め記憶される。そして第1の検出部31は、物体領域に表された物体の種類に対応する隠れ率閾値をメモリ22から読み出して隠れ率との比較に使用すればよい。
また、車両10から遠いほど、車両10の走行に影響を及ぼす可能性が低い。一方、検出される物体の数が少ないほど、運転計画部33の演算量は軽減される。そこで、隠れ率閾値は、候補領域に表されている物体が車両10から遠いほどその物体が検出され難くなるように設定されてもよい。例えば、着目する物体領域に車といった路面上に位置する可能性が高い物体が表されており、かつ、着目する物体領域から所定距離以内に路面上に位置する可能性が高い物体が表された他の物体領域が存在する場合に、着目する物体領域が小さいほど、隠れ率閾値は高い値に設定されてもよい。これにより、車両10から遠い物体が表された物体領域周辺の候補領域については第2の確信度閾値が適用され難くなるので、車両10から遠いレア物体の検出が抑制され、その結果として、運転計画部33の演算量の増加が抑制される。
あるいはまた、着目する物体領域に表された物体の進行方向が、車両10が走行中の車線と略直交している場合、または着目する物体領域に表された物体が横向きである場合、隠れ率閾値は相対的に高く設定されてもよい。これにより、車両10の走行に影響を及ぼす可能性が低いレア物体の検出が抑制される。この場合には、第1の検出部31は、着目する物体領域に表された物体について、運転計画部33が実行するトラッキング処理と同様の処理を実行することで、その物体の進行方向を求めればよい。また第1の検出部31は、着目する物体領域の縦のサイズに対する横のサイズの比が所定の比率以上である場合に、着目する物体領域に表された物体が横向きであると判定してもよい。あるいは、識別器自体が、検出対象とする物体の種類の一つとして、横向きの物体を検出するように学習されてもよい。この場合には、着目する物体領域に表された物体の種類が横向きの物体である場合に、第1の検出部31は、着目する物体領域に表された物体が横向きであると判定すればよい。
さらに他の変形例によれば、第2の検出部32は、着目する物体領域の隠れ率が高いほど、その物体領域と少なくとも部分的に重複する候補領域に適用される第2の確信度閾値を低くしてもよい。隠れ率が高いほど、着目する物体領域に表された物体は他の物体に隠されている可能性が高い。そこで上記のように第2の確信度閾値を隠れ率に応じて調整することで、第2の検出部32は、着目する物体領域に表された物体を隠している他の物体をより高精度に検出できる。
あるいは、第2の確信度閾値は、着目する物体領域に車といった路面上に位置する可能性が高い物体が表されており、かつ、着目する物体領域から所定距離以内に路面上に位置する可能性が高い物体が表された物体領域が存在する場合に、着目する物体領域が小さいほど高い値に設定されてもよい。これにより、車両10から遠い物体が表された物体領域周辺の候補領域についてはレア物体の検出が抑制される。
あるいはまた、着目する物体領域に表された物体の進行方向が、車両10が走行中の車線と略直交している場合、または着目する物体領域に表された物体が横向きである場合、第2の確信度閾値は、着目する物体領域に表された物体の進行方向が、車両10が走行中の車線と略平行である場合よりも高く設定されてもよい。これにより、車両10の走行に影響を及ぼす可能性が低いレア物体の検出が抑制される。この場合には、第2の検出部32は、着目する物体領域に表された物体について、運転計画部33が実行するトラッキング処理と同様の処理を実行することで、その物体の進行方向を求めればよい。また第2の検出部32は、着目する物体領域の縦のサイズに対する横のサイズの比が所定の比率以上である場合に、着目する物体領域に表された物体が横向きであると判定してもよい。あるいは、識別器自体が、検出対象とする物体の種類の一つとして、横向きの物体を検出するように学習されてもよい。この場合には、着目する物体領域に表された物体の種類が横向きの物体である場合に、第2の検出部32は、着目する物体領域に表された物体が横向きであると判定すればよい。
あるいはまた、第2の検出部32は、物体領域に対する候補領域の相対的な位置関係に応じて第2の確信度閾値を設定してもよい。例えば、物体領域に表される物体の下側が他の物体により隠されている場合、他の物体は、路面上に位置する落下物といった、車両10の走行に影響を及ぼす物体である可能性が高い。そこで、候補領域が物体領域の下辺の少なくとも一部を含む場合の第2の確信度閾値は、候補領域が物体領域の左辺または右辺の少なくとも一部を含む場合の第2の確信度閾値よりも低く設定されてもよい。これにより、第2の検出部32は、車両10の走行に影響を及ぼす可能性が有るレア物体の検出精度を向上できる。一方、物体領域に表される物体の上側が他の物体により隠されている場合、他の物体は、木の枝または看板といった、車両10の走行に影響を及ぼさない物体である可能性が高い。そこで、候補領域が物体領域の上辺の少なくとも一部を含む場合の第2の確信度閾値は、候補領域が物体領域の左辺または右辺の少なくとも一部を含む場合の第2の確信度閾値よりも高く設定されてもよい。これにより、第2の検出部32は、車両10の走行に影響を及ぼす可能性が低いレア物体が検出されることを抑制できる。なお、候補領域が物体領域の複数の辺を含む場合には、第2の確信度閾値は、例えば、候補領域に含まれる物体領域のそれぞれの辺に対応する第2の確信度閾値の値のうちの最小値に設定されればよい。
あるいはまた、第2の確信度閾値は、第1の検出部31により検出された物体領域に表された物体の種類、または、その物体の種類とその物体の挙動に応じて設定されてもよい。例えば、路面上に車が駐車している場合、車両10から見てその駐車車両の前方を人などの物体が横切ることがある。このような場合、駐車車両の前方を横切る物体は車両10の走行に影響を及ぼすことがあるので検出されることが好ましい。そこで、第2の検出部32は、着目する物体領域に表された物体が特定の種類の物体(例えば、車)である場合における第2の確信度閾値を、着目する物体領域に表された物体が他の種類の物体である場合における第2の確信度閾値よりも低くしてもよい。あるいは、第2の検出部32は、着目する物体領域に表された物体が特定の種類の物体であり、かつ、その物体領域に表された物体の挙動が所定の条件を満たす場合における第2の確信度閾値を、それ以外の場合における第2の確信度閾値よりも低くしてもよい。所定の条件は、例えば、着目する物体領域に表された物体が静止していることである。この場合、第2の検出部32は、着目する物体領域に表された物体についてトラッキング処理を実行することで、その物体が静止しているか否かを判定すればよい。
さらに他の変形例によれば、上記の実施形態または変形例による物体検出装置は、車載機器以外に実装されてもよい。例えば、上記の実施形態または変形例による物体検出装置は、屋外または屋内の所定の領域を所定周期ごとに撮影するように設置された監視カメラにより生成された画像から物体を検出するように構成されてもよい。そして物体検出装置は、一定期間にわたって物体が検出された場合、物体検出装置と接続されるディスプレイに物体が検出されたことを表すメッセージを表示させるか、物体検出装置と接続されるスピーカに物体が検出されたことを表す音声を出力させてもよい。
また、上記の実施形態または変形例による、物体検出装置のプロセッサ23の各部の機能を実現するコンピュータプログラムは、半導体メモリ、磁気記録媒体または光記録媒体といった、コンピュータ読取可能な可搬性の記録媒体に記録された形で提供されてもよい。
以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。
1 車両制御システム
2 カメラ
3 電子制御装置(物体検出装置)
4 車内ネットワーク
21 通信インターフェース
22 メモリ
23 プロセッサ
31 第1の検出部
32 第2の検出部
33 運転計画部
34 車両制御部

Claims (11)

  1. 入力された画像上の複数の領域のそれぞれについて、検出対象となる物体が表されている確からしさを表す確信度を求め、前記複数の領域のうち、前記確信度が第1の確信度閾値以上となる第1の領域に前記物体が表されていると判定し、かつ、前記第1の領域に対する、前記第1の領域において前記物体が他の物体により隠されている隠れ領域の比率を表す隠れ率を求める第1の検出部と、
    前記隠れ率が隠れ率閾値以上となる場合、前記複数の領域のうち、前記第1の領域と少なくとも部分的に重なる第2の領域についての前記確信度が前記第1の確信度閾値よりも低い第2の確信度閾値以上となる場合に、前記第2の領域に前記物体が表されていると判定する第2の検出部と、
    を有する物体検出装置。
  2. 前記第1の検出部は、前記画像から前記物体を検出するとともに前記隠れ領域を検出するように予め学習された識別器に前記画像を入力することで前記隠れ率を算出する、請求項1に記載の物体検出装置。
  3. 前記識別器は、前記画像が入力される第1のコンボリューションニューラルネットワークと、前記第1のコンボリューションニューラルネットワークからの出力に基づいて前記複数の領域のそれぞれについて前記確信度を求める第2のコンボリューションニューラルネットワークと、前記第1のコンボリューションニューラルネットワークからの出力に基づいて前記隠れ領域を検出する第3のコンボリューションニューラルネットワークとを含む、請求項2に記載の物体検出装置。
  4. 前記第2の検出部は、前記第1の領域と前記第2の領域との和集合に対する前記第1の領域と前記第2の領域間の重複領域の比が所定の閾値以上となり、かつ、前記第2の領域についての前記確信度が前記第2の確信度閾値以上となる場合に、前記第2の領域に前記物体が表されていると判定する、請求項1~3の何れか一項に記載の物体検出装置。
  5. 前記第2の検出部は、前記第1の領域に対する前記第1の領域と前記第2の領域間の重複領域の比が所定の閾値以上となり、かつ、前記第2の領域についての前記確信度が前記第2の確信度閾値以上となる場合に、前記第2の領域に前記物体が表されていると判定する、請求項1~3の何れか一項に記載の物体検出装置。
  6. 前記第2の検出部は、前記複数の領域のうち、前記第1の領域と少なくとも部分的に重なり、かつ、前記隠れ領域の少なくとも一部を含む領域を前記第2の領域とする、請求項1~5の何れか一項に記載の物体検出装置。
  7. 前記第1の検出部は、前記第1の領域に表される前記物体の種類を推定し、当該種類に応じて前記隠れ率閾値を設定する、請求項1~6の何れか一項に記載の物体検出装置。
  8. 前記第2の検出部は、前記隠れ率が高いほど、前記第2の確信度閾値を低くする、請求項1~7の何れか一項に記載の物体検出装置。
  9. 前記第2の検出部は、前記第1の領域に対する前記第2の領域の相対的な位置関係に応じて前記第2の確信度閾値を設定する、請求項1~7の何れか一項に記載の物体検出装置。
  10. 入力された画像上の複数の領域のそれぞれについて、検出対象となる物体が表されている確からしさを表す確信度を求め、
    前記複数の領域のうち、前記確信度が第1の確信度閾値以上となる第1の領域に前記物体が表されていると判定し、かつ、前記第1の領域に対する、前記第1の領域において前記物体が他の物体により隠されている隠れ領域の比率を表す隠れ率を求め、
    前記隠れ率が隠れ率閾値以上となる場合、前記複数の領域のうち、前記第1の領域と少なくとも部分的に重なる第2の領域についての前記確信度が前記第1の確信度閾値よりも低い第2の確信度閾値以上となる場合に、前記第2の領域に前記物体が表されていると判定する、
    ことを含む物体検出方法。
  11. 入力された画像上の複数の領域のそれぞれについて、検出対象となる物体が表されている確からしさを表す確信度を求め、
    前記複数の領域のうち、前記確信度が第1の確信度閾値以上となる第1の領域に前記物体が表されていると判定し、かつ、前記第1の領域に対する、前記第1の領域において前記物体が他の物体により隠されている隠れ領域の比率を表す隠れ率を求め、
    前記隠れ率が隠れ率閾値以上となる場合、前記複数の領域のうち、前記第1の領域と少なくとも部分的に重なる第2の領域についての前記確信度が前記第1の確信度閾値よりも低い第2の確信度閾値以上となる場合に、前記第2の領域に前記物体が表されていると判定する、
    ことをコンピュータに実行させる物体検出用コンピュータプログラム。
JP2018181002A 2018-09-26 2018-09-26 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム Active JP7052663B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018181002A JP7052663B2 (ja) 2018-09-26 2018-09-26 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
US16/545,373 US11093801B2 (en) 2018-09-26 2019-08-20 Object detection device and object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018181002A JP7052663B2 (ja) 2018-09-26 2018-09-26 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2020052694A JP2020052694A (ja) 2020-04-02
JP7052663B2 true JP7052663B2 (ja) 2022-04-12

Family

ID=69883175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018181002A Active JP7052663B2 (ja) 2018-09-26 2018-09-26 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム

Country Status (2)

Country Link
US (1) US11093801B2 (ja)
JP (1) JP7052663B2 (ja)

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11019161B2 (en) 2005-10-26 2021-05-25 Cortica, Ltd. System and method for profiling users interest based on multimedia content analysis
US20140156901A1 (en) 2005-10-26 2014-06-05 Cortica Ltd. Computing device, a system and a method for parallel processing of data streams
US8326775B2 (en) 2005-10-26 2012-12-04 Cortica Ltd. Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof
US11604847B2 (en) 2005-10-26 2023-03-14 Cortica Ltd. System and method for overlaying content on a multimedia content element based on user interest
US20160085733A1 (en) 2005-10-26 2016-03-24 Cortica, Ltd. System and method thereof for dynamically associating a link to an information resource with a multimedia content displayed in a web-page
US9646005B2 (en) 2005-10-26 2017-05-09 Cortica, Ltd. System and method for creating a database of multimedia content elements assigned to users
US11620327B2 (en) 2005-10-26 2023-04-04 Cortica Ltd System and method for determining a contextual insight and generating an interface with recommendations based thereon
US10848590B2 (en) 2005-10-26 2020-11-24 Cortica Ltd System and method for determining a contextual insight and providing recommendations based thereon
US11361014B2 (en) 2005-10-26 2022-06-14 Cortica Ltd. System and method for completing a user profile
US10742340B2 (en) 2005-10-26 2020-08-11 Cortica Ltd. System and method for identifying the context of multimedia content elements displayed in a web-page and providing contextual filters respective thereto
US10949773B2 (en) 2005-10-26 2021-03-16 Cortica, Ltd. System and methods thereof for recommending tags for multimedia content elements based on context
US11386139B2 (en) 2005-10-26 2022-07-12 Cortica Ltd. System and method for generating analytics for entities depicted in multimedia content
US11032017B2 (en) 2005-10-26 2021-06-08 Cortica, Ltd. System and method for identifying the context of multimedia content elements
US11216498B2 (en) 2005-10-26 2022-01-04 Cortica, Ltd. System and method for generating signatures to three-dimensional multimedia data elements
US20160321253A1 (en) 2005-10-26 2016-11-03 Cortica, Ltd. System and method for providing recommendations based on user profiles
US11403336B2 (en) 2005-10-26 2022-08-02 Cortica Ltd. System and method for removing contextually identical multimedia content elements
US11537636B2 (en) 2007-08-21 2022-12-27 Cortica, Ltd. System and method for using multimedia content as search queries
US11195043B2 (en) 2015-12-15 2021-12-07 Cortica, Ltd. System and method for determining common patterns in multimedia content elements based on key points
WO2017105641A1 (en) 2015-12-15 2017-06-22 Cortica, Ltd. Identification of key points in multimedia data elements
WO2019008581A1 (en) 2017-07-05 2019-01-10 Cortica Ltd. DETERMINATION OF DRIVING POLICIES
WO2019012527A1 (en) 2017-07-09 2019-01-17 Cortica Ltd. ORGANIZATION OF DEPTH LEARNING NETWORKS
US10846544B2 (en) 2018-07-16 2020-11-24 Cartica Ai Ltd. Transportation prediction system and method
US11613261B2 (en) 2018-09-05 2023-03-28 Autobrains Technologies Ltd Generating a database and alerting about improperly driven vehicles
US10839694B2 (en) 2018-10-18 2020-11-17 Cartica Ai Ltd Blind spot alert
US20200133308A1 (en) 2018-10-18 2020-04-30 Cartica Ai Ltd Vehicle to vehicle (v2v) communication less truck platooning
US11392738B2 (en) 2018-10-26 2022-07-19 Autobrains Technologies Ltd Generating a simulation scenario
US11904863B2 (en) 2018-10-26 2024-02-20 AutoBrains Technologies Ltd. Passing a curve
US10748038B1 (en) 2019-03-31 2020-08-18 Cortica Ltd. Efficient calculation of a robust signature of a media unit
US11270132B2 (en) 2018-10-26 2022-03-08 Cartica Ai Ltd Vehicle to vehicle communication and signatures
US10789535B2 (en) 2018-11-26 2020-09-29 Cartica Ai Ltd Detection of road elements
US10963757B2 (en) * 2018-12-14 2021-03-30 Industrial Technology Research Institute Neural network model fusion method and electronic device using the same
US10818028B2 (en) * 2018-12-17 2020-10-27 Microsoft Technology Licensing, Llc Detecting objects in crowds using geometric context
US11170647B2 (en) 2019-02-07 2021-11-09 Cartica Ai Ltd. Detection of vacant parking spaces
US11643005B2 (en) 2019-02-27 2023-05-09 Autobrains Technologies Ltd Adjusting adjustable headlights of a vehicle
US11285963B2 (en) 2019-03-10 2022-03-29 Cartica Ai Ltd. Driver-based prediction of dangerous events
US11694088B2 (en) 2019-03-13 2023-07-04 Cortica Ltd. Method for object detection using knowledge distillation
US11132548B2 (en) 2019-03-20 2021-09-28 Cortica Ltd. Determining object information that does not explicitly appear in a media unit signature
US12055408B2 (en) 2019-03-28 2024-08-06 Autobrains Technologies Ltd Estimating a movement of a hybrid-behavior vehicle
US11908242B2 (en) 2019-03-31 2024-02-20 Cortica Ltd. Efficient calculation of a robust signature of a media unit
US11222069B2 (en) 2019-03-31 2022-01-11 Cortica Ltd. Low-power calculation of a signature of a media unit
US10776669B1 (en) 2019-03-31 2020-09-15 Cortica Ltd. Signature generation and object detection that refer to rare scenes
CN110070056B (zh) * 2019-04-25 2023-01-10 腾讯科技(深圳)有限公司 图像处理方法、装置、存储介质及设备
US11704292B2 (en) 2019-09-26 2023-07-18 Cortica Ltd. System and method for enriching a concept database
US11593662B2 (en) 2019-12-12 2023-02-28 Autobrains Technologies Ltd Unsupervised cluster generation
US11590988B2 (en) 2020-03-19 2023-02-28 Autobrains Technologies Ltd Predictive turning assistant
US11827215B2 (en) 2020-03-31 2023-11-28 AutoBrains Technologies Ltd. Method for training a driving related object detector
JP7359735B2 (ja) 2020-04-06 2023-10-11 トヨタ自動車株式会社 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置
JP7388971B2 (ja) 2020-04-06 2023-11-29 トヨタ自動車株式会社 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム
CN111881827B (zh) * 2020-07-28 2022-04-26 浙江商汤科技开发有限公司 目标检测方法及装置、电子设备和存储介质
JP2022044155A (ja) * 2020-09-07 2022-03-17 株式会社Subaru 画像処理装置
KR20220083002A (ko) * 2020-12-10 2022-06-20 현대자동차주식회사 차량
CN112541896B (zh) * 2020-12-14 2023-04-07 湖南镭目科技有限公司 一种炉口堆渣情况辨识方法及系统
TWI807598B (zh) * 2021-02-04 2023-07-01 仁寶電腦工業股份有限公司 會議影像的產生方法及影像會議系統
CN113141464B (zh) * 2021-04-20 2023-04-18 北京安博盛赢教育科技有限责任公司 摄像头的控制方法、装置、介质和电子设备
CN113420682B (zh) * 2021-06-28 2023-08-15 阿波罗智联(北京)科技有限公司 车路协同中目标检测方法、装置和路侧设备
EP4156098A1 (en) * 2021-09-22 2023-03-29 Axis AB A segmentation method
US20230145016A1 (en) * 2021-11-10 2023-05-11 Sensormatic Electronics, LLC Methods and apparatuses for occlusion detection
AU2021290434A1 (en) * 2021-12-20 2022-02-10 Sensetime International Pte. Ltd. Method and apparatus for detecting game prop in game region, device, and storage medium
JP7528915B2 (ja) 2021-12-21 2024-08-06 トヨタ自動車株式会社 追跡装置、追跡方法及び追跡用コンピュータプログラム
CN116071724B (zh) * 2023-03-03 2023-08-04 安徽蔚来智驾科技有限公司 车载相机遮挡场景识别方法、电子设备、存储介质及车辆

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011186633A (ja) 2010-03-05 2011-09-22 Secom Co Ltd 物体検出装置
JP2013061802A (ja) 2011-09-13 2013-04-04 Canon Inc 画像認識装置、画像認識方法及びプログラム
JP2013250734A (ja) 2012-05-31 2013-12-12 Denso Corp 人検出装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112019000049T5 (de) * 2018-02-18 2020-01-23 Nvidia Corporation Für autonomes fahren geeignete objekterfassung und erfassungssicherheit
US10642275B2 (en) * 2018-06-18 2020-05-05 Zoox, Inc. Occulsion aware planning and control

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011186633A (ja) 2010-03-05 2011-09-22 Secom Co Ltd 物体検出装置
JP2013061802A (ja) 2011-09-13 2013-04-04 Canon Inc 画像認識装置、画像認識方法及びプログラム
JP2013250734A (ja) 2012-05-31 2013-12-12 Denso Corp 人検出装置

Also Published As

Publication number Publication date
US11093801B2 (en) 2021-08-17
US20200097756A1 (en) 2020-03-26
JP2020052694A (ja) 2020-04-02

Similar Documents

Publication Publication Date Title
JP7052663B2 (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
JP7147420B2 (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
Zhou et al. Automated evaluation of semantic segmentation robustness for autonomous driving
JP7078021B2 (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
JP7388971B2 (ja) 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム
JP7135665B2 (ja) 車両制御システム、車両の制御方法及びコンピュータプログラム
US20180164812A1 (en) Apparatus and method for generating training data to train neural network determining information associated with road included in image
US11829153B2 (en) Apparatus, method, and computer program for identifying state of object, and controller
US11776277B2 (en) Apparatus, method, and computer program for identifying state of object, and controller
US20200133283A1 (en) Proceedable direction detection apparatus and proceedable direction detection method
JP7226368B2 (ja) 物体状態識別装置
JP2021163432A (ja) 信号灯状態識別装置、信号灯状態識別方法及び信号灯状態識別用コンピュータプログラムならびに制御装置
JP2021026683A (ja) 距離推定装置
US11120292B2 (en) Distance estimation device, distance estimation method, and distance estimation computer program
Chen et al. Integrated vehicle and lane detection with distance estimation
JP7348874B2 (ja) 傾斜角検出装置及び制御装置
JP7528915B2 (ja) 追跡装置、追跡方法及び追跡用コンピュータプログラム
JP2022079954A (ja) 物体検出装置
JP2022146384A (ja) 物体検出装置
JP2024024422A (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
JP2021081985A (ja) 物体検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220314

R151 Written notification of patent or utility model registration

Ref document number: 7052663

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151