JP2020067818A - 画像選択装置及び画像選択方法 - Google Patents

画像選択装置及び画像選択方法 Download PDF

Info

Publication number
JP2020067818A
JP2020067818A JP2018200056A JP2018200056A JP2020067818A JP 2020067818 A JP2020067818 A JP 2020067818A JP 2018200056 A JP2018200056 A JP 2018200056A JP 2018200056 A JP2018200056 A JP 2018200056A JP 2020067818 A JP2020067818 A JP 2020067818A
Authority
JP
Japan
Prior art keywords
image
images
detected
series
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018200056A
Other languages
English (en)
Other versions
JP7147464B2 (ja
Inventor
聡 武安
Satoshi Takeyasu
聡 武安
大輔 橋本
Daisuke Hashimoto
大輔 橋本
公太 平野
Kota Hirano
公太 平野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018200056A priority Critical patent/JP7147464B2/ja
Priority to US16/658,816 priority patent/US11257239B2/en
Publication of JP2020067818A publication Critical patent/JP2020067818A/ja
Application granted granted Critical
Publication of JP7147464B2 publication Critical patent/JP7147464B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】識別器の学習用の教師データとして利用するのに適した画像を適切に選択できる画像選択装置を提供する。【解決手段】画像選択装置は、車両10に搭載された撮像部2から得られる一連の画像のそれぞれについて、物体を検出するように予め学習された識別器にその画像を入力することで、その画像上に表された物体を含む領域を検出する検出部31と、一連の画像にわたって検出された物体を追跡する追跡部32と、検出された物体を追跡できた期間が所定期間以上であり、かつ、一連の画像のうちの追跡できた期間中の何れかの画像における、検出された物体を含む領域のサイズが所定のサイズ閾値以上である場合、一連の画像のうち、追跡できた期間の直前の画像または追跡できた期間中において追跡された物体が表されていない画像を選択する選択部33とを有する。【選択図】図3

Description

本発明は、車両に搭載された撮像部により得られた画像を選択する画像選択装置及び画像選択方法に関する。
従来より、画像に表された物体を検出する技術が研究されている。近年では、物体を検出するために、いわゆるディープニューラルネットワーク(以下、単にDNNと呼ぶ)を識別器として用いることで、検出精度を向上する技術が提案されている(例えば、非特許文献1及び2を参照)。
このような技術では、既知の物体が表された多数の画像を教師データとして用いて識別器を学習することで、識別器が入力された画像上に表されたその既知の物体を高精度に検出できるようになる。しかし、特殊なシチュエーションが表された画像のように、教師データに含めることが難しいような画像に対しては、識別器による検出精度は低下する。一方、マルチタスクのDNNにおいて、各タスク間の等分散的な不確かさを考慮して複数の損失関数を重み付けすることで、検出精度を向上する技術が提案されている(例えば、非特許文献3を参照)。
Wei Liu他、「SSD: Single Shot MultiBox Detector」、ECCV2016、2016年 Shaoqing Ren他、「Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks」、NIPS、2015年 Alex Kendall他、「Multi-Task Learning Using Uncertainty to Weigh Losses for Scene Geometry and Semantics」、CVPR2018、2018年
しかしながら、非特許文献3に記載された技術では、演算量が多く、物体の検出に利用可能な演算リソースが限られている場合、あるいは、リアルタイム性が要求される場合には、その技術を適用することが困難となることがある。また、教師データとして利用可能な画像データを得るために、車両の走行中において車載のカメラにより得られた全ての画像を記録しようとすると、非常に大容量のメモリを車両に搭載するか、無線通信端末を介してサーバなどの車外の機器へ画像を送信し続けることが求められるので好ましくない。そのため、識別器の学習用の教師データとして利用するのに適した画像を適切に選択することが求められている。
そこで、本発明は、識別器の学習用の教師データとして利用するのに適した画像を適切に選択できる画像選択装置を提供することを目的とする。
一つの実施形態によれば、画像選択装置が提供される。この画像選択装置は、車両に搭載された撮像部から得られる一連の画像のそれぞれについて、物体を検出するように予め学習された識別器にその画像を入力することで、その画像上に表された物体及びその画像上でその物体が含まれる領域を検出する検出部と、一連の画像にわたって検出された物体を追跡する追跡部と、検出された物体を追跡された追跡期間が所定期間以上であり、かつ、一連の画像のうちの追跡期間中の何れかの画像における、検出された物体が含まれる領域のサイズが所定のサイズ閾値以上である場合、一連の画像のうち、追跡期間の直前の画像または追跡期間中において追跡された物体が検出されていない画像を選択する選択部とを有する。
この画像選択装置において、選択部は、追跡期間の最初の画像において検出された物体が含まれる領域のサイズが所定のサイズ閾値以上である場合、追跡期間の直前の画像を選択することが好ましい。
またこの画像選択装置において、識別器は、一連の画像のそれぞれについて、入力された画像上で物体が写っている確からしさを表す確信度をさらに出力し、選択部は、追跡期間の直前の画像または追跡期間中においてその追跡された物体が検出されていない画像においてその追跡された物体についての確信度が所定の確信度閾値以上である場合に限り、その画像を選択することが好ましい。
さらに、この画像選択装置において、識別器は、一連の画像のそれぞれについて、検出された物体の種類をさらに出力し、選択部は、所定のサイズ閾値を検出された物体の種類に応じて設定することが好ましい。
さらにまた、この画像選択装置において、識別器は、一連の画像のそれぞれについて、検出された物体の種類をさらに出力し、選択部は、選択した画像とともに、追跡期間において追跡された物体の種類を記憶することが好ましい。
さらにまた、この画像選択装置において、選択部は、追跡期間中において追跡された物体が検出されていない画像において他の物体が検出されていないか、または追跡された物体が検出されていない画像の前後の画像において検出された他の物体が追跡された物体の所定範囲内に位置していない場合に限り、追跡された物体が検出されていない画像を選択することが好ましい。
本発明の他の形態によれば、画像選択方法が提供される。この画像選択方法は、車両に搭載された撮像部から得られる一連の画像のそれぞれについて、物体を検出するように予め学習された識別器にその画像を入力することで、その画像上に表された物体及びその画像上でその物体が含まれる領域を検出し、一連の画像にわたって検出された物体を追跡し、検出された物体を追跡できた追跡期間が所定期間以上であり、かつ、一連の画像のうちの追跡期間中の何れかの画像における、検出された物体が含まれる領域のサイズが所定のサイズ閾値以上である場合、一連の画像のうち、追跡期間の直前の画像または追跡期間中において追跡された物体が検出されていない画像を選択する、ことを含む。
本発明のさらに他の形態によれば、画像選択装置が提供される。この画像選択装置は、車両に搭載された撮像部から得られる一連の画像のそれぞれについて、物体を検出するように予め学習された識別器にその画像を入力することで、その画像上に表された物体を検出する検出部と、一連の画像にわたって前記検出された物体を追跡する追跡部と、検出された物体を追跡された期間が所定期間未満である場合、一連の画像のうちの追跡された期間内の何れかの画像を選択する選択部とを有する。
本発明に係る画像選択装置は、識別器の学習用の教師データとして利用するのに適した画像を適切に選択できるという効果を奏する。
画像選択装置が実装される車両制御システムの概略構成図である。 画像選択装置の一つの実施形態である電子制御装置のハードウェア構成図である。 画像選択処理を含む車両制御処理に関する、電子制御装置のプロセッサの機能ブロック図である。 画像選択処理の概要の説明図である。 画像選択処理を含む、車両制御処理の動作フローチャートである。 変形例による、画像選択処理の概要の説明図である。
以下、図を参照しつつ、画像選択装置について説明する。この画像選択装置は、車両に搭載されたカメラにより得られた、車両の周囲が表された時系列の一連の画像のそれぞれを、物体検出用に予め学習された識別器に入力することで、それらの画像に表された物体を検出する。そしてこの画像選択装置は、検出された物体を追跡して、追跡できた期間が所定期間以上となり、かつ、一連の画像のうちの追跡できた期間中の何れかの画像における、検出された物体が含まれる領域のサイズが所定のサイズ閾値以上である場合、一連の画像のうち、追跡できた期間の直前の画像または追跡できた期間中においてその追跡された物体が表されていない画像を選択する。これにより、この画像選択装置は、何らかの理由で物体の検出に失敗した可能性が高い画像を選択できる。そして識別器が物体の検出に失敗した画像は、識別器の学習用の教師データとして適している。そのため、この画像選択装置は、識別器の学習用の教師データに適した画像を選択できる。
以下では、画像選択装置を、車両制御システムに適用した例について説明する。この例では、画像選択装置は、車両に搭載されたカメラにより得られた画像に対して画像選択処理を実行することで、画像を選択し、選択した画像を車載の無線通信端末を介して車外のサーバへ送信する。さらに、この画像選択装置は、画像からの物体の検出結果を、車両の運転制御に利用する。
図1は、画像選択装置が実装される車両制御システムの概略構成図である。また図2は、画像選択装置の一つの実施形態である電子制御装置のハードウェア構成図である。本実施形態では、車両10に搭載され、かつ、車両10を制御する車両制御システム1は、車両10の周囲を撮影するためのカメラ2と、無線通信端末3と、画像選択装置の一例である電子制御装置(ECU)4とを有する。カメラ2及び無線通信端末3とECU4とは、コントローラエリアネットワークといった規格に準拠した車内ネットワーク5を介して通信可能に接続される。
カメラ2は、撮像部の一例であり、CCDあるいはC-MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に撮影対象となる領域の像を結像する結像光学系を有する。そしてカメラ2は、車両10の前方を向くように、例えば、車両10の車室内に取り付けられる。そしてカメラ2は、所定の撮影周期(例えば1/30秒〜1/10秒)ごとに車両10の前方領域を撮影し、その前方領域が写った画像を生成する。カメラ2により得られた画像は、カラー画像であってもよく、あるいは、グレー画像であってもよい。
カメラ2は、画像を生成する度に、その生成した画像を車内ネットワーク5を介してECU4へ出力する。
無線通信端末3は、通信部の一例であり、所定の無線通信規格に準拠した無線通信処理を実行する機器であり、例えば、サーバ11と接続される通信ネットワーク12とゲートウェイ(図示せず)などを介して接続される無線基地局13にアクセスすることで、無線基地局13及び通信ネットワーク12を介してサーバ11と接続される。そして無線通信端末3は、ECU4から受け取った画像などを無線信号に含めて、その無線信号を無線基地局13へ送信することで、その画像などをサーバ11へ送信する。
ECU4は、車両10を制御する。本実施形態では、ECU4は、カメラ2により得られた時系列の一連の画像から検出された物体に基づいて車両10を自動運転するよう、車両10を制御する。そのために、ECU4は、通信インターフェース21と、メモリ22と、プロセッサ23とを有する。
通信インターフェース21は、車内通信部の一例であり、ECU4を車内ネットワーク5に接続するためのインターフェース回路を有する。すなわち、通信インターフェース21は、車内ネットワーク5を介して、カメラ2と接続される。そして通信インターフェース21は、カメラ2から画像を受信する度に、受信した画像をプロセッサ23へわたす。
メモリ22は、記憶部の一例であり、例えば、揮発性の半導体メモリ及び不揮発性の半導体メモリを有する。そしてメモリ22は、ECU4のプロセッサ23により実行される画像選択処理において使用される各種のデータ、例えば、カメラ2から受信した画像、画像選択処理で利用される識別器を特定するための各種パラメータ、及び、画像選択処理で利用される各種閾値などを記憶する。さらに、メモリ22は、地図情報などを記憶してもよい。
プロセッサ23は、制御部の一例であり、1個または複数個のCPU(Central Processing Unit)及びその周辺回路を有する。プロセッサ23は、論理演算ユニット、数値演算ユニットあるいはグラフィック処理ユニットといった他の演算回路をさらに有していてもよい。そしてプロセッサ23は、車両10が走行している間、カメラ2から画像を受信する度に、受信した画像に対して画像選択処理を実行する。さらに、プロセッサ23は、受信した画像から検出された車両10の周囲の物体に基づいて、車両10を自動運転するよう、車両10を制御する。
図3は、画像選択処理を含む車両制御処理に関する、ECU4のプロセッサ23の機能ブロック図である。プロセッサ23は、物体検出部31と、追跡部32と、選択部33と、運転計画部34と、車両制御部35とを有する。プロセッサ23が有するこれらの各部は、例えば、プロセッサ23上で動作するコンピュータプログラムにより実現される機能モジュールである。あるいは、プロセッサ23が有するこれらの各部は、プロセッサ23に設けられる、専用の演算回路であってもよい。また、プロセッサ23が有するこれらの各部のうち、物体検出部31、追跡部32及び選択部33が、画像選択処理を実行する。
物体検出部31は、カメラ2により生成された、時系列の一連の画像のそれぞれにおいて、その画像に写っている物体を検出して、その物体が含まれる領域を特定する。
例えば、物体検出部31は、カメラ2から画像を取得する度に、その画像をメモリ22に記憶するとともに、その画像を識別器に入力することで、入力された画像に表された物体を検出する。物体検出部31は、そのような識別器として、例えば、入力された画像から、その画像に表された物体を検出するように予め学習されたディープニューラルネットワーク(DNN)を用いることができる。物体検出部31は、そのようなDNNとして、例えば、非特許文献1に記載されたSingle Shot MultiBox Detector(SSD)、または、非特許文献2に記載されたFaster R-CNNといった、コンボリューションニューラルネットワーク型のアーキテクチャを持つDNNを用いることができる。この場合、物体検出部31が画像をDNNタイプの識別器に入力することで、その識別器は、入力された画像上の様々な領域において、検出対象となる物体の種類(例えば、車、人、道路標識)ごとに、その物体がその領域に表されている確からしさを表す確信度を算出し、何れかの種類の物体についての確信度が所定の検出閾値以上となる領域に、その種類の物体が表されていると判定する。そして識別器は、入力された画像上で検出対象となる物体が含まれる領域(例えば、検出対象となる物体の外接矩形、以下、物体領域と呼ぶ)を表す情報、及び、物体領域に表された物体の種類を表す情報を出力する。
あるいは、物体検出部31は、DNN以外の識別器を用いてもよい。例えば、物体検出部31は、識別器として、画像上に設定されるウィンドウから算出される特徴量(例えば、Histograms of Oriented Gradients, HOG)を入力として、そのウィンドウに検出対象となる物体が表される確信度を出力するように予め学習されたサポートベクトルマシン(SVM)を用いてもよい。物体検出部31は、画像上に設定するウィンドウの位置、サイズ及びアスペクト比を様々に変更しながら、そのウィンドウから特徴量を算出し、算出した特徴量をSVMへ入力することで、そのウィンドウについて確信度を求める。そして物体検出部31は、確信度が所定の検出閾値以上である場合、そのウィンドウを、検出対象となる物体が表された物体領域とする。
物体検出部31は、画像から検出された物体領域の位置及び範囲と、検出された物体の種類とを、追跡部32及び運転計画部34へ出力する。
追跡部32は、一連の画像から検出された物体を、所定のトラッキング手法に従って追跡する。
例えば、追跡部32は、各画像に対してカメラ2についての車両10への取り付け位置などの情報を用いて視点変換処理を実行することで、その画像を鳥瞰画像に変換する。その際、追跡部32は、画像上での検出された物体領域のサイズに基づいて車両10からその物体までの距離を推定し、推定した距離に基づいて鳥瞰画像上での検出された物体上の各点の位置を特定してもよい。例えば、検出対象となる物体の種類ごとに、メモリ22に、車両10からその物体までの距離が所定の基準距離である場合の画像上のその物体の基準サイズが予め記憶される。そして追跡部32は、画像上での検出された物体領域のサイズに対する、その検出された物体に対応する基準サイズの比を、基準距離に乗じて得られる距離を、検出された物体までの推定距離とすることができる。そして追跡部32は、一連の鳥瞰画像に対してKalman FilterまたはParticle Filterなどを用いたトラッキング処理を実行することで、各鳥瞰画像間で、検出された物体のうちの同じものを対応付けることで、一連の画像から検出された物体を追跡する。
あるいは、追跡部32は、オプティカルフローに基づくトラッキング処理に従って、最新の画像から検出された物体を過去の画像から検出された物体と対応付けることで、一連の画像から検出された物体を追跡してもよい。
追跡部32は、一連の画像間で同一物体として対応付けられた物体が表された各画像の物体領域に、他の物体が表された物体領域とは異なるラベルを付すことで、追跡中の物体ごとに、その物体が表された物体領域を識別する。そして追跡部32は、追跡中の物体のそれぞれについて、その物体に対応するラベル及びそのラベルが付された各画像の物体領域を選択部33に通知する。さらに追跡部32は、追跡中の各物体の各鳥瞰画像上の位置といった追跡結果を運転計画部34へ出力する。
選択部33は、一連の画像の中から、追跡中の物体のそれぞれについて、その物体が表されているにもかかわらず、その物体の検出に失敗した可能性がある画像を選択する。
本実施形態では、選択部33は、追跡中の物体のうち、所定期間(例えば、1秒間〜30秒間)以上にわたって追跡できた物体、すなわち、その所定期間以上にわたって連続して得られた画像のそれぞれにおいて検出された物体を選択する。そして選択部33は、選択した物体に関して、その追跡中の期間に得られた何れかの画像において、その物体が表された物体領域のサイズが所定のサイズ閾値以上である場合、その物体が最初に検出された画像の直前の画像を選択する。なお、物体領域のサイズは、例えば、物体領域の面積、物体領域の幅または高さ、あるいは、物体領域の対角線の長さとすることができる。
検出された物体が画像上である程度のサイズを持っているのであれば、その物体の追跡が開始される直前の画像にも、その物体が写っている可能性がある。そのため、その物体の追跡が開始される直前の画像では、その物体の検出に失敗している可能性がある。そこで、選択部33は、そのような画像を選択することで、識別器の学習に適した画像を選択することができる。
なお、選択部33は、検出された物体が表された物体領域のサイズとサイズ閾値とを比較する画像を、追跡が開始された最初の画像とすることが好ましい。追跡が開始された時点で一定以上のサイズで検出された物体が写っている場合、その直前の画像にもそのサイズ程度の物体が写っている可能性が高いので、選択部33は、物体の検出に失敗した可能性がある画像をより適切に選択できる。
また、サイズ閾値は、検出された物体の種類に応じて設定されることが好ましい。その際、標準的なサイズが大きい物体の種類ほど、サイズ閾値も大きく設定されることが好ましい。例えば、バスまたはトラックといった大型車両についてのサイズ閾値は、普通乗用車についてのサイズ閾値より大きいことが好ましい。同様に、普通乗用車についてのサイズ閾値は、人またはバイクについてのサイズ閾値よりも大きいことが好ましい。この場合、メモリ22に、物体の種類ごとのサイズ閾値が予め記憶される。そして選択部33は、着目する追跡中の物体の種類に応じて、メモリ22からその物体の種類に応じたサイズ閾値を読み込んでその物体が表された物体領域のサイズとの比較に用いればよい。このように、検出された物体の種類に応じてサイズ閾値を設定することで、選択部33は、その物体について検出に失敗した可能性のある画像をより適切に選択できる。
図4は、画像選択処理の概要の説明図である。図4に示されるように、カメラ2により得られた一連の画像400−1〜400−n(nは3以上の整数)のうち、画像400−k〜400−m(k>1、かつ、k<m≦n)において車両が検出されており、かつ、追跡されている(すなわち、画像400−k〜400−mが得られた期間が追跡期間)。そして画像400−kにおいて、追跡された車両が表された物体領域410のサイズがサイズ閾値以上であるとする。この場合、画像400−(k-1)が選択される。
変形例によれば、選択部33は、物体検出部31が使用する識別器により、追跡中の物体が最初に検出された画像の直前の画像上の何れかの領域について求められたその追跡中の物体の種類についての確信度が所定の確信度閾値以上である場合に限り、追跡中の物体が最初に検出された画像の直前の画像を選択してもよい。なお、確信度閾値は、物体が表されていると判定される検出閾値よりも低い値に設定される。このように、追跡中の物体の種類についての確信度がある程度高い領域を含む画像を選択することで、選択部33は、検出すべき物体が実際には写っていない画像が選択されることを抑制できる。
選択部33は、選択した画像について、選択したことを表すフラグ(以下、単に選択フラグと呼ぶ)を対応付ける。さらに、選択部33は、選択した画像について、その選択の根拠となった、追跡中の物体の種類を表す情報を対応付けてもよい。
選択部33は、メモリ22に記憶されている画像のうち、カメラ2から取得してから一定期間(例えば、1分〜10分)以上経過し、かつ、選択フラグが対応付けられていない画像をメモリ22から消去してもよい。
選択部33は、一定の周期ごと、所定数の画像が選択される度、あるいは、車両10のエンジンが停止されると、選択フラグが対応付けられた画像をメモリ22から読み込み、読み込んだ画像を含む画像送信信号を生成する。そして選択部33は、画像送信信号を、通信インターフェース21を介して無線通信端末3へ出力することで、その画像送信信号をサーバ11へ送信する。その際、選択フラグが対応付けられた画像に追跡中の物体の種類を表す情報が対応付けられている場合、選択部33は、その追跡中の物体の種類を表す情報も画像送信信号に含めてもよい。これにより、選択部33は、選択された画像において検出に失敗している可能性のある物体の特定を容易化できる。
選択部33は、選択された画像をサーバ11へ送信した後、選択された画像をメモリ22から消去してもよい。
運転計画部34は、各画像について検出された、車両10の周囲に存在する物体と車両10とが衝突しないように車両10の走行予定経路を1以上生成する。走行予定経路は、例えば、現時刻から所定時間先までの各時刻における、車両10の目標位置の集合として表される。例えば、運転計画部34は、追跡部32による追跡結果により得られた追跡中の各物体の軌跡から、各物体の所定時間先までの予測軌跡を推定する。運転計画部34は、追跡中の各物体の予測軌跡に基づいて、何れの物体についても所定時間先までの追跡中の物体のそれぞれと車両10間の距離の予測値が所定距離以上となるように、車両10の走行予定経路を生成する。その際、運転計画部34は、例えば、車両10に搭載されたGPS受信機(図示せず)から得た、車両10の現在位置情報と、メモリ22に記憶されている地図情報とを参照して、車両10が走行可能な車線の数を確認してもよい。そして運転計画部34は、車両10が走行可能な車線が複数存在する場合には、車両10が走行する車線を変更するように走行予定経路を生成してもよい。
なお、運転計画部34は、複数の走行予定経路を生成してもよい。この場合、運転計画部34は、複数の走行予定経路のうち、車両10の加速度の絶対値の総和が最小となる経路を選択してもよい。
運転計画部34は、生成した走行予定経路を車両制御部35へ通知する。
車両制御部35は、車両10が通知された走行予定経路に沿って走行するように車両10の各部を制御する。例えば、車両制御部35は、通知された走行予定経路、及び、車速センサ(図示せず)により測定された車両10の現在の車速に従って、車両10の加速度を求め、その加速度となるようにアクセル開度またはブレーキ量を設定する。そして車両制御部35は、設定されたアクセル開度に従って燃料噴射量を求め、その燃料噴射量に応じた制御信号を車両10のエンジンの燃料噴射装置へ出力する。あるいは、車両制御部35は、設定されたブレーキ量に応じた制御信号を車両10のブレーキへ出力する。
さらに、車両制御部35は、車両10が走行予定経路に沿って走行するために車両10の進路を変更する場合には、その走行予定経路に従って車両10の操舵角を求め、その操舵角に応じた制御信号を、車両10の操舵輪を制御するアクチュエータ(図示せず)へ出力する。
図5は、プロセッサ23により実行される、画像選択処理を含む、車両制御処理の動作フローチャートである。プロセッサ23は、カメラ2から画像を受信する度に、図5に示される動作フローチャートに従って車両制御処理を実行する。なお、以下に示される動作フローチャートにおいて、ステップS101〜S108の処理が画像選択処理に対応する。
プロセッサ23の物体検出部31は、カメラ2から得られた最新の画像をメモリ22に記憶する(ステップS102)。そして物体検出部31は、その最新の画像から物体を検出し、検出した物体が表された物体領域を求める(ステップS102)。
プロセッサ23の追跡部32は、過去の画像及び最新の画像から検出された物体を追跡する(ステップS103)。そしてプロセッサ23の選択部33は、追跡中の物体のうち、所定期間以上にわたって追跡できた物体が有るか否か判定する(ステップ104)。所定期間以上にわたって追跡できた物体が有れば(ステップS104−Yes)、選択部33は、その物体が追跡された期間の何れかの画像で、追跡中の物体が含まれる物体領域のサイズが所定のサイズ閾値Th以上となるか否か判定する(ステップS105)。
何れかの画像において、物体領域のサイズが所定のサイズ閾値Th以上となる場合(ステップS105−Yes)、選択部33は、メモリ22に記憶されている画像のうち、物体が追跡された期間の直前の画像を選択する(ステップS106)。そして選択部33は、選択した画像を含む画像送信信号を生成し、生成した画像送信信号を、無線通信端末3を介してサーバ11へ送信する(ステップS107)。
ステップS107の後、ステップS104にて所定期間以上にわたって追跡できた物体が無い場合(ステップS104−No)、あるいは、ステップS105にて物体領域のサイズが所定のサイズ閾値Th以上となる画像が無い場合(ステップS105−No)、選択部33は、カメラ2から取得してから所定時間を経過した画像をメモリ22から消去する(ステップS108)。
プロセッサ23の運転計画部34は、追跡中の物体の予測軌跡と所定の距離以上となるように、車両10の走行予定経路を生成する(ステップS109)。そしてプロセッサ23の車両制御部35は、走行予定経路に沿って車両10が走行するように車両10を制御する(ステップS110)。そしてプロセッサ23は、車両制御処理を終了する。
以上に説明してきたように、この画像選択装置は、車両に搭載されたカメラにより生成された、時系列の一連の画像のそれぞれを識別器に入力することで各画像から物体を検出し、検出できた物体を追跡する。そしてこの画像選択装置は、一定期間以上追跡できた物体について、その追跡中の期間の何れかの画像においてその物体が含まれる物体領域のサイズが所定のサイズ閾値以上である場合にその期間の直前の画像を選択する。これにより、この画像選択装置は、追跡された物体が写っているにもかかわらず、検出に失敗した可能性のある画像を選択できる。物体の検出に失敗した画像は、識別器の学習に利用することで識別器による物体の検出精度向上に有用である。したがって、この画像選択装置は、識別器の学習用の教師データとして利用するのに適した画像を適切に選択できる。
変形例によれば、選択部33は、選択された画像をサーバ11に送信しなくてもよい。この場合には、例えば、車両10がメンテナンスされるときなどに、メモリ22に記憶されているデータ読み出し用の外部の機器が車内ネットワーク5に接続されてもよい。そして選択された画像は、メモリ22から通信インターフェース21を介して車内ネットワーク5と接続された外部の機器へ読み出されてもよい。この変形例によれば、画像選択装置は、無線通信の負荷を軽減できる。またこの変形例によれば、無線通信端末3は省略されてもよい。
他の変形例によれば、追跡部32は、直前に得られた画像まで追跡されていた物体に関して、カメラ2により得られた最新の画像においてその物体が検出されなくても、それ以降に得られた画像において再度その物体と同じ種類の物体が検出されたときに、その同じ種類の物体が、追跡されていた物体と同じであるとして、追跡を継続してもよい。その際、追跡部32は、追跡中の物体の軌跡に基づいて、Kalman Filterなどを適用してその物体が再度検出された時の画像上でのその物体の位置を予測し、予測した位置と再度検出された物体の位置との差が所定の距離閾値未満である場合に限り、追跡を継続してもよい。この場合には、選択部33は、物体の追跡が継続されている期間が所定期間以上となり、かつ、その追跡が継続されている期間中の何れかの画像においてその物体が表された物体領域のサイズが所定のサイズ閾値以上である場合に、物体の追跡が継続されている期間中においてその物体が検出されなかった画像を選択してもよい。この場合も、追跡中の物体が検出されなかった画像は、追跡中の物体の検出に失敗している可能性がある。そのため、この変形例においても、選択部33は、識別器の学習用の教師データとして利用するのに適した画像を選択できる。なお、この場合には、検出された物体が表された物体領域のサイズと所定のサイズ閾値とが比較される画像は、物体が検出されなかった画像の直前または直後の画像であることが好ましい。これにより、選択部33は、物体の検出に失敗した可能性がある画像をより適切に選択できる。また、この変形例においても、選択部33は、物体が検出されなかった画像において、追跡中の物体の種類についての確信度が所定の確信度閾値以上である場合に限り、その画像を選択してもよい。
図6は、この変形例による、画像選択処理の概要の説明図である。図6に示されるように、カメラ2により得られた一連の画像600−1〜600−n(nは3以上の整数)のうち、画像600−k〜600−m(k≧1、かつ、k<m≦n)において物体が検出されており、かつ、追跡されている(すなわち、画像600−k〜600−mが得られた期間が追跡期間)。そして追跡期間中の画像600−j(k<j<m)において、追跡中の物体が検出されず、かつ、追跡期間中の何れかの画像において追跡中の物体が表された領域のサイズがサイズ閾値以上であるとする。この場合、画像600−jが選択される。
なお、検出された物体の追跡中に、一時的にその物体が他の物体に隠れることがある。このような場合には、画像上にその追跡中の物体が表されていないので、その画像は、識別器の学習に適しているとは限らない。そこで、選択部33は、物体の追跡が継続されている期間中においてその物体が検出されなかった画像において、他の物体が検出されており、かつ、他の物体が含まれる物体領域の重心が、その画像の直前または直後において追跡された物体が含まれる物体領域の重心から所定範囲内に位置している場合には、その物体が検出されなかった画像を選択しなくてもよい。すなわち、選択部33は、物体の追跡が継続されている期間中においてその物体が検出されなかった画像において、他の物体が検出されていないか、あるいは、その画像の直前または直後において追跡された物体が含まれる物体領域の重心から所定範囲内に他の物体が含まれる物体領域の重心が位置していない場合に限り、その物体が検出されなかった画像を選択してもよい。
さらに他の変形例によれば、選択部33は、検出された物体を追跡できた期間が所定期間未満である場合、その期間中に得られた画像の何れかを選択してもよい。これは、追跡できた期間が短い物体は誤検出されたものである可能性があるためである。
また、上記の実施形態または変形例による、画像選択装置のプロセッサ23の各部の機能を実現するコンピュータプログラムは、半導体メモリ、磁気記録媒体または光記録媒体といった、コンピュータ読取可能な可搬性の記録媒体に記録された形で提供されてもよい。
以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。
1 車両制御システム
2 カメラ
3 無線通信端末
4 電子制御装置(画像選択装置)
5 車内ネットワーク
21 通信インターフェース
22 メモリ
23 プロセッサ
31 物体検出部
32 追跡部
33 選択部
34 運転計画部
35 車両制御部
10 車両
11 サーバ
12 通信ネットワーク
13 無線基地局

Claims (8)

  1. 車両に搭載された撮像部から得られる一連の画像のそれぞれについて、物体を検出するように予め学習された識別器に当該画像を入力することで、当該画像上に表された物体及び当該画像上で当該物体が含まれる領域を検出する検出部と、
    前記一連の画像にわたって前記検出された物体を追跡する追跡部と、
    前記検出された物体が追跡された追跡期間が所定期間以上であり、かつ、前記一連の画像のうちの前記追跡期間中の何れかの画像における、前記検出された物体が含まれる領域のサイズが所定のサイズ閾値以上である場合、前記一連の画像のうち、前記追跡期間の直前の画像または前記追跡期間中において当該追跡された物体が検出されていない画像を選択する選択部と、
    を有する画像選択装置。
  2. 前記選択部は、前記追跡期間の最初の画像において前記検出された物体が含まれる領域のサイズが前記所定のサイズ閾値以上である場合、前記追跡期間の直前の画像を選択する、請求項1に記載の画像選択装置。
  3. 前記識別器は、前記一連の画像のそれぞれについて、入力された画像上で物体が写っている確からしさを表す確信度をさらに出力し、
    前記選択部は、前記追跡期間の直前の画像または前記追跡期間中において当該追跡された物体が検出されていない画像において当該追跡された物体についての前記確信度が所定の確信度閾値以上である場合に限り、当該画像を選択する、請求項1または2に記載の画像選択装置。
  4. 前記識別器は、前記一連の画像のそれぞれについて、前記検出された物体の種類をさらに出力し、
    前記選択部は、前記所定のサイズ閾値を前記検出された物体の種類に応じて設定する、請求項1〜3の何れか一項に記載の画像選択装置。
  5. 前記識別器は、前記一連の画像のそれぞれについて、前記検出された物体の種類をさらに出力し、
    前記選択部は、前記選択した画像とともに、前記追跡期間において追跡された物体の種類を記憶する、請求項1〜4の何れか一項に記載の画像選択装置。
  6. 前記選択部は、前記追跡期間中において当該追跡された物体が検出されていない画像において他の物体が検出されていないか、または当該追跡された物体が検出されていない画像の前後の画像において検出された他の物体が当該追跡された物体の所定範囲内に位置していない場合に限り、当該追跡された物体が検出されていない画像を選択する、請求項1〜5の何れか一項に記載の画像選択装置。
  7. 車両に搭載された撮像部から得られる一連の画像のそれぞれについて、物体を検出するように予め学習された識別器に当該画像を入力することで、当該画像上に表された物体及び当該画像上で当該物体が含まれる領域を検出し、
    前記一連の画像にわたって前記検出された物体を追跡し、
    前記検出された物体を追跡された追跡期間が所定期間以上であり、かつ、前記一連の画像のうちの前記追跡期間中の何れかの画像における、前記検出された物体が含まれる領域のサイズが所定のサイズ閾値以上である場合、前記一連の画像のうち、前記追跡期間の直前の画像または前記追跡期間中において当該追跡された物体が検出されていない画像を選択する、
    画像選択方法。
  8. 車両に搭載された撮像部から得られる一連の画像のそれぞれについて、物体を検出するように予め学習された識別器に当該画像を入力することで、当該画像上に表された物体を検出する検出部と、
    前記一連の画像にわたって前記検出された物体を追跡する追跡部と、
    前記検出された物体が追跡された期間が所定期間未満である場合、前記一連の画像のうちの当該期間内の何れかの画像を選択する選択部と、
    を有する画像選択装置。
JP2018200056A 2018-10-24 2018-10-24 画像選択装置及び画像選択方法 Active JP7147464B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018200056A JP7147464B2 (ja) 2018-10-24 2018-10-24 画像選択装置及び画像選択方法
US16/658,816 US11257239B2 (en) 2018-10-24 2019-10-21 Image selection device and image selection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018200056A JP7147464B2 (ja) 2018-10-24 2018-10-24 画像選択装置及び画像選択方法

Publications (2)

Publication Number Publication Date
JP2020067818A true JP2020067818A (ja) 2020-04-30
JP7147464B2 JP7147464B2 (ja) 2022-10-05

Family

ID=70327540

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018200056A Active JP7147464B2 (ja) 2018-10-24 2018-10-24 画像選択装置及び画像選択方法

Country Status (2)

Country Link
US (1) US11257239B2 (ja)
JP (1) JP7147464B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4272157A1 (en) * 2020-12-30 2023-11-08 Mobileye Vision Technologies Ltd. Systems and methods for road segment mapping

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016001397A (ja) * 2014-06-11 2016-01-07 キヤノン株式会社 画像処理装置、画像処理方法、コンピュータプログラム
JP2017033175A (ja) * 2015-07-30 2017-02-09 株式会社リコー 画像処理装置、画像処理方法及びプログラム
JP2017138659A (ja) * 2016-02-01 2017-08-10 トヨタ自動車株式会社 物体追跡方法、物体追跡装置、およびプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4631750B2 (ja) * 2006-03-06 2011-02-16 トヨタ自動車株式会社 画像処理システム
US9563955B1 (en) * 2013-05-15 2017-02-07 Amazon Technologies, Inc. Object tracking techniques
JP2017041022A (ja) * 2015-08-18 2017-02-23 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016001397A (ja) * 2014-06-11 2016-01-07 キヤノン株式会社 画像処理装置、画像処理方法、コンピュータプログラム
JP2017033175A (ja) * 2015-07-30 2017-02-09 株式会社リコー 画像処理装置、画像処理方法及びプログラム
JP2017138659A (ja) * 2016-02-01 2017-08-10 トヨタ自動車株式会社 物体追跡方法、物体追跡装置、およびプログラム

Also Published As

Publication number Publication date
US20200134850A1 (en) 2020-04-30
JP7147464B2 (ja) 2022-10-05
US11257239B2 (en) 2022-02-22

Similar Documents

Publication Publication Date Title
US11093801B2 (en) Object detection device and object detection method
CN113492851B (zh) 车辆控制装置、车辆控制方法以及车辆控制用计算机程序
US11308717B2 (en) Object detection device and object detection method
US11527078B2 (en) Using captured video data to identify pose of a vehicle
US11436815B2 (en) Method for limiting object detection area in a mobile system equipped with a rotation sensor or a position sensor with an image sensor, and apparatus for performing the same
CN113435237B (zh) 物体状态识别装置、识别方法和计算机可读的记录介质以及控制装置
JP2020095594A (ja) 車両制御装置及び車両制御方法
JP2022142165A (ja) 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム
JP7226368B2 (ja) 物体状態識別装置
JP2021163432A (ja) 信号灯状態識別装置、信号灯状態識別方法及び信号灯状態識別用コンピュータプログラムならびに制御装置
US20200394435A1 (en) Distance estimation device, distance estimation method, and distance estimation computer program
JP7147464B2 (ja) 画像選択装置及び画像選択方法
CN116448128A (zh) 行驶路径制作装置、行驶路径制作方法及非临时性计算机可读介质
CN116635919A (zh) 物体跟踪装置以及物体跟踪方法
US11702094B2 (en) Driving support apparatus and driving support method
JP7556365B2 (ja) 走行経路作成装置、走行経路作成方法、および走行経路作成用コンピュータプログラム
US20230252638A1 (en) Systems and methods for panoptic segmentation of images for autonomous driving
Thammakaroon et al. Improvement of forward collision warning in real driving environment using machine vision
JP2022146384A (ja) 物体検出装置
JP2023092183A (ja) 追跡装置、追跡方法及び追跡用コンピュータプログラム
CN117203667A (zh) 物体跟踪装置
JP2023084575A (ja) 点灯状態識別装置
CN116457854A (zh) 物体跟踪装置以及物体跟踪方法
CN117355863A (zh) 物体跟踪装置及物体跟踪方法
JP2022079954A (ja) 物体検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220905

R151 Written notification of patent or utility model registration

Ref document number: 7147464

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151