JP2020052695A - 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム - Google Patents

物体検出装置、物体検出方法及び物体検出用コンピュータプログラム Download PDF

Info

Publication number
JP2020052695A
JP2020052695A JP2018181015A JP2018181015A JP2020052695A JP 2020052695 A JP2020052695 A JP 2020052695A JP 2018181015 A JP2018181015 A JP 2018181015A JP 2018181015 A JP2018181015 A JP 2018181015A JP 2020052695 A JP2020052695 A JP 2020052695A
Authority
JP
Japan
Prior art keywords
area
region
certainty
detected
sensor signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018181015A
Other languages
English (en)
Other versions
JP7147420B2 (ja
Inventor
大輔 橋本
Daisuke Hashimoto
大輔 橋本
聡 武安
Satoshi Takeyasu
聡 武安
公太 平野
Kota Hirano
公太 平野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018181015A priority Critical patent/JP7147420B2/ja
Priority to US16/551,994 priority patent/US11308717B2/en
Publication of JP2020052695A publication Critical patent/JP2020052695A/ja
Application granted granted Critical
Publication of JP7147420B2 publication Critical patent/JP7147420B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】物体の検出精度を向上できる物体検出装置を提供する。【解決手段】物体検出装置においてプロセッサは、センサにより得られた時系列の複数のセンサ信号のうちの最新のセンサ信号に表されたセンサの検知範囲内の複数の領域のそれぞれについて、その領域に検出対象となる物体が表された確信度を算出する確信度算出部31と、最新のセンサ信号よりも前の何れかのセンサ信号において検出された第1の物体を追跡して、最新のセンサ信号において第1の物体が通過した通過領域を検出する領域検出部32と、最新のセンサ信号における複数の領域のそれぞれについて、その領域が通過領域に含まれるか否かに応じて、その領域に表された第2の物体についての確信度に対して適用される確信度閾値を制御し、かつ、複数の領域のうちの第2の物体についての確信度が確信度閾値以上となる領域において第2の物体を検出する物体検出部33とを有する。【選択図】図3

Description

本発明は、物体を検出する物体検出装置、物体検出方法及び物体検出用コンピュータプログラムに関する。
車両が走行中の道路に障害物が存在すると、事故が発生する危険がある。そこで、先行する車両が後続の車両へ走行軌跡の情報を送信し、後続の車両は、先行する車両から受信した走行軌跡に基づいて、その走行軌跡が障害物を回避したものであると判定すると、障害物の警告をドライバーに行う技術が提案されている(例えば、特許文献1を参照)。
しかしながら、上記の技術では、障害物そのものは検知されない。一方、画像に表された物体を検出する技術が研究されている。近年では、物体を検出するために、いわゆるディープニューラルネットワーク(以下、単にDNNと呼ぶ)を用いることで、検出精度を向上する技術が提案されている(例えば、非特許文献1〜3を参照)。
特開2005−242552号公報
Wei Liu他、「SSD: Single Shot MultiBox Detector」、ECCV2016、2016年 Shaoqing Ren他、「Faster R-CNN: Towards Real-Time ObjectDetection with Region Proposal Networks」、NIPS、2015年 Alex Kendall他、「Multi-Task Learning Using Uncertainty to Weigh Losses for Scene Geometry and Semantics」、CVPR2018、2018年
このような技術では、既知の物体が表された多数の画像を教師データとして用いてDNNを学習することで、DNNが入力された画像上に表されたその既知の物体を高精度に検出できるようになる。しかし、教師データとして利用可能な画像の数が少ない物体が検出対象となることがある。このような物体が表された画像に対しては、DNNによる検出精度は低下する。また、既知の物体が教師データに含まれる画像における写り方とは異なる写り方をした画像に対しても、DNNによる検出精度は低下することがある。検出精度の低下を抑制するために、検出対象となる全ての物体のそれぞれについて、その物体が表された画像を教師データとして利用できることが好ましい。しかし、実際には、DNNを学習する時点において、検出対象となる全ての物体について教師データとして利用可能な画像を用意できるとは限らない。そのため、教師データとして利用可能な画像の数が少ない物体、あるいは、検出対象となる物体が教師データに含まれる画像における写り方とは異なる写り方をした画像に対しても、検出精度を向上できることが求められている。
そこで、本発明は、物体の検出精度を向上できる物体検出装置を提供することを目的とする。
一つの実施形態によれば、物体検出装置が提供される。この物体検出装置は、所定の検知範囲内に存在する物体を検出するためのセンサにより得られた時系列の複数のセンサ信号のうちの最新のセンサ信号に表された所定の検知範囲内の複数の領域のそれぞれについて、その領域に検出対象となる物体が表された確からしさを表す確信度を算出する確信度算出部と、時系列の複数のセンサ信号のうちの最新のセンサ信号よりも前の何れかのセンサ信号において検出された、検出対象となる物体のうちの第1の物体を追跡して、最新のセンサ信号において第1の物体が通過した通過領域を検出する領域検出部と、最新のセンサ信号における複数の領域のそれぞれについて、その領域が通過領域に含まれるか否かに応じて、検出対象となる物体のうちのその領域に表された第2の物体についての確信度に対して適用される確信度閾値を制御し、かつ、複数の領域のうちの第2の物体についての確信度が確信度閾値以上となる領域において第2の物体を検出する物体検出部とを有する。
この物体検出装置において、第2の物体は静止物体または低速移動物体であることが好ましい。
またこの物体検出装置において、領域検出部は、第1の物体を追跡して、最新のセンサ信号に表された所定の検知範囲において第1の物体が回避した回避領域を検出し、物体検出部は、複数の領域のうち、回避領域に含まれる領域に適用される確信度閾値を、複数の領域のうち、回避領域以外の第1の物体が通過していない未通過領域に含まれる領域に適用される確信度閾値よりも低くすることが好ましい。
あるいは、物体検出部は、複数の領域のうち、通過領域に含まれる領域に適用される確信度閾値を、複数の領域のうち、未通過領域に含まれる領域に適用される確信度閾値よりも高くすることが好ましい。
さらに、この物体検出装置において、センサは所定の検知範囲を撮影する撮像部であり、かつ、センサ信号は撮像部により生成される、所定の検知範囲が表された画像であることが好ましい。
本発明の他の実施形態によれば、物体検出方法が適用される。この物体検出方法は、所定の検知範囲内に存在する物体を検出するためのセンサにより得られた時系列の複数のセンサ信号のうちの最新のセンサ信号に表された所定の検知範囲内の複数の領域のそれぞれについて、その領域に検出対象となる物体が表された確からしさを表す確信度を算出し、時系列の複数のセンサ信号のうちの最新のセンサ信号よりも前の何れかのセンサ信号において検出された、検出対象となる物体のうちの第1の物体を追跡して、最新のセンサ信号において第1の物体が通過した通過領域を検出し、最新のセンサ信号における複数の領域のそれぞれについて、その領域が通過領域に含まれるか否かに応じて、検出対象となる物体のうちのその領域に表された第2の物体についての確信度に対して適用される確信度閾値を制御し、最新のセンサ信号において、複数の領域のうちの第2の物体についての確信度が確信度閾値以上となる領域において前記第2の物体を検出することを含む。
本発明のさらに他の実施形態によれば、物体検出用コンピュータプログラムが適用される。この物体検出用コンピュータプログラムは、所定の検知範囲内に存在する物体を検出するためのセンサにより得られた時系列の複数のセンサ信号のうちの最新のセンサ信号に表された所定の検知範囲内の複数の領域のそれぞれについて、その領域に検出対象となる物体が表された確からしさを表す確信度を算出し、時系列の複数のセンサ信号のうちの最新のセンサ信号よりも前の何れかのセンサ信号において検出された、検出対象となる物体のうちの第1の物体を追跡して、最新のセンサ信号において第1の物体が通過した通過領域を検出し、最新のセンサ信号における複数の領域のそれぞれについて、その領域が通過領域に含まれるか否かに応じて、検出対象となる物体のうちのその領域に表された第2の物体についての確信度に対して適用される確信度閾値を制御し、最新のセンサ信号において、複数の領域のうちの第2の物体についての確信度が確信度閾値以上となる領域において前記第2の物体を検出する、ことをコンピュータに実行させるための命令を含む。
本発明に係る物体検出装置は、物体の検出精度を向上できるという効果を奏する。
物体検出装置が実装される車両制御システムの概略構成図である。 物体検出装置の一つの実施形態である電子制御装置のハードウェア構成図である。 物体検出処理を含む車両制御処理に関する、電子制御装置のプロセッサの機能ブロック図である。 識別器として利用されるDNNの構成の一例を示す図である。 適用される確信度閾値と未通過領域、通過領域及び回避領域の関係の一例を示す図である。 物体検出処理を含む車両制御処理の動作フローチャートである。
以下、図を参照しつつ、物体検出装置について説明する。発明者は、時間経過とともに移動する物体(以下、単に移動物体と呼ぶ)が通過した領域には、その移動物体よりも移動速度が遅い他の物体、例えば静止物体または低速移動物体が存在する可能性は低く、一方、移動物体が回避した領域には、他の物体が存在する可能性が高いことに着目した。そこで、この物体検出装置は、時系列の複数の画像から検出された物体を追跡してその物体が通過した実空間での領域(以下、単に通過領域と呼ぶ)を検出し、通過領域に対応する最新の画像上の領域について、その領域内に検出対象となる物体が表されている確からしさを表す確信度と比較される確信度閾値を高くすることで、通過領域において検出対象でない物体が検出対象となる物体として誤検出されることを抑制する。さらに、この物体検出装置は、検出された物体を追跡してその物体が回避した実空間での領域(以下、単に回避領域と呼ぶ)を検出し、回避領域に対応する画像上の領域について確信度閾値を低くすることで、回避領域に存在する物体が、検出対象であるにもかかわらず、物体検出用の識別器を十分に学習できない物体(以下、説明の便宜上、レア物体と呼ぶ)であっても検出できるようにする。これにより、この物体検出装置は、検出精度を向上できる。なお、レア物体には、検出対象とすべき物体であっても、教師データにその物体が表された画像が含まれない物体、すなわち、未知の物体が含まれてもよい。
以下では、物体検出装置を、車両制御システムに適用した例について説明する。この例では、物体検出装置は、車両に搭載されたカメラにより得られた画像に対して物体検出処理を実行することで、車両の周囲に存在する各種の物体、例えば、他の車両、人、道路標識または道路標示などを検出する。この例では、レア物体には、例えば、特異な形状を有する車両、特異な積載物を積載する車両、特異な服装をした人、人以外の動物または道路上に落下している各種の落下物が含まれる。
図1は、物体検出装置が実装される車両制御システムの概略構成図である。また図2は、物体検出装置の一つの実施形態である電子制御装置のハードウェア構成図である。本実施形態では、車両10に搭載され、かつ、車両10を制御する車両制御システム1は、車両10の周囲を撮影するためのカメラ2と、物体検出装置の一例である電子制御装置(ECU)3とを有する。カメラ2とECU3とは、コントローラエリアネットワークといった規格に準拠した車内ネットワーク4を介して通信可能に接続される。
カメラ2は、所定の検知範囲内に存在する物体を検出するためのセンサである撮像部の一例であり、CCDあるいはC-MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に撮影対象となる領域の像を結像する結像光学系を有する。そしてカメラ2は、車両10の前方を向くように、例えば、車両10の車室内に取り付けられる。そしてカメラ2は、所定の撮影周期(例えば1/30秒〜1/10秒)ごとに車両10の前方領域を撮影し、その前方領域が写った画像を生成する。カメラ2により得られた画像は、カラー画像であってもよく、あるいは、グレー画像であってもよい。なお、カメラ2により生成された画像は、センサ信号の一例である。
カメラ2は、画像を生成する度に、その生成した画像を車内ネットワーク4を介してECU3へ出力する。
ECU3は、車両10を制御する。本実施形態では、ECU3は、カメラ2により得られた時系列の一連の画像から検出された物体に基づいて車両10を自動運転するよう、車両10を制御する。そのために、ECU3は、通信インターフェース21と、メモリ22と、プロセッサ23とを有する。
通信インターフェース21は、通信部の一例であり、ECU3を車内ネットワーク4に接続するためのインターフェース回路を有する。すなわち、通信インターフェース21は、車内ネットワーク4を介して、カメラ2と接続される。そして通信インターフェース21は、カメラ2から画像を受信する度に、受信した画像をプロセッサ23へわたす。
メモリ22は、記憶部の一例であり、例えば、揮発性の半導体メモリ及び不揮発性の半導体メモリを有する。そしてメモリ22は、ECU3のプロセッサ23により実行される物体検出処理において使用される各種のデータ、例えば、カメラ2から受信した画像、物体検出処理で利用される識別器を特定するための各種パラメータ、及び、物体検出処理で利用される各種閾値などを記憶する。さらに、メモリ22は、地図情報などを記憶してもよい。
プロセッサ23は、制御部の一例であり、1個または複数個のCPU(Central Processing Unit)及びその周辺回路を有する。プロセッサ23は、論理演算ユニット、数値演算ユニットあるいはグラフィック処理ユニットといった他の演算回路をさらに有していてもよい。そしてプロセッサ23は、車両10が走行している間、カメラ2から画像を受信する度に、受信した画像に対して物体検出処理を含む車両制御処理を実行する。そしてプロセッサ23は、検出された車両10の周囲の物体に基づいて、車両10を自動運転するよう、車両10を制御する。
図3は、物体検出処理を含む車両制御処理に関する、ECU3のプロセッサ23の機能ブロック図である。プロセッサ23は、確信度算出部31と、領域検出部32と、物体検出部33と、運転計画部34と、車両制御部35とを有する。プロセッサ23が有するこれらの各部は、例えば、プロセッサ23上で動作するコンピュータプログラムにより実現される機能モジュールである。あるいは、プロセッサ23が有するこれらの各部は、プロセッサ23に設けられる、専用の演算回路であってもよい。また、プロセッサ23が有するこれらの各部のうち、確信度算出部31、領域検出部32及び物体検出部33が、物体検出処理を実行する。
確信度算出部31は、カメラ2から画像を受信する度に、受信した最新の画像を識別器に入力することで、その画像上の複数の領域のそれぞれについて、その領域に検出対象となる物体が写っている確からしさを表す確信度を求める。
本実施形態では、確信度算出部31は、識別器として、画像上の複数の領域のそれぞれについて、検出対象となる物体の種類ごとに確信度を求めるように予め学習されたDNNを利用する。確信度算出部31が利用するDNNは、例えば、非特許文献1に記載されたSingle Shot MultiBox Detector(SSD)、または、非特許文献2に記載されたFaster R-CNNと同様の構造を有していてもよい。
図4は、識別器として利用されるDNNの構成の一例を示す図である。DNN400は、画像が入力される入力側に設けられる主幹部401と、主幹部401よりも出力側に設けられる位置検出部402及び種類推定部403とを有する。位置検出部402は、主幹部401からの出力に基づいて、画像上で検出対象となる物体が表された領域の外接矩形を出力する。種類推定部403は、主幹部401からの出力に基づいて、位置検出部402で検出された領域に表された物体の種類ごとの確信度を算出する。なお、位置検出部402及び種類推定部403は一体的に形成されてもよい。
主幹部401は、例えば、入力側から出力側へ向けて直列に接続される複数の層を有するコンボリューションニューラルネットワーク(CNN)とすることができる。その複数の層には2以上の畳み込み層が含まれる。さらに、主幹部401が有する複数の層には、1または複数の畳み込み層ごとに設けられるプーリング層が含まれてもよい。さらにまた、主幹部401が有する複数の層には、1以上の全結合層が含まれてもよい。例えば、主幹部401は、SSDのベースレイヤーと同様の構成とすることができる。この場合、主幹部401は、VGG-16と同様に、入力側から順に、2層の畳み込み層→MaxPoolingを行う(すなわち、n×n個の入力のうちの最大値を出力する)プーリング層(以下、単にプーリング層と呼ぶ)→2層の畳み込み層→プーリング層→3層の畳み込み層→プーリング層→3層の畳み込み層→プーリング層→3層の畳み込み層→プーリング層→3層の全結合層で構成されてもよい。あるいは、主幹部401は、VGG-19、AlexNetあるいはNetwork-In-Networkといった他のCNNアーキテクチャに従って構成されてもよい。
主幹部401は、画像が入力されると、その画像に対して各層での演算を実行することで、その画像から算出したfeature mapを出力する。
位置検出部402及び種類推定部403には、それぞれ、主幹部401から出力されたfeature mapが入力される。そして位置検出部402及び種類推定部403は、それぞれ、例えば、入力側から出力側へ向けて直列に接続される複数の層を有するCNNとすることができる。位置検出部402及び種類推定部403のそれぞれについて、CNNが有する複数の層には2以上の畳み込み層が含まれる。また、位置検出部402及び種類推定部403のそれぞれについて、CNNが有する複数の層には、1または複数の畳み込み層ごとに設けられるプーリング層が含まれてもよい。なお、CNNが有する畳み込み層及びプーリング層は、位置検出部402及び種類推定部403について共通化されてもよい。さらに、位置検出部402及び種類推定部403のそれぞれについて、複数の層には、1以上の全結合層が含まれてもよい。この場合、全結合層は、各畳み込み層よりも出力側に設けられることが好ましい。また全結合層には、各畳み込み層からの出力が直接入力されてもよい。また、種類推定部403の出力層は、ソフトマックス関数に従って検出対象となる物体の種類のそれぞれの確信度を算出するソフトマックス層としてもよいし、シグモイド関数に従って検出対象となる物体の種類のそれぞれの確信度を算出するシグモイド層としてもよい。
あるいは、DNN400は、例えばセマンテックセグメンテーションのように、入力画像の画素ごとに物体の種類の確信度を算出する構成を有していてもよい。
位置検出部402及び種類推定部403は、例えば、画像上の様々な位置、様々なサイズ及び様々なアスペクト比の領域ごとに、検出対象となる物体の種類のそれぞれの確信度を出力するように学習される。したがって、識別器400は、画像が入力されることで、画像上の様々な位置、様々なイサイズ及び様々なアスペクト比の領域ごとに、検出対象となる物体の種類のそれぞれの確信度を出力する。
識別器400の学習に利用される教師データに含まれる画像(教師画像)には、例えば、検出対象となる物体の種類(例えば、車、人、動物、道路標識、道路標示、落下物、道路上のその他の物体など)と、検出対象となる物体が表された領域を表す、その物体の外接矩形とがタグ付けされる。
識別器400は、上記のような多数の教師画像を用いて、例えば、誤差逆伝搬法といった学習手法に従って学習される。プロセッサ23は、このように学習された識別器400を利用することで、画像から検出対象となる物体、特に、多数の教師画像を用意できる物体を精度良く検出できる。
確信度算出部31は、各領域の画像上での位置及び範囲と、その領域について算出された物体の種類ごとの確信度とを、検出対象となる物体の候補のリストである検出物体候補リストに登録する。そして確信度算出部31は、検出物体候補リストを物体検出部33へ出力する。
領域検出部32は、最新の画像の一つ前の画像に対する物体検出部33の出力のフィードバックをうけ、物体検出部33により既に検出されている物体を追跡して、追跡した物体が通過した通過領域を検出する。さらに、領域検出部32は、追跡した物体が回避した回避領域を検出する。
そのために、領域検出部32は、最新の画像の一つ前の画像に対してカメラ2について、物体検出部33が検出した物体の存在する画素領域(ビットマップ画像)を生成し、さらに、カメラ2の車両10への取り付け位置などの情報を用いて視点変換処理を実行することで、追跡対象の物体のビットマップを鳥瞰画像に変換する(俯瞰的視点変換)。その際、領域検出部32は、画像上での検出された物体のサイズに基づいて車両10からその物体までの距離を推定し、推定した距離に基づいて鳥瞰画像上での検出された物体上の各点の位置を特定してもよい。例えば、検出対象となる物体の種類ごとに、メモリ22に、車両10からその物体までの距離が所定の基準距離である場合の画像上のその物体の基準サイズが予め記憶される。そして領域検出部32は、画像上での検出された物体のサイズに対する、その検出された物体に対応する基準サイズの比を、基準距離に乗じて得られる距離を、検出された物体までの推定距離とすることができる。そして領域検出部32は、最新の画像の一つ前の画像及びそれ以前の画像から得られた一連の鳥瞰画像に対して例えばKalman FilterあるいはParticle filterなどを用いたトラッキング処理を実行することで、各画像から検出されている物体を追跡することでその物体の軌跡を求める。領域検出部32は、その軌跡に基づいて、一連の鳥瞰画像に対応する各画像取得時における、車両10に対する追跡中の物体上の各点の相対的な位置及び相対速度をもとめる。この相対的な位置は、例えば、カメラ2を基準とするカメラ座標系で表される。
領域検出部32は、さらに、一連の鳥瞰画像に対応する各画像取得時における、車両10の位置及び姿勢に基づいて、カメラ座標系を実空間上の固定された基準点を原点とする世界座標系へ変換するための変換式を求める。そして領域検出部32は、各画像取得時における、その変換式に従って、その各画像取得時における、車両10に対する追跡中の物体上の各点の相対的な位置を、世界座標系での位置へ変換する。なお、領域検出部32は、車両10の位置・速度及び姿勢を、例えば、車両10に搭載されたGPS受信機(図示せず)から得た車両10の現在位置を表す現在位置情報に基づいて推定できる。あるいは、カメラ2により得られた画像に対して確信度算出部31および物体検出部33が認識した結果を用い、ローカライズ処理部(図示せず)が地図情報とのマッチングを行うことで実施するローカライズ処理によって車両10の位置・速度及び姿勢が推定されてもよい。あるいはまた、カメラ2により得られた画像に対して確信度算出部31および物体検出部33が認識した結果を用い、ローカライズ処理部(図示せず)がSimultaneous Localization and Mapping (SLAM)処理を行うことで、車両10の位置・速度及び姿勢が推定されてもよい。そして領域検出部32は、各画像取得時における世界座標系での追跡中の物体上の各点の位置を連結してできる領域を通過領域とする。
さらに、領域検出部32は、各画像取得時における世界座標系での追跡中の物体の位置・速度(例えば、物体上の各点の集合の重心の位置)の変化から、各画像取得時における、その物体の進行方向と直交する方向のその物体の加速度を算出する。そして領域検出部32は、加速度が所定の閾値以上となった場合、その物体は回避行動を行ったと判定する。領域検出部32は、回避行動を行ったと判定したときから所定の期間における、その物体の通過領域に対してその物体について加速度が生じた方向と逆側に位置し、かつ通過領域から所定距離(例えば、0〜2m)だけ離れた所定の幅を持つ領域を回避領域とする。なお、所定の幅は、例えば、追跡中の物体についての進行方向と直交する方向の幅に所定のオフセット(例えば、1〜3m)を加えた幅とすることができる。
他の実施形態としては、領域検出部32は、各画像取得時における世界座標系での追跡中の物体の位置・速度から、各画像取得時における、その物体の進行しているレーン進行方向と直交する方向(または白線などの区画線と直交する方向)のその物体の速度を算出する。そして領域検出部32は、加速度が所定の閾値以上となった場合、その物体は回避行動を行ったと判定する。領域検出部32は、回避行動を行ったと判定したときから所定の期間における、その物体の通過領域に対してその物体について加速度が生じた方向と逆側に位置し、かつ通過領域から所定距離(例えば、0〜2m)だけ離れた所定の幅を持つ領域を回避領域とする。なお、所定の幅は、例えば、追跡中の物体についての進行方向と直交する方向の幅に所定のオフセット(例えば、1〜3m)を加えた幅とすることができる。
領域検出部32は、最新の画像取得時の車両10の位置及び姿勢に基づいて、世界座標系からカメラ座標系への逆変換式を算出する。そして領域検出部32は、その逆変換式に従って、世界座標系で表された通過領域及び回避領域を、それぞれ、カメラ座標系での領域に変換する。さらに、領域検出部32は、カメラ2についての車両10への取り付け位置などの情報を用いて、カメラ座標系で表された通過領域及び回避領域を、それぞれ、最新の画像上へ投影する。これにより、領域検出部32は、通過領域及び回避領域に対応する最新の画像上での領域を特定できる。なお、通過領域及び回避領域に対応する最新の画像上での領域は、例えば、ビットマップで表される。
領域検出部32は、最新の画像上に投影された通過領域及び回避領域を物体検出部33へ通知する。
物体検出部33は、カメラ2から得られた最新の画像において確信度が算出された複数の領域のそれぞれについて、その領域が通過領域または回避領域に含まれるか否かに応じて確信度と比較される確信度閾値を制御する。本実施形態では、物体検出部33は、通過領域及び回避領域以外の領域(以下、説明の便宜上、未通過領域と呼ぶ)に適用される確信度閾値を、第1の確信度閾値(例えば、0.7〜0.9)に設定する。さらに、物体検出部33は、通過領域に対して適用される確信度閾値を、第1の確信度閾値よりも高い第2の確信度閾値(例えば、第1の確信度閾値+0.05〜0.1)に設定する。これは、通過領域には、その通過領域を通過した、追跡中の物体以外の他の物体が存在する可能性が低いためである。
一方、物体検出部33は、回避領域に対して適用される確信度閾値を、第1の確信度閾値よりも低い第3の確信度閾値(例えば、第1の確信度閾値-0.1〜0.2)に設定する。これは、回避領域には、追跡中の物体が回避行動を取る原因となった何らかの物体が存在する可能性が高いためである。さらに、回避領域に存在する可能性のある物体は、他の車といった、識別器を十分に学習できる物体に限られず、何らかの落下物あるいは人以外の動物といった、レア物体である可能性がある。そこで、回避領域に適用される確信度閾値を、未通過領域に適用される確信度閾値よりも低くすることで、回避領域にレア物体が存在する場合でも、プロセッサ23は、回避領域に存在する物体の検出に失敗することを抑制できる。
なお、確信度算出部31は、物体の種類(車、人、落下物など)ごとに確信度を算出するため、物体検出部33は、通過領域または回避領域に対して適用される確信度閾値の制御を物体の種類ごとに行ってもよい。例えば、物体の種類が車の場合、絶対速度(地面に対する相対速度)が大きく回避領域と未通過領域の間の移動が激しい可能性があるため、確信度算出部31は、確信度閾値の制御を行わないようにしてもよい。
さらに、物体検出部33は、カメラ2から得られた最新の画像における複数の領域のうち、何れかの物体の種類についての確信度が、その領域について適用される確信度閾値以上となる領域を、その種類の物体が表された物体領域として検出する。その際、物体検出部33は、着目する領域が、通過領域、回避領域及び未通過領域の何れに対応する画像上の領域に含まれるか否か判定する。着目する領域が、未通過領域に対応する画像上の領域に含まれる場合には、物体検出部33は、確信度を第1の確信度閾値と比較する。また、着目する領域が、通過領域に対応する画像上の領域に含まれる場合には、物体検出部33は、確信度を第2の確信度閾値と比較する。そして着目する領域が、回避領域に対応する画像上の領域に含まれる場合には、物体検出部33は、確信度を第3の確信度閾値と比較する。なお、着目する領域が、通過領域、未通過領域及び回避領域のそれぞれの画像上の対応領域のうちの二つ以上と重なる場合、物体検出部33は、それら対応領域のうちの着目する領域と重なる面積が最も多い対応領域に着目する領域が含まれるとしてもよい。あるいは、物体検出部33は、着目する領域の重心が含まれる対応領域に、着目する領域が含まれるとしてもよい。あるいはまた、通過領域、未通過領域及び回避領域のそれぞれは、路面上に設定されるものであることから、物体検出部33は、それら対応領域のうち、着目する領域の下端を最も多く含む対応領域に、着目する領域が含まれるとしてもよい。
なお、物体検出部33は、一つの画像上で同一種類の物体が表された物体領域が複数検出され、かつ、その物体領域同士が少なくとも部分的に重複する場合、それら複数の物体領域のうち、確信度が最大となる領域のみを出力するようにしてもよい。
物体検出部33は、各物体領域の画像上での位置及び範囲と、その領域について算出された物体の種類とを、検出された物体のリストである検出物体リストに登録する。そして物体検出部33は、検出物体リストをメモリ22に記憶する。
図5は、適用される確信度閾値と未通過領域、通過領域及び回避領域の関係の一例を示す図である。画像500において、車両501及び車両502が追跡されている。この場合、車両501が通過した通過領域に対応する画像500上の領域511及び車両502が通過した通過領域に対応する画像500上の領域512では、第1の確信度閾値よりも高い第2の確信度閾値が適用される。そのため、領域511及び領域512からは、物体は検出され難い。
一方、車両501は回避行動を取っているため、車両501の経路は、車両501の進行方向に対して直交する方向にシフトしている。そのため、回避領域が設定されており、その回避領域は、画像500上で領域511に隣接する領域513として表される。領域513では、第1の確信度閾値よりも低い第3の確信度閾値が適用される。そのため、領域513からは、物体は検出され易くなる。また、画像上の領域511〜513以外の領域は、未通過領域に対応するので、第1の確信度閾値が適用される。
運転計画部34は、各画像について求められた検出物体リストを参照して、車両10の周囲に存在する物体と車両10とが衝突しないように車両10の走行予定経路(トラジェクトリ)を1以上生成する。走行予定経路は、例えば、現時刻から所定時間先までの各時刻における、車両10の目標位置の集合として表される。例えば、運転計画部34は、領域検出部32と同様に、物体検出部33から物体検出リストを受信する度に、カメラ2についての車両10への取り付け位置などの情報を用いて視点変換処理を実行することで、物体検出リストにおける物体の画像内座標を鳥瞰画像上の座標(鳥瞰座標)に変換する。そして運転計画部34は、一連の鳥瞰座標に対してKalman FilterまたはParticle filterなどを用いたトラッキング処理を実行することで、検出物体リストに登録されている物体を追跡し、その追跡結果により得られた軌跡から、物体のそれぞれの所定時間先までの予測軌跡を推定する。運転計画部34は、追跡中の各物体の予測軌跡に基づいて、何れの物体についても所定時間先までの追跡中の物体のそれぞれと車両10間の距離の予測値が所定距離以上となるように、車両10の走行予定経路を生成する。その際、運転計画部34は、例えば、車両10に搭載されたGPS受信機(図示せず)から得た、車両10の現在位置情報と、メモリ22に記憶されている地図情報とを参照して、車両10が走行可能な車線の数を確認してもよい。そして運転計画部34は、車両10が走行可能な車線が複数存在する場合には、車両10が走行する車線を変更するように走行予定経路を生成してもよい。
なお、運転計画部34は、複数の走行予定経路を生成してもよい。この場合、運転計画部34は、複数の走行予定経路のうち、車両10の加速度の絶対値の総和が最小となる経路を選択してもよい。
運転計画部34は、生成した走行予定経路を車両制御部35へ通知する。
車両制御部35は、車両10が通知された走行予定経路に沿って走行するように車両10の各部を制御する。例えば、車両制御部35は、通知された走行予定経路、及び、車速センサ(図示せず)により測定された車両10の現在の車速に従って、車両10の加速度を求め、その加速度となるようにアクセル開度またはブレーキ量を設定する。そして車両制御部35は、設定されたアクセル開度に従って燃料噴射量を求め、その燃料噴射量に応じた制御信号を車両10のエンジンの燃料噴射装置へ出力する。あるいは、車両制御部35は、設定されたブレーキ量に応じた制御信号を車両10のブレーキへ出力する。
さらに、車両制御部35は、車両10が走行予定経路に沿って走行するために車両10の進路を変更する場合には、その走行予定経路に従って車両10の操舵角を求め、その操舵角に応じた制御信号を、車両10の操舵輪を制御するアクチュエータ(図示せず)へ出力する。
図6は、プロセッサ23により実行される、物体検出処理を含む車両制御処理の動作フローチャートである。プロセッサ23は、カメラ2から画像が受信する度に、図6に示される動作フローチャートに従って車両制御処理を実行する。なお、以下に示される動作フローチャートにおいて、ステップS101〜S112の処理が物体検出処理に対応する。
プロセッサ23の確信度算出部31は、カメラ2から得られた最新の画像を識別器に入力して、画像上の様々な領域について、その領域に表された検出対象となる物体の種類ごとの確信度を求める(ステップS101)。
また、プロセッサ23の領域検出部32は、過去の画像から既に検出されている物体を追跡して、追跡した物体が通過した通過領域、追跡した物体が回避した回避領域及び未通過領域を検出する(ステップS102)。そしてプロセッサ23の物体検出部33は、通過領域に適用される確信度閾値を、未通過領域に適用される第1の確信度閾値Th1よりも高い第2の確信度閾値Th2に設定する(ステップS103)。一方、物体検出部33は、回避領域に適用される確信度閾値を、未通過領域に適用される第1の確信度閾値Th1よりも低い第3の確信度閾値Th3に設定する(ステップS104)。
その後、物体検出部33は、カメラ2から得られた最新の画像における、確信度が算出された複数の領域のうちの何れかを着目する領域に設定する(ステップS105)。そして物体検出部33は、着目する領域が通過領域に含まれるか否か判定する(ステップS106)。着目する領域が通過領域に含まれる場合(ステップS106−Yes)、物体検出部33は、着目する領域について算出された確信度の最大値が第2の確信度閾値Th2以上となるか否か判定する(ステップS107)。確信度の最大値が第2の確信度閾値Th2以上である場合(ステップS107−Yes)、物体検出部33は、着目する領域に、その確信度の最大値に対応する種類の物体が表されていると判定し、着目する領域を物体領域として、その領域に表されている物体を検出物体リストに登録する(ステップS108)。
一方、ステップS106において、着目する領域が通過領域に含まれない場合(ステップS106−No)、物体検出部33は、着目する領域が回避領域に含まれるか否か判定する(ステップS109)。着目する領域が回避領域に含まれる場合(ステップS109−Yes)、物体検出部33は、着目する領域について算出された確信度の最大値が第3の確信度閾値Th3以上となるか否か判定する(ステップS110)。確信度の最大値が第3の確信度閾値Th3以上である場合(ステップS110−Yes)、物体検出部33は、着目する領域に、その確信度の最大値に対応する種類の物体が表されていると判定し、着目する領域を物体領域として、その領域に表されている物体を検出物体リストに登録する(ステップS108)。
一方、ステップS109において、着目する領域が回避領域に含まれない場合(ステップS109−No)、すなわち、着目する領域が未通過領域に含まれる場合、物体検出部33は、着目する領域について算出された確信度の最大値が第1の確信度閾値Th1以上となるか否か判定する(ステップS111)。確信度の最大値が第1の確信度閾値Th1以上である場合(ステップS111−Yes)、物体検出部33は、着目する領域に、その確信度の最大値に対応する種類の物体が表されていると判定し、着目する領域を物体領域として、その領域に表されている物体を検出物体リストに登録する(ステップS108)。
ステップS108の後、あるいは、ステップS107、S110またはS111にて確信度の最大値が着目する領域に適用される確信度閾値未満である場合(ステップS107、S110またはS111−No)、プロセッサ23は、未着目の領域があるか否か判定する(ステップS112)。未着目の領域があれば(ステップS112−Yes)、プロセッサ23は、未着目の領域の何れかを着目領域として、ステップS105以降の処理を繰り返す。
一方、未着目の領域が無ければ(ステップS112−No)、プロセッサ23の運転計画部34は、検出物体リストを参照して、検出物体リストに登録されている物体を追跡し、その追跡結果に基づいて推定されるその物体の予測軌跡と所定の距離以上となるように、車両10の走行予定経路を生成する(ステップS113)。そしてプロセッサ23の車両制御部35は、走行予定経路に沿って車両10が走行するように車両10を制御する(ステップS114)。そしてプロセッサ23は、車両制御処理を終了する。
なお、プロセッサ23は、ステップS101の処理とステップS102〜S104の処理の順序を入れ替えてもよく、あるいは、並列に実行してもよい。
以上に説明してきたように、この物体検出装置は、既に検出された物体を追跡して、その物体が通過した通過領域及びその物体が回避した回避領域を特定する。そしてこの物体検出装置は、通過領域に対応する画像上の領域に適用される確信度閾値を、未通過領域に対応する画像上の領域に適用される確信度閾値よりも高くする。これにより、この物体検出装置は、通過領域において物体を誤検出することを抑制できる。またこの物体検出装置は、回避領域に対応する画像上の領域に適用される確信度閾値を、未通過領域に対応する画像上の領域に適用される確信度閾値よりも低くする。これにより、この物体検出装置は、回避領域に存在する物体がレア物体であっても、検出に失敗することを抑制できる。そのため、この物体検出装置は、検出精度を向上できる。さらに、この物体検出装置は、比較的演算量が多い識別器による処理を1回実行するだけで、画像上の各領域について検出対象となる物体が表されているか否かを判定できるので、演算量を抑制できる。
変形例によれば、確信度算出部31は、DNN以外の識別器を利用して、画像上の各領域について確信度を算出してもよい。例えば、確信度算出部31は、識別器として、画像上に設定されるウィンドウから算出される特徴量(例えば、Histograms of Oriented Gradients, HOG)を入力として、そのウィンドウに検出対象となる物体が表される確信度を出力するように予め学習されたサポートベクトルマシン(SVM)を用いてもよい。確信度算出部は、画像上に設定するウィンドウの位置、サイズ及びアスペクト比を様々に変更しながら、そのウィンドウから特徴量を算出し、算出した特徴量をSVMへ入力することで、そのウィンドウについて確信度を求める。なお、SVMは、検出対象となる物体の種類ごとに用意されてもよい。この場合には、確信度算出部31は、各ウィンドウについて、そのウィンドウから算出された特徴量をそれぞれのSVMへ入力することで、物体の種類ごとに確信度を算出すればよい。
他の変形例によれば、確信度算出部31は、画像上の各領域について、車両10が走行可能なフリースペースである確信度をさらに算出してもよい。この場合、確信度算出部31が用いる識別器は、検出対象の物体の一つをフリースペースとして、そのフリースペースについて確信度を算出するように予め学習されてもよい。
この場合、物体検出部33は、確信度が算出された複数の領域のうちの着目する領域について、確信度の最大値がフリースペースに対応し、かつ、着目する領域が回避領域に対応する画像上の領域に含まれる場合、適用される確信度閾値を、未通過領域に適用される第1の確信度閾値よりも高い第2の確信度閾値に設定してもよい。これにより、回避領域がフリースペースと判定され難くなるので、プロセッサ23は、回避領域に何等かの物体が存在する場合にその物体と車両10とが接触する危険性を低減できる。
あるいは、確信度算出部31が用いる識別器は、図4に示される識別器400に対して、識別器400の主幹部401から出力されるfeature mapを入力とし、画素ごとにフリースペースである確信度を出力するように学習されたセグメンテーション部が追加された構成を有してもよい。この場合、セグメンテーション部は、例えば、セグメンテーション用の何れかのCNNアーキテクチャと同様の構成を有していればよい。
この場合も、物体検出部33は、回避領域に対応する画像上の領域に含まれる各画素について適用される、フリースペースか否かを判定するための確信度閾値を、未通過領域に適用される確信度閾値よりも高くすればよい。
また他の変形例によれば、追跡中の物体が通過した通過領域を、他の移動物体が通行することもある。そこで、物体検出部33は、通過領域に適用される確信度閾値を、物体の種類ごとに設定してもよい。この場合、物体検出部33は、例えば、着目する領域が通過領域に対応する画像上の領域に含まれ、かつ、着目する領域について算出された確信度の最大値に対応する物体の種類が移動物体に相当する場合、着目する領域に適用される確信度閾値を、未通過領域と同様に第1の確信度閾値としてもよい。また、物体検出部33は、着目する領域が通過領域に対応する画像上の領域に含まれ、かつ、着目する領域について算出された確信度の最大値に対応する物体の種類が静止物体または低速移動物体に相当する場合、着目する領域に適用される確信度閾値を、上記の実施形態と同様に、第1の確信度閾値よりも高い第2の確信度閾値としてもよい。これにより、通過領域に存在しないはずの物体についてのみ、検出条件が厳しくなるので、プロセッサ23は、通過領域に存在しないはずの物体の誤検出を防ぎつつ、通過領域に存在する物体の検出に失敗することを抑制できる。
また、物体検出部33は、回避領域に適用される確信度閾値についても、物体の種類ごとに設定してもよい。例えば、物体検出部33は、着目する領域が回避領域に対応する画像上の領域に含まれ、かつ、着目する領域について算出された確信度の最大値に対応する物体の種類が移動物体に相当する場合、着目する領域に適用される確信度閾値を、未通過領域と同様に第1の確信度閾値としてもよい。また、物体検出部33は、着目する領域が回避領域に対応する画像上の領域に含まれ、かつ、着目する領域について算出された確信度の最大値に対応する物体の種類が静止物体または低速移動物体に相当する場合、着目する領域に適用される確信度閾値を、上記の実施形態と同様に、第1の確信度閾値よりも低い第3の確信度閾値としてもよい。これにより、回避領域に存在する可能性が高い物体についてのみ、検出条件が緩和されるので、プロセッサ23は、回避領域に存在する可能性が高い物体の検出に失敗することを抑制しつつ、回避領域に存在しない物体を誤検出することを抑制できる。
なお、移動物体は、例えば、自走能力を有する物体(例えば、車、バイク、人あるいは自転車)とすることができる。また、静止物体は、例えば、自走能力が無い物体(例えば、路上設置物、落下物、道路標識あるいは信号機)とすることができる。さらに、低速移動物体は、例えば、人または人以外の動物のように、車両10に対して絶対速度(地面に対する相対速度)が大幅に小さい(例えば、1/2〜1/10以下)物体とすることができる。
上記の実施形態または変形例による物体検出装置は、カメラ2以外の車両10の周囲に存在する物体を検知するためのセンサにより取得されたセンサ信号に対して適用されてもよい。そのような、所定の検知範囲内に存在する物体を検出するためのセンサとして、例えば、車両10に搭載されたLIDARセンサあるいはレーザセンサが用いられてもよい。この場合、確信度算出部31が用いる識別器は、車両10に搭載されたセンサにより取得されたセンサ信号から、そのセンサの検知範囲内に設定される複数の領域ごとに、検出対象となる物体についての確信度を出力するように予め学習されればよい。この場合も、識別器は、上記の実施形態または変形例と同様に、DNNまたはSVMとすることができる。またこの場合、各領域は、実空間について求められ、かつ、センサを基準とするセンサ座標系で表されるので、領域検出部32では、上記の実施形態における視点変換処理及び画像への投影処理は省略されてもよい。すなわち、センサ座標系で表される通過領域、回避領域及び未通過領域がそのまま利用されればよい。
さらに他の変形例によれば、上記の実施形態または変形例による物体検出装置は、車載機器以外に実装されてもよい。例えば、上記の実施形態または変形例による物体検出装置は、屋外または屋内の所定の領域を所定周期ごとに撮影するように設置された監視カメラにより生成された画像から物体を検出するように構成されてもよい。そして物体検出装置は、一定期間にわたって物体が検出された場合、物体検出装置と接続されるディスプレイに物体が検出されたことを表すメッセージを表示させるか、物体検出装置と接続されるスピーカに物体が検出されたことを表す音声を出力させてもよい。
また、上記の実施形態または変形例による、物体検出装置のプロセッサ23の各部の機能を実現するコンピュータプログラムは、半導体メモリ、磁気記録媒体または光記録媒体といった、コンピュータ読取可能な可搬性の記録媒体に記録された形で提供されてもよい。
以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。
1 車両制御システム
2 カメラ
3 電子制御装置(物体検出装置)
4 車内ネットワーク
21 通信インターフェース
22 メモリ
23 プロセッサ
31 確信度算出部
32 領域検出部
33 物体検出部
34 運転計画部
35 車両制御部

Claims (7)

  1. 所定の検知範囲内に存在する物体を検出するためのセンサにより得られた時系列の複数のセンサ信号のうちの最新のセンサ信号に表された前記検知範囲内の複数の領域のそれぞれについて、当該領域に検出対象となる物体が表された確からしさを表す確信度を算出する確信度算出部と、
    前記複数のセンサ信号のうちの前記最新のセンサ信号よりも前の何れかのセンサ信号において検出された、前記検出対象となる物体のうちの第1の物体を追跡して、前記最新のセンサ信号において前記第1の物体が通過した通過領域を検出する領域検出部と、
    前記最新のセンサ信号における前記複数の領域のそれぞれについて、当該領域が前記通過領域に含まれるか否かに応じて、前記検出対象となる物体のうちの当該領域に表された第2の物体についての前記確信度に対して適用される確信度閾値を制御し、かつ、前記複数の領域のうちの前記第2の物体についての前記確信度が前記確信度閾値以上となる領域において前記第2の物体を検出する物体検出部と、
    を有する物体検出装置。
  2. 前記第2の物体は静止物体または低速移動物体である、請求項1に記載の物体検出装置。
  3. 前記領域検出部は、前記第1の物体を追跡して、前記最新のセンサ信号に表された前記検知範囲において前記第1の物体が回避した回避領域を検出し、
    前記物体検出部は、前記複数の領域のうち、前記回避領域に含まれる領域に適用される前記確信度閾値を、前記複数の領域のうち、前記回避領域以外の前記第1の物体が通過していない未通過領域に含まれる領域に適用される前記確信度閾値よりも低くする、請求項1または2に記載の物体検出装置。
  4. 前記物体検出部は、前記複数の領域のうち、前記通過領域に含まれる領域に適用される前記確信度閾値を、前記複数の領域のうち、前記回避領域以外の前記第1の物体が通過していない未通過領域に含まれる領域に適用される前記確信度閾値よりも高くする、請求項1または2に記載の物体検出装置。
  5. 前記センサは前記所定の検知範囲を撮影する撮像部であり、かつ、前記センサ信号は前記撮像部により生成される、前記所定の検知範囲が表された画像である、請求項1〜4の何れか一項に記載の物体検出装置。
  6. 所定の検知範囲内に存在する物体を検出するためのセンサにより得られた時系列の複数のセンサ信号のうちの最新のセンサ信号に表された前記検知範囲内の複数の領域のそれぞれについて、当該領域に検出対象となる物体が表された確からしさを表す確信度を算出し、
    前記複数のセンサ信号のうちの前記最新のセンサ信号よりも前の何れかのセンサ信号において検出された、前記検出対象となる物体のうちの第1の物体を追跡して、前記最新のセンサ信号において前記第1の物体が通過した通過領域を検出し、
    前記最新のセンサ信号における前記複数の領域のそれぞれについて、当該領域が前記通過領域に含まれるか否かに応じて、前記検出対象となる物体のうちの当該領域に表された第2の物体についての前記確信度に対して適用される確信度閾値を制御し、
    前記最新のセンサ信号において、前記複数の領域のうちの前記第2の物体についての前記確信度が前記確信度閾値以上となる領域において前記第2の物体を検出する、
    ことを含む物体検出方法。
  7. 所定の検知範囲内に存在する物体を検出するためのセンサにより得られた時系列の複数のセンサ信号のうちの最新のセンサ信号に表された前記検知範囲内の複数の領域のそれぞれについて、当該領域に検出対象となる物体が表された確からしさを表す確信度を算出し、
    前記複数のセンサ信号のうちの前記最新のセンサ信号よりも前の何れかのセンサ信号において検出された、前記検出対象となる物体のうちの第1の物体を追跡して、前記最新のセンサ信号において前記第1の物体が通過した通過領域を検出し、
    前記最新のセンサ信号における前記複数の領域のそれぞれについて、当該領域が前記通過領域に含まれるか否かに応じて、前記検出対象となる物体のうちの当該領域に表された第2の物体についての前記確信度に対して適用される確信度閾値を制御し、
    前記最新のセンサ信号において、前記複数の領域のうちの前記第2の物体についての前記確信度が前記確信度閾値以上となる領域において前記第2の物体を検出する、
    ことをコンピュータに実行させる物体検出用コンピュータプログラム。
JP2018181015A 2018-09-26 2018-09-26 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム Active JP7147420B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018181015A JP7147420B2 (ja) 2018-09-26 2018-09-26 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
US16/551,994 US11308717B2 (en) 2018-09-26 2019-08-27 Object detection device and object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018181015A JP7147420B2 (ja) 2018-09-26 2018-09-26 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2020052695A true JP2020052695A (ja) 2020-04-02
JP7147420B2 JP7147420B2 (ja) 2022-10-05

Family

ID=69884908

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018181015A Active JP7147420B2 (ja) 2018-09-26 2018-09-26 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム

Country Status (2)

Country Link
US (1) US11308717B2 (ja)
JP (1) JP7147420B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021163432A (ja) * 2020-04-03 2021-10-11 トヨタ自動車株式会社 信号灯状態識別装置、信号灯状態識別方法及び信号灯状態識別用コンピュータプログラムならびに制御装置

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11126890B2 (en) * 2019-04-18 2021-09-21 Adobe Inc. Robust training of large-scale object detectors with a noisy dataset
JP7078021B2 (ja) 2019-08-08 2022-05-31 トヨタ自動車株式会社 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
WO2021041337A1 (en) * 2019-08-23 2021-03-04 Memorial Sloan Kettering Cancer Center Multi-task learning for dense object detection
US11288835B2 (en) * 2019-09-20 2022-03-29 Beijing Jingdong Shangke Information Technology Co., Ltd. Lighttrack: system and method for online top-down human pose tracking
KR102304018B1 (ko) * 2019-12-10 2021-09-23 주식회사 라이드플럭스 자율주행 차량의 충돌 방지 방법, 장치 및 컴퓨터프로그램
JP7359735B2 (ja) 2020-04-06 2023-10-11 トヨタ自動車株式会社 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置
JP7388971B2 (ja) 2020-04-06 2023-11-29 トヨタ自動車株式会社 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム
JP2022044155A (ja) * 2020-09-07 2022-03-17 株式会社Subaru 画像処理装置
CN112991290B (zh) * 2021-03-10 2023-12-05 阿波罗智联(北京)科技有限公司 图像稳像方法、装置、路侧设备、云控平台

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005091015A1 (ja) * 2004-03-23 2005-09-29 Murata Manufacturing Co., Ltd. レーダ
JP2017044530A (ja) * 2015-08-25 2017-03-02 株式会社Ihi 支障物検知システム
JP2017122646A (ja) * 2016-01-07 2017-07-13 トヨタ自動車株式会社 移動物体検出装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4367174B2 (ja) 2004-02-25 2009-11-18 株式会社デンソー 車載送信装置および障害物検知システム
US8428305B2 (en) * 2008-04-24 2013-04-23 GM Global Technology Operations LLC Method for detecting a clear path through topographical variation analysis
CN110402399B (zh) * 2017-01-03 2023-07-18 应诺维思科技有限公司 用于检测和分类物体的激光雷达系统和方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005091015A1 (ja) * 2004-03-23 2005-09-29 Murata Manufacturing Co., Ltd. レーダ
JP2017044530A (ja) * 2015-08-25 2017-03-02 株式会社Ihi 支障物検知システム
JP2017122646A (ja) * 2016-01-07 2017-07-13 トヨタ自動車株式会社 移動物体検出装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021163432A (ja) * 2020-04-03 2021-10-11 トヨタ自動車株式会社 信号灯状態識別装置、信号灯状態識別方法及び信号灯状態識別用コンピュータプログラムならびに制御装置
JP7381388B2 (ja) 2020-04-03 2023-11-15 トヨタ自動車株式会社 信号灯状態識別装置、信号灯状態識別方法及び信号灯状態識別用コンピュータプログラムならびに制御装置
US11900690B2 (en) 2020-04-03 2024-02-13 Toyota Jidosha Kabushiki Kaisha Apparatus, method, and computer program for identifying state of signal light, and controller

Also Published As

Publication number Publication date
JP7147420B2 (ja) 2022-10-05
US11308717B2 (en) 2022-04-19
US20200097739A1 (en) 2020-03-26

Similar Documents

Publication Publication Date Title
JP7052663B2 (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
JP7147420B2 (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
JP7078021B2 (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
JP7388971B2 (ja) 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム
JP7359735B2 (ja) 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置
JP7135665B2 (ja) 車両制御システム、車両の制御方法及びコンピュータプログラム
JP7115502B2 (ja) 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置
US20200133283A1 (en) Proceedable direction detection apparatus and proceedable direction detection method
JP7226368B2 (ja) 物体状態識別装置
US20200097005A1 (en) Object detection device, object detection method, and vehicle controller
US11120292B2 (en) Distance estimation device, distance estimation method, and distance estimation computer program
JP2021163432A (ja) 信号灯状態識別装置、信号灯状態識別方法及び信号灯状態識別用コンピュータプログラムならびに制御装置
JP2023152109A (ja) 地物検出装置、地物検出方法及び地物検出用コンピュータプログラム
JP7147464B2 (ja) 画像選択装置及び画像選択方法
JP2021026683A (ja) 距離推定装置
JP2020076714A (ja) 位置姿勢推定装置
US20230177844A1 (en) Apparatus, method, and computer program for identifying state of lighting
US20240067168A1 (en) Vehicle controller, method, and computer program for vehicle control
CN116309694A (zh) 跟踪装置、跟踪方法以及跟踪用计算机程序
JP2022079954A (ja) 物体検出装置
JP2022146384A (ja) 物体検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220905

R151 Written notification of patent or utility model registration

Ref document number: 7147420

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151