JP7176478B2 - 画像認識装置 - Google Patents

画像認識装置 Download PDF

Info

Publication number
JP7176478B2
JP7176478B2 JP2019110843A JP2019110843A JP7176478B2 JP 7176478 B2 JP7176478 B2 JP 7176478B2 JP 2019110843 A JP2019110843 A JP 2019110843A JP 2019110843 A JP2019110843 A JP 2019110843A JP 7176478 B2 JP7176478 B2 JP 7176478B2
Authority
JP
Japan
Prior art keywords
target
image
feature
frame images
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019110843A
Other languages
English (en)
Other versions
JP2020204804A (ja
Inventor
伸 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2019110843A priority Critical patent/JP7176478B2/ja
Priority to US16/833,957 priority patent/US11507833B2/en
Priority to DE102020110157.0A priority patent/DE102020110157A1/de
Priority to CN202010514662.6A priority patent/CN112084833B/xx
Publication of JP2020204804A publication Critical patent/JP2020204804A/ja
Application granted granted Critical
Publication of JP7176478B2 publication Critical patent/JP7176478B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Description

本発明は、時系列のフレーム画像から物標を認識する画像認識装置に関する。
従来から、例えば、車載カメラによって外界を撮影して得られた画像に基づいて、車両周辺に存在する物体を認識し、その認識情報に基づいて運転支援を行う装置が知られている。例えば、特許文献1では、車載カメラにより撮影された入力画像をニューラルネットワークに取得させ、入力画像中の危険領域と当該危険領域の特徴とを推定させる危険予測器が提案されている。
例えば、画像処理により、入力画像に映っている物体の位置検知、および、物体の識別(物体が何なのかの識別)を行う手法として、YOLO(You Only Look Once)やSSD(Single Shot Multibox Detector)が知られている。
特開2017-162438号公報
入力画像から、その画像に映っている物体を認識する場合には、認識された物体(以下、物標と呼ぶ)の位置検知精度および識別精度が低いと、画像認識結果を用いて実施される制御システムを適正に作動させることができなくなるおそれがある。従って、物標の認識精度の向上が望まれる。
本発明は、上記課題を解決するためになされたものであり、物標の認識精度を向上させることを目的とする。
上記目的を達成するために、本発明の画像認識装置の特徴は、
車両等の移動体から外界を撮影して得られた時系列のフレーム画像を画像処理することによって、前記フレーム画像に映っている物標を抽出し、前記抽出した物標に係る物標情報を出力する画像認識装置(1)において、
前記フレーム画像ごとに、前記物標の位置検知と識別とを行う物標認識手段(21)と、
前記時系列のフレーム画像間における識別が共通する物標の位置変化が、前記移動体から外界を撮影した場合において現れる物標の位置変化の特徴である外界変化特徴を有している物標を、前記外界変化特徴を有していない物標に比べて優先的に抽出する優先抽出手段(22)と
を備えたことにある。
本発明の画像認識装置は、車両等の移動体から外界を撮影して得られた時系列のフレーム画像を画像処理することによって、フレーム画像に映っている物標を抽出し、抽出した物標に係る物標情報を出力する。物標を抽出するとは、フレーム画像で認識された物標のうち、その物標情報を出力すべき対象とすることである。従って、抽出された物標は、画像認識装置で認識された物標とされ、その物標に係る物標情報が画像認識装置から出力される。
画像認識装置は、物標認識手段と優先抽出手段とを備えている。物標認識手段は、フレーム画像ごとに、物標の位置検知と識別(物標が何であるかの識別)とを行う。
物標認識手段が、各フレーム画像で物標を正しく認識している場合(位置検知と識別とが適正である場合)、フレーム画像間における識別が共通する物標の位置変化に着目すると、その位置変化は、移動体から外界を撮影した場合において現れる特徴を有する。一方、物標を正しく認識できていない場合、フレーム画像間における識別が共通する物標の位置変化は、移動体から外界を撮影した場合において現れる特徴を有さない。
そこで、優先抽出手段は、時系列のフレーム画像間における識別が共通する物標の位置変化が、移動体から外界を撮影した場合において現れる物標の位置変化の特徴である外界変化特徴を有している物標を、外界変化特徴を有していない物標に比べて優先的に抽出する。画像認識装置は、抽出された物標を自身が認識した物標として、その物標に係る物標情報を出力する。
従って、画像認識装置が認識する物標の認識精度を向上させることができる。
本発明の一側面の特徴は、
前記外界変化特徴は、前記物標の位置変化の特徴に加えて、前記物標の大きさの変化の特徴も含んでいることにある。
外界変化特徴は、物標の大きさの変化にも現れる。そこで、本発明の一側面においては、外界変化特徴は、物標の位置変化の特徴に加えて、物標の大きさの変化の特徴も含んでいる。従って、物標の認識精度を一層向上させることができる。
本発明の一側面の特徴は、
前記外界変化特徴は、動きベクトルの消失点の近傍位置で認識された物標については、フレーム画像間における位置の変化が所定量以下であるという特徴を含んでいることにある。
動きベクトルの消失点とは、複数の動きベクトルの直線が互いに交差する点である。従って、動きベクトルの消失点の近傍位置で認識された物標は、フレーム画像間における位置の変化は少ない。従って、こうした特徴を外界変化特徴に含めることにより、物標の認識精度を一層向上させることができる。
本発明の一側面の特徴は、
前記外界変化特徴は、前記識別が共通する物標は、同一直線上を移動するという特徴を含んでいることにある。
この場合、前記外界変化特徴は、任意のフレーム画像における物標と動きベクトルの消失点とを結ぶ直線上を、他のフレーム画像における前記識別が共通する物標が移動するという特徴を含んでいるとよい。
各フレーム画像で物標を正しく認識している場合(位置検知と識別とが適正である場合)、フレーム画像間における識別が共通する物標は、動きベクトルの消失点を通る直線上を移動する。従って、こうした特徴を外界変化特徴に含めることにより、物標の認識精度を一層向上させることができる。
本発明の一側面の特徴は、
前記外界変化特徴は、前記識別が共通する物標の移動間隔の変化が一定の規則に沿っているという特徴を含んでいることにある。
また、前記外界変化特徴は、前記識別が共通する物標の大きさの変化が一定の規則に沿っているという特徴を含んでいることにある。
各フレーム画像で物標を正しく認識している場合(位置検知と識別とが適正である場合)、フレーム画像間における識別が共通する物標は同一直線上を移動する。このとき、物標の移動間隔の変化は一定の規則性を有する。また、物標の大きさについても一定の規則性を有する。例えば、物標の移動間隔の変化率は一定であるという規則性、および、物標の大きさの変化率は一定であるという規則性が表れる。従って、こうした特徴を外界変化特徴に含めることにより、物標の認識精度を一層向上させることができる。
本発明の一側面の特徴は、
少なくとも前記優先抽出手段は、時系列の複数のフレーム画像の情報を使って物標を認識可能なニューラルネットワーク(23)を備え、
前記ニューラルネットワークは、
前記外界変化特徴を有している物標が、前記外界変化特徴を有していない物標に比べて優先的に抽出されるようにディープラーニングによって学習されていることにある。
本発明の一側面においては、少なくとも優先抽出手段は、時系列の複数のフレーム画像の情報を使って物標を認識可能なニューラルネットワークを備えている。こうした複数のフレーム画像を時系列で処理するニューラルネットワークとしては、例えば、リカレントニューラルネットワークを用いることができる。
このニューラルネットワークでは、時系列の複数のフレーム画像を使って物標認識の学習を行うことができる。例えば、時系列の複数のフレーム画像を使って、外界変化特徴を有する物標の動きをディープラーニングによって学習させることができる。これにより、外界変化特徴を有している物標が、外界変化特徴を有していない物標に比べて優先的に抽出されるようにすることができる。尚、学習を行う場合に使用される時系列の複数のフレーム画像は、動画像である必要は無く、予め決められた順番で処理される複数のフレーム画像であればよい。
本発明の一側面の特徴は、
前記ディープラーニングによる学習が行われる場合、前記ニューラルネットワークの結合重みを更新するロス関数の出力する誤差が、前記外界変化特徴を有している物標については、前記外界変化特徴を有していない物標に比べて小さくなるように調整されることにある。
ニューラルネットワークにおける学習時においては、ニューラルネットワークが推定した推定値と、正解値とがロス関数に入力され、ロス関数は、両者の差が大きいほど大きくなる誤差を演算する。この誤差が大きいほど大きくなるニューラルネットワークの結合重みの更新量が演算される。これにより、ニューラルネットワークの推定値は、正解値に近づいていく。
本発明の一側面においては、ディープラーニングによる学習が行われる場合、ロス関数の出力する誤差が、外界変化特徴を有している物標については、外界変化特徴を有していない物標に比べて小さくなるように調整される。従って、外界変化特徴を有している物標については、外界変化特徴を有していない物標よりも抽出されやすくなるように学習させることができる。
本発明の一側面の特徴は、
前記移動体から外界を撮影した時系列のフレーム画像を入力し、前記入力したフレーム画像から所定の間引き間隔で取り出したフレーム画像を、前記画像処理を行う対象に設定するフレーム選択手段(10)を備え、
前記フレーム選択手段は、
前記移動体の移動速度が低いほど、前記間引き間隔を大きくするように調整することにある。
本発明の一側面においては、フレーム選択手段が、移動体から外界を撮影した時系列のフレーム画像を入力し、その入力したフレーム画像から所定の間引き間隔で取り出したフレーム画像を、画像処理を行う対象に設定する。更に、フレーム選択手段は、移動体の移動速度が低いほど、間引き間隔を大きくするように調整する。従って、画像処理に係る演算負荷を低減しつつ、物標の検知遅れが発生しないようにすることができる。
上記説明においては、発明の理解を助けるために、実施形態に対応する発明の構成要件に対して、実施形態で用いた符号を括弧書きで添えているが、発明の各構成要件は、前記符号によって規定される実施形態に限定されるものではない。
本実施形態に係る画像認識装置の機能ブロック図である。 リカレントニューラルネットワークを学習させるシステムの概略構成図である。 動きベクトルを説明する説明図である。 動きベクトルの消失点を説明する説明図である。 動きベクトルの消失点を説明する説明図である。 時系列のフレーム画像、および、物標の位置変化を表す説明図である。 物標の位置関係を検出する処理を説明する図である。 リカレントニューラルネットワークの学習の流れを表す説明図である。 誤差演算部の構成図である。 物標の動きを表す説明図である。 認識性能評価装置の概略システム構成図である。 運転支援システムの概略構成図である。
以下、本発明の実施形態に係る画像認識装置について図面を参照しながら説明する。
図1は、本発明の実施形態に係る画像認識装置の機能ブロック図である。画像認識装置1は、マイクロコンピュータを主要部として備えている。画像認識装置1は、フレーム選択部10と、画像処理部20とを備えている。
フレーム選択部10は、動画像50、つまり、時系列の連続したフレーム画像を入力し、入力したフレーム画像から、所定の間隔で間引いたフレーム画像を選択し、選択したフレーム画像を画像処理部20に供給する。例えば、間引き間隔をnとすると、フレーム選択部10は、時系列のフレーム画像をn枚おきに取り出し、その取り出したフレーム画像を画像処理部20に供給する。従って、画像処理部20には、等時間間隔で撮影された複数のフレーム画像が、撮影された順番で入力される。
画像処理部20は、ニューラルネットワーク(人口知能モデル)を使った画像処理により、フレーム画像に映っている物体を認識し、その認識した物体(以下、物標と呼ぶ)の位置、および、物標が何であるかを表す情報を出力する。
画像処理部20は、その機能に着目すると、物標認識機能部21と優先抽出機能部22とを備えている。この優先抽出機能部22は、画像認識装置1の物標を認識する精度を向上させるために組み込まれた機能部である。
本実施形態の画像認識装置1は、車両外界の状況を監視しながら車両制御が行われるシステム(例えば、運転支援システムや自動運転システム)に利用される。従って、物標認識機能部21で認識される物標は、例えば、自動車、自転車、歩行者、道路標識、信号機など、車両制御システムが認識すべき予め定められた物標である。
物標認識機能部21は、ディープラーニングによって学習されたニューラルネットワークを使って、フレーム選択部10から供給された各フレーム画像に映っている物標を認識し、認識した物標の位置を表す位置情報、および、物標が何であるかを表す識別ラベルを生成する。こうした物標の位置情報と識別ラベルとをあわせて物標情報と呼ぶ。
物標情報は、以下のような情報を含んでいる。例えば、物標情報は、フレーム画像を所定数のグリッドに仕切り、各グリッドが物体であるかどうかを示す情報、物体ならば物体を矩形で表した場合の4隅位置を示す情報、何の物体か(物体らしさ)を表す識別ラベルを含んでいる。識別ラベルは、物標の種類を特定する情報と、その種類の物体であろうと推定できる(物体らしさを表す)確率値を表す情報とを含んでいる。例えば、識別ラベルは、認識された物標の種類が、制限速度60km/hの道路標識であって、その確率値が、0.8(80%)であるという情報である。
フレーム画像から、物標の位置検知、および、物標を識別する手法については、公知の手法(例えば、YOLO(You Only Look Once)、あるいは、SSD(Single Shot Multibox Detector)など)を採用することができる。例えば、YOLOは、フレーム画像全体を畳み込みニューラルネットワークに入力して、物標の位置検知および識別を行う手法である。
但し、こうした手法は、フレーム画像単独で物標を認識する手法であるが、その手法のみでは、物標の認識精度があまり良好であるとはいえない。特に、認識位置の検知については、所望の精度が得られにくい。また、道路標識など、物標の種類によっては、その識別が難しい場合もある。
走行している車両から外界を撮影した動画像においては、そこに映っている物体は、フレーム画像間において特徴的な動きをする。従って、フレーム画像間における物標の動きを把握し、その動きが上記の特徴的な動きであれば、その物標は正しく認識されていると推定することができる。優先抽出機能部22は、物標認識機能部21によって認識された物標のうち、そうした特徴的な動きをする物標を優先的に抽出することによって、画像認識装置1の認識精度を向上させる。
以下、こうした物標の動きの特徴を外界変化特徴と呼ぶ。
外界変化特徴は、以下のように設定されている。
1.消失点近傍の物標は、フレーム画像間における位置変化が少ない。
2.消失点と物標とを結ぶ同一直線上を物標が移動する。
3.物標の動きがなめらかである。
物標の位置が直線的に変化する。
フレーム画像間における物標の移動間隔の変化が一定である。
フレーム画像間における物標の大きさの変化が一定である。
ここで、「消失点」とは、動きベクトルの消失点を表す。例えば、図3に示すように、任意の注目画素(i,j)が別のフレーム画像において別の場所(k,l)に動いた時、その移動を表すベクトルが注目画素の動きベクトルである。走行している車両から外界を撮影して得られた動画像(時系列のフレーム画像)では、図4,5に示すように、動きベクトルの直線の交わる点Pが求められる。この点Pが動きベクトルの消失点である。尚、図5(a)は、車両が直進している場合の消失点Pを表し、図5(b)は、車両が左カーブをしている場合の消失点Pを表す。
物標の位置情報は、物標の4隅の位置で表される。従って、物標の位置変化は、例えば、物標の中心位置の変化として考えればよい。また、物標の大きさは、物標の4隅の位置で囲まれる面積として考えればよい。
車載カメラで撮影した外界の動画像から外界に存在する物体を認識する場合には、各フレーム画像において認識された物標の動き(フレーム画像間における物標の位置の変化)が、外界変化特徴を有している場合には、各フレーム画像において認識されたその物標は、共通の物標(同じ物標)であると推定できる。従って、それぞれのフレーム画像で認識された物標は、正しく認識された物標であると推定できる。
例えば、フレーム画像間において、消失点近傍で動きの少ない物標は、共通の物標(同じ物標)であると推定できる(外界変化特徴1)。
また、任意のフレーム画像において認識された物標と消失点とを結ぶ直線上に、他のフレーム画像において認識された物標が位置する場合には、各フレーム画像で認識されたその物標は、共通の物標(同じ物標)であると推定できる(外界変化特徴2)。
また、認識された物標の位置がフレーム画像間においてなめらかに変化する場合にも、各フレーム画像で認識されたその物標は、共通の物標(同じ物標)であると推定できる(外界変化特徴3)。例えば、物標が直線上を移動するように変化し、かつ、物標の移動間隔の変化率、あるいは、物標の大きさの変化率が一定となる場合には、各フレーム画像で認識されたその物標は、共通の物標(同じ物標)であると推定できる(外界変化特徴3)。
尚、外界変化特徴3における、物標の移動間隔の変化、あるいは、物標の大きさの変化については、一定の規則性を有していればよく、例えば、物標の移動間隔の変化量、あるいは、物標の大きさの変化量が一定となる場合にも、各フレーム画像で認識されたその物標を、共通の物標(同じ物標)であると見做しても構わない。つまり、正しく認識された物標であると見做しても問題ない。
図6は、車載カメラで車両の前方を撮影して得られたフレーム画像を表す。これらのフレーム画像は、間引き間隔nで順番に読み込まれた画像である。ここで、フレーム画像に映っている道路標識(物標B1と呼ぶ)の位置に注目すると、フレーム番号1のフレーム画像で認識された物標B1と、フレーム番号(1+n)のフレーム画像で認識された物標B1と、フレーム番号(1+2n)のフレーム画像で認識された物標B1とは、ほぼ同一直線上に配置されている。つまり、これらの3つのフレーム画像を重ねて透視すると、各物標B1は、ほぼ同一直線上に配置されている。
また、物標B1の移動間隔の変化は、および、物標B1の大きさの変化は、一定の規則性を有する。つまり、物標B1の移動間隔、および、大きさは、動きベクトルの消失点から離れるほど大きくなる。また、任意のフレーム画像の物標B1の位置と動きベクトルの消失点とを結ぶ直線上に、他のフレーム画像の物標B1が位置する。従って、物標B1については、外界変化特徴2,3を満足する。
一方、前方を走行する先行車両(物標B2と呼ぶ)については、フレーム画像間において位置変化が少ない。これは、物標B2が消失点近傍に位置しているからである。従って、この物標B2については、外界変化特徴1を満足する。
従って、外界変化特徴1~3の一つでも当てはまる物標については、正しく認識された物標であると推定できる。
次に、フレーム画像間における物標の動き(位置関係)を把握する手法について説明する。例えば、優先抽出機能部22は、フレーム選択部10から供給されたフレーム画像について、その並び順(入力順)で所定枚数のフレーム画像を1セットとして取り扱う。ここでは、所定枚数を3枚とする。従って、1セットのフレーム画像(3枚のフレーム画像)において、共通の識別ラベルの付与されている物標のそれぞれの位置情報がわかれば、その物標のフレーム画像間における動き(位置関係)を把握することができる。
この場合、物標認識機能部21によって、物標の位置検知および識別ラベルの付与が完了しているものとする。例えば、単独のフレーム画像における物標の位置検知および識別ラベルの付与は、YOLOあるいはSSDなどによって実施すればよい。
例えば、フレーム選択部10におけるフレーム画像の間引き間隔をn(>1)、所定数を3枚とした場合には、図7に示すように、入力された最初のフレーム画像であるフレーム1と、(1+n)番目のフレーム画像であるフレーム(1+n)と、(1+2n)番目のフレーム画像であるフレーム(1+2n)とで1つのフレームセットが設定される。このフレームセットを構成する3つのフレーム画像を、以下、対象フレームと呼ぶ。また、3つの対象フレームのうちの真ん中の(2番目の)フレームの番号を使って、フレームセットを特定する。従って、この例では、最初に、フレームセット(1+n)が設定される。尚、フレームセットを構成する対象フレームの枚数は、3枚に限るものでは無く、任意に設定できるものである。
優先抽出機能部22は、フレームセット(1+n)について、各対象フレームで認識されている共通の識別ラベルの物標を紐付けし、紐付けされた物標の位置関係を取得する。優先抽出機能部22は、各対象フレームで認識されている共通の識別ラベルの物標のすべてについて、その位置関係の取得が完了すると、次のフレームセット(1+2n)の3枚の対象フレームに対して同様の処理を行って、共通の識別ラベルの物標の位置関係を取得する。尚、共通の識別ラベルの物標とは、この物体であろうと推定される種類が共通の物標をいう。
優先抽出機能部22は、フレームセットを次のフレームセットに変更した場合、直前のフレームセットを特定するIDと、そのフレームセットで抽出された物標の位置関係の情報を、次のフレームセットに引き継ぐ(記憶する)。
優先抽出機能部22は、フレームセット(1+2n)について、各物標について、対象フレーム間における位置関係を取得すると、次のフレームセット(1+3n)の3枚の対象フレームに対して同様の処理を行う。このような処理が繰り返されることによって、n枚おきのフレーム画像間において共通の識別ラベルの物標の位置関係、更には、その推移を把握することができる。
物標の位置検知および識別が正しければ、フレーム画像間における物標の動きに外界変化特徴が現れる。しかし、物標の位置検知あるいは識別が正しく行われないと、上記の外界変化特徴が現れにくくなる。例えば、フレーム画像間において、特定のフレーム画像における識別が誤っている場合には、外界変化特徴が現れない。また、フレーム画像間において、特定のフレーム画像における位置検知が誤っている場合には、外界変化特徴が現れない。また、フレーム画像間において、物標の紐付けが誤っている場合には、外界変化特徴が現れない。
優先抽出機能部22は、各フレーム画像間における共通の識別ラベルの物標の位置関係が、外界変化特徴を有している物標については、外界変化特徴を有していない物標に比べて優先的に抽出して、その抽出された物標の物標情報を、画像認識装置1から出力させる。従って、正しく認識されていると推定できる物標の情報を出力することができる。
優先抽出機能部22についての上記の説明は、優先抽出機能部22の機能を分かりやすくするための説明であって、実際には、前後の時系列の情報を考慮して処理可能なニューラルネットワーク、例えば、リカレントニューラルネットワークを用いて、そのニューラルネットワークにおける学習のさせ方を工夫することによって、そうした機能が得られるようになっている。
ニューラルネットワークにおける学習は、ディープラーニング(深層学習)と呼ばれる。一般に、ディープラーニングにおいては、ニューラルネットワークの推定した出力値と、教師データの正解値とがロス関数に入力される。ニューラルネットワークの出力値と教師データの正解値との差が大きいほど、ロス関数の出力する誤差は大きな値となる。ディープラーニングでは、このロス関数の出力する誤差が最小となるように、誤差逆伝播法を用いて、ニューラルネットワークの入力層と中間層との結合重み、および、中間層と出力層との結合重みを更新する。こうした処理を繰り返すことによって、ニューラルネットワークの推定精度が向上する。
画像認識技術においては、学習用画像と、学習用画像と対となるアノテーションデータとを使って、ニューラルネットワークの学習が行われる。アノテーションデータは、学習用画像に映っている物体が何であって、その物体がどこの位置に映っているかを表す正解データ、つまり、識別ラベルと検知位置の正解データである。正解データにおける識別ラベルは、物体らしさを表す確率値は、1.0とされる。
この場合、位置用ロス関数と識別用ロス関数とが用意され、位置用ロス関数に、ニューラルネットワークで推定した物標の位置と、アノテーションデータの正解位置とが入力され、識別用ロス関数に、ニューラルネットワークで推定した物標の識別ラベルと、アノテーションデータの正解識別ラベルとが入力され、両方のロス関数の出力する誤差を足し合わせたトータル誤差を使ってニューラルネットワークの層間の結合重みが更新される。これにより、ニューラルネットワークが学習される。
本実施形態においては、基本的には、上記の学習方法でニューラルネットワークを学習させるが、外界変化特徴が現れる物標であるか否かに応じて、ロス関数の出力するトータル誤差を調整する機能が組み込まれている。そのようにするために、画像処理部20は、前後の時系列の情報を考慮してフレーム画像に映っている物標を認識するリカレントニューラルネットワークを備えている。以下、リカレントニューラルネットワークをRNN(Recurrent Neural Network)と呼ぶ。
図2は、RNN23を学習させるシステム構成を表す。RNN23は、画像処理部20に備わっているリカレントニューラルネットワークである。RNN23は、教師装置100に接続される。教師装置100は、学習用画像110とアノテーションデータ120とを記憶しており、学習用画像110とアノテーションデータ120とをRNN23に供給して学習させる。
アノテーションデータ120には、上述した位置と識別ラベルとの正解データに加えて、調整値データが含まれている。調整値データは、ロス関数の出力した誤差を調整する調整値αを表すデータである。
学習用画像110は、複数のフレーム画像であって、RNN23に所定の順番に入力されたときに、各フレーム画像に映っている物標の位置が外界変化特徴をもって変化する画像と、各フレーム画像に映っている物標の位置が外界変化特徴をもって変化しない画像とを含んでいる。
調整値αは、物標ごとに付与される。調整値αは、学習用画像110を所定の順番で入力したときに、外界変化特徴をもって位置が変化する物標の場合には、1.0よりも小さな値(例えば、0.1)に設定され、外界変化特徴を持って位置変化しない物標の場合には、1.0に設定される。調整値αは、必ずしも2段階に設定される必要はなく、外界変化特徴が顕著に表れる物標ほど、小さな値となるように3段階以上に設定されてもよい。
図8は、RNN23における学習の流れを表している。図中、太実線の矢印が順伝播を表し、太点線の矢印が逆伝播を表している。データは、時刻T=1から実線矢印に従って順伝播する。各時刻における各層の値は変化していくため、それらの値は記憶される。また、順伝播時には、各時刻における誤差が算出される。各時刻における誤差は、RNN23の出力値と、正解値との差である。全時刻における誤差は、各時刻における誤差を合算したものとされる。
図8の例では、例えば、時刻T=1+2nまでデータの順伝播が終わると学習が開始される。RNN23における学習は、時系列処理を行わない通常のニューラルネットワークのディープラーニングと同様に、誤差が最小となるように、誤差の勾配を求めて、結合重みを更新する。その際、時刻をさかのぼるように、時刻T=1+2nの出力層から開始される。結合重みの更新は、中間層と出力層との間、中間層と中間層との間、入力層と中間層との間で行われる。
本実施形態のRNN23は、図9に示すように、層間の結合重みを更新するための誤差を算出する誤差演算部30を備えている。誤差演算部30は、ロス関数部31と調整部32とを備えている。ロス関数部31は、各時刻におけるRNN23の出力値とアノテーションデータ120の正解値とをロス関数に入力して、各時刻におけるRNN23の出力値とアノテーションデータ120の正解値との差の合算値が大きいほど大きくなる誤差E0を算出する。この誤差E0を調整前誤差E0と呼ぶ。
例えば、ロス関数部31は、位置用ロス関数と識別用ロス関数とを備えている。位置用ロス関数には、RNN23で推定した物標の位置と、アノテーションデータ120の正解位置とが入力される。ロス関数部31は、両者の差が大きくなるほど大きくなる位置誤差を演算する。
また、識別用ロス関数には、RNN23で推定した物標の識別ラベル(その物体であると推定される確率値)と、アノテーションデータ120の正解識別ラベルとが入力される。ロス関数部31は、両者の差が大きくなるほど大きくなる識別誤差を演算する。例えば、識別そのものが間違っている場合(例えば、物標が自動車であるにもかかわらず歩行者と推定されている場合)には、識別誤差は最大となり、識別が正しい場合には、確率値の差が大きいほど識別誤差は大きくなる。ロス関数部31は、位置誤差と識別誤差とを足し合わせた誤差を出力する。この誤差が調整前誤差E0である。
ロス関数部31は、演算した調整前誤差E0を出力する。この調整前誤差E0は、調整部32に入力される。調整部32は、アノテーションデータ120に含まれる調整値αを入力し、調整前誤差E0に調整値αを乗算した値である調整後誤差Eを演算する(E=E0×α)。この調整後誤差Eがロス関数部31で算出された誤差である。
調整値αは、上述したように、学習用画像に映っている物標が、外界変化特徴を有している物標の場合には、1.0よりも小さな値に設定され、外界変化特徴を有していない物標の場合には、1.0に設定される。
例えば、図10(a)に示す軌道にそって物標Bが移動する学習用画像であれば、その物標Bは外界変化特徴を有するため、調整値αは、小さな値(例えば0.1)に設定される。一方、図10(b)に示す軌道にそって物標Bが移動する学習用画像であれば、その物標は外界変化特徴を有しないため、調整値αは、1.0に設定される。
RNN23では、調整後誤差Eを最小にするように、層間の結合重みが更新される。つまり、誤差逆伝播が行われる。
外界変化特徴を有している物標の場合には、外界変化特徴を有している物標に比べて、調整後誤差Eが小さな値になるように調整されるため、誤差逆伝播法による結合重みの更新量が小さくなる。この結果、外界変化特徴を有している物標を認識する能力が維持される。一方、外界変化特徴を有していない物標については、調整後誤差Eが小さな値となるように調整されないため、誤差逆伝播法による結合重みの更新量は小さくならない。従って、外界変化特徴を有していない物標については、認識されにくくなる方向に学習される。
従って、車両から外界を撮影した動画像に映っている物体を認識する画像認識装置1においては、非常に有効な学習が行われるため、その認識精度(位置の検知精度、物標の識別精度)を向上させることができる。また、フレーム画像間における物標の紐つけ精度も向上させることができる。
<画像認識装置の利用1>
こうした画像認識装置1は、例えば、車両制御システムの認識性能評価装置に利用することができる。例えば、図11に示すように、認識性能評価装置200は、リファレンス画像取得部210と、物標認識部220と、計測データ取得部230と、システム認識部240とを備えている。
車両制御システムの認識性能を評価する場合、車両に計測用カメラ250を設置し、車両を所定のコースにて走行させながら、計測用カメラ250で外界を撮影する。リファレンス画像取得部210は、計測用カメラ250で撮影された動画像をリファレンス画像として取得する。物標認識部220は、リファレンス画像を探索してリファレンス画像に映っている物標(例えば、他車両、道路標識など)を認識して抽出する。この物標認識部220には、上述した画像認識装置1が用いられる。物標認識部220は、リファレンス画像から認識された物標の情報である画像認識情報を生成して出力する。
計測用カメラ250で外界を撮影しているとき、それと同期して、各種の計測データがメモリ260に記憶される。この計測データは、車両の制御システムで使用される計測値の時系列データである。計測データ取得部230は、メモリ260に記憶された計測データを取得する。システム認識部240は、計測データを車両の制御システムのモデルに入力して、車両の制御システムがどのように運転状況や周囲状況を認識して制御を行うかを表すシステム認識・制御情報を生成して出力する。
この認識性能評価装置200では、実施形態の画像認識装置1を使ってリファレンス画像に映っている物標(例えば、他車両、道路標識など)を認識する。従って、車両制御システムの認識性能評価を適正に行うことができる。
この結果、認識性能評価装置200の出力する2種類の情報(画像認識情報と、システム認識・制御情報)を比べることによって、整合性のあわない部分を把握して車両の制御システムを改善することができる。
<画像認識装置の利用2>
画像認識装置1は、車両の運転支援システム(自動運転システムも含む)において、車両周辺に存在する物体の検知に利用することができる。例えば、図12に示すように、画像認識装置1は、車両の外界(例えば、前方)を撮影する車載カメラ2に接続され、車載カメラ2で撮影された動画像をリアルタイムで取得する。画像認識装置1は、動画像に映っている物標を認識し、その物標に係る物標情報(位置、識別ラベル)を運転支援ECU3に供給する。
運転支援ECU3は、例えば、アダプティブクルーズコントロール(ACCと呼ぶ)、ロードサインアシスト(RSAと呼ぶ)、レーンチェンジアシスト(LCAと呼ぶ)といった運転支援制御を実施する電子制御装置である。
こうした運転支援制御は、画像認識装置1から供給される物標情報に基づいて実施される。ACCは、自車両を先行車両に追従させる運転支援制御である。従って、運転支援ECU3は、画像認識装置1から供給される物標情報から、主に先行車両に係る物標情報を取り出してACCを実施する。
RSAは、自車両の前方に設置されている道路標識を認識し、その道路標識の表している情報をドライバーに提供する運転支援制御である。従って、運転支援ECU3は、画像認識装置から供給される物標情報から、道路標識に係る物標情報を取り出してRSAを実施する。
LCAは、自車両の周囲を監視しつつ、自車両を安全に車線変更させる運転支援制御である。従って、車載カメラ2は、車両の前方だけでなく、後方をも含めた車両周囲を撮影し、その動画像を画像認識装置1に出力する。運転支援ECU3は、画像認識装置1から供給される物標情報から、車両の周囲に存在する障害物および白線に係る物標情報を取り出してLCAを実施する。
上述したように、画像認識装置1は、物標の認識精度が向上されている。従って、運転支援制御を良好に実施することができる。
<フレーム画像の間引き間隔nについて>
フレーム選択部10は、時系列の連続したフレーム画像を入力し、入力したフレーム画像の中から、所定の間引き間隔nで間引いたフレーム画像を選択する。この場合、フレーム選択部10は、自車両の車速Vを表す情報を取得し、車速Vが高いほど間引き間隔nを小さくする(車速Vが低いほど間引き間隔nを大きくする)。従って、画像処理に係る演算負荷を低減しつつ、物標の検知遅れが発生しないようにすることができる。
以上、本実施形態に係る画像認識装置について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の目的を逸脱しない限りにおいて種々の変更が可能である。
例えば、本実施形態においては、走行車両から外界を撮影した動画像に映っている物標を認識する画像認識装置であるが、必ずしも車両に限るものでは無く、船舶、飛行機、ロボットなどの移動体から外界を撮影した動画像に映っている物標を認識する画像認識装置に適用することができる。
また、本実施形態においては、フレーム画像の間引き間隔nを車速Vに応じて調整するが、それに代えて、動きベクトルの長さに応じて調整するようにしてもよい。この場合、動きベクトルの長さが長いほど間引き間隔nを小さくする(動きベクトルの長さが短いほど間引き間隔nを大きくする)。動きベクトルの長さは、条件によって異なるため、予め設定された条件における動きベクトルの長さを用いればよい。
また、物標を識別する手法については、パターンマッチングなど他の機械学習によって実施することもできる。
1…画像認識装置、10…フレーム選択部、20…画像処理部、21…物標認識機能部、22…優先抽出機能部、23…リカレントニューラルネットワーク(RNN)、30…誤差演算部、31…ロス関数部、32…調整部、50…動画像、100…教師装置、110…学習用画像、120…アノテーションデータ、200…認識性能評価装置、2…車載カメラ、3…運転支援ECU、α…調整値、E0…調整前誤差、E…調整後誤差、B,B1,B2…物標。

Claims (1)

  1. 車両等の移動体から外界を撮影して得られた時系列のフレーム画像を画像処理することによって、前記フレーム画像に映っている物標を抽出し、前記抽出した物標に係る物標情報を出力する画像認識装置において、
    前記フレーム画像ごとに、前記物標の位置検知と識別とを行う物標認識手段と、
    前記時系列のフレーム画像間における識別が共通する物標の位置変化が、前記移動体から外界を撮影した場合において現れる物標の位置変化の特徴である外界変化特徴を有している物標を、前記外界変化特徴を有していない物標に比べて優先的に抽出する優先抽出手段と
    を備え、
    少なくとも前記優先抽出手段は、時系列の複数のフレーム画像の情報を使って物標を認識可能なニューラルネットワークを備え、
    前記ニューラルネットワークは、
    前記外界変化特徴を有している物標が、前記外界変化特徴を有していない物標に比べて優先的に抽出されるようにディープラーニングによって学習されている、
    画像認識装置において、
    前記ディープラーニングによる学習が行われる場合、前記ニューラルネットワークの結合重みを更新するロス関数の出力する誤差が、前記外界変化特徴を有している物標については、前記外界変化特徴を有していない物標に比べて小さくなるように調整される、
    画像認識装置。
JP2019110843A 2019-06-14 2019-06-14 画像認識装置 Active JP7176478B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019110843A JP7176478B2 (ja) 2019-06-14 2019-06-14 画像認識装置
US16/833,957 US11507833B2 (en) 2019-06-14 2020-03-30 Image recognition apparatus
DE102020110157.0A DE102020110157A1 (de) 2019-06-14 2020-04-14 Bilderkennungsvorrichtung
CN202010514662.6A CN112084833B (en) 2019-06-14 2020-06-08 Image recognition apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019110843A JP7176478B2 (ja) 2019-06-14 2019-06-14 画像認識装置

Publications (2)

Publication Number Publication Date
JP2020204804A JP2020204804A (ja) 2020-12-24
JP7176478B2 true JP7176478B2 (ja) 2022-11-22

Family

ID=73546879

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019110843A Active JP7176478B2 (ja) 2019-06-14 2019-06-14 画像認識装置

Country Status (3)

Country Link
US (1) US11507833B2 (ja)
JP (1) JP7176478B2 (ja)
DE (1) DE102020110157A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017205093A1 (de) * 2017-03-27 2018-09-27 Conti Temic Microelectronic Gmbh Verfahren und System zur Vorhersage von Sensorsignalen eines Fahrzeugs
DE102019216357A1 (de) * 2019-10-24 2021-04-29 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bereitstellen von annotierten Verkehrsraumdaten
CN112966582A (zh) * 2021-02-26 2021-06-15 北京卓视智通科技有限责任公司 车型三维识别方法、装置、系统、电子设备及存储介质
JP7259880B2 (ja) 2021-03-24 2023-04-18 いすゞ自動車株式会社 積載率推定装置
CN113791339A (zh) * 2021-07-19 2021-12-14 国网浙江省电力有限公司乐清市供电公司 一种基于r-ncc图像识别算法的断路器性能状态检测方法
WO2023086405A1 (en) * 2021-11-09 2023-05-19 Zoox, Inc. A machine-learned architecture for efficient object attribute and/or intention classification

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007172035A (ja) 2005-12-19 2007-07-05 Fujitsu Ten Ltd 車載画像認識装置、車載撮像装置、車載撮像制御装置、警告処理装置、画像認識方法、撮像方法および撮像制御方法
JP2010128744A (ja) 2008-11-27 2010-06-10 Toyota Infotechnology Center Co Ltd 対応ブロック探索装置
JP2016004446A (ja) 2014-06-17 2016-01-12 トヨタ自動車株式会社 動き推定装置

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4984915B2 (ja) * 2006-03-27 2012-07-25 セイコーエプソン株式会社 撮像装置、撮像システム及び撮像方法
US20090069973A1 (en) * 2007-09-10 2009-03-12 Shih-Hsiung Li Warning method and device for deviation of a moving vehicle
GB2469679B (en) * 2009-04-23 2012-05-02 Imagination Tech Ltd Object tracking using momentum and acceleration vectors in a motion estimation system
JP2013097675A (ja) * 2011-11-02 2013-05-20 Honda Elesys Co Ltd 勾配推定装置、勾配推定方法、及び勾配推定プログラム
US20150154317A1 (en) * 2012-03-28 2015-06-04 Katsumi Inoue Memory provided with set operation function, and method for processing set operation processing using same
JP2014115978A (ja) * 2012-11-19 2014-06-26 Ricoh Co Ltd 移動物体認識装置及びこれを用いた報知装置及びその移動物体認識装置に用いる移動物体認識用プログラム及び移動物体認識装置を備えた移動体
JP6313198B2 (ja) 2014-11-28 2018-04-18 株式会社デンソー 車両制御装置
JP6363518B2 (ja) 2015-01-21 2018-07-25 株式会社デンソー 区画線認識装置
JP6363517B2 (ja) 2015-01-21 2018-07-25 株式会社デンソー 車両の走行制御装置
JP6358160B2 (ja) 2015-04-17 2018-07-18 トヨタ自動車株式会社 走行路面検出装置及び走行路面検出方法
US9430840B1 (en) 2015-07-23 2016-08-30 Mitsubishi Electric Research Laboratories, Inc. Method and system for segmenting an image based on motion vanishing points
JP2017162438A (ja) 2016-03-11 2017-09-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 危険予測方法
CN107180220B (zh) 2016-03-11 2023-10-31 松下电器(美国)知识产权公司 危险预测方法
CN108885469B (zh) * 2016-09-27 2022-04-26 深圳市大疆创新科技有限公司 用于在跟踪系统中初始化目标物体的系统和方法
KR101955506B1 (ko) * 2016-12-12 2019-03-11 주식회사 피엘케이 테크놀로지 대향 카메라를 이용한 대형 차량의 측면 안전 보조 장치 및 방법
JP6669059B2 (ja) 2016-12-27 2020-03-18 トヨタ自動車株式会社 位置算出装置
JP2019009615A (ja) 2017-06-23 2019-01-17 株式会社 日立産業制御ソリューションズ 監視カメラ装置、監視映像配信方法および監視システム
US10269159B2 (en) * 2017-07-27 2019-04-23 Rockwell Collins, Inc. Neural network foreground separation for mixed reality
JP7111454B2 (ja) 2017-09-28 2022-08-02 株式会社デンソー 制御対象車両設定装置、制御対象車両設定システムおよび制御対象車両設定方法
JP6805105B2 (ja) 2017-09-28 2020-12-23 株式会社デンソー 制御対象車両設定装置、制御対象車両設定システムおよび制御対象車両設定方法
TWI701609B (zh) * 2018-01-04 2020-08-11 緯創資通股份有限公司 影像物件追蹤方法及其系統與電腦可讀取儲存媒體
JP6996353B2 (ja) 2018-03-06 2022-01-17 トヨタ自動車株式会社 物体認識装置及び車両走行制御システム
EP3576007B1 (en) * 2018-05-28 2023-09-20 Aptiv Technologies Limited Method for validation of obstacle candidate
US11288820B2 (en) * 2018-06-09 2022-03-29 Lot Spot Inc. System and method for transforming video data into directional object count

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007172035A (ja) 2005-12-19 2007-07-05 Fujitsu Ten Ltd 車載画像認識装置、車載撮像装置、車載撮像制御装置、警告処理装置、画像認識方法、撮像方法および撮像制御方法
JP2010128744A (ja) 2008-11-27 2010-06-10 Toyota Infotechnology Center Co Ltd 対応ブロック探索装置
JP2016004446A (ja) 2014-06-17 2016-01-12 トヨタ自動車株式会社 動き推定装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Yongyi Lu et al.,Online Video Object Detection UsingAssociation LSTM,[online],2017年,https://ieeexplore.ieee.org/document/8237519
榎田修一,石倉理有,ドライブレコーダ映像からの映像情報を用いた危険度推定,[online],2016年05月,https://www.jsdc.or.jp/Portals/0/pdf/library/jyosei/h27_201605_kyutech.pdf

Also Published As

Publication number Publication date
US20200394515A1 (en) 2020-12-17
DE102020110157A1 (de) 2020-12-17
JP2020204804A (ja) 2020-12-24
US11507833B2 (en) 2022-11-22
CN112084833A (zh) 2020-12-15

Similar Documents

Publication Publication Date Title
JP7176478B2 (ja) 画像認識装置
US11216673B2 (en) Direct vehicle detection as 3D bounding boxes using neural network image processing
US20200097756A1 (en) Object detection device and object detection method
US11308717B2 (en) Object detection device and object detection method
CN113492851B (zh) 车辆控制装置、车辆控制方法以及车辆控制用计算机程序
EP3154835A1 (en) Top-down refinement in lane marking navigation
US11157753B2 (en) Road line detection device and road line detection method
CN103308058A (zh) 使用加权贝叶斯滤波的融合的增强数据关联
CN105716567A (zh) 通过单眼图像获取设备侦测物体与机动车辆距离的方法
US11776277B2 (en) Apparatus, method, and computer program for identifying state of object, and controller
US11829153B2 (en) Apparatus, method, and computer program for identifying state of object, and controller
US20200394838A1 (en) Generating Map Features Based on Aerial Data and Telemetry Data
JP6941178B2 (ja) 自動運転制御装置及び方法
JP2020086545A (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
US20200097005A1 (en) Object detection device, object detection method, and vehicle controller
US11900690B2 (en) Apparatus, method, and computer program for identifying state of signal light, and controller
CN113287157B (zh) 运动状态判定装置
CN112598915A (zh) 使用道路拓扑和交通参与者目标状态的车辆轨迹预测
JP2021128705A (ja) 物体状態識別装置
CN112084833B (en) Image recognition apparatus
JP6057660B2 (ja) 車線監視システム及び車線監視方法
JP6996368B2 (ja) サーバ、障害物認識装置
JP2021160464A (ja) 走路生成装置、方法及びプログラム
US20230177844A1 (en) Apparatus, method, and computer program for identifying state of lighting
US20240132100A1 (en) Method for assistive or automated vehicle control

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221024

R151 Written notification of patent or utility model registration

Ref document number: 7176478

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151