JP7226368B2 - Object state identification device - Google Patents
Object state identification device Download PDFInfo
- Publication number
- JP7226368B2 JP7226368B2 JP2020024569A JP2020024569A JP7226368B2 JP 7226368 B2 JP7226368 B2 JP 7226368B2 JP 2020024569 A JP2020024569 A JP 2020024569A JP 2020024569 A JP2020024569 A JP 2020024569A JP 7226368 B2 JP7226368 B2 JP 7226368B2
- Authority
- JP
- Japan
- Prior art keywords
- region
- vehicle
- detection target
- unit
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、画像に表された物体の状態を識別する物体状態識別装置に関する。 The present invention relates to an object state identification device that identifies the state of an object represented in an image.
カメラにより得られた画像といった、センサ情報に表された物体を検出する技術が研究されている。近年では、物体を検出するために、いわゆるディープニューラルネットワーク(以下、単にDNNと呼ぶ)といった機械学習手法を用いることで、検出精度を向上する技術が提案されている。 Techniques for detecting objects represented by sensor information, such as images obtained by cameras, are being researched. In recent years, techniques have been proposed to improve detection accuracy by using machine learning techniques such as so-called deep neural networks (hereinafter simply referred to as DNNs) to detect objects.
また、画像に表された物体を追跡し、あるいは異常を検知するために、時系列の複数の画像またはそれらの画像から得られた特徴量をニューラルネットワークの入力として利用する技術が提案されている(例えば、特許文献1及び2を参照)。
In addition, in order to track objects represented in images or detect anomalies, techniques have been proposed that utilize multiple time-series images or feature values obtained from those images as inputs to a neural network. (See, for example,
例えば、特許文献1に開示された物体追跡方法は、時系列に連続した2以上の画像をニューラルネットワークに入力する。この物体追跡方法は、それら2以上の画像それぞれの特徴量であってニューラルネットワークに抽出させた特徴量を比較して類似性を照合する。そしてこの物体追跡方法は、その照合結果に基づいて時系列で前の画像に映る追跡候補である1以上の物体に一致する、前の画像より時系列で後の画像に映る1以上の物体の識別情報及び位置情報を、識別結果として出力する。また、使用されるニューラルネットワークは、1以上の全結合層と0以上の畳み込み層とを有する同一構造を2以上含み、同一構造間の対応する層でパラメータを共有する。
For example, in the object tracking method disclosed in
また、特許文献2に開示された異常監視システムは、監視対象の画像から変化のあった画像部分を抽出し、変化のあった画像部分を畳み込みニューラルネットワークに入力して特徴量を抽出し、抽出した特徴量を再帰型ニューラルネットワークに入力して画像の概略を示す画像説明文を生成する。
In addition, the anomaly monitoring system disclosed in
上記の技術でも、画像に表された物体の状態を正確に識別できないことがある。 Even with the techniques described above, it may not be possible to accurately identify the state of the object represented in the image.
そこで、本発明は、画像に表された物体の状態を識別することが可能な物体状態識別装置を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide an object state identification device capable of identifying the state of an object represented in an image.
一つの実施形態によれば、物体状態識別装置が提供される。この物体状態識別装置は、時系列に得られる一連の画像を、所定の物体を検出するように予め学習された第1の識別器に入力することで、一連の画像のそれぞれについて、その画像上において所定の物体を含み、かつ所定の形状を有する物体領域を検出する物体検出部と、一連の画像のそれぞれを、画素単位で所定の物体が表されている画素の集合をその他の画素の集合と識別するように予め学習された第2の識別器に入力することで、一連の画像のそれぞれについて所定の物体が表された画素の集合である着目領域とその他の領域とに分割する領域分割部と、一連の画像のそれぞれにおいて検出された物体領域内の画素値から求められる特徴のうち、物体領域及び着目領域の両方に含まれる特徴を、時系列順に再帰構造を持つ第3の識別器に入力することで、時系列の外観変化を伴う所定の物体の状態を識別する状態識別部と、を有する。 According to one embodiment, an object state identification device is provided. This object state identification device inputs a series of images obtained in time series to a first classifier that has been pre-learned to detect a predetermined object. and an object detection unit that detects an object region that includes a predetermined object and has a predetermined shape, and a set of pixels in which the predetermined object is represented in pixel units for each of the series of images. By inputting it to a second discriminator that has been pre-learned to discriminate, each of the series of images is divided into a region of interest, which is a set of pixels representing a predetermined object, and other regions. and a third discriminator having a recursive structure in chronological order for features included in both the object region and the region of interest, among features obtained from pixel values in the object region detected in each of the series of images. and a state identification unit that identifies a state of a predetermined object that accompanies a time-series change in appearance by inputting to .
本発明に係る物体状態識別装置は、画像に表された物体の状態を識別することができるという効果を奏する。 The object state identification device according to the present invention has the effect of being able to identify the state of an object represented in an image.
以下、図を参照しつつ、物体状態識別装置について説明する。この物体状態識別装置は、時系列に得られる一連の画像に表される、検出対象となる物体(以下、検出対象物体と呼ぶことがある)に関して、時系列の外観変化を伴う状態を識別する。そのために、この物体状態識別装置は、検出対象物体を検出するように予め学習された第1の識別器にその一連の画像を入力することで、画像ごとに、その画像上でその検出対象物体を含み、かつ、所定の形状を有する領域(以下、物体領域と呼ぶことがある)を検出する。そして、この物体状態識別装置は、各画像から検出された検出対象物体を追跡することで、各画像において同じ検出対象物体が表された物体領域同士を対応付ける。また、この物体状態識別装置は、一連の画像を、検出対象物体が表されている画素の集合をその他の画素の集合と識別するように予め学習された第2の識別器に入力することで、各画像について、検出対象物体が表された画素の集合である着目領域とその他の領域(以下、マスク領域と呼ぶことがある)とに領域分割する。さらに、この物体状態識別装置は、一連の画像における、同じ検出対象物体が表された物体領域内の画素値から求められる特徴のうち、その物体領域及び着目領域の両方に含まれる特徴を、時系列順に再帰構造を持つ第3の識別器に入力することで、その検出対象物体の状態を識別する。 The object state identification device will be described below with reference to the drawings. This object state identification device identifies a state of an object to be detected (hereinafter, sometimes referred to as a detection target object) represented by a series of images obtained in time series, accompanied by time-series changes in appearance. . For this purpose, this object state identification apparatus inputs the series of images to a first classifier pre-trained to detect the detection target object, and for each image, the detection target object and having a predetermined shape (hereinafter sometimes referred to as an object region) is detected. By tracking the detection target object detected from each image, the object state identification apparatus associates object regions in which the same detection target object is represented in each image. In addition, this object state identification device inputs a series of images to a second discriminator trained in advance to discriminate a set of pixels representing a detection target object from other sets of pixels. , each image is divided into a region of interest, which is a set of pixels representing a detection target object, and other regions (hereinafter sometimes referred to as mask regions). Further, the object state identification apparatus, among features obtained from pixel values in an object region representing the same detection target object in a series of images, detects features included in both the object region and the target region at a time. By inputting to the third discriminator having a recursive structure in sequential order, the state of the object to be detected is discriminated.
例えば、検出対象物体が車両であるとする。車両は、左折または右折する場合、ターンシグナルを点滅させる。また、車両は、減速する際にブレーキランプを点灯させ、停車する際などにハザードランプを点滅させる。これらのシグナルまたはランプの点灯または点滅は、時系列の車両の外観の変化を伴うものであり、かつ、車両の挙動に関する状態を表している。しかし、ターンシグナル、ブレーキランプまたはハザードランプが表された個々の画像では、それらのランプの明滅の時系列変化が分からないため、ターンシグナルまたはハザードランプが点滅しているか否か、ブレーキランプが点灯しているか消灯しているかを、ターンシグナル、ブレーキランプまたはハザードランプが表された個々の画像から精度良く識別することは困難である。そこで、この物体状態識別装置は、上記のように、時系列の一連の画像のそれぞれの物体領域及び着目領域の両方に含まれる特徴を、再帰的な構造を持つ第3の識別器に入力することで、ターンシグナルまたはハザードランプの点滅の有無、ブレーキランプの点灯及び消灯を精度良く識別することができる。 For example, assume that the object to be detected is a vehicle. The vehicle flashes the turn signals when turning left or right. In addition, the vehicle turns on the brake lamps when decelerating, and blinks the hazard lamps when stopping the vehicle. The lighting or blinking of these signals or lamps is accompanied by changes in the appearance of the vehicle over time, and represents the state of behavior of the vehicle. However, individual images showing turn signals, brake lamps, or hazard lamps do not show time-series changes in blinking of those lamps, so whether the turn signals or hazard lamps are blinking, and whether the brake lamps are on or off cannot be determined. It is difficult to accurately identify whether the lights are on or off from individual images showing turn signals, brake lights, or hazard lights. Therefore, as described above, this object state identification device inputs the features included in both the object region and the region of interest of each of the series of time-series images into the third classifier having a recursive structure. Thus, it is possible to accurately identify whether the turn signals or hazard lamps are blinking, and whether the brake lamps are on or off.
以下では、物体状態識別装置を、車両制御システムに適用した例について説明する。この例では、物体状態識別装置は、車両に搭載されたカメラにより得られた時系列の一連の画像に対して物体状態識別処理を実行することで、検出対象物体として、車両の周囲に存在する他の車両を検出する。そしてこの物体状態識別装置は、検出した他の車両の、外観変化を伴う状態として、左右何れかのターンシグナルまたはハザードランプの点滅状態か否か、ブレーキランプが点灯している状態あるいは消灯している状態かを識別する。 An example in which the object state identification device is applied to a vehicle control system will be described below. In this example, the object state identification device performs object state identification processing on a series of time-series images obtained by a camera mounted on a vehicle, and detects objects existing around the vehicle as objects to be detected. Detect other vehicles. Then, the object state identification device determines whether or not left or right turn signals or hazard lamps are blinking, whether the brake lamps are on or off, as the other vehicle's detected state accompanied by a change in appearance. identify the state of
図1は、物体状態識別装置が実装される車両制御システムの概略構成図である。また図2は、物体状態識別装置の一つの実施形態である電子制御装置のハードウェア構成図である。本実施形態では、車両10に搭載され、かつ、車両10を制御する車両制御システム1は、車両10の周囲を撮影するためのカメラ2と、物体状態識別装置の一例である電子制御装置(ECU)3とを有する。カメラ2とECU3とは、コントローラエリアネットワークといった規格に準拠した車内ネットワーク4を介して通信可能に接続される。なお、車両制御システム1は、車両10の自動運転制御に用いられる地図を記憶するストレージ装置をさらに有していてもよい。さらに、車両制御システム1は、LiDARあるいはレーダといった測距センサ、GPS受信機といった、衛星測位システムに準拠して車両10の自己位置を測位するための受信機、他の機器と無線通信するための無線端末、及び、車両10の走行予定ルートを探索するためのナビゲーション装置などを有していてもよい。
FIG. 1 is a schematic configuration diagram of a vehicle control system in which an object state identification device is installed. FIG. 2 is a hardware configuration diagram of an electronic control unit, which is one embodiment of the object state identification device. In this embodiment, a
カメラ2は、所定の検知範囲内に存在する物体を検出するためのセンサである撮像部の一例であり、CCDあるいはC-MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に撮影対象となる領域の像を結像する結像光学系を有する。そしてカメラ2は、車両10の前方を向くように、例えば、車両10の車室内に取り付けられる。そしてカメラ2は、所定の撮影周期(例えば1/30秒~1/10秒)ごとに車両10の前方領域を撮影し、その前方領域が写った画像を生成する。カメラ2により得られた画像は、カラー画像であることが好ましい。なお、車両10には、撮影方向または焦点距離が異なる複数のカメラが設けられてもよい。
The
カメラ2は、画像を生成する度に、その生成した画像を、車内ネットワーク4を介してECU3へ出力する。
The
ECU3は、車両10を制御する。本実施形態では、ECU3は、カメラ2により得られた時系列の一連の画像から検出された物体に基づいて車両10を自動運転するよう、車両10を制御する。そのために、ECU3は、通信インターフェース21と、メモリ22と、プロセッサ23とを有する。
The ECU 3 controls the
通信インターフェース21は、通信部の一例であり、ECU3を車内ネットワーク4に接続するためのインターフェース回路を有する。すなわち、通信インターフェース21は、車内ネットワーク4を介して、カメラ2と接続される。そして通信インターフェース21は、カメラ2から画像を受信する度に、受信した画像をプロセッサ23へわたす。
The
メモリ22は、記憶部の一例であり、例えば、揮発性の半導体メモリ及び不揮発性の半導体メモリを有する。なお、メモリ22は、後述するようにプロセッサ23が複数の演算ユニットを有する場合に、演算ユニットごとに専用のメモリ回路を有していてもよい。そしてメモリ22は、ECU3のプロセッサ23により実行される物体状態識別処理において使用される各種のデータ及びパラメータ、例えば、カメラ2から受信した画像、物体状態識別処理で利用される各識別器を特定するための各種パラメータ、及び、物体の種類ごとの確信度閾値などを記憶する。さらに、メモリ22は、検出された物体に関する情報を表す検出物体リストといった、物体状態識別処理の途中で生成される各種のデータを一定期間記憶する。さらにまた、メモリ22は、地図情報といった車両10の走行制御に利用される情報を記憶してもよい。
The
プロセッサ23は、制御部の一例であり、1個または複数個のCPU(Central Processing Unit)及びその周辺回路を有する。プロセッサ23は、論理演算ユニット、数値演算ユニットあるいはグラフィック処理ユニット(Graphics Processing Unit, GPU)といった他の演算回路をさらに有していてもよい。そしてプロセッサ23は、車両10が走行している間、カメラ2から画像を受信する度に、受信した画像に対して物体状態識別処理を含む車両制御処理を実行する。そしてプロセッサ23は、検出された車両10の周囲の物体に基づいて、車両10を自動運転するよう、車両10を制御する。
The
図3は、物体状態識別処理を含む車両制御処理に関する、ECU3のプロセッサ23の機能ブロック図である。プロセッサ23は、物体検出部31と、追跡部32と、領域分割部33と、状態識別部34と、運転計画部35と、車両制御部36とを有する。プロセッサ23が有するこれらの各部は、例えば、プロセッサ23上で動作するコンピュータプログラムにより実現される機能モジュールである。あるいは、プロセッサ23が有するこれらの各部は、プロセッサ23に設けられる、専用の演算回路であってもよい。また、プロセッサ23が有するこれらの各部のうち、物体検出部31、追跡部32、領域分割部33及び状態識別部34が、物体状態識別処理を実行する。なお、車両10に複数のカメラが設けられる場合には、プロセッサ23は、カメラごとに、そのカメラにより得られた画像に基づいて物体状態識別処理を実行してもよい。
FIG. 3 is a functional block diagram of the
物体検出部31は、カメラ2から画像を受信する度に、受信した最新の画像を物体検出用の第1の識別器に入力することで、その画像に表されている検出対象物体(すなわち、他の車両)を含み、かつ、所定の形状を有する領域(すなわち、物体領域)を検出するとともに、その検出対象物体の種類を特定する。
Every time an image is received from the
本実施形態では、物体検出部31は、第1の識別器として、画像に表された検出対象物体を含む物体領域を検出し、かつ、検出対象物体の種類を識別するように予め学習されたDNNを利用する。物体検出部31が利用するDNNは、例えば、Single Shot MultiBox Detector(SSD)、または、Faster R-CNNといった、コンボリューショナルニューラルネットワーク(以下、単にCNNと呼ぶ)型のアーキテクチャを持つDNNとすることができる。
In this embodiment, the
図4は、第1の識別器として利用されるDNNの構成の一例を示す図である。DNN400は、画像が入力される入力側に設けられる主幹部401と、主幹部401よりも出力側に設けられる位置検出部402及び種類推定部403とを有する。位置検出部402は、主幹部401からの出力に基づいて、画像上に表された検出対象物体の外接矩形を物体領域として出力する。なお、物体領域の形状は、矩形形状に限られず、例えば、円形、楕円形あるいは、5角形以上の多角形形状であってもよい。種類推定部403は、主幹部401からの出力に基づいて、位置検出部402で検出された物体領域に表された検出対象物体の種類ごとの確信度を算出する。なお、位置検出部402及び種類推定部403は一体的に形成されてもよい。
FIG. 4 is a diagram showing an example of the configuration of a DNN used as the first discriminator. The
主幹部401は、例えば、入力側から出力側へ向けて直列に接続される複数の層を有するCNNとすることができる。その複数の層には2以上の畳み込み層が含まれる。さらに、主幹部401が有する複数の層には、1または複数の畳み込み層ごとに設けられるプーリング層が含まれてもよい。さらにまた、主幹部401が有する複数の層には、1以上の全結合層が含まれてもよい。例えば、主幹部401は、SSDのベースレイヤーと同様の構成とすることができる。あるいは、主幹部401は、VGG-19、AlexNetあるいはNetwork-In-Networkといった他のCNNアーキテクチャに従って構成されてもよい。
The
主幹部401は、画像が入力されると、その画像に対して各層での演算を実行することで、その画像から算出したfeature mapを出力する。なお、主幹部401は、解像度の異なる複数のfeature mapを出力してもよい。例えば、主幹部401は、入力された画像の解像度と同じ解像度を持つfeature mapと、入力された画像の解像度よりも低い解像度の1以上のfeature mapを出力してもよい。
When an image is input, the
位置検出部402及び種類推定部403には、それぞれ、主幹部401から出力されたfeature mapが入力される。そして位置検出部402及び種類推定部403は、それぞれ、例えば、入力側から出力側へ向けて直列に接続される複数の層を有するCNNとすることができる。位置検出部402及び種類推定部403のそれぞれについて、CNNが有する複数の層には2以上の畳み込み層が含まれる。また、位置検出部402及び種類推定部403のそれぞれについて、CNNが有する複数の層には、1または複数の畳み込み層ごとに設けられるプーリング層が含まれてもよい。なお、CNNが有する畳み込み層及びプーリング層は、位置検出部402及び種類推定部403について共通化されてもよい。さらに、位置検出部402及び種類推定部403のそれぞれについて、複数の層には、1以上の全結合層が含まれてもよい。この場合、全結合層は、各畳み込み層よりも出力側に設けられることが好ましい。また全結合層には、各畳み込み層からの出力が直接入力されてもよい。また、種類推定部403の出力層は、ソフトマックス関数に従って検出対象物体の種類のそれぞれの確信度を算出するソフトマックス層としてもよいし、シグモイド関数に従って検出対象物体の種類のそれぞれの確信度を算出するシグモイド層としてもよい。
The feature map output from the
位置検出部402及び種類推定部403は、例えば、画像上の様々な位置、様々なサイズ及び様々なアスペクト比の領域ごとに、検出対象物体の種類のそれぞれの確信度を出力するように学習される。したがって、識別器400は、画像が入力されることで、画像上の様々な位置、様々なサイズ及び様々なアスペクト比の領域ごとに、検出対象物体の種類のそれぞれの確信度を出力する。そして位置検出部402及び種類推定部403は、何れかの種類の検出対象物体についての確信度が所定の確信度閾値以上となる領域を、その種類の検出対象物体が表された物体領域として検出する。
The
識別器400の学習に利用される教師データに含まれる画像(教師画像)には、例えば、検出対象物体の種類(例えば、普通乗用車、バス、トラック、二輪車など)と、検出対象物体が表された物体領域である、その検出対象物体の外接矩形とがタグ付けされる。
An image (teacher image) included in the training data used for learning of the
識別器400は、上記のような多数の教師画像を用いて、例えば、誤差逆伝搬法といった学習手法に従って学習される。プロセッサ23は、このように学習された識別器400を利用することで、画像から検出対象となる物体を精度良く検出できる。
The
なお、物体検出部31は、車両10の周囲の他の車両以外の、車両10の走行制御に影響する物体を検出してもよい。そのような物体には、例えば、人、道路標識、信号機、車線区画線などの道路標示、及び、道路上のその他の物体などが含まれる。この場合、第1の識別器は、これらの物体も検出するように予め学習されればよい。そして物体検出部31は、画像をその第1の識別器に入力することで、これらの物体も検出することができる。
Note that the
物体検出部31は、さらに、Non-maximum suppression(NMS)処理を実行することで、少なくとも部分的に重複する2以上の物体領域のうち、同一の物体が表されていると推定される物体領域から一つを選択してもよい。
The
物体検出部31は、各物体領域の画像上での位置及び範囲と、その物体領域に含まれる物体の種類とを、検出物体リストに登録する。そして物体検出部31は、検出物体リストをメモリ22に記憶する。さらに、物体検出部31は、各物体領域について、その物体領域に含まれる各画素から第1の識別器の主幹部により算出され、かつ、状態識別部34へ出力されるfeature mapをメモリ22に記憶する。なお、状態識別部34へ出力されるfeature mapは、第1の識別器に入力された画像の解像度と同じ解像度を有するものとすることができる。また、第1の識別器の主幹部が有するプーリング層などにより、入力された画像の解像度よりも低い解像度を持つfeature mapが算出される場合には、その低い解像度を持つfeature mapが状態識別部34へ出力されてもよい。さらに、第1の識別器の主幹部により算出される、互いに異なる解像度を持つ複数のfeature mapが状態識別部34へ出力されてもよい。
The
追跡部32は、最新の画像から検出された物体領域のそれぞれについて、その物体領域に表された検出対象物体を、検出物体リストを参照して過去の画像から検出された検出対象物体と対応付けることで、その物体領域に表された検出対象物体を追跡する。さらに、追跡部32は、追跡中の検出対象物体が所定数(例えば、5~10)よりも多く存在する場合、それら追跡中の検出対象物体のなかから、所定数の検出対象物体を、状態識別の対象となる物体として選択する。
For each object region detected from the latest image, the
追跡部32は、例えば、Lucas-Kanade法といった、オプティカルフローに基づく追跡処理を、最新の画像における、着目する物体領域及び過去の画像における物体領域に対して適用することで、その物体領域に表された検出対象物体を追跡する。そのため、追跡部32は、例えば、着目する物体領域に対してSIFTあるいはHarrisオペレータといった特徴点抽出用のフィルタを適用することで、その物体領域から複数の特徴点を抽出する。そして追跡部32は、複数の特徴点のそれぞれについて、過去の画像における物体領域における対応する点を、適用される追跡手法に従って特定することで、オプティカルフローを算出すればよい。あるいは、追跡部32は、画像から検出された移動物体の追跡に適用される他の追跡手法を、最新の画像における、着目する物体領域及び過去の画像における物体領域に対して適用することで、その物体領域に表された検出対象物体を追跡してもよい。
For example, the
追跡部32は、最新の画像から検出された検出対象物体のうち、過去の画像に表された検出対象物体と対応付けられなかった検出対象物体に対して、新たな追跡対象として、他の追跡中の検出対象物体と異なる識別番号を割り当て、その割り当てた識別番号を検出物体リストに登録する。一方、追跡部32は、最新の画像から検出された検出対象物体のうち、過去の画像に表された検出対象物体と対応付けられた検出対象物体、すなわち、追跡中の検出対象物体について、その追跡中の検出対象物体に割り当てられた識別番号と同じ識別番号を対応付ける。
The
上記のように、追跡部32は、追跡中の検出対象物体が所定数よりも多く存在する場合、追跡中の検出対象物体の中から、所定数の検出対象物体を状態識別の対象となる物体として選択する。
As described above, when there are more than a predetermined number of detection target objects being tracked, the
例えば、車両10に近い検出対象物体ほど、車両10の運転制御に対する影響が大きいので、追跡部32は、追跡中の検出対象物体のうち、車両10に近い方から順に所定数の検出対象物体を選択する。例えば、画像上で検出対象物体が表された物体領域が大きいほど、車両10からその検出対象物体までの距離が近いと推定される。そこで、追跡部32は、例えば、最新の画像上での物体領域のサイズが大きい方から順に所定数の検出対象物体を選択する。
For example, since a detection target object closer to the
あるいは、追跡部32は、追跡中の検出対象物体のそれぞれの物体領域の画像上での下端の位置に基づいて所定数の検出対象物体を選択してもよい。車両10が走行中の道路と同じ道路を検出対象物体が走行している場合、画像上でのその検出対象物体が表された物体領域の下端の位置は、その検出対象物体が位置している路面上の位置と推定される。そして、車両10に検出対象物体が近いほど、カメラ2からその検出対象物体が位置している路面上の位置への方位は下向きとなるので、画像上での物体領域の下端も画像の下端に近くなる。したがって、物体領域の下端の位置が画像端に近いほど、車両10からその物体領域に表された検出対象物体までの距離は近いと推定される。そこで、追跡部32は、追跡中の検出対象物体の中から、最新の画像において、物体領域の下端が画像の下端に近い方から順に所定数の検出対象物体を選択してもよい。
Alternatively, the
あるいは、追跡部32は、追跡中の検出対象物体のそれぞれについて、その検出対象物体が表された物体領域のサイズ(例えば、横幅)と、その検出対象物体と同一種類の基準物体が車両10から所定距離に位置していると仮定した場合の基準サイズとの比に基づいて、車両10からその検出対象物体までの距離を推定してもよい。あるいはまた、車両制御システム1がLiDARあるいはレーダといった測距センサ(図示せず)を有している場合、その測距センサにより、追跡中の各検出対象物体までの距離が測定されてもよい。この場合、例えば、画像上での検出対象物体が表された物体領域の重心に対応する、カメラ2からの方位に相当する測距センサからの方位における距離が、車両10からその検出対象物体までの距離として測定される。そして追跡部32は、推定または測定された車両10からの距離が近い方から順に、所定数の検出対象物体を選択すればよい。
Alternatively, for each of the detection target objects being tracked, the
あるいはまた、追跡部32は、追跡中の検出対象物体のなかから、車線ごとに決められた数の検出対象物体を選択してもよい。例えば、追跡部32は、車両10が走行中の車線と同じ車線を走行中の検出対象物体のうち、車両10に最も近いと推定される検出対象物体を選択する。さらに、追跡部32は、車両10が走行中の車線の左右に隣接するそれぞれの車線、及び、それら隣接車線にさらに隣接する車線(すなわち、車両10が走行中の車線を中心とする、左右それぞれ二つの車線)のそれぞれから、車両10に最も近いと推定される検出対象物体を選択する。この場合、例えば、物体検出部31が最新の画像から車線区画線を検出している場合、あるいは、ローカライズ処理部(図示せず)が、最新の画像から車線区画線を検出している場合には、追跡部32は、車線区画線と物体領域との位置関係に基づいて、各検出対象物体が走行中の車線を特定すればよい。例えば、追跡部32は、着目する検出対象物体について、その検出対象物体を含む物体領域の下端の両側に位置する二つの車線区画線で挟まれた車線上にその検出対象物体が位置していると判定すればよい。また、追跡部32は、車線ごとに、上記の検出対象物体の選択と同様の処理を実行することで、その車線を走行中の検出対象物体のうち、車両10に最も近い検出対象物体を選択すればよい。なお、追跡部32は、車線ごとに、車両10に近い方から順に二つ以上の検出対象物体を選択してもよい。
Alternatively, the
変形例によれば、追跡部32は、追跡中の検出対象物体全てを、状態識別の対象となる物体として選択してもよい。
According to a variant, the
追跡部32は、状態識別の対象となる検出対象物体の識別番号を状態識別部34へ通知する。また、追跡部32は、状態識別の対象についての判定結果に基づいて、検出物体リストにおける、状態識別の対象となる検出対象物体を示すインデックスの値を更新する。
The
領域分割部33は、カメラ2から画像を受信する度に、その画像を、検出対象となる物体が表されている画素の集合をその他の画素の集合と識別するように予め学習された第2の識別器に入力することで、その画像について検出対象物体が表された画素の集合である着目領域とその他のマスク領域とに領域分割する。
Each time an image is received from the
物体検出部31において説明したように、物体領域は、検出対象物体の外接矩形あるいは予め決められた所定の形状の領域として設定される。一方、車両10から見た検出対象物体の外観形状は矩形とは限らない。また、検出対象物体の透明な部分(例えば、リアウィンドウなど)を介して、検出対象物体以外のものが車両10から見えることがある。
As described in the
図5は、画像上に表される検出対象物体と物体領域の一例を示す図である。画像500には、検出対象物体の一例である車両が複数写っており、各車両が検出対象物体として検出されている。このうち、車両501について、車両501よりも前方に位置する車両502と車両503とが、車両501と重なって見えるため、車両501について設定された物体領域511内に、車両502及び車両503のそれぞれの一部が含まれている。特に、この例では、物体領域511内に、車両502及び車両503のブレーキランプ及びターンシグナルが含まれている。そのため、物体領域511内の全ての特徴が車両501の状態の識別のために利用されると、車両502または車両503のブレーキランプの点灯状況またはターンシグナルの点滅状況に影響されて、車両501の状態が正確に識別されなくなる可能性がある。
FIG. 5 is a diagram showing an example of a detection target object and an object region displayed on an image. An
同様に、画像500では、車両504のフロントウィンドウ及びリアウィンドウを介して、車両504よりも前方に位置する車両505の一部が見えている。そのため、車両504について設定された物体領域514内に、車両505の一部が含まれている。そのため、物体領域514内の全ての特徴が車両504の状態の識別のために利用されると、車両505のブレーキランプの点灯状況またはターンシグナルの点滅状況などに影響されて、車両504の状態が正確に識別されなくなる可能性がある。
Similarly,
そこで、領域分割部33は、各画像について、着目領域とマスク領域とに領域分割する。このように、各画像を領域分割することで、後述する状態識別部34が、検出対象物体以外のものを表す特徴を置換または低減することが可能となる。
Therefore, the
例えば、領域分割部33は、第2の識別器として、例えば、Fully Convolutional Network(FCN)、SegNetまたはU-NetといったCNN型のアーキテクチャを有するDNNを用いることができる。
For example, the
あるいは、領域分割部33は、第2の識別器として、同じ種類の物体でも、異なる物体が表れている画素の集合ごとに(すなわち、インスタンスごとに)領域分割可能なインスタンスセグメンテーション用のDNNを用いてもよい。領域分割部33は、そのようなインスタンスセグメンテーション用のDNNとして、例えば、Mask-RCNNまたはInstance FCNを用いることができる。第2の識別器としてインスタンスセグメンテーション用の識別器が利用されることにより、領域分割部33は、画像上に同じ種類の検出対象物体が複数表されており、かつ、それら複数の検出対象物体同士が部分的に重なっていても、検出対象物体ごとに着目領域を設定することができる。そのため、例えば、着目する車両以外の他の車両のブレーキランプまたはターンシグナルが、その着目する車両の物体領域に含まれていたとしても、他の車両のブレーキランプまたはターンシグナルが、着目する車両の状態の識別結果(例えば、ブレーキランプの点灯状態または右左折のターンシグナルの点滅状態か否か)に影響することが抑制される。
Alternatively, the
また、領域分割部33は、第2の識別器として、ニューラルネットワーク以外の手法に基づくセマンティックセグメンテーション用の識別器、例えば、ランダムフォレストといった手法に基づくセマンティックセグメンテーション用の識別器を用いてもよい。
Also, the
第2の識別器は、各画像について、画素単位で、着目領域とマスク領域とに領域分割することが好ましい。これにより、着目領域の形状が検出対象物体の形状をより正確に表すことができるので、検出対象物体以外のものを表す特徴が、検出対象物体の状態の識別のために利用される第3の識別器に入力され難くなる。しかし、第2の識別器は、各画像について、想定される物体領域の最小サイズよりも小さい画素グループ単位(例えば、2×2画素単位、あるいは4×4画素単位)で、着目領域とマスク領域とに領域分割してもよい。これにより、第2の識別器による演算量が削減される。 Preferably, the second discriminator divides each image into a region of interest and a mask region on a pixel-by-pixel basis. As a result, the shape of the region of interest can more accurately represent the shape of the detection target object. Input to the discriminator becomes difficult. However, for each image, the second discriminator divides the region of interest and the mask region into units of pixel groups smaller than the minimum size of the assumed object region (for example, units of 2×2 pixels or units of 4×4 pixels). It is possible to divide the area into This reduces the amount of computation by the second discriminator.
なお、領域分割結果を表す情報は、例えば、カメラ2により得られた画像と同じサイズを持ち、かつ、領域ごとに異なる値を持つビットマップとして表される。
Note that the information representing the region division result is represented as a bitmap having the same size as the image obtained by the
領域分割部33は、領域分割結果を表す情報を、状態識別部34へわたす。
The
状態識別部34は、追跡中の検出対象物体のうち、状態識別の対象となる検出対象物体のそれぞれについて、カメラ2から画像が得られる度に、その検出対象物体が含まれる物体領域内の画素値から求められる特徴のうち、その物体領域及び着目領域の両方に含まれる特徴を、領域分割結果を表す情報を参照して抽出する。そして状態識別部34は、抽出した特徴を、再帰的な構造を持つ第3の識別器に入力することで、時系列の外観変化を伴う、その検出対象物体の状態を識別する。
Each time an image is obtained from the
状態識別部34は、検出対象物体が表された物体領域内の画素値から求められる特徴として、例えば、第1の識別器の主幹部により算出されたfeature mapのうち、その物体領域に含まれるfeatureを利用することができる。これにより、検出対象物体そのものの特徴だけでなく、検出対象物体周囲の環境の特徴も状態識別に利用することが可能となる。本実施形態では、検出対象物体である車両と他の車両との相対的な位置関係による影響、例えば、検出対象物体である車両のターンシグナル等の一部が他の車両に隠れているような状況も考慮して、第3の識別器は、検出対象物体である車両の状態を識別することができる。例えば、feature mapの解像度が第1の識別器に入力された画像の解像度と同一である場合、その画像上での物体領域と対応する、feature map上の領域内に含まれる各featureが、物体領域内の画素値から求められる特徴となる。また、feature mapの解像度が第1の識別器に入力された画像の解像度よりも低い場合、入力された画像の解像度に対するfeature mapの解像度の比に応じて、物体領域の座標を補正した位置及び範囲が、物体領域に対応する、feature map上の領域となる。例えば、入力された画像上での物体領域の左上端位置及び右上端位置がそれぞれ(tlX, tlY)及び(brX, brY)であり、入力された画像に対して1/N(Nは2以上の整数)のダウンサイジングが行われてfeature mapが算出されているとする。この場合、画像上の物体領域に対応するfeature map上の領域の左上端位置及び右下端位置は、それぞれ、(tlX/N, tlY/N)及び(brX/N, brY/N)となる。
The
状態識別部34は、さらに、状態識別の対象となる検出対象物体のそれぞれについて、その検出対象物体が含まれる物体領域のうち、領域分割結果を示す情報においてその検出対象物体と同じ種類の物体の着目領域を、この物体領域内の着目領域とし、それ以外の領域をマスク領域とする。なお、第2の識別器としてインスタンスセグメンテーション用のDNNが用いられ、物体ごとに個別に着目領域が設定されている場合には、状態識別部34は、物体領域に含まれる検出対象物体の種類と同じ種類の物体のうち、領域分割結果を示す情報においてその物体領域内で最も大きい物体の着目領域を、その物体領域内の着目領域とする。
Further, for each of the detection target objects to be subjected to state identification, the
図6は、物体領域及び着目領域の一例を示す図である。図6に示される物体領域600と対応する領域分割結果610では、物体領域600に含まれる検出対象物体601が表されている画素の集合である着目領域611と、着目領域611以外の画素の集合であるマスク領域612とに領域分割されている。そのため、物体領域600と着目領域611の積集合となる領域620が、特徴の抽出対象となる。
FIG. 6 is a diagram showing an example of an object region and a region of interest. In the region segmentation result 610 corresponding to the
状態識別部34は、マスク領域に含まれる特徴が検出対象物体の状態の識別に影響しないよう、物体領域内に含まれる各featureのうち、マスク領域に含まれるfeatureを0に置換し、あるいは、マスク領域に含まれるfeatureに1未満の係数を乗じて減衰させる。これにより、物体領域及び着目領域の両方に含まれる特徴が抽出される。
The
変形例によれば、状態識別部34は、第1の識別器に入力された画像上の検出対象物体が表された物体領域内の各画素の値そのものを、第3の識別器に入力する、検出対象物体が表された物体領域内の画素値から求められる特徴としてもよい。あるいは、状態識別部34は、その物体領域内の各画素に対して、畳み込み演算といった所定のフィルタ処理を行って得られた値を、第3の識別器に入力する、検出対象物体が表された物体領域内の画素値から求められる特徴としてもよい。この場合も、マスク領域に含まれる特徴が検出対象物体の状態の識別に影響しないよう、状態識別部34は、物体領域内に含まれる各画素の値または各画素のフィルタ処理された値のうち、マスク領域に含まれる値を0に置換し、あるいは、マスク領域に含まれる値に1未満の係数を乗じて減衰させる。
According to the modified example, the
状態識別部34は、各物体領域について、抽出した特徴をダウンサンプリングまたはアップサンプリングすることで所定のサイズ(例えば、32×32)にリサイズする。これにより、検出対象物体の追跡の途中で車両10と検出対象物体間の相対距離が変化して、画像上での検出対象物体のサイズが変化しても、第3の識別器は、入力される特徴を一定のサイズとして扱えるので、第3の識別器の構成が簡単化される。
The
状態識別部34は、再帰的な構造を持つ第3の識別器として、例えば、Recurrent Neural Network(RNN)、Long Short Term Memory(LSTM)またはGated Recurrent Unit(GRU)といった、再帰的な構造を持つニューラルネットワークを用いることができる。第3の識別器は、物体領域及び着目領域の両方に含まれる特徴を処理すればよいため、第1の識別器と比較して、入力層及び中間層のサイズが小さくて済み、かつ、重み係数といった第3の識別器を規定するためのパラメータ数が少なくて済む。そのため、第3の識別器は、第1の識別器と比較して演算量が少なく、プロセッサ23に対する演算負荷を小さくすることができる。さらに、第3の識別器の学習に要する演算量も削減される。なお、第1の識別器、第2の識別器及び第3の識別器がそれぞれニューラルネットワークとして構成されている場合、共通の教師データを用いて、誤差逆伝搬法によりそれらニューラルネットワークが一体的に学習されてもよい。その学習の際、第2の識別器の各畳み込み層のカーネルの重み係数は固定してもよい。これにより、第3の識別器に入力される特徴に、検出対象物体そのものの特徴だけでなく検出対象物体周囲の環境の特徴のうちの状態識別の精度向上に必要なものが含まれ、一方、状態識別の精度を低下させるものが含まれなくなるように各識別器が学習される。
The
第3の識別器は、再帰的な構造を有しているため、時系列に順次特徴が入力される度に、内部状態を更新する。これにより、第3の識別器は、追跡中の検出対象物体の外観の時系列の変化に基づいて、その検出対象物体の状態を識別することができる。本実施形態では、状態識別部34は、上記のように、検出対象物体(すなわち、車両10の周囲の他の車両)の状態として、左右何れかのターンシグナルまたはハザードランプの点滅状態か否か、ブレーキランプが点灯している状態あるいは消灯している状態かを識別する。そのために、第3の識別器の出力層の活性化関数として、例えば、sigmoid関数が用いられる。これにより、第3の識別器は、各状態の確信度を出力することができる。そして状態識別部34は、各状態の確信度を対応する閾値と比較し、検出対象物体の状態は、確信度が対応する閾値以上となる状態であると判定する。例えば、検出対象物体の左のターンシグナルが点滅している状態についての確信度が0.8であり、一方、左のターンシグナルが点滅していない状態についての確信度が0.2であるとする。そして閾値が0.5であるとすると、状態識別部34は、検出対象物体の状態は、左のターンシグナルが点滅している状態であると判定する。
Since the third discriminator has a recursive structure, it updates its internal state each time features are sequentially input in time series. Thereby, the third discriminator can discriminate the state of the detection target object based on the time-series change in the appearance of the detection target object being tracked. In the present embodiment, as described above, the
あるいは、第3の識別器の出力層の活性化関数として、softmax関数が用いられてもよい。この場合には、第3の識別器は、検出対象物体の状態として、左のターンシグナルが点滅、右のターンシグナルが点滅、ハザードランプが点滅、ブレーキランプが点灯、あるいはその何れでもないとの判定結果を出力する。したがって、状態識別部34は、第3の識別器から出力された判定結果で表される状態を、検出対象物体の状態とすればよい。
Alternatively, a softmax function may be used as the activation function of the output layer of the third discriminator. In this case, the third discriminator indicates that the state of the object to be detected is blinking of the left turn signal, blinking of the right turn signal, blinking of the hazard lamp, blinking of the brake lamp, or none of these. Output the judgment result. Therefore, the
状態識別部34は、状態識別の対象となる個々の検出体対象物体についての状態識別結果を検出物体リストへ登録するとともに、運転計画部35へ通知する。
The
図7は、状態識別処理に関連する各部の処理のタイミングチャートである。プロセッサ23の各部の処理は、例えば、プロセッサ23上で動作するスケジューラ(図示せず)により管理され、図7に示されるタイミングチャートに従って実行される。図7において、横軸は時間を表す。また、図7において、個々のブロックは、そのブロック内に示された処理が実行されることを表し、個々の矢印は、各処理間でのデータ(画像、領域分割結果、特徴等)の受け渡しを表す。例えば、時刻t1にてECU3がカメラ2から画像を受け取ると、プロセッサ23が有するGPUにて、その画像に対する、物体検出部31による検出対象物体の検出処理、及び、領域分割部33による領域分割処理が並列に実行される。なお、検出対象物体の検出処理及び領域分割処理が行われる前に、画像に対してコントラスト補正または色変換といった前処理が行われてもよい。
FIG. 7 is a timing chart of processing of each unit related to state identification processing. The processing of each part of the
検出対象物体の検出処理が行われると、プロセッサ23が有するCPUにて、検出された物体の種類及び物体領域の検出物体リストへの登録などの物体検出の後処理が行われ、その後に、追跡部32による追跡処理が実行される。そして、追跡処理の後に、状態識別部34による、個々の物体領域についての第3の識別器に入力される特徴の抽出、抽出した特徴のリサイズ及び第3の識別器を用いた状態識別処理が実行される。上記のように、第3の識別器による演算量は相対的に少ないため、個々の検出対象物体の状態識別処理に要する演算時間は少なくて済む。そして得られた検出対象物体の状態識別の結果が、運転計画部35及び車両制御部36の処理に利用される。なお、CPUによる処理とGPUによる処理間のタスクのスイッチングコスト及びメモリ転送量を最小化するために、領域分割処理、各検出対象物体についての特徴の抽出処理、状態識別処理及び状態識別処理の結果の読出し処理はバッチ処理としてまとめて実行されることが好ましい。
When the detection target object detection processing is performed, the CPU of the
図8は、検出物体リストの一例を示す図である。検出物体リスト800には、追跡中の検出対象物体のそれぞれについて、その物体が状態識別対象か否かを表すインデックス、その物体に割り当てられた識別番号、その物体に関する情報が記憶されているメモリ22のアドレスを表すポインタ及び状態識別部34により状態識別された回数(すなわち、第3の識別器に対応する物体領域内の特徴が入力された回数)が格納される。さらに、検出物体リスト800には、追跡中の検出対象物体のそれぞれについて、物体領域の位置及び範囲を表す情報(図示せず)及び検出対象物体の種類を表す情報(図示せず)などが格納される。また、各検出対象物体についてのポインタで示されるメモリ22上の格納領域801には、最新の画像における、第3の識別器に入力される特徴、第3の識別器の中間層状態、第3の識別器からの出力結果などが記憶される。
FIG. 8 is a diagram showing an example of a detected object list. In the detected
運転計画部35は、検出物体リストを参照して、車両10の周囲に存在する物体と車両10とが衝突しないように車両10の走行予定経路(トラジェクトリ)を1以上生成する。走行予定経路は、例えば、現時刻から所定時間先までの各時刻における、車両10の目標位置の集合として表される。例えば、運転計画部35は、検出物体リストを参照して、カメラ2についての車両10への取り付け位置などの情報を用いて視点変換処理を実行することで、検出物体リストにおける物体の画像内座標を鳥瞰画像上の座標(鳥瞰座標)に変換する。そして運転計画部35は、一連の鳥瞰座標に対してKalman FilterまたはParticle filterなどを用いたトラッキング処理を実行することで、検出物体リストに登録されている物体を追跡し、その追跡結果により得られた軌跡から、物体のそれぞれの所定時間先までの予測軌跡を推定する。その際、運転計画部35は、検出対象物体の状態識別結果を予測軌跡の推定に利用する。例えば、着目する検出対象物体の状態が、左のターンシグナルが点滅している状態である場合、その検出対象物体は左側へ車線変更し、あるいは、左折する可能性が高い。そこで、運転計画部35は、その検出対象物体について、左側へ車線変更し、あるいは、左折する予測軌跡を推定する。また、着目する検出対象物体の状態が、ブレーキランプが点灯している状態である場合、あるいは、ハザードランプが点滅している状態である場合、その検出対象物体は減速する可能性が高い。そこで、運転計画部35は、その検出対象物体について、現時点よりも減速するような予測軌跡を推定する。さらに、着目する検出対象物体の状態が、左右のターンシグナル及びハザードランプの何れも点滅しておらず、かつ、ブレーキランプが消灯している状態である場合、その検出対象物体は減速せずに直進する可能性が高い。そこで、運転計画部35は、その検出対象物体について、減速せずに直進するような予測軌跡を推定する。
The
運転計画部35は、追跡中の各物体の予測軌跡と、車両10の位置、速度及び姿勢に基づいて、何れの物体についても所定時間先までの追跡中の物体のそれぞれと車両10間の距離の予測値が所定距離以上となるように、車両10の走行予定経路を生成する。なお、運転計画部35は、車両10の位置、速度及び姿勢を、例えば、車両10に搭載されたGPS受信機(図示せず)から得た車両10の現在位置を表す現在位置情報に基づいて推定できる。あるいは、ローカライズ処理部(図示せず)が、カメラ2により画像が得られる度に、その画像から車両10の左右の車線区画線を検出し、検出された車線区画線とメモリ22に記憶されている地図情報とをマッチングすることで、車両10の位置、速度及び姿勢が推定されてもよい。さらに、運転計画部35は、例えば、車両10の現在位置情報と、メモリ22に記憶されている地図情報とを参照して、車両10が走行可能な車線の数を確認してもよい。そして運転計画部35は、車両10が走行可能な車線が複数存在する場合には、車両10が走行する車線を変更するように走行予定経路を生成してもよい。
なお、運転計画部35は、複数の走行予定経路を生成してもよい。この場合、運転計画部35は、複数の走行予定経路のうち、車両10の加速度の絶対値の総和が最小となる経路を選択してもよい。
Based on the predicted trajectory of each object being tracked and the position, speed, and attitude of the
Note that the
運転計画部35は、生成した走行予定経路を車両制御部36へ通知する。
The
車両制御部36は、車両10が通知された走行予定経路に沿って走行するように車両10の各部を制御する。例えば、車両制御部36は、通知された走行予定経路、及び、車速センサ(図示せず)により測定された車両10の現在の車速に従って、車両10の加速度を求め、その加速度となるようにアクセル開度またはブレーキ量を設定する。そして車両制御部36は、設定されたアクセル開度に従って燃料噴射量を求め、その燃料噴射量に応じた制御信号を車両10のエンジンの燃料噴射装置へ出力する。あるいは、車両制御部36は、設定されたブレーキ量に応じた制御信号を車両10のブレーキへ出力する。
The
さらに、車両制御部36は、車両10が走行予定経路に沿って走行するために車両10の進路を変更する場合には、その走行予定経路に従って車両10の操舵角を求め、その操舵角に応じた制御信号を、車両10の操舵輪を制御するアクチュエータ(図示せず)へ出力する。
Further, when the
図9は、プロセッサ23により実行される、物体状態識別処理を含む車両制御処理の動作フローチャートである。プロセッサ23は、カメラ2から画像を受信する度に、図9に示される動作フローチャートに従って車両制御処理を実行する。なお、以下に示される動作フローチャートにおいて、ステップS101~S106の処理が物体状態識別処理に対応する。
FIG. 9 is an operation flowchart of vehicle control processing including object state identification processing executed by the
プロセッサ23の物体検出部31は、カメラ2から得られた最新の画像を第1の識別器に入力して、その画像に表された検出対象物体を検出する。すなわち、物体検出部31は、画像上で検出対象物体を含む所定形状の物体領域を検出する(ステップS101)。さらに、物体検出部31は、その検出対象物体の種類を識別する。そして物体検出部31は、検出された物体を検出物体リストに登録する。
The
プロセッサ23の追跡部32は、最新の画像における、検出対象物体を含む物体領域のそれぞれについて、その物体領域と、過去の画像における物体領域とに基づいて、最新の画像における、その物体領域に表されている検出対象物体を追跡する(ステップS102)。さらに、追跡部32は、追跡中の検出対象物体の中から、所定数の検出対象物体を、状態識別の対象となる検出対象物体として選択する(ステップS103)。
For each object region containing the object to be detected in the latest image, the
また、プロセッサ23の領域分割部33は、最新の画像を第2の識別器に入力して、その画像を、個々の検出対象物体が表された着目領域とそれ以外のマスク領域とに領域分割する(ステップS104)。
In addition, the
プロセッサ23の状態識別部34は、選択された状態識別の対象となる検出対象物体のそれぞれについて、その検出対象物体が表された物体領域内の画素値から求められる特徴のうち、物体領域と着目領域の両方に含まれる特徴を抽出する(ステップS105)。そして状態識別部34は、状態識別の対象となる検出対象物体のそれぞれについて、抽出した特徴を、再帰構造を持つ第3の識別器に入力することで、その検出対象物体の状態を識別する(ステップS106)。
The
プロセッサ23の運転計画部35は、検出物体リストを参照して、検出物体リストに登録されている各検出対象物体について、状態識別結果を参照して推定されるその物体の予測軌跡と所定の距離以上となるように、車両10の走行予定経路を生成する(ステップS107)。そしてプロセッサ23の車両制御部36は、走行予定経路に沿って車両10が走行するように車両10を制御する(ステップS108)。そしてプロセッサ23は、車両制御処理を終了する。
The
以上に説明してきたように、この物体状態識別装置は、時系列に得られる一連の画像をそれぞれ第1の識別器に入力することで、一連の画像のそれぞれから、検出対象物体を含む所定形状の物体領域を検出する。また、この物体状態識別装置は、各画像を第2の識別器に入力することで、検出対象物体が表された画素の集合とそれ以外の物体が表された画素の集合とに領域分割し、その領域分割結果を利用して、物体領域内の特徴のうち、検出対象物体が表される着目領域に含まれる特徴を抽出する。そしてこの物体状態識別装置は、抽出した特徴を時系列順に再帰的な構造を持つ第3の識別器に入力することで、検出対象物体の状態を識別する。これにより、この物体状態識別装置は、画像に表された検出対象物体の時系列の外観変化を、状態識別の判定に利用される特徴の時系列の変化として捉えることができる。さらに、この物体状態識別装置は、画像に表された検出対象物体以外の情報がその検出対象物体の状態の識別に影響することを抑制できる。そのため、この物体状態識別装置は、検出対象物体の状態を正確に識別することができる。さらに、この物体状態識別装置は、個々の画像から物体を検出する第1の識別器を利用して、時系列の一連の画像のそれぞれから、第3の識別器に入力する特徴を抽出するので、画像全体を再帰構造を持つ識別器に入力して物体の状態を識別するよりも、全体として演算量を削減することができる。また、第1の識別器及び第2の識別器の学習に用いられる画像は静止画像であればよく、一方、第3の識別器の学習には、動画像が必要となるものの、その動画像に含まれる個々の画像のサイズは、第1及び第2の識別器の学習に利用される画像のサイズよりも小さくてよい。そのため、この物体状態識別装置は、各識別器の学習に必要なコスト(例えば、教師画像のアノテーションに要するコスト、教師画像の収集に要するコストなど)を削減するとともに、各識別器の学習に要する演算量及び演算時間を削減することができる。 As described above, this object state identification apparatus inputs a series of images obtained in time series to the first classifier, respectively. , the object area is detected. In addition, the object state identification device inputs each image to the second classifier, and divides the image into a set of pixels representing the object to be detected and a set of pixels representing other objects. , using the region segmentation result, features included in the region of interest representing the object to be detected are extracted from among the features in the object region. This object state identification device identifies the state of the object to be detected by inputting the extracted features into a third classifier having a recursive structure in chronological order. As a result, the object state identification apparatus can capture time-series changes in the appearance of the detection target object represented in the image as time-series changes in features used for state identification determination. Furthermore, this object state identification device can suppress the influence of information other than the detection target object represented in the image on the identification of the state of the detection target object. Therefore, this object state identification device can accurately identify the state of the object to be detected. Furthermore, this object state identification device uses the first classifier for detecting the object from each image, and extracts features to be input to the third classifier from each of the time-series images. , the overall amount of computation can be reduced compared to inputting the entire image to a discriminator having a recursive structure to discriminate the state of the object. Images used for learning the first classifier and the second classifier may be still images. On the other hand, learning for the third classifier requires a moving image. The size of each image included in may be smaller than the size of the images used for training the first and second classifiers. Therefore, this object state identification device reduces the cost required for learning each classifier (for example, the cost required for annotation of teacher images, the cost required for collecting teacher images, etc.), and the cost required for learning each classifier. A calculation amount and calculation time can be reduced.
なお、変形例によれば、物体検出部31は、DNN以外の識別器を利用して、画像から検出対象物体を検出してもよい。例えば、物体検出部31は、第1の識別器として、画像上に設定されるウィンドウから算出される特徴量(例えば、HOG)を入力として、そのウィンドウに検出対象となる物体が表される確信度を出力するように予め学習されたサポートベクトルマシン(SVM)を用いてもよい。物体検出部31は、画像上に設定するウィンドウの位置、サイズ及びアスペクト比を様々に変更しながら、そのウィンドウから特徴量を算出し、算出した特徴量をSVMへ入力することで、そのウィンドウについて確信度を求める。そして物体検出部31は、何れかの種類の検出対象物体について確信度が所定の確信度閾値以上となるウィンドウに、その検出対象物体が表されていると判定し、かつ、そのウィンドウを物体領域とすればよい。なお、SVMは、検出対象となる物体の種類ごとに用意されてもよい。この場合には、物体検出部31は、各ウィンドウについて、そのウィンドウから算出された特徴量をそれぞれのSVMへ入力することで、物体の種類ごとに確信度を算出すればよい。この場合、状態識別部34の第3の識別器に入力する物体領域の特徴は、検出対象物体が表されていると判定されたウィンドウ(すなわち、物体領域)から抽出され、SVMに入力されるHOGといった特徴量とすることができる。
Note that, according to a modification, the
上記の実施形態または変形例による物体状態識別装置は、車載機器以外に実装されてもよい。例えば、上記の実施形態または変形例による物体状態識別装置は、屋外または屋内の所定の領域を所定周期ごとに撮影するように設置された監視カメラにより生成された画像から物体を検出し、検出した物体の状態を識別するように構成されてもよい。そして物体状態識別装置は、一定期間にわたって物体が検出された場合、物体状態識別装置と接続されるディスプレイに物体が検出されたこと、及びその物体の状態の識別結果を表すメッセージを表示させてもよい。 The object state identification device according to the above embodiment or modification may be mounted in a device other than an in-vehicle device. For example, the object state identification device according to the above embodiment or modification detects an object from an image generated by a surveillance camera installed to photograph a predetermined outdoor or indoor area at predetermined intervals, and detects the detected object. It may be configured to identify the state of the object. Then, when an object is detected for a certain period of time, the object state identification device displays a message indicating that the object has been detected and the identification result of the state of the object on a display connected to the object state identification device. good.
また、上記の実施形態または変形例による、物体状態識別装置のプロセッサ23の各部の機能を実現するコンピュータプログラムは、半導体メモリ、磁気記録媒体または光記録媒体といった、コンピュータ読取可能な可搬性の記録媒体に記録された形で提供されてもよい。
In addition, the computer program that realizes the function of each part of the
以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。 As described above, those skilled in the art can make various modifications within the scope of the present invention according to the embodiment.
1 車両制御システム
2 カメラ
3 電子制御装置(物体状態識別装置)
4 車内ネットワーク
21 通信インターフェース
22 メモリ
23 プロセッサ
31 物体検出部
32 追跡部
33 領域分割部
34 状態識別部
35 運転計画部
36 車両制御部
1
4 in-
Claims (1)
前記一連の画像のそれぞれを、前記物体が表されている画素の集合をその他の画素の集合と識別するように予め学習された第2の識別器に入力することで、前記一連の画像のそれぞれについて前記物体が表された画素の集合である着目領域とその他の領域とに分割する領域分割部と、
前記一連の画像のそれぞれにおいて検出された前記物体領域内の画素値から求められる特徴のうち、前記物体領域及び前記着目領域の両方に含まれる前記特徴を、時系列順に再帰構造を持つ第3の識別器に入力することで、時系列の外観変化を伴う前記物体の状態を識別する状態識別部と、
を有する物体状態識別装置。 By inputting a series of images obtained in time series to a first discriminator pre-trained to detect a predetermined object, each of the series of images includes the object on the image, and an object detection unit that detects an object region having a predetermined shape;
each of the series of images by inputting each of the series of images into a second discriminator pretrained to distinguish sets of pixels representing the object from other sets of pixels; a region division unit that divides into a region of interest, which is a set of pixels representing the object, and other regions,
A third method having a recursive structure in which, among features obtained from pixel values in the object region detected in each of the series of images, the features included in both the object region and the region of interest are arranged in chronological order. A state identification unit that identifies the state of the object that accompanies a time-series appearance change by inputting to the classifier;
An object state identification device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020024569A JP7226368B2 (en) | 2020-02-17 | 2020-02-17 | Object state identification device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020024569A JP7226368B2 (en) | 2020-02-17 | 2020-02-17 | Object state identification device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021128705A JP2021128705A (en) | 2021-09-02 |
JP7226368B2 true JP7226368B2 (en) | 2023-02-21 |
Family
ID=77488737
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020024569A Active JP7226368B2 (en) | 2020-02-17 | 2020-02-17 | Object state identification device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7226368B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210312198A1 (en) * | 2020-04-03 | 2021-10-07 | Toyota Jidosha Kabushiki Kaisha | Apparatus, method, and computer program for identifying state of signal light, and controller |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7425032B2 (en) | 2021-10-26 | 2024-01-30 | ダイハツ工業株式会社 | Object determination device and object determination system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018026108A (en) | 2016-08-08 | 2018-02-15 | パナソニックIpマネジメント株式会社 | Object tracking method, object tracking device, and program |
JP2018101317A (en) | 2016-12-21 | 2018-06-28 | ホーチキ株式会社 | Abnormality monitoring system |
-
2020
- 2020-02-17 JP JP2020024569A patent/JP7226368B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018026108A (en) | 2016-08-08 | 2018-02-15 | パナソニックIpマネジメント株式会社 | Object tracking method, object tracking device, and program |
JP2018101317A (en) | 2016-12-21 | 2018-06-28 | ホーチキ株式会社 | Abnormality monitoring system |
Non-Patent Citations (1)
Title |
---|
Qiurui Wang et al.,Learning Attentional Recurrent Neural Network for Visual Tracking,IEEE TRANSACTIONS ON MULTIMEDIA, VOL. 21, NO. 4,2019年04月30日 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210312198A1 (en) * | 2020-04-03 | 2021-10-07 | Toyota Jidosha Kabushiki Kaisha | Apparatus, method, and computer program for identifying state of signal light, and controller |
Also Published As
Publication number | Publication date |
---|---|
JP2021128705A (en) | 2021-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11093801B2 (en) | Object detection device and object detection method | |
JP7388971B2 (en) | Vehicle control device, vehicle control method, and vehicle control computer program | |
US11308717B2 (en) | Object detection device and object detection method | |
JP7115502B2 (en) | Object state identification device, object state identification method, computer program for object state identification, and control device | |
JP7078021B2 (en) | Object detection device, object detection method and computer program for object detection | |
JP7359735B2 (en) | Object state identification device, object state identification method, computer program for object state identification, and control device | |
JP7472832B2 (en) | Vehicle control device, vehicle control method, and vehicle control computer program | |
JP7226368B2 (en) | Object state identification device | |
US11900690B2 (en) | Apparatus, method, and computer program for identifying state of signal light, and controller | |
US20200394435A1 (en) | Distance estimation device, distance estimation method, and distance estimation computer program | |
JP7348874B2 (en) | Tilt angle detection device and control device | |
US20230177844A1 (en) | Apparatus, method, and computer program for identifying state of lighting | |
JP2022146384A (en) | Object detection device | |
JP2022079954A (en) | Object detection apparatus | |
JP2023084575A (en) | Lighting state discrimination apparatus | |
JP2024030951A (en) | Vehicle control device, vehicle control method, and vehicle control computer program | |
JP2023092183A (en) | Tracking device, tracking method, and computer program for tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230123 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7226368 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |