JP2022146384A - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP2022146384A
JP2022146384A JP2021047308A JP2021047308A JP2022146384A JP 2022146384 A JP2022146384 A JP 2022146384A JP 2021047308 A JP2021047308 A JP 2021047308A JP 2021047308 A JP2021047308 A JP 2021047308A JP 2022146384 A JP2022146384 A JP 2022146384A
Authority
JP
Japan
Prior art keywords
detected
overlap
vehicle
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021047308A
Other languages
Japanese (ja)
Inventor
将太 牧田
Shota Makita
聡 武安
Satoshi Takeyasu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2021047308A priority Critical patent/JP2022146384A/en
Publication of JP2022146384A publication Critical patent/JP2022146384A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an object detection device with which, even when a plurality of objects overlap in an image, it is possible to detect each of these objects.SOLUTION: The object detection device comprises: an object detection unit 31 for detecting a plurality of object areas from an image, in which objects to be detected are displayed, as well as calculating, for each object area, hide reliability that represents the likelihood of an object being hidden at least partly by other objects; an overlap assessment unit 33 which, when, regarding a set of object areas overlapping each other at least in part, the overlap degree of object areas is greater than or equal to a prescribed overlap degree threshold, assesses that one object to be detected is represented in this set of object areas, and which, when the overlap degree is less than the prescribed overlap degree threshold, assesses that a separate object to be detected for each object area is represented; and a threshold setting unit 32 for raising the prescribed overlap degree threshold progressively as the difference of hide reliability between the object areas included in a set of object areas increases.SELECTED DRAWING: Figure 3

Description

本発明は、画像に表された物体を検出する物体検出装置に関する。 The present invention relates to an object detection device that detects an object represented in an image.

カメラにより得られた画像に表された特定の物体を検出する技術が研究されている(例えば、特許文献1を参照)。 Techniques for detecting a specific object represented in an image obtained by a camera have been researched (see, for example, Patent Document 1).

特許文献1に開示された映像処理装置は、映像から物体を検出するとともに、その映像から特定の物体を検出する。この映像処理装置は、検出した物体の領域と検出した特定物体の領域とが重複する割合に基づいて、検出した物体と検出した特定の物体とが対応するかを判断する。その際、この映像処理装置は、検出した物体の領域と検出した特定物体の領域とが重複する割合が所定の閾値を超えた場合に、その物体とその特定の物体とが対応すると判断する。 The image processing device disclosed in Patent Literature 1 detects an object from an image and also detects a specific object from the image. This video processing device determines whether the detected object and the detected specific object correspond based on the ratio of overlap between the detected object area and the detected specific object area. At this time, the image processing device determines that the object and the specific object correspond when the ratio of overlap between the detected object area and the detected specific object area exceeds a predetermined threshold.

特開2015-46194号公報JP 2015-46194 A

上記の技術では、互いに異なる検出手段により検出された物体と特定の物体とが対応付けられる。しかし、画像上で検出対象となる複数の物体が表されており、それらの物体の一方が他方の物体により部分的に隠されていることがある。このような場合、上記の技術では、各物体を検出することが困難なことがある。 In the above technique, objects detected by different detection means and specific objects are associated with each other. However, multiple objects to be detected may be represented on the image, one of which may be partially obscured by the other. In such cases, it may be difficult to detect each object with the techniques described above.

そこで、本発明は、画像上で複数の物体が重なっている場合でも、それらの物体のそれぞれを検出することが可能な物体検出装置を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide an object detection apparatus capable of detecting each object even when a plurality of objects overlap each other on an image.

一つの実施形態によれば、物体検出装置が提供される。この物体検出装置は、撮像部により生成された所定の領域を表す画像を識別器に入力することで、画像から、検出対象となる物体が表された複数の物体領域を検出するとともに、複数の物体領域のそれぞれについて検出対象となる物体が他の物体により少なくとも部分的に隠されている確からしさを表す隠れ信頼度を算出する物体検出部と、検出された複数の物体領域のうち、互いに少なくとも部分的に重複する物体領域の組について、その物体領域の組に含まれる物体領域同士の重複度合いが所定の重複度合い閾値以上である場合、その物体領域の組に一つの検出対象となる物体が表されていると判定し、重複度合いが所定の重複度合い閾値未満である場合、その物体領域の組に含まれる物体領域ごとに別個の検出対象となる物体が表されていると判定する重複判定部と、物体領域の組に含まれる物体領域のそれぞれの隠れ信頼度の差が大きくなるほど所定の重複度合い閾値を高くする閾値設定部とを有する。 According to one embodiment, an object detection device is provided. This object detection apparatus inputs an image representing a predetermined area generated by an imaging unit to a classifier, thereby detecting a plurality of object areas representing objects to be detected from the image, and detecting a plurality of object areas. an object detection unit that calculates, for each of the object regions, a hidden reliability that indicates the likelihood that an object to be detected is at least partially hidden by another object; For a set of partially overlapping object regions, if the degree of overlap between object regions included in the set of object regions is equal to or greater than a predetermined degree of overlap threshold, one object to be detected is present in the set of object regions. Overlapping determination determining that each object region included in the set of object regions represents a separate object to be detected when the degree of overlap is less than a predetermined degree of overlap threshold. and a threshold value setting unit that increases a predetermined overlapping degree threshold as the difference in hidden reliability between object regions included in the set of object regions increases.

本発明に係る物体検出装置は、画像上で複数の物体が重なっている場合でも、それらの物体のそれぞれを検出することができるという効果を奏する。 INDUSTRIAL APPLICABILITY The object detection apparatus according to the present invention has the effect of being able to detect each object even when a plurality of objects overlap on an image.

物体検出装置が実装される車両制御システムの概略構成図である。1 is a schematic configuration diagram of a vehicle control system in which an object detection device is mounted; FIG. 物体検出装置の一実施形態である電子制御装置のハードウェア構成図である。1 is a hardware configuration diagram of an electronic control device that is an embodiment of an object detection device; FIG. 物体検出処理を含む車両制御処理に関する、電子制御装置のプロセッサの機能ブロック図である。FIG. 4 is a functional block diagram of a processor of the electronic control unit regarding vehicle control processing including object detection processing; 識別器として利用されるDNNの構成の一例を示す図である。FIG. 2 is a diagram showing an example of the configuration of a DNN used as a discriminator; FIG. 複数の検出対象物体が表された画像の一例を示す図である。FIG. 10 is a diagram showing an example of an image showing a plurality of detection target objects; 物体検出処理を含む車両制御処理の動作フローチャートである。4 is an operation flowchart of vehicle control processing including object detection processing;

以下、図を参照しつつ、物体検出装置について説明する。この物体検出装置は、検出対象となる1以上の物体(以下、検出対象物体と呼ぶことがある)を検出するように予め学習された識別器に画像を入力することで、その画像上で検出対象物体を含む領域(以下、物体領域と呼ぶことがある)を複数検出する。そしてこの物体検出装置は、互いに少なくとも部分的に重複する物体領域の組について、物体領域同士の重複度合いが所定の重複度合い閾値以上である場合、その物体領域の組に一つの検出対象物体が表されていると判定する。一方、その重複度合いが重複度合い閾値未満である場合、この物体検出装置は、その物体領域の組に含まれる物体領域のそれぞれに別個の検出対象物体が表されていると判定する。ここで、識別器は、個々の物体領域について、その物体領域内に表された検出対象物体が他の物体により少なくとも部分的に隠されている確からしさを表す隠れ信頼度をさらに算出する。そしてこの物体検出装置は、互いに少なくとも部分的に重複する物体領域の組に含まれる物体領域のそれぞれの隠れ信頼度の差が大きくなるほど、所定の重複度合い閾値を高くする。これにより、この物体検出装置は、識別器が一つの検出対象物体に対して複数の物体領域を検出したのか、複数の検出対象物体に対して別個に物体領域を検出したのかを正確に判別することを可能にする。その結果として、この物体検出装置は、画像上で複数の物体が重なっている場合でも、それらの物体のそれぞれを検出することを可能とする。 The object detection device will be described below with reference to the drawings. This object detection device inputs an image to a classifier trained in advance so as to detect one or more objects to be detected (hereinafter sometimes referred to as detection target objects), and detects on the image. A plurality of regions including the target object (hereinafter sometimes referred to as object regions) are detected. In this object detection apparatus, for a set of object areas that at least partially overlap each other, if the degree of overlap between the object areas is equal to or greater than a predetermined overlap degree threshold value, one detection target object appears in the set of object areas. It is determined that On the other hand, if the degree of overlap is less than the degree of overlap threshold, the object detection device determines that each of the object regions included in the set of object regions represents a separate detection target object. Here, the discriminator further calculates, for each object region, a hidden reliability that indicates the probability that the detection target object represented in the object region is at least partially hidden by another object. Then, the object detection apparatus increases the predetermined overlap degree threshold as the difference in the hidden reliability of the object areas included in the set of object areas that at least partially overlap each other increases. Thus, this object detection device accurately determines whether the discriminator has detected a plurality of object regions for one detection target object or whether the object regions have been detected separately for a plurality of detection target objects. make it possible. As a result, this object detection device makes it possible to detect each of multiple objects even when the objects overlap on the image.

以下では、物体検出装置を、車両制御システムに適用した例について説明する。この例では、物体検出装置は、車両に搭載されたカメラにより得られた時系列の一連の画像に対して物体検出処理を実行することで、車両の周囲に存在する検出対象物体を検出する。検出対象物体には、車両10の走行に影響を与える物体、例えば、車両10の周囲を走行する他の車両、人、道路標識、信号機、車線区画線などの道路標示、及び、道路上のその他の物体などが含まれる。 An example in which the object detection device is applied to a vehicle control system will be described below. In this example, the object detection device detects a detection target object existing around the vehicle by performing object detection processing on a series of time-series images obtained by a camera mounted on the vehicle. Objects to be detected include objects that affect the traveling of the vehicle 10, such as other vehicles traveling around the vehicle 10, people, road signs, traffic lights, road markings such as lane markings, and others on the road. objects such as

図1は、物体検出装置が実装される車両制御システムの概略構成図である。また図2は、物体検出装置の一つの実施形態である電子制御装置のハードウェア構成図である。本実施形態では、車両10に搭載され、かつ、車両10を制御する車両制御システム1は、車両10の周囲を撮影するためのカメラ2と、物体検出装置の一例である電子制御装置(ECU)3とを有する。カメラ2とECU3とは、コントローラエリアネットワークといった規格に準拠した車内ネットワークを介して通信可能に接続される。なお、車両制御システム1は、車両10の自動運転制御に用いられる、地物の位置及び種類、車線区画線などを表す地図情報を記憶するストレージ装置をさらに有していてもよい。さらに、車両制御システム1は、LiDARあるいはレーダといった測距センサ、GPS受信機といった、衛星測位システムに準拠して車両10の自己位置を測位するための受信機、他の機器と無線通信するための無線端末を有していてもよい。さらにまた、車両制御システム1は、車両10の走行予定ルートを探索するためのナビゲーション装置を有していてもよい。 FIG. 1 is a schematic configuration diagram of a vehicle control system in which an object detection device is mounted. Also, FIG. 2 is a hardware configuration diagram of an electronic control unit, which is one embodiment of the object detection apparatus. In this embodiment, a vehicle control system 1 mounted on a vehicle 10 and controlling the vehicle 10 includes a camera 2 for capturing an image of the surroundings of the vehicle 10 and an electronic control unit (ECU), which is an example of an object detection device. 3. The camera 2 and the ECU 3 are communicably connected via an in-vehicle network conforming to a standard such as a controller area network. The vehicle control system 1 may further include a storage device that stores map information representing the position and type of features, lane markings, and the like, which are used for automatic driving control of the vehicle 10 . Further, the vehicle control system 1 includes a distance measuring sensor such as LiDAR or radar, a receiver such as a GPS receiver for measuring the self-position of the vehicle 10 in compliance with the satellite positioning system, and a receiver for wirelessly communicating with other devices. It may have a wireless terminal. Furthermore, the vehicle control system 1 may have a navigation device for searching for the planned travel route of the vehicle 10 .

カメラ2は、撮像部の一例であり、CCDあるいはC-MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に撮影対象となる領域の像を結像する結像光学系を有する。そしてカメラ2は、車両10の前方を向くように、例えば、車両10の車室内に取り付けられる。そしてカメラ2は、所定の撮影周期(例えば1/30秒~1/10秒)ごとに車両10の前方領域を撮影し、その前方領域が写った画像を生成する。カメラ2により得られた画像は、カラー画像であることが好ましい。なお、車両10には、撮影方向または焦点距離が異なる複数のカメラが設けられてもよい。 The camera 2 is an example of an imaging unit, and includes a two-dimensional detector composed of an array of photoelectric conversion elements sensitive to visible light, such as a CCD or C-MOS, and an object to be photographed on the two-dimensional detector. It has an imaging optical system that forms an image of the area. The camera 2 is installed, for example, in the vehicle interior of the vehicle 10 so as to face the front of the vehicle 10 . Then, the camera 2 photographs the area in front of the vehicle 10 at predetermined photographing intervals (for example, 1/30 second to 1/10 second) and generates an image showing the area in front of the vehicle. The image obtained by camera 2 is preferably a color image. Note that the vehicle 10 may be provided with a plurality of cameras having different photographing directions or focal lengths.

カメラ2は、画像を生成する度に、その生成した画像を、車内ネットワークを介してECU3へ出力する。 Each time the camera 2 generates an image, it outputs the generated image to the ECU 3 via the in-vehicle network.

ECU3は、車両10を制御する。本実施形態では、ECU3は、カメラ2により得られた時系列の一連の画像から検出された物体に基づいて車両10を自動運転するよう、車両10を制御する。そのために、ECU3は、通信インターフェース21と、メモリ22と、プロセッサ23とを有する。 The ECU 3 controls the vehicle 10 . In this embodiment, the ECU 3 controls the vehicle 10 to automatically drive the vehicle 10 based on an object detected from a series of time-series images obtained by the camera 2 . Therefore, the ECU 3 has a communication interface 21 , a memory 22 and a processor 23 .

通信インターフェース21は、通信部の一例であり、ECU3を車内ネットワークに接続するためのインターフェース回路を有する。すなわち、通信インターフェース21は、車内ネットワークを介して、カメラ2と接続される。そして通信インターフェース21は、カメラ2から画像を受信する度に、受信した画像をプロセッサ23へわたす。 The communication interface 21 is an example of a communication section, and has an interface circuit for connecting the ECU 3 to the in-vehicle network. That is, the communication interface 21 is connected to the camera 2 via the in-vehicle network. Then, the communication interface 21 passes the received image to the processor 23 every time it receives an image from the camera 2 .

メモリ22は、記憶部の一例であり、例えば、揮発性の半導体メモリ及び不揮発性の半導体メモリを有する。そしてメモリ22は、ECU3のプロセッサ23により実行される物体検出処理を含む車両制御処理において使用される各種のデータ及びパラメータを記憶する。メモリ22は、そのようなデータまたはパラメータとして、例えば、カメラ2から受信した画像、物体検出処理で利用される識別器を特定するための各種パラメータ、及び、物体の種類ごとの確信度閾値などを記憶する。さらに、メモリ22は、車両制御処理の途中で生成される各種のデータを一定期間記憶する。さらにまた、メモリ22は、地図情報といった車両10の走行制御に利用される情報を記憶してもよい。 The memory 22 is an example of a storage unit, and has, for example, a volatile semiconductor memory and a nonvolatile semiconductor memory. The memory 22 stores various data and parameters used in vehicle control processing including object detection processing executed by the processor 23 of the ECU 3 . As such data or parameters, the memory 22 stores, for example, the image received from the camera 2, various parameters for specifying classifiers used in object detection processing, confidence thresholds for each type of object, and the like. Remember. Furthermore, the memory 22 stores various data generated during the vehicle control process for a certain period of time. Furthermore, the memory 22 may store information used for driving control of the vehicle 10, such as map information.

プロセッサ23は、制御部の一例であり、1個または複数個のCPU(Central Processing Unit)及びその周辺回路を有する。プロセッサ23は、論理演算ユニット、数値演算ユニットあるいはグラフィック処理ユニット(Graphics Processing Unit, GPU)といった他の演算回路をさらに有していてもよい。そしてプロセッサ23は、車両10が走行している間、カメラ2から画像を受信する度に、受信した画像に対して物体検出処理を含む車両制御処理を実行する。そしてプロセッサ23は、検出された車両10の周囲の物体に基づいて、車両10を自動運転するよう、車両10を制御する。 The processor 23 is an example of a control unit, and has one or more CPUs (Central Processing Units) and their peripheral circuits. The processor 23 may further comprise other arithmetic circuits such as a logic operation unit, a numerical operation unit or a graphics processing unit (GPU). Each time an image is received from the camera 2 while the vehicle 10 is running, the processor 23 executes vehicle control processing including object detection processing on the received image. The processor 23 then controls the vehicle 10 to automatically drive the vehicle 10 based on the detected objects around the vehicle 10 .

図3は、物体検出処理を含む車両制御処理に関する、ECU3のプロセッサ23の機能ブロック図である。プロセッサ23は、物体検出部31と、閾値設定部32と、重複判定部33と、運転計画部34と、車両制御部35とを有する。プロセッサ23が有するこれらの各部は、例えば、プロセッサ23上で動作するコンピュータプログラムにより実現される機能モジュールである。あるいは、プロセッサ23が有するこれらの各部は、プロセッサ23に設けられる、専用の演算回路であってもよい。また、プロセッサ23が有するこれらの各部のうち、物体検出部31、閾値設定部32及び重複判定部33が、物体検出処理を実行する。なお、車両10に複数のカメラが設けられる場合には、プロセッサ23は、カメラごとに、そのカメラにより得られた画像に基づいて物体検出処理を実行してもよい。 FIG. 3 is a functional block diagram of the processor 23 of the ECU 3 regarding vehicle control processing including object detection processing. The processor 23 has an object detection section 31 , a threshold setting section 32 , an overlap determination section 33 , a driving planning section 34 and a vehicle control section 35 . These units of the processor 23 are, for example, functional modules implemented by computer programs running on the processor 23 . Alternatively, each of these units of processor 23 may be a dedicated arithmetic circuit provided in processor 23 . Among these units of the processor 23, the object detection unit 31, the threshold value setting unit 32, and the duplication determination unit 33 execute object detection processing. In addition, when a plurality of cameras are provided in the vehicle 10, the processor 23 may perform object detection processing based on the image obtained by each camera.

物体検出部31は、カメラ2から画像を受信する度に、受信した最新の画像を物体検出用の識別器に入力することで、その画像に表されている検出対象物体を含む物体領域を検出するとともに、その検出対象物体の種類を特定する。さらに、物体検出部31は、物体領域ごとに、その物体領域についての隠れ信頼度を算出する。 Each time an image is received from the camera 2, the object detection unit 31 inputs the received latest image to the classifier for object detection, thereby detecting an object area including the detection target object represented in the image. Also, the type of the object to be detected is specified. Further, the object detection unit 31 calculates the hidden reliability for each object area.

物体検出部31は、識別器として、画像に表された検出対象物体を含む物体領域を検出し、検出対象物体の種類を識別し、かつ、隠れ信頼度を算出するように予め学習されたDNNを利用する。物体検出部31が利用するDNNは、例えば、コンボリューショナルニューラルネットワーク(以下、単にCNNと呼ぶ)型のアーキテクチャを持つDNNとすることができる。 The object detection unit 31 detects an object region including a detection target object represented in an image as a classifier, identifies the type of the detection target object, and uses a pre-trained DNN to calculate a hidden reliability. take advantage of The DNN used by the object detection unit 31 can be, for example, a DNN having a convolutional neural network (hereinafter simply referred to as CNN) type architecture.

図4は、識別器として利用されるDNNの構成の一例を示す図である。DNN400は、画像が入力される入力側に設けられる主幹部401と、主幹部401よりも出力側に設けられる位置検出部402、種類推定部403及び隠れ信頼度算出部404とを有する。位置検出部402は、主幹部401からの出力に基づいて、画像上に表された検出対象物体の外接矩形を物体領域として出力する。種類推定部403は、主幹部401からの出力に基づいて、位置検出部402で検出された物体領域に表された検出対象物体の種類ごとの確信度を算出する。そして隠れ信頼度算出部404は、主幹部401からの出力に基づいて、各物体領域の隠れ信頼度を算出する。なお、位置検出部402、種類推定部403及び隠れ信頼度算出部404のうちの二つ以上が一体的に形成されてもよい。 FIG. 4 is a diagram showing an example of the configuration of a DNN used as a discriminator. The DNN 400 has a main body 401 provided on the input side to which an image is input, and a position detection section 402 , a type estimation section 403 and a hidden reliability calculation section 404 provided on the output side of the main body 401 . Based on the output from the main body 401, the position detection unit 402 outputs the circumscribed rectangle of the detection target object represented on the image as the object region. Based on the output from the main body 401 , the type estimating section 403 calculates a certainty factor for each type of detection target object represented in the object region detected by the position detecting section 402 . Then, the hidden reliability calculation unit 404 calculates the hidden reliability of each object region based on the output from the main body 401 . Two or more of the position detection unit 402, the type estimation unit 403, and the hidden reliability calculation unit 404 may be integrally formed.

主幹部401は、例えば、入力側から出力側へ向けて直列に接続される複数の層を有するCNNとすることができる。その複数の層には2以上の畳み込み層が含まれる。さらに、主幹部401が有する複数の層には、1または複数の畳み込み層ごとに設けられるプーリング層が含まれてもよい。 The main trunk 401 can be, for example, a CNN with multiple layers connected in series from the input side to the output side. The multiple layers include two or more convolutional layers. Furthermore, the plurality of layers included in main trunk 401 may include pooling layers provided for each of one or more convolution layers.

主幹部401は、画像が入力されると、その画像に対して各層での演算を実行することで、その画像から算出したfeature mapを出力する。なお、主幹部401は、解像度の異なる複数のfeature mapを出力してもよい。例えば、主幹部401は、入力された画像の解像度と同じ解像度を持つfeature mapと、入力された画像の解像度よりも低い解像度の1以上のfeature mapを出力してもよい。 When an image is input, the main body 401 outputs a feature map calculated from the image by executing operations in each layer on the image. Note that the main body 401 may output a plurality of feature maps with different resolutions. For example, the main body 401 may output a feature map having the same resolution as the input image and one or more feature maps having a lower resolution than the input image.

位置検出部402、種類推定部403及び隠れ信頼度算出部404には、それぞれ、主幹部401から出力されたfeature mapが入力される。位置検出部402、種類推定部403及び隠れ信頼度算出部404は、それぞれ、例えば、入力側から出力側へ向けて直列に接続される複数の層を有するCNNとすることができる。位置検出部402、種類推定部403及び隠れ信頼度算出部404のそれぞれについて、CNNが有する複数の層には2以上の畳み込み層が含まれる。また、位置検出部402、種類推定部403及び隠れ信頼度算出部404のそれぞれについて、CNNが有する複数の層には、1または複数の畳み込み層ごとに設けられるプーリング層が含まれてもよい。なお、CNNが有する畳み込み層及びプーリング層は、位置検出部402、種類推定部403及び隠れ信頼度算出部404について共通化されてもよい。さらに、位置検出部402、種類推定部403及び隠れ信頼度算出部404のそれぞれについて、複数の層には、1以上の全結合層が含まれてもよい。この場合、全結合層は、各畳み込み層よりも出力側に設けられることが好ましい。また全結合層には、各畳み込み層からの出力が直接入力されてもよい。また、種類推定部403の出力層は、ソフトマックス関数に従って検出対象物体の種類のそれぞれの確信度を算出するソフトマックス層としてもよいし、シグモイド関数に従って検出対象物体の種類のそれぞれの確信度を算出するシグモイド層としてもよい。さらにまた、隠れ信頼度算出部404の出力層は、シグモイド関数に従って物体領域のそれぞれの隠れ信頼度を算出するシグモイド層とすることができる。 The feature map output from the main body 401 is input to the position detection unit 402, the type estimation unit 403, and the hidden reliability calculation unit 404, respectively. The position detection unit 402, the type estimation unit 403, and the hidden reliability calculation unit 404 can each be, for example, a CNN having multiple layers connected in series from the input side to the output side. For each of the position detection unit 402, the type estimation unit 403, and the hidden reliability calculation unit 404, the multiple layers of the CNN include two or more convolution layers. Further, for each of the position detection unit 402, the type estimation unit 403, and the hidden reliability calculation unit 404, the multiple layers of the CNN may include a pooling layer provided for each one or multiple convolution layers. Note that the convolution layer and pooling layer of the CNN may be shared by the position detection unit 402 , the type estimation unit 403 and the hidden reliability calculation unit 404 . Furthermore, for each of the position detection unit 402, the type estimation unit 403, and the hidden reliability calculation unit 404, the plurality of layers may include one or more fully connected layers. In this case, the fully connected layer is preferably provided on the output side of each convolutional layer. Alternatively, the output from each convolutional layer may be directly input to the fully connected layer. The output layer of the type estimating unit 403 may be a softmax layer that calculates the confidence of each type of the detection target object according to the softmax function, or a softmax layer that calculates the confidence of each type of the detection target object according to the sigmoid function. It may be a sigmoid layer to be calculated. Furthermore, the output layer of the hidden reliability calculation unit 404 can be a sigmoid layer that calculates the hidden reliability of each object region according to a sigmoid function.

位置検出部402及び種類推定部403は、例えば、画像上の様々な位置、様々なサイズ及び様々なアスペクト比の領域ごとに、検出対象物体の種類のそれぞれの確信度を出力するように学習される。したがって、識別器400は、画像が入力されることで、画像上の様々な位置、様々なサイズ及び様々なアスペクト比の領域ごとに、検出対象物体の種類のそれぞれの確信度を出力する。そして位置検出部402及び種類推定部403は、何れかの種類の検出対象物体についての確信度が所定の確信度閾値以上となる領域を、その種類の検出対象物体が表された物体領域として検出する。 The position detecting unit 402 and the type estimating unit 403 are trained to output respective degrees of certainty of the type of the detection target object, for example, for regions of various positions on the image, various sizes, and various aspect ratios. be. Therefore, when an image is input, the discriminator 400 outputs respective confidence factors of the detection target object type for each region of various positions, various sizes, and various aspect ratios on the image. Then, the position detecting unit 402 and the type estimating unit 403 detect an area where the certainty of any type of detection target object is equal to or higher than a predetermined certainty threshold as an object area representing that type of detection target object. do.

一方、隠れ信頼度算出部404は、例えば、画像上の様々な位置、様々なサイズ及び様々なアスペクト比の物体領域ごとに、検出対象物体が他の物体により隠されている確からしさを表す隠れ信頼度を算出するように学習される。したがって、画像上に複数の検出対象物体が表されている場合、識別器は、検出対象物体ごとに物体領域を検出するとともに、各物体領域について隠れ信頼度を算出する。 On the other hand, the hidden reliability calculation unit 404 calculates, for example, a hidden value representing the probability that the detection target object is hidden by another object for each object region having various positions, sizes, and aspect ratios on the image. It is learned to calculate reliability. Therefore, when a plurality of detection target objects are represented on the image, the discriminator detects an object region for each detection target object and calculates the hidden reliability for each object region.

識別器400の学習に利用される教師データに含まれる画像(教師画像)には、例えば、検出対象物体の種類(例えば、普通乗用車、バス、トラック、二輪車など)と、検出対象物体が表された物体領域である、その検出対象物体の外接矩形とがタグ付けされる。さらに、教師画像上の個々の物体領域について、その物体領域に含まれる検出対象物体が他の物体に隠されている度合いがタグ付けされる。 An image (teacher image) included in the training data used for learning of the discriminator 400 represents, for example, the type of detection target object (eg, ordinary passenger car, bus, truck, motorcycle, etc.) and the detection target object. The circumscribing rectangle of the object to be detected, which is the object region that is detected, is tagged. Furthermore, each object area on the teacher image is tagged with the degree to which the detection target object included in the object area is hidden by other objects.

識別器400は、上記のような多数の教師画像を用いて、例えば、誤差逆伝搬法といった学習手法に従って学習される。プロセッサ23は、このように学習された識別器400を利用することで、画像から検出対象となる物体を精度良く検出できる。また、識別器400は、各物体領域について、隠れ信頼度を精度良く算出することができる。 The discriminator 400 is trained using a large number of teacher images as described above, for example, according to a learning technique such as error backpropagation. By using the classifier 400 learned in this way, the processor 23 can accurately detect the object to be detected from the image. Further, the discriminator 400 can accurately calculate the hidden reliability for each object region.

物体検出部31は、各物体領域の画像上での位置及び範囲と、その物体領域に含まれる物体の種類と、隠れ信頼度とを、検出物体リストに登録する。そして物体検出部31は、検出物体リストをメモリ22に記憶する。 The object detection unit 31 registers the position and range of each object area on the image, the type of object included in the object area, and the degree of hidden reliability in the detected object list. The object detection unit 31 then stores the detected object list in the memory 22 .

閾値設定部32は、検出物体リストを参照して、互いに少なくとも部分的に重複する物体領域の組を特定する。そして閾値設定部32は、特定した物体領域の組ごとに、その組が同一の検出対象物体を表しているか否かを判定するための重複度合い閾値を設定する。本実施形態では、閾値設定部32は、特定した組に含まれる二つの物体領域間の隠れ信頼度の差が大きいほど、重複度合い閾値を高くして、その二つの物体領域に異なる物体が表されていると判定され易くする。 The threshold setting unit 32 refers to the detected object list to identify a set of object regions that at least partially overlap each other. Then, the threshold setting unit 32 sets an overlap degree threshold for determining whether or not the set represents the same detection target object for each identified set of object regions. In the present embodiment, the threshold setting unit 32 increases the degree of overlap threshold as the difference in hidden reliability between two object regions included in the identified pair increases, and different objects appear in the two object regions. make it easier to determine that

閾値設定部32は、例えば、隠れ信頼度の差が大きいほど重複度合い閾値が高くなる、隠れ信頼度の差と重複度合い閾値との関係式に、着目する物体領域の組に含まれる二つの物体領域の隠れ信頼度の差を入力することで、その組に対する重複度合い閾値を設定する。あるいは、閾値設定部32は、着目する物体領域の組に含まれる二つの物体領域の隠れ信頼度の差が所定の差分閾値よりも大きい場合、重複度合い閾値を第1の値に設定してもよい。一方、その隠れ信頼度の差が所定の差分閾値以下である場合、閾値設定部32は、重複度合い閾値を第1の値よりも低い第2の値に設定してもよい。 For example, the threshold setting unit 32 sets the relational expression between the hidden reliability difference and the overlapping degree threshold so that the greater the hidden reliability difference, the higher the overlapping degree threshold. By inputting the hidden reliability difference of the regions, the degree of overlap threshold for the pair is set. Alternatively, the threshold setting unit 32 may set the overlap degree threshold to the first value when the difference in the hidden reliability between two object regions included in the set of object regions of interest is greater than a predetermined difference threshold. good. On the other hand, if the difference in hidden reliability is equal to or less than the predetermined difference threshold, the threshold setting unit 32 may set the overlap degree threshold to a second value lower than the first value.

閾値設定部32は、互いに少なくとも部分的に重複する物体領域の組のそれぞれに対して設定した重複度合い閾値を重複判定部33へ通知する。 The threshold setting unit 32 notifies the overlap determination unit 33 of the overlap degree threshold set for each of the sets of object regions that at least partially overlap each other.

重複判定部33は、互いに少なくとも部分的に重複する物体領域の組のそれぞれについて、Non-maximum suppression(NMS)処理を実行することで、その組に同一の検出対象物体が表されているか否かを判定する。そして重複判定部33は、同一の検出対象物体が表されていると判定した場合、その組の中から一つの物体領域(例えば、大きい方の物体領域)を選択し、選択しなかった方の物体領域及び検出対象物体を、検出物体リストから削除する。 The overlap determination unit 33 performs non-maximum suppression (NMS) processing on each of pairs of object regions that at least partially overlap with each other, thereby determining whether or not the same detection target object is represented in the pairs. judge. Then, if the duplication determination unit 33 determines that the same detection target object is represented, it selects one object region (for example, the larger object region) from the set, and selects the non-selected object region. Delete the object area and the detection target object from the detection object list.

具体的に、重複判定部33は、着目する物体領域の組に含まれる物体領域同士の重複度合いを算出し、算出した重複度合いを、その組に適用される重複度合い閾値と比較する。重複判定部33は、例えば、着目する物体領域の組の重複度合いとして、その組に含まれる物体領域の集合全体の面積に対する、重複している領域の面積の比(Intersection over Union(IoU))を算出する。あるいは、重複判定部33は、着目する物体領域の組の重複度合いとして、大きい方の物体領域の面積に対する、重複している領域の面積の比を算出してもよい。そして重複判定部33は、互いに少なくとも部分的に重複する物体領域の組のうち、重複度合いが重複度合い閾値以上となる組について、同一の検出対象物体が表されていると判定する。一方、重複判定部33は、互いに少なくとも部分的に重複する物体領域の組のうち、重複度合いが重複度合い閾値未満となる組について、物体領域ごとに異なる検出対象物体が表されていると判定する。 Specifically, the overlap determination unit 33 calculates the degree of overlap between object regions included in a set of object regions of interest, and compares the calculated degree of overlap with the degree of overlap threshold applied to the set. For example, the overlap determination unit 33 determines, as the degree of overlap of a set of object regions of interest, the ratio of the area of overlapping regions to the area of the entire set of object regions included in the set (Intersection over Union (IoU)). Calculate Alternatively, the overlap determination unit 33 may calculate the ratio of the area of the overlapping area to the area of the larger object area as the degree of overlap of the set of object areas of interest. Then, the overlap determination unit 33 determines that the same detection target object is represented for pairs whose degree of overlap is equal to or greater than the degree of overlap threshold among pairs of object regions that at least partially overlap each other. On the other hand, the overlap determination unit 33 determines that different detection target objects are represented for each of the object regions whose degree of overlap is less than the degree of overlap threshold among the pairs of object regions that at least partially overlap each other. .

図5は、複数の検出対象物体が表された画像の一例を示す図である。画像500には、検出対象物体である車両が複数表されている。これら複数の車両のうち、車両501~車両503がそれぞれ物体検出部31により検出されているものとする。そして物体検出部31により、車両501を含む物体領域511、車両502を含む物体領域512、車両503を含む二つの物体領域513及び514が設定されているものとする。また、物体領域511と物体領域512とは部分的に重複している。同様に、物体領域513と物体領域514とは部分的に重複している。 FIG. 5 is a diagram showing an example of an image showing a plurality of detection target objects. An image 500 shows a plurality of vehicles, which are objects to be detected. It is assumed that the vehicles 501 to 503 are detected by the object detection unit 31 among the plurality of vehicles. Assume that the object detection unit 31 sets an object area 511 including the vehicle 501 , an object area 512 including the vehicle 502 , and two object areas 513 and 514 including the vehicle 503 . Also, the object region 511 and the object region 512 partially overlap. Similarly, object region 513 and object region 514 partially overlap.

車両501は他の物体により隠されていないため、車両501を含む物体領域511について算出される隠れ信頼度は比較的小さな値となる。これに対して、車両502は、車両501により部分的に隠されている。そのため、車両502を含む物体領域512について算出される隠れ信頼度は比較的大きな値となる。そのため、物体領域511について算出された隠れ信頼度と物体領域512について算出された隠れ信頼度の差も比較的大きな値となるので、物体領域511と物体領域512の組に適用される重複度合い閾値も高くなる。その結果、物体領域511に表された車両501と物体領域512に表された車両502とは別の物体であることが正確に判定され易くなる。 Since the vehicle 501 is not hidden by other objects, the hidden reliability calculated for the object region 511 including the vehicle 501 is a relatively small value. In contrast, vehicle 502 is partially hidden by vehicle 501 . Therefore, the hidden reliability calculated for the object region 512 including the vehicle 502 is a relatively large value. Therefore, the difference between the hidden reliability calculated for the object region 511 and the hidden reliability calculated for the object region 512 is also a relatively large value. also higher. As a result, it becomes easier to accurately determine that the vehicle 501 represented in the object region 511 and the vehicle 502 represented in the object region 512 are different objects.

一方、物体領域513と物体領域514とは、同一の車両503について設定されているため、物体領域513の隠れ信頼度は、物体領域514の隠れ信頼度と同程度となる。そのため、物体領域513と物体領域514の組に適用される重複度合い閾値は低くなる。その結果、物体領域513と物体領域514とが、同一の車両503を含むことが正確に判定され易くなる。 On the other hand, since the object regions 513 and 514 are set for the same vehicle 503 , the hidden reliability of the object region 513 is approximately the same as the hidden reliability of the object region 514 . Therefore, the overlapping degree threshold applied to the set of object regions 513 and 514 is low. As a result, it becomes easier to accurately determine that the object regions 513 and 514 include the same vehicle 503 .

なお、重複判定部33は、互いに少なくとも部分的に重複する物体領域の組に含まれる各物体領域に表される物体の種類が互いに異なる場合には、それぞれの物体領域に別個の検出対象物体が表されていると判定してもよい。 Note that when the types of objects represented by the object regions included in the set of object regions that at least partially overlap each other are different, the overlap determination unit 33 determines that separate detection target objects are present in the respective object regions. It may be determined that the

運転計画部34は、検出物体リストを参照して、車両10周囲の物体と車両10とが衝突しないように、車両10の現在位置から所定距離(例えば、500m~1km)先までの所定の区間における車両10の走行予定経路を1以上生成する。走行予定経路は、例えば、所定の区間を車両10が走行する際の各時刻における、車両10の目標位置の集合として表される。 The operation planning unit 34 refers to the detected object list and determines a predetermined section from the current position of the vehicle 10 to a predetermined distance (for example, 500 m to 1 km) so that the vehicle 10 does not collide with objects around the vehicle 10. One or more planned travel routes for the vehicle 10 in are generated. The planned travel route is represented, for example, as a set of target positions of the vehicle 10 at each time when the vehicle 10 travels a predetermined section.

運転計画部34は、走行予定経路を生成するために、検出物体リストに登録されている検出対象物体(以下、単に物体と呼ぶ)を追跡し、現時刻から所定時間先までの期間における、追跡された物体の軌跡を予測する。 In order to generate a planned travel route, the operation planning unit 34 tracks a detection target object (hereinafter simply referred to as an object) registered in the detection object list, predict the trajectory of an object

例えば、運転計画部34は、Lucas-Kanade法といった、オプティカルフローに基づく追跡処理を、カメラ2により得られた最新の画像における、着目する物体領域及び過去の画像における物体領域に対して適用することで、その物体領域に表された物体を追跡する。そのため、運転計画部34は、例えば、着目する物体領域に対してSIFTあるいはHarrisオペレータといった特徴点抽出用のフィルタを適用することで、その物体領域から複数の特徴点を抽出する。そして運転計画部34は、複数の特徴点のそれぞれについて、過去の画像における物体領域における対応する点を、適用される追跡手法に従って特定することで、オプティカルフローを算出すればよい。あるいは、運転計画部34は、画像から検出された移動物体の追跡に適用される他の追跡手法を、最新の画像における、着目する物体領域及び過去の画像における物体領域に対して適用することで、その物体領域に表された物体を追跡してもよい。 For example, the operation planning unit 34 applies tracking processing based on optical flow, such as the Lucas-Kanade method, to object regions of interest in the latest image obtained by the camera 2 and object regions in past images. to track the object represented in the object region. Therefore, the operation planning unit 34 extracts a plurality of feature points from the object region of interest by, for example, applying a feature point extraction filter such as SIFT or Harris operator to the object region of interest. Then, the operation planning unit 34 may calculate the optical flow by specifying the corresponding point in the object region in the past image for each of the plurality of feature points according to the applied tracking method. Alternatively, the operation planning unit 34 may apply another tracking method applied to tracking a moving object detected from an image to the object region of interest in the latest image and the object region in the previous image. , may track the object represented in that object region.

運転計画部34は、追跡中の各物体について、カメラ2についての車両10への取り付け位置などの情報を用いて視点変換処理を実行することで、その物体の画像内座標を鳥瞰画像上の座標(鳥瞰座標)に変換する。その際、運転計画部34は、各画像の取得時における、車両10の位置及び姿勢と、検出された物体までの推定距離と、車両10からその物体へ向かう方向とにより、各画像の取得時における、検出された物体の位置を推定できる。なお、運転計画部34は、各画像取得時における車両10の位置及び姿勢を、例えば、車両10に搭載されたGPS受信機(図示せず)から得た車両10の現在位置を表す現在位置情報に基づいて推定できる。あるいは、運転計画部34は、カメラ2により画像が得られる度に、その画像から車両10の左右の車線区画線を検出し、検出された車線区画線とメモリ22に記憶されている地図情報とをマッチングすることで、車両10の位置及び姿勢を推定してもよい。また、運転計画部34は、画像上での検出された物体を含む物体領域の位置及びカメラ2の光軸方向に基づいて、車両10からその物体へ向かう方向を特定することができる。さらに、物体領域の下端の位置は、その物体領域に表される物体の路面に接する位置を表すと想定される。そこで運転計画部34は、物体領域の下端に対応する、カメラ2からの方位と、カメラ2の設置高さとに基づいて、その物体領域に表された物体までの距離を推定できる。そして運転計画部34は、直近の所定期間における一連の鳥瞰座標に対してKalman FilterまたはParticle filterなどを用いた予測処理を実行することで、その物体の所定時間先までの予測軌跡を推定することができる。 For each object being tracked, the operation planning unit 34 performs viewpoint conversion processing using information such as the mounting position of the camera 2 on the vehicle 10, thereby converting the in-image coordinates of the object to the coordinates on the bird's-eye view image. (bird's-eye coordinates). At that time, the operation planning unit 34 determines the position and orientation of the vehicle 10 at the time of acquisition of each image, the estimated distance to the detected object, and the direction from the vehicle 10 toward the object, and determines the , the position of the detected object can be estimated. Note that the driving planning unit 34 obtains the position and attitude of the vehicle 10 at the time each image is acquired, for example, from a GPS receiver (not shown) mounted on the vehicle 10, and presents the current position information representing the current position of the vehicle 10. can be estimated based on Alternatively, every time an image is obtained by the camera 2, the driving planning unit 34 detects the left and right lane markings of the vehicle 10 from the image, and compares the detected lane markings with the map information stored in the memory 22. The position and orientation of the vehicle 10 may be estimated by matching . Also, the driving planning unit 34 can specify the direction from the vehicle 10 to the object based on the position of the object area including the detected object on the image and the optical axis direction of the camera 2 . Furthermore, it is assumed that the position of the lower end of the object region represents the position of the object represented in the object region that touches the road surface. Therefore, the driving planning unit 34 can estimate the distance to the object represented in the object area based on the azimuth from the camera 2 corresponding to the lower end of the object area and the installation height of the camera 2 . Then, the operation planning unit 34 executes prediction processing using a Kalman filter, a particle filter, or the like for a series of bird's-eye coordinates in the most recent predetermined period, thereby estimating the predicted trajectory of the object up to a predetermined time ahead. can be done.

運転計画部34は、追跡中の各物体の予測軌跡に基づいて、何れの物体についても所定時間先までの追跡中の物体のそれぞれと車両10間の距離の予測値が所定距離以上となり、かつ、目的地までの走行予定ルートに沿うように、車両10の走行予定経路を設定する。その際、運転計画部34は、所定時間先までの各時刻における走行予定経路上の位置に最も近い追跡中の物体までの距離の和の逆数を評価関数として算出する。そして運転計画部34は、その評価関数が最小化されるように、動的計画法あるいは最急降下法といった所定の最適化手法に従って走行予定経路を設定すればよい。
なお、運転計画部34は、複数の走行予定経路を生成してもよい。この場合、運転計画部34は、複数の走行予定経路のうち、車両10の加速度の絶対値の総和が最小となる経路を選択してもよい。
Based on the predicted trajectory of each object being tracked, the operation planning unit 34 predicts the distance between each object being tracked and the vehicle 10 up to a predetermined time ahead for any object is a predetermined distance or more, and , the planned travel route of the vehicle 10 is set along the planned travel route to the destination. At that time, the operation planning unit 34 calculates, as an evaluation function, the reciprocal of the sum of the distances to the object being tracked that is closest to the position on the planned travel route at each time up to a predetermined time ahead. Then, the operation planning unit 34 may set a planned travel route according to a predetermined optimization method such as dynamic programming or steepest descent so that the evaluation function is minimized.
Note that the operation planning unit 34 may generate a plurality of planned travel routes. In this case, the operation planning unit 34 may select the route that minimizes the sum of the absolute values of the acceleration of the vehicle 10 from among the plurality of planned travel routes.

運転計画部34は、生成した走行予定経路を車両制御部35へ通知する。 The operation planning unit 34 notifies the vehicle control unit 35 of the generated planned travel route.

車両制御部35は、車両10が通知された走行予定経路に沿って走行するように車両10の各部を制御する。例えば、車両制御部35は、通知された走行予定経路、及び、車速センサ(図示せず)により測定された車両10の現在の車速に従って、車両10の目標加速度を求め、その目標加速度となるようにアクセル開度またはブレーキ量を設定する。そして車両制御部35は、設定されたアクセル開度に従って燃料噴射量を求め、その燃料噴射量に応じた制御信号を車両10のエンジンの燃料噴射装置へ出力する。あるいは、車両制御部35は、設定されたブレーキ量に応じた制御信号を車両10のブレーキへ出力する。 The vehicle control unit 35 controls each part of the vehicle 10 so that the vehicle 10 travels along the notified planned travel route. For example, the vehicle control unit 35 obtains the target acceleration of the vehicle 10 according to the notified planned travel route and the current vehicle speed of the vehicle 10 measured by a vehicle speed sensor (not shown), and calculates the target acceleration. Set the accelerator opening or brake amount to . The vehicle control unit 35 obtains the fuel injection amount according to the set accelerator opening, and outputs a control signal corresponding to the fuel injection amount to the fuel injection device of the engine of the vehicle 10 . Alternatively, the vehicle control unit 35 outputs a control signal corresponding to the set brake amount to the brake of the vehicle 10 .

さらに、車両制御部35は、車両10が走行予定経路に沿って走行するために車両10の進路を変更する場合には、その走行予定経路に従って車両10の操舵角を求める。そして車両制御部35は、その操舵角に応じた制御信号を、車両10の操舵輪を制御するアクチュエータ(図示せず)へ出力する。 Further, when the vehicle 10 changes its course so that the vehicle 10 travels along the planned travel route, the vehicle control unit 35 obtains the steering angle of the vehicle 10 according to the planned travel route. The vehicle control unit 35 then outputs a control signal corresponding to the steering angle to an actuator (not shown) that controls the steered wheels of the vehicle 10 .

図6は、プロセッサ23により実行される、物体検出処理を含む車両制御処理の動作フローチャートである。プロセッサ23は、カメラ2から画像を受信する度に、図6に示される動作フローチャートに従って車両制御処理を実行する。なお、以下に示される動作フローチャートにおいて、ステップS101~S106の処理が物体検出処理に対応する。 FIG. 6 is an operation flowchart of vehicle control processing including object detection processing executed by the processor 23 . Each time the processor 23 receives an image from the camera 2, it executes vehicle control processing according to the operation flowchart shown in FIG. In the operation flowchart shown below, the processing of steps S101 to S106 corresponds to the object detection processing.

プロセッサ23の物体検出部31は、カメラ2から得られた画像を識別器に入力して、その画像に表された1以上の検出対象物体を検出する。すなわち、物体検出部31は、画像上で検出対象物体を含む1以上の物体領域を検出する(ステップS101)。さらに、物体検出部31は、検出された検出対象物体ごとに、その検出対象物体の種類を識別する。そして物体検出部31は、検出された検出対象物体を検出物体リストに登録する。さらにまた、物体検出部31は、検出された物体領域ごとに、その物体領域の隠れ信頼度を算出する(ステップS102)。 The object detection unit 31 of the processor 23 inputs the image obtained from the camera 2 to the classifier, and detects one or more detection target objects represented in the image. That is, the object detection unit 31 detects one or more object regions including the detection target object on the image (step S101). Furthermore, the object detection unit 31 identifies the type of each detected detection target object. Then, the object detection unit 31 registers the detected object to be detected in the detected object list. Furthermore, the object detection unit 31 calculates the hidden reliability of each detected object area (step S102).

プロセッサ23の閾値設定部32は、互いに少なくとも部分的に重複する物体領域の組について、隠れ信頼度の差が大きくなるほど重複度合い閾値が高くなるように重複度合い閾値を設定する(ステップS103)。そしてプロセッサ23の重複判定部33は、互いに少なくとも部分的に重複する物体領域の組について、重複度合いが重複度合い閾値以上となるか否か判定する(ステップS104)。 The threshold setting unit 32 of the processor 23 sets the overlap degree threshold so that the overlap degree threshold increases as the difference in the hidden reliability increases for a set of object regions that at least partially overlap each other (step S103). Then, the overlap determination unit 33 of the processor 23 determines whether or not the degree of overlap of a set of object regions that at least partially overlap each other is equal to or greater than the degree of overlap threshold (step S104).

重複度合いが重複度合い閾値以上である場合(ステップS104-Yes)、重複判定部33は、互いに少なくとも部分的に重複する物体領域の組に同一の検出対象物体が表されていると判定する。そして重複判定部33は、何れか一方の物体領域を検出物体リストから削除する(ステップS105)。 If the overlap degree is equal to or greater than the overlap degree threshold value (step S104-Yes), the overlap determination unit 33 determines that the same detection target object is represented in the set of object regions that at least partially overlap each other. The duplication determination unit 33 then deletes one of the object regions from the detected object list (step S105).

一方、重複度合いが重複度合い閾値未満である場合(ステップS104-No)、重複判定部33は、各物体領域にそれぞれ別個の検出対象物体が表されていると判定する(ステップS106)。 On the other hand, if the overlap degree is less than the overlap degree threshold value (step S104-No), the overlap determination unit 33 determines that each object region represents a separate detection target object (step S106).

ステップS105またはステップS106の後、プロセッサ23の運転計画部34は、検出物体リストを参照して、検出物体リストに登録されている各検出対象物体を追跡することでその物体の予測軌跡を推定する。そして運転計画部34は、推定した予測軌跡と所定の距離以上となるように、車両10の走行予定経路を生成する(ステップS107)。プロセッサ23の車両制御部35は、走行予定経路に沿って車両10が走行するように車両10を制御する(ステップS108)。そしてプロセッサ23は、車両制御処理を終了する。 After step S105 or step S106, the operation planning unit 34 of the processor 23 refers to the detected object list and tracks each detection target object registered in the detected object list to estimate the predicted trajectory of the object. . Then, the operation planning unit 34 generates a planned travel route for the vehicle 10 so that the estimated predicted trajectory is equal to or greater than a predetermined distance (step S107). The vehicle control unit 35 of the processor 23 controls the vehicle 10 so that the vehicle 10 travels along the planned travel route (step S108). The processor 23 then terminates the vehicle control process.

以上に説明してきたように、この物体検出装置は、識別器に画像を入力することで検出された、互いに少なくとも部分的に重複する物体領域の組について、重複度合いに応じて一つの検出対象物体が表されているか別個の検出対象物体が表されているかを判定する。その際、この物体検出装置は、その物体領域の組に含まれる各物体領域の隠れ信頼度の差が大きくなるほど、重複度合いと比較される所定の重複度合い閾値を高くする。これにより、この物体検出装置は、識別器が一つの検出対象物体に対して複数の物体領域を検出したのか、複数の検出対象物体に対して別個に物体領域を検出したのかを正確に判別することができる。その結果として、この物体検出装置は、画像上で複数の物体が重なっている場合でも、それらの物体のそれぞれを検出することができる。 As described above, this object detection apparatus selects one detection target object according to the degree of overlap for a set of object regions that at least partially overlap with each other, detected by inputting an image to the classifier. is represented or a separate detectable object is represented. At this time, the object detection apparatus increases a predetermined degree of overlap threshold to be compared with the degree of overlap as the difference in the degree of hidden reliability between the object regions included in the set of object regions increases. Thus, this object detection device accurately determines whether the discriminator has detected a plurality of object regions for one detection target object or whether the object regions have been detected separately for a plurality of detection target objects. be able to. As a result, this object detection apparatus can detect each of multiple objects even when the objects overlap on the image.

上記の実施形態または変形例による物体検出装置は、車載機器以外に実装されてもよい。例えば、上記の実施形態または変形例による物体検出装置は、屋外または屋内の所定の領域を所定周期ごとに撮影するように設置された監視カメラにより生成された画像から所定の物体を検出するように構成されてもよい。そして物体検出装置は、一定期間にわたって所定の物体が検出された場合、物体検出装置と接続されるディスプレイに所定の物体が検出されたことを表すメッセージを表示させてもよい。 The object detection device according to the above embodiment or modification may be mounted in a device other than an in-vehicle device. For example, the object detection device according to the above embodiment or modification detects a predetermined object from an image generated by a surveillance camera installed to photograph a predetermined outdoor or indoor area at predetermined intervals. may be configured. Then, when a predetermined object is detected over a certain period of time, the object detection device may cause a display connected to the object detection device to display a message indicating that the predetermined object has been detected.

また、上記の実施形態または変形例による、物体検出装置のプロセッサ23の各部の機能を実現するコンピュータプログラムは、半導体メモリ、磁気記録媒体または光記録媒体といった、コンピュータ読取可能な可搬性の記録媒体に記録された形で提供されてもよい。 In addition, the computer program that implements the function of each unit of the processor 23 of the object detection device according to the above embodiment or modification can be stored in a computer-readable portable recording medium such as a semiconductor memory, a magnetic recording medium, or an optical recording medium. May be provided in recorded form.

以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。 As described above, those skilled in the art can make various modifications within the scope of the present invention according to the embodiment.

1 車両制御システム
2 カメラ
3 電子制御装置(物体検出装置)
21 通信インターフェース
22 メモリ
23 プロセッサ
31 物体検出部
32 閾値設定部
33 重複判定部
34 運転計画部
35 車両制御部
1 vehicle control system 2 camera 3 electronic control device (object detection device)
21 communication interface 22 memory 23 processor 31 object detection unit 32 threshold setting unit 33 duplication determination unit 34 operation planning unit 35 vehicle control unit

Claims (1)

撮像部により生成された所定の領域を表す画像を識別器に入力することで、前記画像から、検出対象となる物体が表された複数の物体領域を検出するとともに、前記複数の物体領域のそれぞれについて前記検出対象となる物体が他の物体により少なくとも部分的に隠されている確からしさを表す隠れ信頼度を算出する物体検出部と、
検出された前記複数の物体領域のうち、互いに少なくとも部分的に重複する物体領域の組について、当該物体領域の組に含まれる物体領域同士の重複度合いが所定の重複度合い閾値以上である場合、当該物体領域の組に一つの前記検出対象となる物体が表されていると判定し、前記重複度合いが前記所定の重複度合い閾値未満である場合、当該物体領域の組に含まれる物体領域ごとに別個の前記検出対象となる物体が表されていると判定する重複判定部と、
前記物体領域の組に含まれる物体領域のそれぞれの前記隠れ信頼度の差が大きくなるほど、前記所定の重複度合い閾値を高くする閾値設定部と、
を有する物体検出装置。
By inputting an image representing a predetermined area generated by the imaging unit to the classifier, a plurality of object areas representing objects to be detected are detected from the image, and each of the plurality of object areas is detected. an object detection unit that calculates a hidden reliability representing the likelihood that the object to be detected is at least partially hidden by another object;
For a set of object regions that at least partially overlap each other among the plurality of detected object regions, if the degree of overlap between object regions included in the set of object regions is equal to or greater than a predetermined degree of overlap threshold, If it is determined that one object to be detected is represented in a set of object regions, and the degree of overlap is less than the predetermined degree of overlap threshold, each object region included in the set of object regions is separately detected. A duplication determination unit that determines that the object to be detected is represented in
a threshold setting unit configured to increase the predetermined overlapping degree threshold as the difference in the hidden reliability between the object regions included in the set of object regions increases;
An object detection device having
JP2021047308A 2021-03-22 2021-03-22 Object detection device Pending JP2022146384A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021047308A JP2022146384A (en) 2021-03-22 2021-03-22 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021047308A JP2022146384A (en) 2021-03-22 2021-03-22 Object detection device

Publications (1)

Publication Number Publication Date
JP2022146384A true JP2022146384A (en) 2022-10-05

Family

ID=83461843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021047308A Pending JP2022146384A (en) 2021-03-22 2021-03-22 Object detection device

Country Status (1)

Country Link
JP (1) JP2022146384A (en)

Similar Documents

Publication Publication Date Title
JP7052663B2 (en) Object detection device, object detection method and computer program for object detection
US11308717B2 (en) Object detection device and object detection method
JP7388971B2 (en) Vehicle control device, vehicle control method, and vehicle control computer program
JP7115502B2 (en) Object state identification device, object state identification method, computer program for object state identification, and control device
US11829153B2 (en) Apparatus, method, and computer program for identifying state of object, and controller
US11335099B2 (en) Proceedable direction detection apparatus and proceedable direction detection method
US11900690B2 (en) Apparatus, method, and computer program for identifying state of signal light, and controller
JP7226368B2 (en) Object state identification device
US20200394435A1 (en) Distance estimation device, distance estimation method, and distance estimation computer program
JP2022146384A (en) Object detection device
JP2021026683A (en) Distance estimation apparatus
CN113492850B (en) Inclination angle detection device and control device
JP2022079954A (en) Object detection apparatus
JP2023092183A (en) Tracking device, tracking method, and computer program for tracking
US20230260294A1 (en) Apparatus, method, and computer program for estimating road edge
US20220343667A1 (en) Apparatus, method, and computer program for human detection
US20230177844A1 (en) Apparatus, method, and computer program for identifying state of lighting
JP2021138338A (en) Vehicle control system
JP2024030951A (en) Vehicle control device, vehicle control method, and vehicle control computer program