JP7103202B2 - Image recognition device - Google Patents

Image recognition device Download PDF

Info

Publication number
JP7103202B2
JP7103202B2 JP2018238838A JP2018238838A JP7103202B2 JP 7103202 B2 JP7103202 B2 JP 7103202B2 JP 2018238838 A JP2018238838 A JP 2018238838A JP 2018238838 A JP2018238838 A JP 2018238838A JP 7103202 B2 JP7103202 B2 JP 7103202B2
Authority
JP
Japan
Prior art keywords
pixel
reliability
unit
recognition device
image recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018238838A
Other languages
Japanese (ja)
Other versions
JP2020101935A (en
Inventor
健太朗 塩田
将太 牧田
直己 二反田
佑樹 前
健一 米司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2018238838A priority Critical patent/JP7103202B2/en
Publication of JP2020101935A publication Critical patent/JP2020101935A/en
Application granted granted Critical
Publication of JP7103202B2 publication Critical patent/JP7103202B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像認識装置に関するものである。 The present invention relates to an image recognition device.

従来、自動運転を実施するため、画像から車線を認識する画像認識装置が提案されている(例えば、特許文献1)。画像認識装置の中には、撮影画像から算出された画素信頼度に基づいて、候補車線の車線信頼度を算出し、当該車線信頼度に基づいて候補車線の選別を行う画像認識装置が提案されている(特許文献1)。 Conventionally, in order to carry out automatic driving, an image recognition device that recognizes a lane from an image has been proposed (for example, Patent Document 1). Among the image recognition devices, an image recognition device that calculates the lane reliability of the candidate lane based on the pixel reliability calculated from the captured image and selects the candidate lane based on the lane reliability has been proposed. (Patent Document 1).

特表2017-533482号公報Special Table 2017-533482

ところで、同じ対象に対して複数の撮影画像から画素信頼度を算出する場合、対象の種類や撮影状況によっては、同じ対象物であっても画素信頼度の高低にばらつきが生じる場合がある。画素信頼度にばらつきがある場合、画像認識が適切に行いにくく、認識精度が低くなるという問題があった。 By the way, when the pixel reliability is calculated from a plurality of captured images for the same object, the high and low pixel reliability may vary even for the same object depending on the type of the object and the shooting condition. When there are variations in pixel reliability, there is a problem that image recognition is difficult to perform properly and recognition accuracy is lowered.

本発明は、上記事情に鑑みてなされたものであり、その主たる目的は、画像認識の精度を向上させることができる画像認識装置を提供することにある。 The present invention has been made in view of the above circumstances, and a main object thereof is to provide an image recognition device capable of improving the accuracy of image recognition.

上記課題を解決するための手段は、撮影画像に基づいて自車両の進路を認識する画像認識装置において、所定周期ごとに、撮影装置から撮影画像を取得する画像取得部と、取得した撮影画像において、画素ごとのエントロピーを抽出する抽出部と、前記抽出部により抽出されたエントロピーに基づいて、画素ごとの画素信頼度を算出し、出力する信頼度算出部と、前記信頼度算出部により出力された画素信頼度に基づいて進路を認識する進路認識部と、を備え、前記信頼度算出部は、所定期間における画素信頼度の時系列を参照して、算出された画素信頼度を選別し、選抜された画素信頼度を出力する。 Means for solving the above problems are in an image recognition device that recognizes the course of the own vehicle based on the captured image, in an image acquisition unit that acquires a captured image from the photographing device at predetermined intervals, and in the acquired captured image. , An extraction unit that extracts the entropy for each pixel, a reliability calculation unit that calculates and outputs the pixel reliability for each pixel based on the entropy extracted by the extraction unit, and the reliability calculation unit outputs the image. A course recognition unit that recognizes a course based on the pixel reliability is provided, and the reliability calculation unit selects the calculated pixel reliability by referring to a time series of pixel reliability in a predetermined period. Outputs the selected pixel reliability.

周辺状況や撮影装置の都合により、撮影対象が明確となっていない撮影画像を取得した場合や、識別が難しい場合であっても、画素信頼度の時系列を参照して、算出された画素信頼度を選別する。このため、画素信頼度の算出精度を向上させることができ、画像認識の精度を向上させることができる。 Pixel reliability calculated by referring to the time series of pixel reliability even when a captured image whose shooting target is not clear or identification is difficult due to the surrounding conditions or the convenience of the shooting device. Select the degree. Therefore, the calculation accuracy of the pixel reliability can be improved, and the accuracy of image recognition can be improved.

運転支援システムを示すブロック図。A block diagram showing a driving support system. クラス分けの態様を示す模式図。The schematic diagram which shows the mode of classification. エントロピーを示す模式図。The schematic diagram which shows the entropy. 占有格子図を示す模式図。The schematic diagram which shows the occupied grid diagram. 画像認識処理を示すフローチャート。A flowchart showing an image recognition process.

以下、本発明の実施形態について図に基づいて説明する。なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、図中、同一符号を付してある。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In each of the following embodiments, the same or equal parts are designated by the same reference numerals in the drawings.

本実施形態にかかる画像認識装置が適用される運転支援システムについて、図面を参照しつつ説明する。運転支援システム10は、車両に備えられ、運転支援を実行する。 The driving support system to which the image recognition device according to the present embodiment is applied will be described with reference to the drawings. The driving support system 10 is provided in the vehicle and executes driving support.

図1に示すように、運転支援システム10は、撮影装置としての単眼カメラ21aと通信可能に接続されている。単眼カメラ21aは、CCDやCOMS等の撮像素子が用いられているカメラである。単眼カメラ21aは、例えば車両のフロントガラスの上端付近に配置されており、自車両の前方の道路を含む周辺環境を撮影(撮像)する。単眼カメラ21aで撮影された撮影画像は、画像認識装置20に出力される。なお、単眼カメラ21aを備えたが、複数台のカメラ(複眼カメラ)を備えてもよい。 As shown in FIG. 1, the driving support system 10 is communicably connected to the monocular camera 21a as a photographing device. The monocular camera 21a is a camera in which an image sensor such as a CCD or COMS is used. The monocular camera 21a is arranged near the upper end of the windshield of the vehicle, for example, and captures (imaging) the surrounding environment including the road in front of the vehicle. The captured image captured by the monocular camera 21a is output to the image recognition device 20. Although the monocular camera 21a is provided, a plurality of cameras (compound eye cameras) may be provided.

画像認識装置20は、CPU、ROM(メモリ)、RAM、入出力インターフェース等を備えたコンピュータである。画像認識装置20は、各種機能を備える。例えば、画像認識装置20は、画像取得部21としての機能と、区画線検出部22としての機能と、物体検出部23としての機能と、を備える。また、画像認識装置20は、分類部24としての機能と、抽出部25としての機能と、信頼度算出部26としての機能と、フィードバック部27としての機能と、進路認識部28としての機能と、を備える。画像認識装置20が備える記憶用メモリに記憶されたプログラムが実行されることで、各種機能が実現される。画像認識装置20は、撮影画像に基づき、自車両が走行可能な進路を認識し、認識結果を出力するように構成されている。なお、各種機能は、ハードウェアである電子回路によって実現されてもよく、あるいは、少なくとも一部をソフトウェア、すなわちコンピュータ上で実行される処理によって実現されてもよい。これらの画像認識装置20の各種機能については後述する。 The image recognition device 20 is a computer provided with a CPU, a ROM (memory), a RAM, an input / output interface, and the like. The image recognition device 20 has various functions. For example, the image recognition device 20 includes a function as an image acquisition unit 21, a function as a lane marking detection unit 22, and a function as an object detection unit 23. Further, the image recognition device 20 has a function as a classification unit 24, a function as an extraction unit 25, a function as a reliability calculation unit 26, a function as a feedback unit 27, and a function as a course recognition unit 28. , Equipped with. Various functions are realized by executing the program stored in the storage memory included in the image recognition device 20. The image recognition device 20 is configured to recognize the course on which the own vehicle can travel based on the captured image and output the recognition result. The various functions may be realized by electronic circuits that are hardware, or at least a part of them may be realized by software, that is, processing executed on a computer. Various functions of these image recognition devices 20 will be described later.

画像認識装置20は、車両制御装置30に接続されている。車両制御装置30は、CPU、ROM、RAM、入出力インターフェース等を備えたコンピュータ(ECU)であり、車両制御部31としての機能を備える。 The image recognition device 20 is connected to the vehicle control device 30. The vehicle control device 30 is a computer (ECU) equipped with a CPU, ROM, RAM, an input / output interface, and the like, and has a function as a vehicle control unit 31.

車両制御部31は、自車両のハンドル41(操舵角)、アクセル42(加速量)、ブレーキ43(制動量)を制御して、画像認識装置20により認識された進路に基づいて、自車両を走行させるように構成されている。より詳しくは、車両制御部31は、車幅方向における自車両の横位置が、画像認識装置20により認識された進路(自車両が走行可能な進路)内において所定位置(例えば、中央)に維持した状態で、自車両が所定の速度で走行するように、自車両の進行方向や速度を制御する。 The vehicle control unit 31 controls the steering wheel 41 (steering angle), accelerator 42 (acceleration amount), and brake 43 (braking amount) of the own vehicle, and controls the own vehicle based on the course recognized by the image recognition device 20. It is configured to run. More specifically, the vehicle control unit 31 maintains the lateral position of the own vehicle in the vehicle width direction at a predetermined position (for example, the center) in the course (the course in which the own vehicle can travel) recognized by the image recognition device 20. In this state, the traveling direction and speed of the own vehicle are controlled so that the own vehicle travels at a predetermined speed.

なお、車両制御部31は、画像認識装置20に備えられていてもよいし、逆に、車両制御装置30が画像認識装置20の各種機能のうちすべて又はその一部を備えるようにしてもよい。また、車両制御装置30と画像認識装置20を一体化してもよい。 The vehicle control unit 31 may be provided in the image recognition device 20, or conversely, the vehicle control device 30 may include all or a part of various functions of the image recognition device 20. .. Further, the vehicle control device 30 and the image recognition device 20 may be integrated.

次に、画像認識装置20の各種機能について説明する。 Next, various functions of the image recognition device 20 will be described.

画像取得部21は、単眼カメラ21aが撮影した撮影画像を取得する。画像取得部21は、所定周期(例えば、100ms)ごとに撮影画像を取得する。 The image acquisition unit 21 acquires a captured image taken by the monocular camera 21a. The image acquisition unit 21 acquires captured images at predetermined intervals (for example, 100 ms).

区画線検出部22は、画像取得部21により取得された撮影画像から、自車両が走行する車線(以降、自車線と呼称)を区画する区画線(例えば、白線)を検出する。具体的には、区画線検出部22は、撮影画像の輝度に基づいて、車線を区切る区画線と路面とのコントラスト(エッジ強度)の変化点をエッジ候補点として抽出する。そして、抽出したエッジ候補点の連なりから区画線の候補線を抽出する。より具体的には、撮影画像を所定のサンプリング周期で連続的に処理しており、画像の水平方向において、急激に輝度が変化する複数の点をエッジ候補点として抽出する。そして、抽出した複数のエッジ候補点にハフ変換を施してエッジ候補点の連なりを取得し、取得したエッジ候補点の連なりを左右の輪郭とする候補線を複数抽出する。 The lane marking detection unit 22 detects a lane marking (for example, a white line) that divides the lane in which the own vehicle travels (hereinafter referred to as the own lane) from the captured image acquired by the image acquisition unit 21. Specifically, the pavement detection unit 22 extracts a change point of the contrast (edge intensity) between the lane dividing lane and the road surface as an edge candidate point based on the brightness of the captured image. Then, the candidate line of the lane marking is extracted from the series of the extracted edge candidate points. More specifically, the captured image is continuously processed at a predetermined sampling cycle, and a plurality of points whose brightness changes rapidly in the horizontal direction of the image are extracted as edge candidate points. Then, the extracted plurality of edge candidate points are subjected to a Hough transform to acquire a series of edge candidate points, and a plurality of candidate lines having the acquired series of edge candidate points as left and right contours are extracted.

そして、区画線検出部22は、複数の候補線のそれぞれについて、各エッジ候補点において、車線を区画する区画線(白線)としての特徴を備えている度合いを算出し、特徴を備えている度合いが最も大きい候補線を、車線を区画する区画線であるとして検出する。区画線検出部22は、検出した区画線のうち、自車両に近接し、且つ、自車両を含むように配置された左右の区画線を、自車線を区画する区画線(白線)として認識する。なお、区画線の認識方法は、これに限らず任意に変更してもよい。また、区画線は、白線に限らず、道路(路面)の境界を示すもの(例えば、縁石やガードレール等)であってもよい。 Then, the lane marking detection unit 22 calculates the degree to which each of the plurality of candidate lines has a feature as a lane dividing lane (white line) at each edge candidate point, and the degree to which the feature is provided. Is detected as the lane marking that divides the lane. Of the detected lane markings, the lane marking detection unit 22 recognizes the left and right lane markings that are close to the own vehicle and are arranged so as to include the own vehicle as lane markings (white lines) that partition the own lane. .. The method of recognizing the lane marking is not limited to this, and may be arbitrarily changed. Further, the lane marking line is not limited to the white line, and may be a line indicating the boundary of the road (road surface) (for example, a curbstone, a guardrail, etc.).

物体検出部23は、取得された撮像画像と予め用意された物体識別用の辞書情報とに基づいて、自車両前方に存在する物体の種類を判定する。物体識別用の辞書情報は、例えば自動車、二輪車、歩行者、路上障害物といった物体の種類に応じて個別に用意され、メモリに予め記憶されている。自動車の辞書情報としては、少なくとも前部パターンと後部パターンとの辞書情報が用意されている。さらには、自動車の前部又は後部のパターンとして、例えば大型車、普通車、軽自動車、自動二輪車、自転車等を含む軽車両、等の複数の車種ごとに辞書情報が用意されていることが好ましい。 The object detection unit 23 determines the type of the object existing in front of the own vehicle based on the acquired captured image and the dictionary information for object identification prepared in advance. The dictionary information for object identification is individually prepared according to the type of an object such as an automobile, a motorcycle, a pedestrian, or an obstacle on the road, and is stored in advance in a memory. As the dictionary information of the automobile, at least the dictionary information of the front pattern and the rear pattern is prepared. Furthermore, it is preferable that dictionary information is prepared for each of a plurality of vehicle types such as a large vehicle, an ordinary vehicle, a light vehicle, a motorcycle, a light vehicle including a bicycle, etc. as a pattern of the front or rear of the vehicle. ..

物体検出部23は、撮像画像と辞書情報とをパターンマッチングにより照合することで、物体の種類を判定する。また、物体検出部23は、撮像画像と辞書情報とに基づいて、自車両の進行方向およびこれに略直交する横方向の物体の位置情報(物体の横幅等を含む)を取得する。物体の認識方法は、これに限らず任意に変更してもよい。例えば、レーダ装置を備えて、レーダ装置の検出情報に基づいて物体認識を行ってもよい。 The object detection unit 23 determines the type of the object by collating the captured image with the dictionary information by pattern matching. Further, the object detection unit 23 acquires the position information (including the width of the object) of the object in the traveling direction of the own vehicle and the lateral direction substantially orthogonal to the traveling direction of the own vehicle based on the captured image and the dictionary information. The object recognition method is not limited to this, and may be arbitrarily changed. For example, a radar device may be provided to perform object recognition based on the detection information of the radar device.

分類部24は、セマンティックセグメンテーション(Semantic Segmentaion)を実施するものである。すなわち、分類部24は、ディープニューラルネットワーク(DNN)を用いて、撮影画像の各画素(ピクセル)をその意味(周辺の画素の情報)に基づいて解析し、クラス分け(カテゴリ分類)する。なお、クラス分けを、画素ごとにラベルを付与するともいう。 The classification unit 24 carries out Semantic Segmentaion. That is, the classification unit 24 analyzes each pixel of the captured image based on its meaning (information on peripheral pixels) using a deep neural network (DNN), and classifies (categorizes) the image. The classification is also referred to as assigning a label to each pixel.

クラス分けを行うことにより、具体的には、白線(区画線)、路面(走行スペース)、他車両、自車両、歩行者、構造物(建物など)、樹木、空というように、画素ごとにクラスが対応付けられる。この結果、図2に示すように、撮影画像は、クラスごとに分類される。図2(a)は、元の撮影画像であり、図2(b)は、クラス分けされた撮影画像を図示したものである。図2(b)では、表示色を異ならせることによりクラスの違いを図示する。 By classifying, specifically, white line (partition line), road surface (driving space), other vehicles, own vehicle, pedestrian, structure (building, etc.), tree, sky, etc. for each pixel Classes are associated. As a result, as shown in FIG. 2, the captured images are classified by class. FIG. 2 (a) is an original photographed image, and FIG. 2 (b) is a diagram showing the photographed images classified into classes. In FIG. 2B, the difference in class is illustrated by making the display color different.

抽出部25は、各画素のエントロピーを抽出するものである。エントロピーとは、平均情報量のことを示し、情報の無秩序さ、曖昧さ、不確実さを表す尺度である。エントロピーが高ければ高いほど、不確かさが高くなるといえる。エントロピーの算出方法は、次の数式(1)に示し、画像の不確かさを数式(2)に示す。

Figure 0007103202000001
The extraction unit 25 extracts the entropy of each pixel. Entropy is an average amount of information, and is a measure of information disorder, ambiguity, and uncertainty. The higher the entropy, the higher the uncertainty. The entropy calculation method is shown in the following mathematical formula (1), and the uncertainty of the image is shown in the mathematical formula (2).
Figure 0007103202000001

ところで、自車両が安全に走行可能な進路を認識する場合に、撮影画像に含まれるすべての情報を認識する必要はなく、進路に係る情報だけを認識すれば十分である。つまり、進路に係る特定のクラスにおける各画素のエントロピーを抽出すれば十分である。進路に係る特定のクラスとは、例えば、白線(区画線)、路面、車両、歩行者等のクラスであり、樹木、空等のクラスは原則として、不要である。なお、車両や歩行者のクラスがあるのは、路面上に車両や歩行者が存在する場合には、進路を変更する必要があるからである。そこで、抽出部25は、進路に係る特定のクラスにおける各画素のエントロピーを抽出するように構成されている。 By the way, when recognizing a course on which the own vehicle can travel safely, it is not necessary to recognize all the information included in the captured image, and it is sufficient to recognize only the information related to the course. That is, it is sufficient to extract the entropy of each pixel in a specific class related to the course. The specific class related to the course is, for example, a class such as a white line (partition line), a road surface, a vehicle, a pedestrian, etc., and a class such as a tree, the sky, etc. is not necessary in principle. The reason why there are vehicles and pedestrian classes is that if there are vehicles and pedestrians on the road surface, it is necessary to change the course. Therefore, the extraction unit 25 is configured to extract the entropy of each pixel in a specific class related to the course.

また、自車両が安全に走行可能な進路を認識する場合、自車両を走行させると予定されている進路以外の進路を認識することは不要である。自車両を走行させると予定されている進路は、車両の目的地や操舵角などの車両情報により推定可能である。そこで、抽出部25は、予定進路の領域内及びその近傍の画素についてエントロピーを抽出するように構成されている。本実施形態では、画像認識装置20が、車両情報を取得し、車両情報に基づいて予定進路を推定する推定部に相当する。 Further, when recognizing a course on which the own vehicle can travel safely, it is not necessary to recognize a course other than the course on which the own vehicle is scheduled to travel. The course on which the own vehicle is scheduled to travel can be estimated from vehicle information such as the destination and steering angle of the vehicle. Therefore, the extraction unit 25 is configured to extract the entropy of the pixels in the region of the planned course and in the vicinity thereof. In the present embodiment, the image recognition device 20 corresponds to an estimation unit that acquires vehicle information and estimates a planned course based on the vehicle information.

また、撮影画像において境界におけるエントロピーは極端に高くなる傾向がある(図3参照)。図3では、エントロピーが高い領域を図示している。ここで述べる境界とは、識別対象間の境界のことであり、例えば、路面と構造物との間の境界、路面と白線との境界、路面と歩道の境界、樹木と空の境界などのことである。エントロピーが極端に高い画素があると、それに引きずられて全体のエントロピーが高くなり、認識精度に影響が生じる。そこで、抽出部25は、撮影画像において境界付近を除いてエントロピーを算出するように構成されている。 In addition, the entropy at the boundary tends to be extremely high in the captured image (see FIG. 3). FIG. 3 illustrates a region with high entropy. The boundary described here is a boundary between identification objects, for example, a boundary between a road surface and a structure, a boundary between a road surface and a white line, a boundary between a road surface and a sidewalk, a boundary between a tree and the sky, and the like. Is. If there is a pixel with extremely high entropy, it will be dragged by it and the overall entropy will increase, which will affect the recognition accuracy. Therefore, the extraction unit 25 is configured to calculate the entropy of the captured image excluding the vicinity of the boundary.

また、本実施形態では、区画線検出部22により区画線が検出されるように構成されている。そして、物体検出部23により車両や歩行者などの物体が検出されるようになっている。これらが検出された場合、抽出部25は、検出された対象(区画線、車両、歩行者)が含まれる領域における各画素のエントロピーを抽出するように構成されている。 Further, in the present embodiment, the lane marking unit 22 is configured to detect the lane marking. Then, the object detection unit 23 detects an object such as a vehicle or a pedestrian. When these are detected, the extraction unit 25 is configured to extract the entropy of each pixel in the region including the detected target (lane marking, vehicle, pedestrian).

次に、信頼度算出部26について説明する。信頼度算出部26は、抽出部25により抽出されたエントロピーに基づいて画素ごとに画素信頼度を算出する。基本的には、信頼度算出部26は、画素のエントロピーが高いほど、当該画素の画素信頼度を低く算出する。 Next, the reliability calculation unit 26 will be described. The reliability calculation unit 26 calculates the pixel reliability for each pixel based on the entropy extracted by the extraction unit 25. Basically, the reliability calculation unit 26 calculates the pixel reliability of the pixel as the entropy of the pixel increases.

また、クラスごとに認識精度が異なることがわかっている。例えば、白線(区画線)は、画像パターンがある程度同じであるため、白線のクラスは、認識されやすいクラスであるといえる。一方、歩行者のクラスにおいては、画像パターンにばらつきがあるため、認識されにくいクラスであるといえる。このため、信頼度算出部26は、画素に対応付けられたクラスに応じて、重みづけを異ならせて画素信頼度を算出する。例えば、区画線>路面>移動体(車両、歩行者)の順番で、区画線のクラスにおける画素信頼度が最も高くなりやすくするように、クラスに応じて、重みづけを異ならせて画素信頼度を算出する。 It is also known that the recognition accuracy differs for each class. For example, since the white line (partition line) has the same image pattern to some extent, the white line class can be said to be a class that is easily recognized. On the other hand, in the pedestrian class, it can be said that the class is difficult to recognize because the image pattern varies. Therefore, the reliability calculation unit 26 calculates the pixel reliability with different weighting according to the class associated with the pixel. For example, in the order of pavement> road surface> moving object (vehicle, pedestrian), the pixel reliability is different depending on the class so that the pixel reliability in the pavement class is most likely to be the highest. Is calculated.

また、各クラスにおける面積により正規化を行う。つまり、面積が広いほど、画素信頼度が高くなりやすくなる。このため、信頼度算出部26は、クラスの面積が広いほど、画素信頼度が低くなるように重みづけを行う。 In addition, normalization is performed according to the area in each class. That is, the larger the area, the higher the pixel reliability tends to be. Therefore, the reliability calculation unit 26 weights the pixels so that the larger the area of the class, the lower the pixel reliability.

このように画素ごとに画素信頼度を算出した後、信頼度算出部26は、算出結果を、単眼カメラ21aの位置(路面からの高さ及び俯角)に基づいて平面(車両を真上から見下ろした図)に変換する。その際、占有格子地図(occupancy grid map)によって画素信頼度を出力(表示)する。これにより、図4に示すように、占有格子地図上において、画素信頼度が高い部分は白くなりやすくなり、低い部分は黒くなりやすくなるように、出力される。 After calculating the pixel reliability for each pixel in this way, the reliability calculation unit 26 calculates the calculation result on a flat surface (looking down at the vehicle from directly above) based on the position (height from the road surface and depression angle) of the monocular camera 21a. Convert to (figure). At that time, the pixel reliability is output (displayed) by the occupancy grid map. As a result, as shown in FIG. 4, on the occupied grid map, the portion having high pixel reliability is likely to be white, and the portion having low pixel reliability is likely to be black.

また、占有格子地図上に画素信頼度を出力する場合、信頼度算出部26は、画素信頼度の時系列(履歴)を参照して、算出された画素信頼度を選抜し、選抜された結果のみを出力するように構成されている。具体的には、信頼度算出部26は、画素信頼度の時系列から傾向を判断し、傾向からはずれた画素信頼度を除去し、傾向に沿った画素信頼度を選抜する。例えば、信頼度算出部26は、所定期間における画素信頼度の時系列から平均値又は中央値を算出し、平均値又は中央値を中心とする所定の範囲内に存在する画素信頼度を選抜し、出力する。一方で、所定の範囲内に存在しない画素信頼度を除外する。この場合において、画素信頼度が増加傾向、又は減少傾向であることが判断できた場合、これらの傾向からはずれたときも除外してもよい。 Further, when outputting the pixel reliability on the occupied grid map, the reliability calculation unit 26 selects the calculated pixel reliability with reference to the time series (history) of the pixel reliability, and the selected result. It is configured to output only. Specifically, the reliability calculation unit 26 determines the tendency from the time series of the pixel reliability, removes the pixel reliability that deviates from the tendency, and selects the pixel reliability along the tendency. For example, the reliability calculation unit 26 calculates an average value or a median value from a time series of pixel reliability in a predetermined period, and selects pixel reliability existing within a predetermined range centered on the average value or the median value. ,Output. On the other hand, pixel reliability that does not exist within a predetermined range is excluded. In this case, if it can be determined that the pixel reliability tends to increase or decrease, it may be excluded even when the pixel reliability deviates from these tendencies.

なお、画素信頼度の時系列を参照する際、自車両の移動に伴い、撮影画像上、比較対象となる画素(領域)も移動することを考慮する必要がある。どのように比較対象となる画素が移動したかは、自車両の速度や進行方向により特定すればよい。 When referring to the time series of pixel reliability, it is necessary to consider that the pixels (areas) to be compared on the captured image also move as the own vehicle moves. How the pixel to be compared has moved may be specified by the speed and the traveling direction of the own vehicle.

同様に、画素信頼度の時系列を参照する際、移動体(他車両、歩行者など)の移動に伴い、撮影画像上、比較対象となる画素(領域)が移動する場合があることを考慮する必要がある。この場合、自車両の速度、進行方向、及び移動体の速度及び進行方向により特定すればよい。 Similarly, when referring to the time series of pixel reliability, it is considered that the pixel (area) to be compared may move on the captured image as the moving object (other vehicle, pedestrian, etc.) moves. There is a need to. In this case, it may be specified by the speed of the own vehicle, the traveling direction, and the speed and traveling direction of the moving body.

なお、画素信頼度が除去された(選抜されなかった)場合、当該領域(画素)において画素信頼度が最低であるとして結果が出力される。また、エントロピーの抽出対象となる領域でなかったなどの理由により、画素信頼度が算出されなかった場合、同様に、当該領域(画素)において画素信頼度が最低であるとして結果が出力される。 When the pixel reliability is removed (not selected), the result is output assuming that the pixel reliability is the lowest in the region (pixel). Further, when the pixel reliability is not calculated due to reasons such as not being the region to be extracted for entropy, the result is similarly output assuming that the pixel reliability is the lowest in the region (pixel).

次に、フィードバック部27について説明する。フィードバック部27は、信頼度算出部26により出力された結果を、分類部24に戻し、次周期以降のクラス分けに反映させるように構成されている。具体的には、フィードバック部27は、画素信頼度が予め決められた第1閾値よりも低い領域を注目領域として分類部24に指定する。 Next, the feedback unit 27 will be described. The feedback unit 27 is configured to return the result output by the reliability calculation unit 26 to the classification unit 24 and reflect it in the classification in the next cycle and thereafter. Specifically, the feedback unit 27 designates a region in which the pixel reliability is lower than a predetermined first threshold value as a region of interest in the classification unit 24.

分類部24は、注目領域が指定された場合、当該注目領域においては通常よりも高密度で画素のクラス分けを行う。つまり、分類部24は、当該注目領域においては通常よりも画素のサイズを細かくして(解像度を上げて)画素のクラス分けを行う。 When the area of interest is designated, the classification unit 24 classifies the pixels at a higher density than usual in the area of interest. That is, the classification unit 24 classifies the pixels in the region of interest by making the pixel size smaller (increasing the resolution) than usual.

フィードバック部27は、画素信頼度が予め決められた第2閾値よりも高い領域を安定領域として分類部24に指定する。分類部24は、安定領域が指定された場合、当該安定領域においては通常よりも低密度で画素のクラス分けを行う。つまり、分類部24は、当該安定領域においては通常よりも画素のサイズを粗くして(解像度を下げて)画素のクラス分けを行う。 The feedback unit 27 designates a region in which the pixel reliability is higher than a predetermined second threshold value as a stable region in the classification unit 24. When a stable region is designated, the classification unit 24 classifies pixels at a lower density than usual in the stable region. That is, the classification unit 24 classifies the pixels in the stable region by making the pixel size coarser (lowering the resolution) than usual.

次に、進路認識部28について説明する。進路認識部28は、信頼度算出部26により出力された結果、つまり、画素ごとの画素信頼度に基づいて車両が安定して走行可能な進路を特定する。具体的には、路面のクラスが対応付けられた画素において、画素信頼度が予め決められた閾値よりも高い領域を進路として特定する。その際、なるべく予定進路に沿った進路を特定することが望ましい。 Next, the course recognition unit 28 will be described. The course recognition unit 28 identifies a course on which the vehicle can travel stably based on the result output by the reliability calculation unit 26, that is, the pixel reliability for each pixel. Specifically, in the pixels to which the road surface classes are associated, the region where the pixel reliability is higher than the predetermined threshold value is specified as the path. At that time, it is desirable to specify the course along the planned course as much as possible.

車両制御部31は、進路認識部28により認識された進路に基づいて、自車両を走行させる。その際、車両制御部31は、信頼度算出部26により出力された結果を取得し、画素信頼度に基づいて各種制御量(操舵角、アクセル、ブレーキなどの制御量)を変更してもよい。例えば、車両制御部31は、画素信頼度が通常値よりも低い領域を進む場合、速度を通常よりも遅くして走行させてもよい。また、画素信頼度が予め決められた所定値よりも低い場合には、走行を停止してもよい。 The vehicle control unit 31 travels its own vehicle based on the course recognized by the course recognition unit 28. At that time, the vehicle control unit 31 may acquire the result output by the reliability calculation unit 26 and change various control amounts (control amounts of steering angle, accelerator, brake, etc.) based on the pixel reliability. .. For example, the vehicle control unit 31 may travel at a slower speed than usual when traveling in a region where the pixel reliability is lower than the normal value. Further, when the pixel reliability is lower than a predetermined value determined in advance, the traveling may be stopped.

また、例えば、車両制御部31は、認識された進路の中に、画素信頼度が通常値よりも低い領域が含まれている場合、当該領域に進入するまでに時間的、距離的な余裕があるのであれば、車両を走行させるか否か、及び制御量の決定を保留してもよい。そして、所定期間かけて当該領域における画素信頼度の履歴を取得し、履歴を参照して車両を走行させるか否か、及び制御量を決定してもよい。すなわち、当該領域における画素信頼度が通常値よりも高くなるのを待って、決定してもよい。 Further, for example, when the recognized path includes a region where the pixel reliability is lower than the normal value, the vehicle control unit 31 has a margin in time and distance before entering the region. If so, the determination of whether to drive the vehicle and the control amount may be withheld. Then, the history of the pixel reliability in the region may be acquired over a predetermined period, and whether or not the vehicle is driven and the control amount may be determined with reference to the history. That is, the determination may be made after waiting for the pixel reliability in the region to become higher than the normal value.

次に、画像認識装置20が所定周期ごとに実行する画像認識処理について図5に基づいて説明する。まず、画像取得部21としての画像認識装置20は、撮影画像を取得する(ステップS101)。 Next, the image recognition process executed by the image recognition device 20 at predetermined intervals will be described with reference to FIG. First, the image recognition device 20 as the image acquisition unit 21 acquires a captured image (step S101).

次に、区画線検出部22としての画像認識装置20は、取得された撮影画像に基づいて区画線を検出する(ステップS102)。また、物体検出部23としての画像認識装置20は、取得された撮影画像に基づいて物体を検出する(ステップS103)。 Next, the image recognition device 20 as the lane marking detection unit 22 detects the lane marking based on the acquired captured image (step S102). Further, the image recognition device 20 as the object detection unit 23 detects an object based on the acquired captured image (step S103).

次に、分類部24としての画像認識装置20は、取得された撮影画像に基づいて画素ごとにクラス分けを行う(ステップS104)。その際、前回の周期でフィードバック部27により注目領域が指定されていた場合、画像認識装置20は、当該注目領域においては通常よりも画素のサイズを細かくして画素のクラス分けを行う。また、安定領域が指定された場合、当該安定領域においては通常よりも画素のサイズを粗くして画素のクラス分けを行う。 Next, the image recognition device 20 as the classification unit 24 classifies each pixel based on the acquired captured image (step S104). At that time, when the region of interest was designated by the feedback unit 27 in the previous cycle, the image recognition device 20 classifies the pixels in the region of interest by making the pixel size smaller than usual. When a stable region is specified, the pixel size is made coarser than usual in the stable region to classify the pixels.

次に、抽出部25としての画像認識装置20は、画素ごとのエントロピーを算出する(ステップS105)。ステップS105において、画像認識装置20は、進路に係る特定のクラスであって、予定進路の領域内及びその近傍の領域に絞って、画素のエントロピーを抽出する。その際、画像認識装置20は、撮影画像において境界付近の画素は除外してエントロピーを抽出する。 Next, the image recognition device 20 as the extraction unit 25 calculates the entropy for each pixel (step S105). In step S105, the image recognition device 20 is a specific class related to the course, and extracts the entropy of the pixels by narrowing down to the area within or near the area of the planned course. At that time, the image recognition device 20 extracts the entropy by excluding the pixels near the boundary in the captured image.

また、区画線検出部22により区画線が検出されていた場合、検出された区画線が含まれている領域における画素のエントロピーを抽出する。また、物体検出部23により物体が検出されていた場合、検出された物体が含まれている領域における画素のエントロピーを抽出する。 Further, when the lane marking is detected by the lane marking detection unit 22, the entropy of the pixel in the region including the detected lane marking is extracted. When an object is detected by the object detection unit 23, the entropy of the pixels in the region including the detected object is extracted.

次に、信頼度算出部26としての画像認識装置20は、エントロピーに基づいて画素ごとの画素信頼度を算出し、出力する(ステップS106)。その際、信頼度算出部26は、画素に対応付けられたクラスに応じて、重みづけを異ならせて画素信頼度を算出する。また、各クラスにおける面積により正規化を行う。また、画像認識装置20は、算出結果を、占有格子地図上に画素信頼度を出力(表示)する。その際、画像認識装置20は、画素信頼度の時系列を参照して、算出された画素信頼度を選抜し、選抜された結果のみを占有格子地図上に出力する。 Next, the image recognition device 20 as the reliability calculation unit 26 calculates and outputs the pixel reliability for each pixel based on the entropy (step S106). At that time, the reliability calculation unit 26 calculates the pixel reliability with different weighting according to the class associated with the pixel. In addition, normalization is performed according to the area in each class. Further, the image recognition device 20 outputs (displays) the pixel reliability of the calculation result on the occupied grid map. At that time, the image recognition device 20 selects the calculated pixel reliability with reference to the time series of the pixel reliability, and outputs only the selected result on the occupied grid map.

また、フィードバック部27としての画像認識装置20は、信頼度算出部26により出力された結果を、次周期以降のクラス分けに反映させることを決定する(ステップS107)。つまり、画像認識装置20は、画素信頼度が予め決められた第1閾値よりも低い領域を注目領域として指定し、次周期以降のクラス分けに反映させることを決定する。また、画像認識装置20は、画素信頼度が予め決められた第2閾値よりも高い領域を安定領域として指定し、次周期以降のクラス分けに反映させることを決定する。 Further, the image recognition device 20 as the feedback unit 27 determines that the result output by the reliability calculation unit 26 is reflected in the classification in the next cycle and thereafter (step S107). That is, the image recognition device 20 determines that a region in which the pixel reliability is lower than the predetermined first threshold value is designated as the region of interest and is reflected in the classification in the next cycle and thereafter. Further, the image recognition device 20 determines that a region in which the pixel reliability is higher than a predetermined second threshold value is designated as a stable region and is reflected in the classification in the next cycle and thereafter.

その後、進路認識部28としての画像認識装置20は、算出された画素ごとの画素信頼度に基づいて車両が安定して走行可能な進路を特定し、車両制御装置30に出力する(ステップS108)。そして、画像認識処理を終了する。車両制御装置30は、画像認識装置20により認識された進路に応じて自車両の走行を制御する。 After that, the image recognition device 20 as the course recognition unit 28 identifies the course on which the vehicle can travel stably based on the calculated pixel reliability for each pixel, and outputs it to the vehicle control device 30 (step S108). .. Then, the image recognition process is terminated. The vehicle control device 30 controls the traveling of the own vehicle according to the course recognized by the image recognition device 20.

以上詳述した上記実施形態によれば、次の優れた効果が得られる。 According to the above-described embodiment described in detail above, the following excellent effects can be obtained.

周辺状況や単眼カメラ21aの都合により、撮影対象(路面や白線など)が不明確な撮影画像を取得してしまった場合や、認識が難しい撮影画像を取得してしまった場合であっても、信頼度算出部26は、画素信頼度の時系列を参照して、算出された画素信頼度を選別している。このため、環境等の変化による一時的な画素信頼度の異常値を除外することができ、画素信頼度の算出精度を向上させることができる。したがって、画像認識の精度、つまり、自車両が安定的に走行可能な進路を精度よく認識することができる。 Even if the shooting target (road surface, white line, etc.) has acquired an unclear captured image due to the surrounding conditions or the convenience of the monocular camera 21a, or even if a captured image that is difficult to recognize has been acquired. The reliability calculation unit 26 selects the calculated pixel reliability with reference to the time series of pixel reliability. Therefore, it is possible to exclude a temporary outlier of the pixel reliability due to a change in the environment or the like, and it is possible to improve the calculation accuracy of the pixel reliability. Therefore, it is possible to accurately recognize the accuracy of image recognition, that is, the course on which the own vehicle can travel stably.

抽出部25は、自車両の進路に係る特定のクラスにおける各画素のエントロピーを抽出するため、計算効率が良くなり、結果として算出精度を向上させることができる。つまり、無駄な領域の画像認識を省き、必要な領域の画像認識を十分に行うことができるため、認識精度を向上させることができる。また、計算負担を軽くすることができる。 Since the extraction unit 25 extracts the entropy of each pixel in a specific class related to the course of the own vehicle, the calculation efficiency is improved, and as a result, the calculation accuracy can be improved. That is, it is possible to omit the image recognition of the useless area and sufficiently perform the image recognition of the necessary area, so that the recognition accuracy can be improved. In addition, the calculation burden can be reduced.

クラスによっては、パターンがある程度決まっているなどの理由により認識しやすいクラスが存在する。また、逆に認識しにくいクラスも存在する。例えば、白線は移動体や樹木などに比較して認識しやすいクラスである。そこで、信頼度算出部26は、クラス別に画素信頼度の重みづけを実施するように構成されている。これにより、画素信頼度の算出精度を向上させることができる。 Depending on the class, there are classes that are easy to recognize because the pattern is fixed to some extent. On the contrary, there are some classes that are difficult to recognize. For example, the white line is a class that is easier to recognize than moving objects and trees. Therefore, the reliability calculation unit 26 is configured to weight the pixel reliability for each class. Thereby, the calculation accuracy of the pixel reliability can be improved.

クラスごとの画素信頼度の総和で、クラスごとの信頼度を判断する場合、クラスの面積により、影響が生じる。そこで、各クラスの面積に基づいて画素信頼度を正規化することにより、面積の大きさに関係なく、画素信頼度に基づく判断を行うことができる。これにより、精度を向上させることができる。 When determining the reliability for each class by the sum of the pixel reliability for each class, the area of the class has an effect. Therefore, by normalizing the pixel reliability based on the area of each class, it is possible to make a judgment based on the pixel reliability regardless of the size of the area. Thereby, the accuracy can be improved.

物体と物体の境界、あるいは白線と路面との境界の部分では、エントロピーが高くなり、誤認識の原因となり得る。そこで抽出部25は、撮影画像における境界を除いてエントロピーを抽出するように構成されている。これにより、誤認識を抑制し、画素信頼度の算出精度を向上させることができる。 At the boundary between objects or the boundary between the white line and the road surface, the entropy becomes high, which may cause misrecognition. Therefore, the extraction unit 25 is configured to extract the entropy by removing the boundary in the captured image. As a result, erroneous recognition can be suppressed and the calculation accuracy of the pixel reliability can be improved.

抽出部25は、区画線検出部22又は物体検出部23により検出された対象(白線、車両、歩行者など)が含まれる領域における画素についてエントロピーを抽出し、画素信頼度を算出するように構成されている。このように複数の手法により検出(認識)すべき対象を絞り込むため、認識精度をより向上させることができる。また、画素信頼度を算出すべき領域を減らすことができ、計算効率を向上させることができる。 The extraction unit 25 is configured to extract entropy for pixels in a region including an object (white line, vehicle, pedestrian, etc.) detected by the lane marking detection unit 22 or the object detection unit 23, and calculate the pixel reliability. Has been done. Since the target to be detected (recognized) is narrowed down by a plurality of methods in this way, the recognition accuracy can be further improved. In addition, the area for which the pixel reliability should be calculated can be reduced, and the calculation efficiency can be improved.

抽出部25は、予定進路が含まれる領域内の画素についてエントロピーを抽出するように構成されている。これにより、自車両を安全に走行可能な進路を認識するために認識することが必要な領域に絞って認識することができ、認識精度をより向上させることができる。 The extraction unit 25 is configured to extract the entropy of the pixels in the region including the planned course. As a result, the own vehicle can be recognized only in the area that needs to be recognized in order to recognize the course on which the vehicle can travel safely, and the recognition accuracy can be further improved.

分類部24は、フィードバック部27により画素信頼度が閾値よりも低いと指定された注目領域に対して、画素のサイズを通常よりも細かくして画素ごとのクラス分けを行う。このため、画素信頼度の算出精度を向上させることができる。 The classification unit 24 classifies each pixel by making the pixel size smaller than usual for the region of interest designated by the feedback unit 27 that the pixel reliability is lower than the threshold value. Therefore, the calculation accuracy of the pixel reliability can be improved.

一方、画素信頼度が閾値よりも高いと指定された安定領域では、以降、認識精度が十分高くなると予想される。このような領域において再度詳細な認識する場合、計算効率が悪くなる。また、そのような安定領域において画素信頼度が低くなる場合には、何らかの誤認識が生じている可能性が高い。そこで、安定領域に対して画素のサイズを通常よりも粗くして画素ごとのクラス分けを行う。これにより、画素信頼度のブレを抑制し、画素信頼度の算出精度を向上させることができる。 On the other hand, in the stable region where the pixel reliability is specified to be higher than the threshold value, it is expected that the recognition accuracy will be sufficiently high thereafter. When detailed recognition is performed again in such a region, the calculation efficiency becomes poor. Further, when the pixel reliability is low in such a stable region, there is a high possibility that some kind of erroneous recognition has occurred. Therefore, the pixel size is made coarser than usual with respect to the stable region, and each pixel is classified. As a result, it is possible to suppress the fluctuation of the pixel reliability and improve the calculation accuracy of the pixel reliability.

(他の実施形態)
なお、本発明は上記実施形態に限定されるものではなく、本発明の要旨の範囲内において種々の変形実施が可能である。なお、以下では、各実施形態で互いに同一又は均等である部分には同一符号を付しており、同一符号の部分についてはその説明を援用する。
(Other embodiments)
The present invention is not limited to the above embodiment, and various modifications can be made within the scope of the gist of the present invention. In the following, the parts that are the same or equal to each other in each embodiment are designated by the same reference numerals, and the description thereof will be incorporated for the parts having the same reference numerals.

・上記実施形態において、クラス別に画素信頼度の重みづけを行わなくてもよい。 -In the above embodiment, it is not necessary to weight the pixel reliability for each class.

・上記実施形態において、クラスごとの面積に基づいて画素信頼度の正規化しなくてもよい。
・上記実施形態では、境界付近のエントロピーを抽出しなかったが、境界付近のエントロピーを抽出してもよい。
-In the above embodiment, it is not necessary to normalize the pixel reliability based on the area of each class.
-In the above embodiment, the entropy near the boundary is not extracted, but the entropy near the boundary may be extracted.

・上記実施形態において、区画線検出部22を設けなくてもよい。同様に、物体検出部23を設けなくてもよい。 -In the above embodiment, the lane marking detection unit 22 may not be provided. Similarly, the object detection unit 23 may not be provided.

・上記実施形態において、予定進路を推定し、予定進路が含まれる領域内のエントロピーを抽出するように領域を絞っていたが、そのように領域を絞らなくてもよい。 -In the above embodiment, the planned course is estimated and the area is narrowed down so as to extract the entropy in the area including the planned course, but it is not necessary to narrow down the area in that way.

・上記実施形態において、フィードバック部27を設けなくてもよい。つまり、フィードバック制御を行わなくてもよい。 -In the above embodiment, the feedback unit 27 may not be provided. That is, it is not necessary to perform feedback control.

・上記実施形態において、フィードバック部27は、信頼度算出部26にフィードバックを行ってもよい。例えば、画素信頼度が閾値よりも高いと指定された安定領域に対しては、次周期以降、画素信頼度が高くなるように重みづけを行わせるようにしてもよい。これにより、計算効率を向上させ、また、誤判定の発生を抑制することができる。 -In the above embodiment, the feedback unit 27 may provide feedback to the reliability calculation unit 26. For example, the stable region designated as having a pixel reliability higher than the threshold value may be weighted so that the pixel reliability becomes higher after the next cycle. As a result, the calculation efficiency can be improved and the occurrence of erroneous determination can be suppressed.

・上記実施形態において、フィードバック部27は、次周期以降に反映させたが、現在の周期における結果に対して反映させてもよい。つまり、同じ撮影画像に対して、画素のサイズを異ならせて、クラス分け、エントロピー抽出、画素信頼度算出等を行ってもよい。 -In the above embodiment, the feedback unit 27 reflects the result in the next cycle or later, but it may be reflected in the result in the current cycle. That is, the same captured image may be classified by different pixel sizes, entropy extraction, pixel reliability calculation, and the like.

・上記実施形態において、画像認識装置20は、占有格子地図上に画素信頼度を出力させたが、出力形式は任意に変更してもよい。顕著性マップ(saliency map)上に算出結果を出力(表示)させてもよい。これにより、他のシステムにおいて算出結果を利用しやすくなる。 -In the above embodiment, the image recognition device 20 outputs the pixel reliability on the occupied grid map, but the output format may be arbitrarily changed. The calculation result may be output (displayed) on the saliency map. This makes it easier to use the calculation results in other systems.

・上記実施形態及び変形例において、本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリーを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の制御部及びその手法は、一つ以上の専用ハードウエア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の制御部及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリーと一つ以上のハードウエア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。 -In the above-described embodiment and modification, the control unit and the method thereof described in the present disclosure constitute a processor and a memory programmed to execute one or a plurality of functions embodied by a computer program. It may be realized by a dedicated computer provided by. Alternatively, the controls and methods thereof described in the present disclosure may be implemented by a dedicated computer provided by configuring the processor with one or more dedicated hardware logic circuits. Alternatively, the control unit and method thereof described in the present disclosure may be a combination of a processor and memory programmed to perform one or more functions and a processor composed of one or more hardware logic circuits. It may be realized by one or more dedicated computers configured. Further, the computer program may be stored in a computer-readable non-transitional tangible recording medium as an instruction executed by the computer.

20…画像認識装置、21…画像取得部、21a…単眼カメラ、25…抽出部、26…信頼度算出部、28…進路認識部。 20 ... image recognition device, 21 ... image acquisition unit, 21a ... monocular camera, 25 ... extraction unit, 26 ... reliability calculation unit, 28 ... course recognition unit.

Claims (9)

撮影画像に基づいて自車両の進路を認識する画像認識装置(20)において、
所定周期ごとに、撮影装置(21a)から撮影画像を取得する画像取得部(21)と、
取得した撮影画像において、画素ごとのエントロピーを抽出する抽出部(25)と、
前記抽出部により抽出されたエントロピーに基づいて、画素ごとの画素信頼度を算出し、出力する信頼度算出部(26)と、
前記信頼度算出部により出力された画素信頼度に基づいて進路を認識する進路認識部(28)と、を備え、
前記信頼度算出部は、所定期間における画素信頼度の時系列を参照して、算出された画素信頼度を選別し、選抜された画素信頼度を出力する画像認識装置。
In the image recognition device (20) that recognizes the course of the own vehicle based on the captured image,
An image acquisition unit (21) that acquires a photographed image from the photographing device (21a) at predetermined intervals, and
An extraction unit (25) that extracts the entropy of each pixel in the acquired captured image, and
A reliability calculation unit (26) that calculates and outputs the pixel reliability for each pixel based on the entropy extracted by the extraction unit, and
A course recognition unit (28) that recognizes a course based on the pixel reliability output by the reliability calculation unit is provided.
The reliability calculation unit is an image recognition device that refers to a time series of pixel reliability in a predetermined period, selects the calculated pixel reliability, and outputs the selected pixel reliability.
各画像を解析し、各画素ごとにクラス分けを行う分類部(24)を備え、
前記抽出部は、自車両の進路に係る特定のクラスにおける各画素のエントロピーを抽出する請求項1に記載の画像認識装置。
It is equipped with a classification unit (24) that analyzes each image and classifies each pixel.
The image recognition device according to claim 1, wherein the extraction unit extracts the entropy of each pixel in a specific class related to the course of the own vehicle.
前記信頼度算出部は、クラス別に画素信頼度の重みづけを行う請求項2に記載の画像認識装置。 The image recognition device according to claim 2, wherein the reliability calculation unit weights pixel reliability for each class. 前記信頼度算出部は、各クラスの面積に基づいて画素信頼度を正規化する請求項2又は3に記載の画像認識装置。 The image recognition device according to claim 2 or 3, wherein the reliability calculation unit normalizes the pixel reliability based on the area of each class. 前記信頼度算出部により算出された画素信頼度に基づいて領域を指定するフィードバック部(27)を備え、
前記分類部は、前記フィードバック部により画素信頼度が閾値よりも低いと指定された注目領域に対して画素のサイズを通常よりも細かくして画素ごとのクラス分けを行う請求項2~4のうちいずれか1項に記載の画像認識装置。
A feedback unit (27) for designating an area based on the pixel reliability calculated by the reliability calculation unit is provided.
Of claims 2 to 4, the classification unit classifies each pixel by making the pixel size smaller than usual for a region of interest designated by the feedback unit as having a pixel reliability lower than a threshold value. The image recognition device according to any one of the items.
前記抽出部は、前記撮影画像において対象間の境界を除いてエントロピーを抽出する請求項1~5のうちいずれか1項に記載の画像認識装置。 The image recognition device according to any one of claims 1 to 5, wherein the extraction unit extracts entropy from the captured image excluding boundaries between objects. 撮影画像の画像パターンに基づいて対象を検出する検出部(22,23)を備え、
前記抽出部は、前記検出部により検出された対象が含まれる領域における画素についてエントロピーを抽出する請求項1~6のうちいずれか1項に記載の画像認識装置。
It is equipped with detection units (22, 23) that detect the target based on the image pattern of the captured image.
The image recognition device according to any one of claims 1 to 6, wherein the extraction unit extracts entropy for pixels in a region including a target detected by the detection unit.
車両情報を取得し、車両情報に基づいて車両の予定進路を推定する推定部(20)を備え、
前記抽出部は、予定進路が含まれる領域内の画素についてエントロピーを抽出する請求項1~7のうちいずれか1項に記載の画像認識装置。
Equipped with an estimation unit (20) that acquires vehicle information and estimates the planned course of the vehicle based on the vehicle information.
The image recognition device according to any one of claims 1 to 7, wherein the extraction unit extracts entropy for pixels in a region including a planned course.
前記信頼度算出部により算出された画素信頼度に基づいて領域を指定するフィードバック部を備え、
前記フィードバック部により画素信頼度が閾値よりも高いと指定された安定領域では、画素信頼度が高くなるように重みづけが行われる請求項1~8のうちいずれか1項に記載の画像認識装置。
A feedback unit that specifies an area based on the pixel reliability calculated by the reliability calculation unit is provided.
The image recognition device according to any one of claims 1 to 8, wherein weighting is performed so that the pixel reliability is high in the stable region designated by the feedback unit as having a pixel reliability higher than the threshold value. ..
JP2018238838A 2018-12-20 2018-12-20 Image recognition device Active JP7103202B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018238838A JP7103202B2 (en) 2018-12-20 2018-12-20 Image recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018238838A JP7103202B2 (en) 2018-12-20 2018-12-20 Image recognition device

Publications (2)

Publication Number Publication Date
JP2020101935A JP2020101935A (en) 2020-07-02
JP7103202B2 true JP7103202B2 (en) 2022-07-20

Family

ID=71139582

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018238838A Active JP7103202B2 (en) 2018-12-20 2018-12-20 Image recognition device

Country Status (1)

Country Link
JP (1) JP7103202B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015138550A (en) 2014-01-23 2015-07-30 三菱電機株式会社 Method for estimating free space using camera system
JP2018022234A (en) 2016-08-01 2018-02-08 クラリオン株式会社 Image processing device and environment recognition device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015138550A (en) 2014-01-23 2015-07-30 三菱電機株式会社 Method for estimating free space using camera system
JP2018022234A (en) 2016-08-01 2018-02-08 クラリオン株式会社 Image processing device and environment recognition device

Also Published As

Publication number Publication date
JP2020101935A (en) 2020-07-02

Similar Documents

Publication Publication Date Title
KR101848019B1 (en) Method and Apparatus for Detecting Vehicle License Plate by Detecting Vehicle Area
CN113243016A (en) Object recognition system, arithmetic processing device, automobile, vehicle lamp, and method for learning classifier
JP3780922B2 (en) Road white line recognition device
JP6453490B2 (en) Method and apparatus for recognizing and evaluating road surface reflections
EP3026651B1 (en) Vehicle monitoring device and vehicle monitoring method
US8848980B2 (en) Front vehicle detecting method and front vehicle detecting apparatus
JP6819996B2 (en) Traffic signal recognition method and traffic signal recognition device
KR101281260B1 (en) Method and Apparatus for Recognizing Vehicle
US9626599B2 (en) Reconfigurable clear path detection system
EP2960829A2 (en) Lane boundary estimation device and lane boundary estimation method
JP6358552B2 (en) Image recognition apparatus and image recognition method
US9286512B2 (en) Method for detecting pedestrians based on far infrared ray camera at night
JP2018516799A5 (en)
WO2008020544A1 (en) Vehicle detection device, vehicle detection method, and vehicle detection program
WO2016159364A1 (en) Pedestrian determination device
KR101483742B1 (en) Lane Detection method for Advanced Vehicle
JP2018060422A (en) Object detection device
JP2016218539A (en) Vehicle runway recognition device
KR20170137273A (en) Apparatus and Method for Pedestrian Detection using Deformable Part Model
JP6483360B2 (en) Object recognition device
CN111976585A (en) Projection information recognition device and method based on artificial neural network
EP3410345B1 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
EP2256691A1 (en) Image processing device for vehicle and image processing program
US10614323B2 (en) Scene analysis method and visual navigation device
EP3428876A1 (en) Image processing device, apparatus control system, imaging device, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220620

R151 Written notification of patent or utility model registration

Ref document number: 7103202

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151