JP2019003343A - Driving support device and driving support method - Google Patents

Driving support device and driving support method Download PDF

Info

Publication number
JP2019003343A
JP2019003343A JP2017116224A JP2017116224A JP2019003343A JP 2019003343 A JP2019003343 A JP 2019003343A JP 2017116224 A JP2017116224 A JP 2017116224A JP 2017116224 A JP2017116224 A JP 2017116224A JP 2019003343 A JP2019003343 A JP 2019003343A
Authority
JP
Japan
Prior art keywords
image
driving support
edge portion
risk
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017116224A
Other languages
Japanese (ja)
Inventor
孝尚 矢野
Takanao Yano
孝尚 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2017116224A priority Critical patent/JP2019003343A/en
Publication of JP2019003343A publication Critical patent/JP2019003343A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a technique capable of determining the degree of risk even in a case where a mobile body is not detected.SOLUTION: A driving support device 20 comprises an input circuit 30 and an output circuit 36, and can be installed in a vehicle 100. The driving support device 20 divides a first image having a first pixel number to be inputted to the input circuit 30 into at least a road region and any other region than the road region. The driving support device 20 detects an edge portion that enters the road region from the other region than the road region in a first image. The driving support device 20 calculates the degree of risk on the basis of a second image including the edge portion and having a second pixel number that is less than the first pixel number. In a case where the calculated degree of risk is equal to or greater than a predetermined value, the output circuit 36 outputs a predetermined signal.SELECTED DRAWING: Figure 2

Description

本発明は、画像から危険度を判定する運転支援装置および運転支援方法に関する。   The present invention relates to a driving support device and a driving support method for determining a risk level from an image.

車両用の衝突回避支援装置は、車両の周囲に存在する歩行者等の移動体を検出し、移動体と車両との衝突の危険性があると判定した場合に、運転者に警告を発する。衝突の危険性の予測精度を向上するために、車両周辺の歩道境界物も検出されるとともに、移動体と歩道境界物との相対距離と、移動体と車両との相対距離とが使用される(例えば、特許文献1参照)。   The collision avoidance assistance device for a vehicle detects a moving body such as a pedestrian existing around the vehicle, and issues a warning to the driver when it is determined that there is a risk of a collision between the moving body and the vehicle. In order to improve the accuracy of predicting the risk of collision, the sidewalk boundary around the vehicle is also detected, and the relative distance between the moving body and the sidewalk boundary and the relative distance between the moving body and the vehicle are used. (For example, refer to Patent Document 1).

特開2010−181928号公報JP 2010-181928 A

特許文献1においては、移動体を検出した場合に、移動体と歩道境界物との相対距離と、移動体と車両との相対距離とを使用することによって、移動体が歩道境界物を超えて車両の方に飛び出してくる危険性を判定する。しかしながら、駐車車両のような遮蔽物に隠れた移動体が飛び出してくる場合、当該移動体を検出していない段階において、移動体と車両との衝突の危険性は判定されない。   In Patent Document 1, when a moving body is detected, the moving body exceeds the sidewalk boundary by using the relative distance between the moving body and the sidewalk boundary and the relative distance between the moving body and the vehicle. Determine the risk of jumping out towards the vehicle. However, when a moving object hidden behind a shield such as a parked vehicle pops out, the risk of collision between the moving object and the vehicle is not determined when the moving object is not detected.

本発明はこうした状況に鑑みてなされたものであり、その目的は、移動体が検出されない場合でも危険度を判定する技術を提供することにある。   This invention is made | formed in view of such a condition, The objective is to provide the technique which determines a danger, even when a moving body is not detected.

上記課題を解決するために、本発明のある態様の運転支援装置は、入力回路と、出力回路とを備え、車両に設置可能な運転支援装置であって、入力回路に入力される第1画素数を備える第1画像において、少なくとも道路領域と道路領域以外の領域に区分し、第1画像において、道路領域に、道路領域以外の領域から入り込んだエッジ部分を検出し、エッジ部分を含み、かつ第1画素数より少ない第2画素数を備える第2画像をもとに、危険度を算出し、算出された危険度が所定の値以上である場合、出力回路は、所定の信号を出力する。   In order to solve the above-described problem, a driving support device according to an aspect of the present invention is a driving support device that includes an input circuit and an output circuit and can be installed in a vehicle, and is a first pixel that is input to the input circuit. In the first image having a number, it is divided into at least a road region and a region other than the road region, and in the first image, an edge portion entering from the region other than the road region is detected in the road region, including the edge portion, and Based on the second image having the second number of pixels smaller than the first number of pixels, the risk level is calculated, and when the calculated risk level is equal to or greater than a predetermined value, the output circuit outputs a predetermined signal. .

本発明の別の態様は、運転支援方法である。この方法は、入力回路と、出力回路とを備え、車両に設置可能な運転支援装置で利用可能な運転支援方法あって、入力回路に入力される第1画素数を備える第1画像において、少なくとも道路領域と道路領域以外の領域に区分し、第1画像において、道路領域に、道路領域以外の領域から入り込んだエッジ部分を検出し、エッジ部分を含み、かつ第1画素数より少ない第2画素数を備える第2画像をもとに、危険度を算出し、算出された危険度が所定の値以上である場合、出力回路は、所定の信号を出力する。   Another aspect of the present invention is a driving support method. This method is a driving support method that can be used in a driving support device that includes an input circuit and an output circuit, and that can be installed in a vehicle. In the first image that includes the first number of pixels that are input to the input circuit, A second pixel that is divided into a road region and a region other than the road region, detects an edge portion that has entered the road region from a region other than the road region in the first image, includes the edge portion, and is smaller than the first pixel number. The risk level is calculated based on the second image having a number, and when the calculated risk level is equal to or greater than a predetermined value, the output circuit outputs a predetermined signal.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.

本発明によれば、移動体が検出されない場合でも危険度を判定できる。   According to the present invention, it is possible to determine the degree of risk even when a moving object is not detected.

実施例に係る車両の車室内を後方から見た構成を示す図である。It is a figure which shows the structure which looked at the vehicle interior of the vehicle which concerns on an Example from back. 図1の運転支援装置の構成を示す図である。It is a figure which shows the structure of the driving assistance apparatus of FIG. 図3(a)−(c)は、図2の運転支援装置の処理概要を示す図である。FIGS. 3A to 3C are diagrams illustrating an outline of processing of the driving support apparatus of FIG. 図4(a)−(b)は、図2の運転支援装置の別の処理概要を示す図である。FIGS. 4A to 4B are diagrams showing another processing outline of the driving support apparatus of FIG. 図1の運転支援装置による出力手順を示すフローチャートである。It is a flowchart which shows the output procedure by the driving assistance device of FIG. 変形例に係る運転支援システムの構成を示す図である。It is a figure which shows the structure of the driving assistance system which concerns on a modification.

本発明を具体的に説明する前に、概要を述べる。本発明の実施例は、車両に搭載されており、撮像された画像から危険度を判定して運転者に通知する運転支援装置に関する。ここでは、特に、歩行者が飛び出す危険度を画像から判定する。画像に対して処理を実行する技術の1つが道路地形検出技術である。これまでの道路地形検出技術では、画像に対して車線検出のみが実行される場合、あるいは画像に対して歩道境界検出のみが実行される場合が多い。このような特定の物体に対する地形検出は高速に実行可能である。しかしながら、画像に含まれる歩行者、車両、ビル、建物等の検出精度は不十分である。また、車道への歩行者の飛び出しを予測するための予測技術では、車道あるいは歩道上に存在する歩行者を検出した場合、当該歩行者が自車両に飛び出すかの危険度を判定する。しかしながら、この処理は、画像中に歩行者を検出したことを前提とするので、遮蔽物から歩行者の飛び出しのような、画像中に歩行者が検出されない場合に危険度を判定できない。   Before describing the present invention in detail, an outline will be described. Embodiments of the present invention relate to a driving support apparatus that is mounted on a vehicle and determines a degree of danger from a captured image and notifies a driver. Here, in particular, the degree of danger of a pedestrian jumping out is determined from the image. One technique for executing processing on an image is a road terrain detection technique. In conventional road terrain detection techniques, only lane detection is performed on an image or only sidewalk boundary detection is performed on an image in many cases. Such terrain detection for a specific object can be performed at high speed. However, the detection accuracy of pedestrians, vehicles, buildings, buildings, etc. included in the image is insufficient. Moreover, in the prediction technique for predicting the pedestrian jumping out onto the roadway, when a pedestrian existing on the roadway or the sidewalk is detected, a risk level of whether the pedestrian jumps out into the own vehicle is determined. However, since this process is based on the assumption that a pedestrian has been detected in the image, the degree of risk cannot be determined when a pedestrian is not detected in the image, such as a pedestrian jumping out from a shield.

これに対応するために、本実施例に係る運転支援装置は、画像に対して、次のような4段階の処理を実行する。第1段階では、カメラで撮像した画像(以下、「第1画像」という)に対してセマンティック・セグメンテーションを実行することによって、第1画像の画素毎に意味づけを実行する。これによって、第1画像に含まれた人物、他車両、道路、建物、信号機等毎に領域が認識される。その結果、人物領域、他車両領域、道路領域のようなカテゴリ毎にラベル付けがなされる。   In order to cope with this, the driving support apparatus according to the present embodiment performs the following four-stage processing on the image. In the first stage, semantic segmentation is performed on an image captured by the camera (hereinafter referred to as “first image”), thereby performing meaning for each pixel of the first image. As a result, a region is recognized for each person, other vehicle, road, building, traffic light, etc. included in the first image. As a result, labeling is performed for each category such as a person area, another vehicle area, and a road area.

第2段階では、ラベリングがなされた第1画像における道路領域を特定する。人物、他車両等の移動体が道路上に存在しない場合、道路領域は、建物領域、空領域に接しており、その境界は一般的に直線あるいは滑らかな曲線によって示される。一方、移動体が道路上に存在する場合、人物領域、他車両領域が道路領域に入り込んだエッジ部分が存在する。そのため、第2段階においてエッジ部分を検出する。これは、道路領域において不連続に接面が変化しているかを検出することに相当する。   In the second stage, the road region in the first image that has been labeled is specified. When a moving body such as a person or another vehicle does not exist on the road, the road area is in contact with the building area and the sky area, and the boundary is generally indicated by a straight line or a smooth curve. On the other hand, when the moving body exists on the road, there is an edge portion where the person area and the other vehicle area enter the road area. Therefore, an edge part is detected in the second stage. This corresponds to detecting whether the contact surface changes discontinuously in the road region.

第3段階では、1つのエッジ部分に対して、当該エッジ部分を含みながらサイズの異なった複数種類の画像を第1画像から抽出する。例えば、サイズの異なった4種類の画像を抽出する場合、これらの画像は、第2画像、・・・、第5画像と呼ばれる。第2画像、・・・、第5画像の画素数は第1画像の画素数よりも小さい。なお、第2画像、・・・、第5画像ではサイズだけなく、向きが異なっていてもよい。この処理は、エッジ部分毎になされる。   In the third stage, for one edge portion, a plurality of types of images having different sizes while including the edge portion are extracted from the first image. For example, when four types of images having different sizes are extracted, these images are called a second image,..., A fifth image. The number of pixels of the second image,..., The fifth image is smaller than the number of pixels of the first image. Note that the second image,..., The fifth image may have different orientations as well as sizes. This process is performed for each edge portion.

第4段階では、事前に注意対象とは何かを学習させておいたニューラルネットワークに、1つのエッジ部分における第2画像、・・・、第5画像のそれぞれを入力することによってディープラーニングを実行し、当該エッジ部分の危険度を導出する。例えば、危険度は、人物が飛び出してくる危険性がある車両と車両の隙間のエッジ部分、車道方向を向いた人物のエッジ部分があるほど高くなるように学習されている。また、第2画像、・・・、第5画像では、画像におけるエッジ部分の占有率が異なるので、エッジ部分を含む全体的な状況と、エッジ部分近傍の局所的な状況とが示される。これらをディープラーニングに使用するので、判定精度が向上する。この処理も、エッジ部分毎になされる。これらの4段階の処理において、道路上に駐車した車両間からの人物の飛び出しを予測可能である。   In the fourth stage, deep learning is executed by inputting each of the second image,..., And the fifth image at one edge portion into a neural network that has previously learned what the attention object is. Then, the risk of the edge portion is derived. For example, the degree of danger is learned so as to increase as there is an edge portion of a gap between the vehicle and the vehicle at risk of popping out a person and an edge portion of the person facing the roadway direction. Further, in the second image,..., The fifth image, the occupancy ratio of the edge portion in the image is different, so that the overall situation including the edge portion and the local situation near the edge portion are shown. Since these are used for deep learning, the determination accuracy is improved. This process is also performed for each edge portion. In these four stages of processing, it is possible to predict the jumping out of a person between vehicles parked on the road.

以下、本発明の実施例について、図面を参照して詳細に説明する。なお、以下に説明する各実施例は一例であり、本発明はこれらの実施例により限定されるものではない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In addition, each Example described below is an example, and this invention is not limited by these Examples.

図1は、実施例に係る車両100の車室内を後方から見た構成を示す。車室内の前方には左右に延びるダッシュボード10が配置され、ダッシュボード10の上方にはフロントガラス12が配置される。また、フロントガラス12の上方から後方に向かって天井14が配置される。天井14のフロントガラス12側の部分から下方に向かってルームミラー16が設置される。さらに、フロントガラス12には、ルームミラー16の左側に運転支援装置20が設置される。運転支援装置20は、フロントガラス12において、ルームミラー16の右側に設置されてもよい。   FIG. 1 shows a configuration of the interior of a vehicle 100 according to the embodiment as viewed from the rear. A dashboard 10 extending left and right is disposed in front of the passenger compartment, and a windshield 12 is disposed above the dashboard 10. A ceiling 14 is arranged from the upper side of the windshield 12 to the rear side. A room mirror 16 is installed downward from a portion of the ceiling 14 on the windshield 12 side. Furthermore, a driving assistance device 20 is installed on the windshield 12 on the left side of the room mirror 16. The driving support device 20 may be installed on the right side of the rearview mirror 16 in the windshield 12.

図2は、運転支援装置20の構成を示す。運転支援装置20は、入力回路30、記憶装置32、CPU(Central Processing Unit)34、出力回路36を含む。また、運転支援装置20は前述のごとく車両100に設置される。   FIG. 2 shows a configuration of the driving support device 20. The driving support device 20 includes an input circuit 30, a storage device 32, a CPU (Central Processing Unit) 34, and an output circuit 36. The driving support device 20 is installed in the vehicle 100 as described above.

入力回路30は、例えば、カメラのような撮像装置を含む。入力回路30は、車両100の前方を撮像可能な位置に設けられ、動画像を撮像する。動画像は、逐次撮像された複数の第1画像によって構成される。各第1画像は第1画素数を備える。以下の説明では、1つの第1画像に対する処理を説明するが、他の第1画像に対しても同様の処理がなされればよい。入力回路30は、第1画像をCPU34に出力する。なお、入力回路30は、ユーザからの指示を受けつけるためのボタン、タッチパネル等のインターフェイスを含んでもよく、ユーザから受けつけた指示をCPU34に出力する。   The input circuit 30 includes an imaging device such as a camera, for example. The input circuit 30 is provided at a position where the front of the vehicle 100 can be imaged and captures a moving image. The moving image is composed of a plurality of first images that are sequentially captured. Each first image has a first number of pixels. In the following description, the processing for one first image will be described, but the same processing may be performed for the other first images. The input circuit 30 outputs the first image to the CPU 34. The input circuit 30 may include an interface such as a button or a touch panel for receiving an instruction from the user, and outputs the instruction received from the user to the CPU 34.

記憶装置32は、各種データを記憶する。また、運転支援装置20がドライブレコーダの機能を有する場合、記憶装置32は、入力回路30からの第1画像をCPU34経由で逐次受けつけて記憶することによって、動画像を記憶する。   The storage device 32 stores various data. When the driving support device 20 has a drive recorder function, the storage device 32 stores moving images by sequentially receiving and storing the first images from the input circuit 30 via the CPU 34.

CPU34は、各種のコンピュータプログラムを実行する。なお、CPU34は、各種のコンピュータプログラムを格納するためのメモリに接続されてもよい。ここでは、CPU34において実行されるコンピュータプログラムによる処理を前述の第1段階から第4段階の順に説明する。   The CPU 34 executes various computer programs. The CPU 34 may be connected to a memory for storing various computer programs. Here, the processing by the computer program executed in the CPU 34 will be described in the order from the first stage to the fourth stage.

(1)第1段階
第1段階では、入力回路30からの第1画像を受けつける。図3(a)−(c)は、運転支援装置20の処理概要を示す。図3(a)は、第1画像40を示す。一例として、道路56の両側には、第1建物58と第2建物60とが建てられており、第1建物58と第2建物60との間には空64が配置される。また、道路56における第1建物58側には他車両54が駐車されるとともに、他車両54の近傍には第1人物50と第2人物52が存在する。さらに、道路56には信号機62が設置されている。図3(b)−(c)は後述し、図2に戻る。
(1) First Stage In the first stage, a first image from the input circuit 30 is received. FIGS. 3A to 3C show an outline of processing of the driving support device 20. FIG. 3A shows the first image 40. As an example, the first building 58 and the second building 60 are built on both sides of the road 56, and the sky 64 is disposed between the first building 58 and the second building 60. Further, the other vehicle 54 is parked on the first building 58 side on the road 56, and the first person 50 and the second person 52 exist in the vicinity of the other vehicle 54. Further, a traffic light 62 is installed on the road 56. FIGS. 3B to 3C will be described later, and the description returns to FIG.

第1段階では、第1画像40に対して、セマンティック・セグメンテーションが実行される。セマンティック・セグメンテーションは画像セグメンテーションとも呼ばれる。これは、第1画像40に備えられる第1画素数の画素のそれぞれに対して、当該画素が示す意味をラベル付けする処理である。これは、各画素がどのクラスのオブジェクト、つまりどのカテゴリに属しているのかをラベル付けすることに相当する。   In the first stage, semantic segmentation is performed on the first image 40. Semantic segmentation is also called image segmentation. This is a process of labeling the meanings indicated by the pixels for each of the first number of pixels provided in the first image 40. This is equivalent to labeling which class of object each pixel belongs to, which category.

図3(b)は、図3(a)の第1画像40に対してセマンティック・セグメンテーションを実行した第1画像40を示す。図3(a)における他車両54、道路56、信号機62、空64は車両領域72、道路領域74、信号機領域78、空領域80とそれぞれラベル付けされる。また、図3(a)における第1人物50、第2人物52は人物領域70とラベル付けされ、図3(a)における第1建物58、第2建物60は建物領域76とラベル付けされる。図3(b)に示された第1画像40は、図3(a)に示された第1画像40に含まれる物体を認識し、物体をカテゴリ毎に分類し、分類したカテゴリ毎に色空間を変更することによって生成されたといえる。図3(c)は後述し、図2に戻る。   FIG. 3B shows a first image 40 obtained by performing semantic segmentation on the first image 40 in FIG. The other vehicle 54, the road 56, the traffic light 62, and the sky 64 in FIG. 3A are labeled as a vehicle area 72, a road area 74, a traffic light area 78, and an empty area 80, respectively. Also, the first person 50 and the second person 52 in FIG. 3A are labeled as a person area 70, and the first building 58 and the second building 60 in FIG. 3A are labeled as a building area 76. . The first image 40 shown in FIG. 3 (b) recognizes the object included in the first image 40 shown in FIG. 3 (a), classifies the object for each category, and sets the color for each classified category. It can be said that it was generated by changing the space. FIG. 3C will be described later, and the processing returns to FIG.

つまり、第1段階では、第1画像40において、少なくとも道路領域74と道路領域74以外の領域への区分がなされる。このようなセマンティック・セグメンテーション、つまり、道路領域74と道路領域74以外の領域との区分には、例えば、Fully Convolutional Neural Networkが使用される。   That is, in the first stage, the first image 40 is divided into at least a road area 74 and an area other than the road area 74. For such semantic segmentation, i.e., classification of the road area 74 and the area other than the road area 74, for example, Fully Convolutional Neural Network is used.

(2)第2段階
道路56上に物体が存在しない場合、ラベル付けした第1画像40(以下、これもまた「第1画像40」という)における道路領域74の境界は直線や滑らかな曲線で構成される。一方、危険を生み出すおそれのある第1人物50、第2人物52、他車両54、他車両54に隠れた人物が道路56上に存在する場合、これらのうちの少なくとも1つによって道路領域74の境界は歪んだ形状に変化する。道路領域74の境界における歪んだ形状は「エッジ部分」と呼ばれる。第2段階では、道路領域74に、道路領域74以外の領域から入り込んだエッジ部分を検出する。エッジ部分の検出は、道路領域74の境界を構成する線の所定区間において、線の形状が大きく変化している部分を特定することによってなされる。例えば、所定区間の線の微分値の変化がしきい値よりも大きくなっている部分にエッジ部分が検出される。
(2) Second Stage When there is no object on the road 56, the boundary of the road region 74 in the labeled first image 40 (hereinafter also referred to as “first image 40”) is a straight line or a smooth curve. Composed. On the other hand, when there is a person who is hidden in the first person 50, the second person 52, the other vehicle 54, and the other vehicle 54, which may cause danger, on the road 56, the road area 74 is caused by at least one of them. The boundary changes to a distorted shape. The distorted shape at the boundary of the road region 74 is called an “edge portion”. In the second stage, an edge portion that enters the road area 74 from an area other than the road area 74 is detected. The edge portion is detected by specifying a portion where the shape of the line is greatly changed in a predetermined section of the line constituting the boundary of the road region 74. For example, an edge portion is detected in a portion where the change in the differential value of a line in a predetermined section is larger than a threshold value.

図3(c)は、図3(b)の第1画像40に対してエッジ部分90を検出した結果を示す。エッジ部分90は複数検出される場合もあり、ここでは、5つのエッジ部分90が検出されている。このようにエッジ部分90を検出する場合、人物領域70あるいは車両領域72が道路領域74に接しているか否かの正確な位置情報が必要になる。物体検出では、画素がどの物体に属しているかが不明であるので、人物領域70あるいは車両領域72が道路領域74に接しているか否かを正確に判定できない。第2段階を実行するために、第1段階における第1画像40のラベル付けが必要になる。図2に戻る。   FIG. 3C shows the result of detecting the edge portion 90 for the first image 40 in FIG. A plurality of edge portions 90 may be detected, and here, five edge portions 90 are detected. Thus, when detecting the edge part 90, the exact positional information on whether the person area 70 or the vehicle area 72 is in contact with the road area 74 is needed. In object detection, since it is unclear to which object the pixel belongs, it cannot be accurately determined whether the person area 70 or the vehicle area 72 is in contact with the road area 74. In order to perform the second stage, it is necessary to label the first image 40 in the first stage. Returning to FIG.

(3)第3段階
第3段階では、検出されたエッジ部分90毎に、当該エッジ部分90を含んだ複数の画像が生成される。この処理を説明するために、ここでは、図4(a)−(b)を使用する。図4(a)−(b)は、運転支援装置20の別の処理概要を示す。図4(a)は、図3(c)と同様の第1画像40に相当する。図示のごとく、道路領域74の左側に車両領域72が配置されるとともに、車両領域72の近傍に人物領域70が配置される。ここでは、説明を明瞭にするために車両領域72の奥側に配置される人物領域70を第1人物領域70aと示し、車両領域72の手前側に配置される人物領域70を第2人物領域70bと示す。さらに、第1人物領域70aと道路領域74との境界において検出されたエッジ部分90が第1エッジ部分90aと示される。車両領域72と道路領域74との境界において検出されたエッジ部分90が第2エッジ部分90b、第3エッジ部分90cと示される。第2人物領域70bと道路領域74との境界において検出されたエッジ部分90が第4エッジ部分90dと示される。
(3) Third Stage In the third stage, for each detected edge portion 90, a plurality of images including the edge portion 90 are generated. In order to explain this process, FIGS. 4A to 4B are used here. FIGS. 4A and 4B show another processing outline of the driving support device 20. FIG. 4A corresponds to the first image 40 similar to FIG. As illustrated, a vehicle area 72 is disposed on the left side of the road area 74, and a person area 70 is disposed in the vicinity of the vehicle area 72. Here, for the sake of clarity, the person area 70 disposed on the far side of the vehicle area 72 is referred to as a first person area 70a, and the person area 70 disposed on the near side of the vehicle area 72 is referred to as a second person area. 70b. Furthermore, the edge part 90 detected at the boundary between the first person area 70a and the road area 74 is indicated as a first edge part 90a. Edge portions 90 detected at the boundary between the vehicle region 72 and the road region 74 are indicated as a second edge portion 90b and a third edge portion 90c. The edge part 90 detected at the boundary between the second person area 70b and the road area 74 is indicated as a fourth edge part 90d.

第3段階では、図4(b)のごとく、第1エッジ部分90aを含み、かつ第1画素数より少ない第2画素数を備える第2画像42を第1画像40から抽出する。また、第3段階では、第3画像44から第5画像48も第1画像40から抽出する。第3画像44は第3画素数を備え、第4画像46は第4画素数を備え、第5画像48は第5画素数を備える。これらは、第1エッジ部分90aを含む。また、第3画素数から第5画素数は第1画素数よりも小さいが、それらは互いに異なる。つまり、第3段階では、第1エッジ部分90aを含みながら異なる画素数の第2画像42から第5画像48を切り出す。   In the third stage, as shown in FIG. 4B, the second image 42 including the first edge portion 90 a and having the second number of pixels smaller than the first number of pixels is extracted from the first image 40. In the third stage, the third image 44 to the fifth image 48 are also extracted from the first image 40. The third image 44 has a third number of pixels, the fourth image 46 has a fourth number of pixels, and the fifth image 48 has a fifth number of pixels. These include a first edge portion 90a. Further, the third to fifth pixel numbers are smaller than the first pixel number, but they are different from each other. That is, in the third stage, the fifth image 48 is cut out from the second image 42 having a different number of pixels while including the first edge portion 90a.

第2画像42から第5画像48のうち、画素数の少ない画像では、当該画像における第1エッジ部分90aの占有率が大きくなるので、局所的な状況が示される。一方、第2画像42から第5画像48のうち、画素数の多い画像では、当該画像における第1エッジ部分90aの占有率が小さくなるので、全体的な状況が示される。ここでは、第1エッジ部分90aに対して、第2画像42から第5画像48の4種類の画像を抽出したが、4種類に限定されない。さらに、第3段階では、第2エッジ部分90bから第4エッジ部分90dに対しても同様の処理がなされる。つまり、第2画像42から第5画像48の抽出は、エッジ部分90毎になされる。図2に戻る。   Of the second image 42 to the fifth image 48, an image with a small number of pixels has a large occupation ratio of the first edge portion 90 a in the image, and thus a local situation is indicated. On the other hand, among the second image 42 to the fifth image 48, an image having a large number of pixels has a smaller occupation ratio of the first edge portion 90a in the image, and thus the overall situation is indicated. Here, four types of images of the fifth image 48 are extracted from the second image 42 with respect to the first edge portion 90a, but are not limited to four types. Further, in the third stage, the same processing is performed for the second edge portion 90b to the fourth edge portion 90d. That is, the extraction of the fifth image 48 from the second image 42 is performed for each edge portion 90. Returning to FIG.

(4)第4段階
第4段階を実行する前に、エッジ部分90が含まれたさまざまな状況の画像と、当該状況に対応付けられた危険度である教師付けデータとをもとに、学習処理がなされることによって学習結果が得られている。具体的には、画像をニューラルネットワークに入力することによって、教師付けデータが出力として得られるように、ニューラルネットワークの重みパラメータなどが学習結果として調整される。ここで、危険度は、衝突の蓋然性を示す指標であり、例えば、人物が飛び出してくる危険性がある車両と車両の隙間のエッジ部分90、車道方向を向いた人物のエッジ部分90があるほど、高くされる。
(4) Fourth stage Before executing the fourth stage, learning is performed based on images of various situations including the edge portion 90 and supervised data that is the degree of risk associated with the situation. A learning result is obtained by processing. Specifically, by inputting an image to a neural network, the weight parameters of the neural network are adjusted as learning results so that supervised data is obtained as an output. Here, the degree of danger is an index indicating the probability of a collision. For example, there is an edge portion 90 of a gap between a vehicle and a person at risk of popping a person, and an edge portion 90 of a person facing a roadway direction. , Raised.

これに続いて、第4段階では、第1エッジ部分90aに対する第2画像42から第5画像48のそれぞれと、学習結果とをもとに、ニューラルネットワークを利用して、第1エッジ部分90aに対する危険度を算出する。具体的には、第1エッジ部分90aに対する第2画像42から第5画像48のそれぞれを学習済みのニューラルネットワークに入力し、当該ニューラルネットワークから出力される危険度を取得する。ここでは、第1人物領域70aにおいて第1エッジ部分90aが検出され、足が道路領域74の方向を向いていることと、第1人物領域70aは車両領域72に隠れており見にくい位置にいるため危険性が大きいことが判定基準要素として使用される。このような要素毎に定義した配点で危険度の高さが算出され、例えば、「80」のように危険度が数値化される。   Subsequently, in the fourth stage, based on each of the second image 42 to the fifth image 48 with respect to the first edge portion 90a and the learning result, a neural network is used to apply to the first edge portion 90a. Calculate the risk. Specifically, each of the second image 42 to the fifth image 48 for the first edge portion 90a is input to a learned neural network, and the degree of risk output from the neural network is acquired. Here, the first edge portion 90a is detected in the first person area 70a, the foot is facing the road area 74, and the first person area 70a is hidden in the vehicle area 72 and is in a position that is difficult to see. High risk is used as a criterion element. The degree of risk is calculated based on the stipulation defined for each element, and the degree of risk is quantified, for example, “80”.

このような処理は、第2エッジ部分90bから第4エッジ部分90dのそれぞれに対してもなされる。第2エッジ部分90bに対して、車両領域72において奥側の第2エッジ部分90bが検出され、車両領域72の奥に存在する第1人物領域70aの歩行者の飛び出しが把握しにくく危険性が大きいことが判定基準要素として使用される。そのため、「60」のように危険度が数値化される。第3エッジ部分90cに対して、車両領域72において手前側の第3エッジ部分90cが検出され、車両領域72の手前に存在する第2人物領域70bの歩行者の飛び出しが把握しやすく危険性が小さいことが判定基準要素として使用される。そのため、「10」のように危険度が数値化される。   Such processing is performed for each of the second edge portion 90b to the fourth edge portion 90d. The second edge portion 90b on the back side is detected in the vehicle region 72 with respect to the second edge portion 90b, and it is difficult to grasp the pedestrian jumping out of the first person region 70a existing in the back of the vehicle region 72. Larger is used as a criterion element. Therefore, the degree of danger is quantified as “60”. With respect to the third edge portion 90c, the third edge portion 90c on the near side in the vehicle region 72 is detected, and it is easy to grasp the pedestrian jumping out of the second person region 70b existing in front of the vehicle region 72. Smallness is used as a criterion element. Therefore, the degree of danger is quantified as “10”.

第4エッジ部分90dに対して、第2人物領域70bにおいて第4エッジ部分90dが検出され、足が道路領域74の方向を向いていることと、第2人物領域70bは車両領域72に隠れておらず見やすい位置にいるため危険性が小さいことが判定基準要素として使用される。そのため、「50」のように危険度が数値化される。第4段階では、例えば、しきい値が「60」に設定される。各エッジ部分90に対する危険度としきい値とが比較され、しきい値以上の危険度が危険と判定される。前述の場合に、しきい値を「60」と設置した場合、「80」の「車に隠れた歩行者」と「60」の「歩行者が飛び出しやすい車両陰」が危険と判定される。第4段階において危険と判定された場合、判定結果が出力回路36に通知される。   With respect to the fourth edge portion 90d, the fourth edge portion 90d is detected in the second person area 70b, the foot is facing the road area 74, and the second person area 70b is hidden in the vehicle area 72. It is used as a criterion element because it is in a position that is easy to see and has low risk. Therefore, the degree of danger is quantified as “50”. In the fourth stage, for example, the threshold value is set to “60”. The risk level for each edge portion 90 is compared with a threshold value, and a risk level equal to or greater than the threshold value is determined as dangerous. In the case described above, when the threshold value is set to “60”, “80” “pedestrian hidden in the car” and “60” “vehicle shadow where a pedestrian easily jumps out” are determined as dangerous. When it is determined as dangerous in the fourth stage, the determination result is notified to the output circuit 36.

出力回路36は、例えば、音を放つスピーカを少なくとも含む。出力回路36は、CPU34からの通知を受けつけた場合、つまり算出された危険度がしきい値以上である場合、運転者に危険を知らせるための音声を出力する。音声は、危険を単に知らせるためのものであってもよく、危険の内容を具体的に知らせるためのものであってもよい。後者の場合、しきい値以上となった危険度の内容が音声として出力される。また、出力回路36は表示装置であってもよく、危険を知らせるための表示を実行する。   The output circuit 36 includes at least a speaker that emits sound, for example. When the notification from the CPU 34 is received, that is, when the calculated degree of danger is greater than or equal to a threshold value, the output circuit 36 outputs a sound for notifying the driver of the danger. The sound may be for simply informing the danger, or may be for specifically informing the contents of the danger. In the latter case, the content of the risk level that is equal to or greater than the threshold value is output as sound. Further, the output circuit 36 may be a display device, and executes display for notifying danger.

この構成は、ハードウエア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したが、これらの機能ブロックがハードウエアのみ、ハードウエアとソフトウエアの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。   This configuration can be realized in terms of hardware by a CPU, memory, or other LSI of any computer, and in terms of software, it can be realized by a program loaded in the memory, but here it is realized by their cooperation. Draw functional blocks. However, it will be understood by those skilled in the art that these functional blocks can be realized in various forms by hardware alone or by a combination of hardware and software.

以上の構成による運転支援装置20の動作を説明する。図5は、運転支援装置20による出力手順を示すフローチャートである。CPU34には第1画像40が入力される(S10)。CPU34はセマンティック・セグメンテーションを実行することによって、第1画像40にラベル付けを実行する(S12)。道路領域74に入り込んだエッジ部分90を検出しなければ(S14のN)、ステップ10に戻る。道路領域74に入り込んだエッジ部分90を検出すれば(S14のY)、CPU34は、第2画像42から第5画像48をエッジ部分90毎に抽出する(S16)。CPU34は、第2画像42から第5画像48のそれぞれをニューラルネットワークに入力することによって危険度を算出する(S18)。危険度がしきい値以上でなければ(S20のN)、ステップ10に戻る。危険度がしきい値以上であれば(S20のY)、出力回路36は危険であることを出力し(S22)、ステップ10に戻る。   The operation of the driving support apparatus 20 having the above configuration will be described. FIG. 5 is a flowchart showing an output procedure by the driving support device 20. The first image 40 is input to the CPU 34 (S10). The CPU 34 performs labeling on the first image 40 by executing semantic segmentation (S12). If the edge portion 90 entering the road area 74 is not detected (N in S14), the process returns to step 10. If the edge portion 90 that has entered the road area 74 is detected (Y in S14), the CPU 34 extracts the fifth image 48 from the second image 42 for each edge portion 90 (S16). The CPU 34 calculates the degree of risk by inputting each of the second image 42 to the fifth image 48 to the neural network (S18). If the degree of danger is not greater than or equal to the threshold value (N in S20), the process returns to step 10. If the degree of risk is greater than or equal to the threshold (Y in S20), the output circuit 36 outputs that it is dangerous (S22), and returns to Step 10.

次に、変形例を説明する。実施例において運転支援装置20に含まれたCPU34が第1段階から第4段階までの処理を実行している。しかしながら、運転支援装置20は、車両100の外部に設置されたサーバと無線通信することによって、第1段階から第4段階うちの少なくとも1つの処理がサーバにおいて実行されてもよい。図6は、変形例に係る運転支援システム200の構成を示す。運転支援システム200は、運転支援装置20、ネットワーク22、サーバ24を含む。運転支援装置20は、図2の構成に加えて、通信装置38を含む。   Next, a modified example will be described. In the embodiment, the CPU 34 included in the driving support device 20 executes processing from the first stage to the fourth stage. However, the driving support device 20 may perform at least one of the first to fourth steps in the server by wirelessly communicating with a server installed outside the vehicle 100. FIG. 6 shows a configuration of a driving support system 200 according to a modification. The driving support system 200 includes a driving support device 20, a network 22, and a server 24. The driving support device 20 includes a communication device 38 in addition to the configuration of FIG.

通信装置38は、CPU34に接続されるとともに、アンテナ部39を備え、アンテナ部39を介して無線通信機能を備える。無線通信の一例は、携帯電話通信であるが、これに限定されない。通信装置38は、運転支援装置20のアンテナ部39、基地局26のアンテナ部28、及びネットワーク22を介してサーバ24と通信することができる。   The communication device 38 is connected to the CPU 34, includes an antenna unit 39, and has a wireless communication function via the antenna unit 39. An example of wireless communication is cellular phone communication, but is not limited to this. The communication device 38 can communicate with the server 24 via the antenna unit 39 of the driving support device 20, the antenna unit 28 of the base station 26, and the network 22.

サーバ24は、第1段階から第4段階うちの少なくとも1つの処理を実行する。つまり、サーバ24は、CPU34においてなされる処理の一部を実行する。このようなサーバ24とCPU34とによる処理の分担を実現するために、サーバ24と通信装置38との間の通信が実行される。例えば、第1段階から第4段階のすべての処理をサーバ24が実行する場合、通信装置38はサーバ24に第1画像40を送信し、サーバ24は通信装置38に判定結果を送信する。   The server 24 executes at least one of the processes from the first stage to the fourth stage. That is, the server 24 executes a part of processing performed in the CPU 34. In order to realize the sharing of processing between the server 24 and the CPU 34, communication between the server 24 and the communication device 38 is executed. For example, when the server 24 executes all the processes from the first stage to the fourth stage, the communication device 38 transmits the first image 40 to the server 24, and the server 24 transmits the determination result to the communication device 38.

本実施例によれば、第1画像において区分した道路領域に、道路領域以外の領域から入り込んだエッジ部分を検出するので、道路領域に接している人物領域あるいは車両領域を特定できる。また、ニューラルネットワークを利用するので、道路領域と道路領域以外の領域への区分の精度を向上できる。また、検出したエッジ部分を含んだ第2画像であって、第1画像よりも小さいサイズの第2画像を第1画像から抽出するので、道路領域に接している人物領域あるいは車両領域の周辺に着目した第2画像を生成できる。また、道路領域に接している人物領域あるいは車両領域の周辺に着目した第2画像をもとに、衝突の蓋然性を示す危険度を算出するので、移動体が検出されない場合でも危険度を判定できる。また、道路領域に接している人物領域あるいは車両領域の周辺に着目した第2画像をニューラルネットワークに入力するので、危険度の算出精度を向上できる。   According to the present embodiment, since the edge portion entering from the area other than the road area is detected in the road area divided in the first image, the person area or vehicle area in contact with the road area can be specified. Moreover, since the neural network is used, the accuracy of the division into the road area and the area other than the road area can be improved. In addition, since the second image including the detected edge portion and having a smaller size than the first image is extracted from the first image, the person image or the vehicle region in contact with the road region is surrounded by the second image. A focused second image can be generated. Further, since the risk level indicating the probability of collision is calculated based on the second image focusing on the person area or the vehicle area in contact with the road area, it is possible to determine the risk level even when no moving object is detected. . In addition, since the second image focusing on the person area or the vehicle area in contact with the road area is input to the neural network, the calculation accuracy of the risk level can be improved.

また、検出したエッジ部分を含みながら、サイズの異なる第2画像から第5画像のそれぞれをニューラルネットワークに入力するので、エッジ部分付近の局所的な状況と全体的な状況とを考慮して危険度を算出できる。また、エッジ部分付近の局所的な状況と全体的な状況とを考慮して危険度が算出されるので、危険度の算出精度を向上できる。また、危険度の算出性が向上するので、危険の判定精度を向上できる。また、カメラを含むので、第1画像を取得できる。また、スピーカを含むので、危険を知らせることができる。   In addition, since the second image to the fifth image having different sizes are included in the neural network while including the detected edge portion, the degree of risk is considered in consideration of the local situation and the overall situation in the vicinity of the edge portion. Can be calculated. In addition, since the risk level is calculated in consideration of the local situation and the overall situation in the vicinity of the edge portion, it is possible to improve the calculation accuracy of the risk level. In addition, since the risk level can be calculated, the risk determination accuracy can be improved. Moreover, since a camera is included, a 1st image can be acquired. Moreover, since a speaker is included, danger can be notified.

本発明の一態様は、次の通りである。本発明のある態様の運転支援装置は、入力回路と、出力回路とを備え、車両に設置可能な運転支援装置であって、入力回路に入力される第1画素数を備える第1画像において、少なくとも道路領域と道路領域以外の領域に区分し、第1画像において、道路領域に、道路領域以外の領域から入り込んだエッジ部分を検出し、エッジ部分を含み、かつ第1画素数より少ない第2画素数を備える第2画像をもとに、危険度を算出し、算出された危険度が所定の値以上である場合、出力回路は、所定の信号を出力する。   One embodiment of the present invention is as follows. A driving support apparatus according to an aspect of the present invention is a driving support apparatus that includes an input circuit and an output circuit and can be installed in a vehicle. In the first image including the first number of pixels input to the input circuit, At least a road region and a region other than the road region are divided, and in the first image, an edge portion that enters the road region from the region other than the road region is detected, and includes a second portion that includes the edge portion and is smaller than the first pixel Based on the second image having the number of pixels, the degree of risk is calculated, and when the calculated degree of risk is equal to or greater than a predetermined value, the output circuit outputs a predetermined signal.

この態様によると、第1画像において区分した道路領域に、道路領域以外の領域から入り込んだエッジ部分を検出し、検出したエッジ部分を含んだ第2画像をもとに危険度を算出するので、移動体が検出されない場合でも危険度を判定できる。   According to this aspect, since the edge part entering from the area other than the road area is detected in the road area divided in the first image, the risk is calculated based on the second image including the detected edge part. The degree of danger can be determined even when a moving object is not detected.

運転支援装置であって、入力回路は、少なくともカメラを含んでもよい。この場合、カメラを含むので、第1画像を取得できる。   In the driving support device, the input circuit may include at least a camera. In this case, since the camera is included, the first image can be acquired.

運転支援装置であって、出力回路は、音を放つスピーカを少なくとも含んでもよい。この場合、スピーカを含むので、危険を知らせることができる。   In the driving support device, the output circuit may include at least a speaker that emits sound. In this case, since a speaker is included, danger can be notified.

運転支援装置であって、危険度は、衝突の蓋然性を示す指標であってもよい。この場合、衝突の蓋然性を示すので、移動体が検出されない場合でも危険が発生するおそれを知らせることができる。   In the driving support device, the degree of risk may be an index indicating the probability of collision. In this case, since the probability of a collision is shown, it is possible to notify the danger that a danger will occur even if a moving body is not detected.

運転支援装置であって、第1画像において道路領域と道路領域以外の領域に、ニューラルネットワークを利用して区分してもよい。この場合、ニューラルネットワークを利用するので、道路領域と道路領域以外の領域への区分の精度を向上できる。   In the driving support device, the first image may be divided into a road area and an area other than the road area using a neural network. In this case, since the neural network is used, the accuracy of the division into the road area and the area other than the road area can be improved.

運転支援装置であって、エッジ部分を含む第2画像をもとに、ニューラルネットワークを利用して危険度を算出してもよい。この場合、ニューラルネットワークを利用するので、危険度の算出精度を向上できる。   The driving support device may calculate the degree of risk using a neural network based on the second image including the edge portion. In this case, since the neural network is used, the calculation accuracy of the degree of risk can be improved.

運転支援装置であって、第2画像に加えて、さらに、エッジ部分を含み、かつ第1画素数より少なく、第2画素数と異なる第3画素数を備える第3画像を使用して、危険度を算出し、第2画像および第3画像をもとに算出した危険度が所定の値以上である場合、出力回路は、所定の信号を出力してもよい。この場合、第3画像を使用するので、判定精度を向上できる。   In addition to the second image, the driving support device further uses a third image that includes an edge portion and has a third pixel number that is less than the first pixel number and different from the second pixel number. When the degree of risk calculated based on the second image and the third image is greater than or equal to a predetermined value, the output circuit may output a predetermined signal. In this case, since the third image is used, the determination accuracy can be improved.

運転支援装置であって、エッジ部分を含む第2画像と学習結果とをもとに、ニューラルネットワークを利用するとともに、エッジ部分を含む第3画像と学習結果とをもとに、ニューラルネットワークを利用することによって、危険度を算出してもよい。この場合、第3画像にもニューラルネットワークを利用するので、危険度の算出精度を向上できる。   A driving support device that uses a neural network based on a second image including an edge portion and a learning result and uses a neural network based on a third image including an edge portion and a learning result By doing so, the degree of risk may be calculated. In this case, since the neural network is also used for the third image, the accuracy of calculating the degree of risk can be improved.

本発明の別の態様は、運転支援方法である。この方法は、入力回路と、出力回路とを備え、車両に設置可能な運転支援装置で利用可能な運転支援方法あって、入力回路に入力される第1画素数を備える第1画像において、少なくとも道路領域と道路領域以外の領域に区分し、第1画像において、道路領域に、道路領域以外の領域から入り込んだエッジ部分を検出し、エッジ部分を含み、かつ第1画素数より少ない第2画素数を備える第2画像をもとに、危険度を算出し、算出された危険度が所定の値以上である場合、出力回路は、所定の信号を出力する。   Another aspect of the present invention is a driving support method. This method is a driving support method that can be used in a driving support device that includes an input circuit and an output circuit, and that can be installed in a vehicle. In the first image that includes the first number of pixels that are input to the input circuit, A second pixel that is divided into a road region and a region other than the road region, detects an edge portion that has entered the road region from a region other than the road region in the first image, includes the edge portion, and is smaller than the first pixel number. The risk level is calculated based on the second image having a number, and when the calculated risk level is equal to or greater than a predetermined value, the output circuit outputs a predetermined signal.

この態様によると、第1画像において区分した道路領域に、道路領域以外の領域から入り込んだエッジ部分を検出し、検出したエッジ部分を含んだ第2画像をもとに危険度を算出するので、移動体が検出されない場合でも危険度を判定できる。   According to this aspect, since the edge part entering from the area other than the road area is detected in the road area divided in the first image, the risk is calculated based on the second image including the detected edge part. The degree of danger can be determined even when a moving object is not detected.

運転支援方法であって、入力回路は、少なくともカメラを含んでもよい。この場合、カメラを含むので、第1画像を取得できる。   In the driving support method, the input circuit may include at least a camera. In this case, since the camera is included, the first image can be acquired.

運転支援方法であって、出力回路は、音を放つスピーカを少なくとも含んでもよい。この場合、スピーカを含むので、危険を知らせることができる。   In the driving support method, the output circuit may include at least a speaker that emits sound. In this case, since a speaker is included, danger can be notified.

運転支援方法であって、危険度は、衝突の蓋然性を示す指標であってもよい。この場合、衝突の蓋然性を示すので、移動体が検出されない場合でも危険が発生するおそれを知らせることができる。   In the driving support method, the degree of risk may be an index indicating the probability of collision. In this case, since the probability of a collision is shown, it is possible to notify the danger that a danger will occur even if a moving body is not detected.

運転支援方法であって、第1画像において道路領域と道路領域以外の領域に、ニューラルネットワークを利用して区分してもよい。この場合、ニューラルネットワークを利用するので、道路領域と道路領域以外の領域への区分の精度を向上できる。   In the driving support method, the first image may be classified into a road area and an area other than the road area using a neural network. In this case, since the neural network is used, the accuracy of the division into the road area and the area other than the road area can be improved.

運転支援方法であって、エッジ部分を含む第2画像をもとに、ニューラルネットワークを利用して危険度を算出してもよい。この場合、ニューラルネットワークを利用するので、危険度の算出精度を向上できる。   In the driving support method, the degree of risk may be calculated using a neural network based on the second image including the edge portion. In this case, since the neural network is used, the calculation accuracy of the degree of risk can be improved.

運転支援方法であって、第2画像に加えて、さらに、エッジ部分を含み、かつ第1画素数より少なく、第2画素数と異なる第3画素数を備える第3画像を使用して、危険度を算出し、第2画像および第3画像をもとに算出した危険度が所定の値以上である場合、出力回路は、所定の信号を出力してもよい。この場合、第3画像を使用するので、判定精度を向上できる。   In addition to the second image, the driving support method further uses a third image including an edge portion and having a third pixel number that is smaller than the first pixel number and different from the second pixel number. When the degree of risk calculated based on the second image and the third image is greater than or equal to a predetermined value, the output circuit may output a predetermined signal. In this case, since the third image is used, the determination accuracy can be improved.

運転支援方法であって、エッジ部分を含む第2画像と学習結果とをもとに、ニューラルネットワークを利用するとともに、エッジ部分を含む第3画像と学習結果とをもとに、ニューラルネットワークを利用することによって、危険度を算出してもよい。この場合、第3画像にもニューラルネットワークを利用するので、危険度の算出精度を向上できる。   A driving support method using a neural network based on a second image including an edge portion and a learning result, and using a neural network based on a third image including an edge portion and a learning result By doing so, the degree of risk may be calculated. In this case, since the neural network is also used for the third image, the accuracy of calculating the degree of risk can be improved.

以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素あるいは各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   In the above, this invention was demonstrated based on the Example. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to each of those constituent elements or combinations of processing processes, and such modifications are also within the scope of the present invention. .

10 ダッシュボード、 12 フロントガラス、 14 天井、 16 ルームミラー、 20 運転支援装置、 22 ネットワーク、 24 サーバ、 30 入力回路、 32 記憶装置、 34 CPU、 36 出力回路、 100 車両。   10 dashboard, 12 windshield, 14 ceiling, 16 room mirror, 20 driving support device, 22 network, 24 server, 30 input circuit, 32 storage device, 34 CPU, 36 output circuit, 100 vehicle.

Claims (16)

入力回路と、出力回路とを備え、車両に設置可能な運転支援装置であって、
前記入力回路に入力される第1画素数を備える第1画像において、少なくとも道路領域と前記道路領域以外の領域に区分し、
前記第1画像において、前記道路領域に、前記道路領域以外の前記領域から入り込んだエッジ部分を検出し、
前記エッジ部分を含み、かつ前記第1画素数より少ない第2画素数を備える第2画像をもとに、危険度を算出し、
前記算出された危険度が所定の値以上である場合、前記出力回路は、所定の信号を出力する、
運転支援装置。
A driving support device that includes an input circuit and an output circuit and can be installed in a vehicle,
In the first image having the first number of pixels input to the input circuit, at least a road area and an area other than the road area are classified,
In the first image, an edge portion that has entered the road area from the area other than the road area is detected,
Based on a second image including the edge portion and having a second number of pixels smaller than the first number of pixels, a risk level is calculated,
When the calculated risk is a predetermined value or more, the output circuit outputs a predetermined signal.
Driving assistance device.
請求項1に記載の運転支援装置であって、
前記入力回路は、少なくともカメラを含む、
運転支援装置。
The driving support device according to claim 1,
The input circuit includes at least a camera.
Driving assistance device.
請求項1または2に記載の運転支援装置であって、
前記出力回路は、音を放つスピーカを少なくとも含む、
運転支援装置。
The driving support device according to claim 1 or 2,
The output circuit includes at least a speaker that emits sound,
Driving assistance device.
請求項1から3のいずれか1項に記載の運転支援装置であって、
前記危険度は、衝突の蓋然性を示す指標である、
運転支援装置。
The driving support device according to any one of claims 1 to 3,
The degree of risk is an index indicating the probability of collision,
Driving assistance device.
請求項1から4のいずれか1項に記載の運転支援装置であって、
前記第1画像において前記道路領域と前記道路領域以外の前記領域に、ニューラルネットワークを利用して区分する、
運転支援装置。
The driving support device according to any one of claims 1 to 4,
In the first image, the road area and the area other than the road area are classified using a neural network.
Driving assistance device.
請求項1から5のいずれか1項に記載の運転支援装置であって、
前記エッジ部分を含む前記第2画像をもとに、ニューラルネットワークを利用して前記危険度を算出する、
運転支援装置。
The driving support device according to any one of claims 1 to 5,
Based on the second image including the edge portion, the risk is calculated using a neural network.
Driving assistance device.
請求項6に記載の運転支援装置であって、
前記第2画像に加えて、さらに、前記エッジ部分を含み、かつ前記第1画素数より少なく、前記第2画素数と異なる第3画素数を備える第3画像を使用して、危険度を算出し、
前記第2画像および前記第3画像をもとに算出した危険度が所定の値以上である場合、前記出力回路は、前記所定の信号を出力する、
運転支援装置。
The driving support device according to claim 6,
In addition to the second image, the degree of risk is calculated using a third image that includes the edge portion and has a third pixel number that is smaller than the first pixel number and different from the second pixel number. And
When the degree of risk calculated based on the second image and the third image is a predetermined value or more, the output circuit outputs the predetermined signal.
Driving assistance device.
請求項7に記載の運転支援装置であって、
前記エッジ部分を含む前記第2画像と学習結果とをもとに、ニューラルネットワークを利用するとともに、前記エッジ部分を含む前記第3画像と前記学習結果とをもとに、ニューラルネットワークを利用することによって、危険度を算出する、
運転支援装置。
The driving support device according to claim 7,
Using a neural network based on the second image including the edge portion and the learning result, and using a neural network based on the third image including the edge portion and the learning result. By calculating the risk,
Driving assistance device.
入力回路と、出力回路とを備え、車両に設置可能な運転支援装置で利用可能な運転支援方法あって、
前記入力回路に入力される第1画素数を備える第1画像において、少なくとも道路領域と前記道路領域以外の領域に区分し、
前記第1画像において、前記道路領域に、前記道路領域以外の前記領域から入り込んだエッジ部分を検出し、
前記エッジ部分を含み、かつ前記第1画素数より少ない第2画素数を備える第2画像をもとに、危険度を算出し、
前記算出された危険度が所定の値以上である場合、前記出力回路は、所定の信号を出力する、
運転支援方法。
There is a driving support method that can be used in a driving support device that includes an input circuit and an output circuit and can be installed in a vehicle.
In the first image having the first number of pixels input to the input circuit, at least a road area and an area other than the road area are classified,
In the first image, an edge portion that has entered the road area from the area other than the road area is detected,
Based on a second image including the edge portion and having a second number of pixels smaller than the first number of pixels, a risk level is calculated,
When the calculated risk is a predetermined value or more, the output circuit outputs a predetermined signal.
Driving support method.
請求項9に記載の運転支援方法であって、
前記入力回路は、少なくともカメラを含む、
運転支援方法。
The driving support method according to claim 9,
The input circuit includes at least a camera.
Driving support method.
請求項9または10に記載の運転支援方法であって、
前記出力回路は、音を放つスピーカを少なくとも含む、
運転支援方法。
The driving support method according to claim 9 or 10,
The output circuit includes at least a speaker that emits sound,
Driving support method.
請求項9から11のいずれか1項に記載の運転支援方法であって、
前記危険度は、衝突の蓋然性を示す指標である、
運転支援方法。
The driving support method according to any one of claims 9 to 11,
The degree of risk is an index indicating the probability of collision,
Driving support method.
請求項9から12のいずれか1項に記載の運転支援方法であって、
前記第1画像において前記道路領域と前記道路領域以外の前記領域に、ニューラルネットワークを利用して区分する、
運転支援方法。
The driving support method according to any one of claims 9 to 12,
In the first image, the road area and the area other than the road area are classified using a neural network.
Driving support method.
請求項9から13のいずれか1項に記載の運転支援方法であって、
前記エッジ部分を含む前記第2画像をもとに、ニューラルネットワークを利用して前記危険度を算出する、
運転支援方法。
The driving support method according to any one of claims 9 to 13,
Based on the second image including the edge portion, the risk is calculated using a neural network.
Driving support method.
請求項14に記載の運転支援方法であって、
前記第2画像に加えて、さらに、前記エッジ部分を含み、かつ前記第1画素数より少なく、前記第2画素数と異なる第3画素数を備える第3画像を使用して、危険度を算出し、
前記第2画像および前記第3画像をもとに算出した危険度が所定の値以上である場合、前記出力回路は、前記所定の信号を出力する、
運転支援方法。
The driving support method according to claim 14,
In addition to the second image, the degree of risk is calculated using a third image that includes the edge portion and has a third pixel number that is smaller than the first pixel number and different from the second pixel number. And
When the degree of risk calculated based on the second image and the third image is a predetermined value or more, the output circuit outputs the predetermined signal.
Driving support method.
請求項15に記載の運転支援方法であって、
前記エッジ部分を含む前記第2画像と学習結果とをもとに、ニューラルネットワークを利用するとともに、前記エッジ部分を含む前記第3画像と前記学習結果とをもとに、ニューラルネットワークを利用することによって、危険度を算出する、
運転支援方法。
The driving support method according to claim 15, comprising:
Using a neural network based on the second image including the edge portion and the learning result, and using a neural network based on the third image including the edge portion and the learning result. By calculating the risk,
Driving support method.
JP2017116224A 2017-06-13 2017-06-13 Driving support device and driving support method Pending JP2019003343A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017116224A JP2019003343A (en) 2017-06-13 2017-06-13 Driving support device and driving support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017116224A JP2019003343A (en) 2017-06-13 2017-06-13 Driving support device and driving support method

Publications (1)

Publication Number Publication Date
JP2019003343A true JP2019003343A (en) 2019-01-10

Family

ID=65005879

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017116224A Pending JP2019003343A (en) 2017-06-13 2017-06-13 Driving support device and driving support method

Country Status (1)

Country Link
JP (1) JP2019003343A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020202741A1 (en) * 2019-03-29 2020-10-08 ソニー株式会社 Information processing device, information processing method, computer program, and moving body device
JP2021103484A (en) * 2019-12-25 2021-07-15 株式会社デンソー Control system for vehicles and vehicle control device
JP7446605B2 (en) 2020-03-31 2024-03-11 株式会社ユピテル Systems, programs, trained models, learning model generation methods, generation devices, etc.

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020202741A1 (en) * 2019-03-29 2020-10-08 ソニー株式会社 Information processing device, information processing method, computer program, and moving body device
JP2021103484A (en) * 2019-12-25 2021-07-15 株式会社デンソー Control system for vehicles and vehicle control device
JP7446605B2 (en) 2020-03-31 2024-03-11 株式会社ユピテル Systems, programs, trained models, learning model generation methods, generation devices, etc.

Similar Documents

Publication Publication Date Title
CN107220581B (en) Pedestrian detection and motion prediction by a rear camera
US11606516B2 (en) Image processing device, image processing method, and image processing system
CN108388834B (en) Object detection using recurrent neural networks and cascade feature mapping
US11527077B2 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
US10152649B2 (en) Detecting visual information corresponding to an animal
CN109389863B (en) Prompting method and related equipment
US10223910B2 (en) Method and apparatus for collecting traffic information from big data of outside image of vehicle
JP5690688B2 (en) Outside world recognition method, apparatus, and vehicle system
US10121082B2 (en) System and method for providing laser camera fusion for identifying and tracking a traffic participant
US20180150704A1 (en) Method of detecting pedestrian and vehicle based on convolutional neural network by using stereo camera
US20080166024A1 (en) Image processing apparatus, method and program thereof
US20200364892A1 (en) Advanced driver assist systems and methods of detecting objects in the same
JP2008172441A (en) Detection device, method, and program
JP2014115978A (en) Mobile object recognition device, notification apparatus using the device, mobile object recognition program for use in the mobile object recognition device, and mobile object with the mobile object recognition device
US20140002657A1 (en) Forward collision warning system and forward collision warning method
JP2019179372A (en) Learning data creation method, learning method, risk prediction method, learning data creation device, learning device, risk prediction device, and program
JP2019003343A (en) Driving support device and driving support method
US11443622B2 (en) Systems and methods for mitigating a risk of being followed by a vehicle
JPWO2017115732A1 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method, and image processing program
CN113454692B (en) Driving information providing method, vehicle map providing server and method
CN114067292A (en) Image processing method and device for intelligent driving
JP2008171141A (en) Image processor, method, and program
JP7269694B2 (en) LEARNING DATA GENERATION METHOD/PROGRAM, LEARNING MODEL AND EVENT OCCURRENCE ESTIMATING DEVICE FOR EVENT OCCURRENCE ESTIMATION
CN114677848B (en) Perception early warning system, method, device and computer program product
US20230215184A1 (en) Systems and methods for mitigating mis-detections of tracked objects in the surrounding environment of a vehicle

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180417