JP2019211822A - Travel area determination apparatus, travel area determination method and method for generating road surface image machine learning model - Google Patents

Travel area determination apparatus, travel area determination method and method for generating road surface image machine learning model Download PDF

Info

Publication number
JP2019211822A
JP2019211822A JP2018104596A JP2018104596A JP2019211822A JP 2019211822 A JP2019211822 A JP 2019211822A JP 2018104596 A JP2018104596 A JP 2018104596A JP 2018104596 A JP2018104596 A JP 2018104596A JP 2019211822 A JP2019211822 A JP 2019211822A
Authority
JP
Japan
Prior art keywords
travel
region
road surface
image
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018104596A
Other languages
Japanese (ja)
Other versions
JP7203514B2 (en
Inventor
ともえ 大築
Tomoe Otsuki
ともえ 大築
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2018104596A priority Critical patent/JP7203514B2/en
Publication of JP2019211822A publication Critical patent/JP2019211822A/en
Application granted granted Critical
Publication of JP7203514B2 publication Critical patent/JP7203514B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide a travel area determination apparatus and a travel area determination method capable of accurately determining a travel improper area or a travel proper area in a road where a vehicle travels.SOLUTION: A travel area determination apparatus according to the embodiment includes an acquisition unit and a determination unit. The acquisition unit acquires an image of a periphery of a vehicle captured by an imaging apparatus. The determination unit determines a specified area in the image acquired by the acquisition unit by a machine learning model that has machine-learned from a plurality of known images that an object is a road surface.SELECTED DRAWING: Figure 1

Description

開示の実施形態は、走行領域判定装置、走行領域判定方法、および路面画像機械学習モデルの生成方法に関する。   The embodiment of the disclosure relates to a travel area determination device, a travel area determination method, and a road surface image machine learning model generation method.

従来、車両の周辺が撮像された画像と、障害物の形状を予め想定して作成されたパターンマッチング用データとを比較することで、車両と衝突する可能性がある障害物を検知する障害物検知装置がある(例えば、特許文献1参照)。この障害物の検知結果は、障害物(走行不適領域)の報知や、逆に走行に支障がない走行好適領域の報知、また自動運転制御のための情報として用いられる。   An obstacle that detects an obstacle that may collide with a vehicle by comparing an image obtained by imaging the periphery of the vehicle with pattern matching data that has been created assuming the shape of the obstacle in advance. There exists a detection apparatus (for example, refer patent document 1). This obstacle detection result is used as information for an obstacle (unsuitable travel area), a travel suitable area that does not interfere with travel, and information for automatic driving control.

特開2009−140023号公報JP 2009-140023 A

しかしながら、障害物の形状を予め想定して作成されたパターンマッチング用データを使用して障害物を検知する装置は、想定外の障害物を検知することができないため、路面上において障害物が存在する可能性がある領域を正確に判定できないことがある。   However, since the device that detects the obstacle using the pattern matching data created by assuming the shape of the obstacle in advance cannot detect the unexpected obstacle, there is an obstacle on the road surface. In some cases, it is not possible to accurately determine a region that is likely to be used.

実施形態の一態様は、上記に鑑みてなされたものであって、車両が走行する道路において走行不適領域あるいは走行好適領域を精度よく判定する装置および方法、例えば、車両が走行する路面において障害物が存在する可能性がある領域を正確に判定することができる走行領域判定装置および走行領域判定方法を提供することを目的とする。   An embodiment of the present invention has been made in view of the above, and an apparatus and method for accurately determining a travel inappropriate region or a travel preferable region on a road on which the vehicle travels, for example, an obstacle on a road surface on which the vehicle travels It is an object of the present invention to provide a travel region determination device and a travel region determination method that can accurately determine a region where there is a possibility that the vehicle is present.

実施形態の一態様に係る走行領域判定装置は、取得部と、判定部とを備える。取得部は、撮像装置から車両の周囲が撮像された画像を取得する。判定部は、被写体が路面であることが既知の複数の画像を機械学習した機械学習モデルにより、前記取得部によって取得された画像における特定領域を判定する。   A travel region determination device according to an aspect of an embodiment includes an acquisition unit and a determination unit. The acquisition unit acquires an image obtained by imaging the periphery of the vehicle from the imaging device. The determination unit determines a specific region in the image acquired by the acquisition unit based on a machine learning model obtained by machine learning of a plurality of images whose subjects are known to be road surfaces.

実施形態の一態様に係る走行領域判定装置および走行領域判定方法は、車両が走行する道路において走行不適領域あるいは走行好適領域を精度よく判定することができる。   The travel region determination device and the travel region determination method according to one aspect of the embodiment can accurately determine a travel inappropriate region or a travel preferable region on a road on which a vehicle travels.

図1は、実施形態に係る走行領域判定方法の概要を示す説明図である。FIG. 1 is an explanatory diagram illustrating an outline of a travel region determination method according to the embodiment. 図2は、実施形態に係る走行領域判定装置の構成の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of a configuration of the travel region determination device according to the embodiment. 図3は、実施形態に係る路面画像集の一例を示す説明図である。FIG. 3 is an explanatory diagram illustrating an example of a road surface image collection according to the embodiment. 図4は、実施形態に係る走行領域判定装置の動作の一例を示す説明図である。FIG. 4 is an explanatory diagram illustrating an example of the operation of the travel region determination device according to the embodiment. 図5は、実施形態に係る走行領域判定装置の制御部が実行する処理の一例を示すフローチャートである。FIG. 5 is a flowchart illustrating an example of processing executed by the control unit of the travel region determination device according to the embodiment. 図6は、実施形態の変形例に係る走行領域判定装置の構成の一例を示すブロック図である。FIG. 6 is a block diagram illustrating an example of a configuration of a travel region determination device according to a modification of the embodiment.

以下、添付図面を参照して、走行領域判定装置、走行領域判定方法、および路面画像機械学習モデルの生成方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。図1は、実施形態に係る走行領域判定方法の概要を示す説明図である。   Hereinafter, embodiments of a travel region determination device, a travel region determination method, and a road surface image machine learning model generation method will be described in detail with reference to the accompanying drawings. In addition, this invention is not limited by embodiment shown below. FIG. 1 is an explanatory diagram illustrating an outline of a travel region determination method according to the embodiment.

実施形態に係る走行領域判定装置は、車両に搭載される撮像装置によって撮像される車両周辺の画像を解析することによって、画像における特定領域を判定する。そして、走行領域判定装置は、特定領域が車両の走行に好適な走行好適領域か否かを判定する。   The travel region determination device according to the embodiment determines a specific region in an image by analyzing an image around the vehicle imaged by an imaging device mounted on the vehicle. The travel area determination device determines whether or not the specific area is a travel suitable area suitable for traveling of the vehicle.

走行領域判定装置は、予め被写体が路面であることが既知の複数枚の画像を機械学習した路面画像機械学習モデルを記憶している。路面画像機械学習モデルは、画像が入力された場合に、その画像の中で事前に機械学習した路面の特徴と類似する特徴がある領域を路面と判定する判定結果を出力するプログラムである。   The travel region determination device stores a road surface image machine learning model obtained by machine learning a plurality of images whose objects are known to be road surfaces in advance. The road surface image machine learning model is a program that outputs a determination result for determining a region having a feature similar to a road surface feature previously machine-learned in the image as a road surface when an image is input.

走行領域判定装置は、例えば、図1(a)に示すように、車両の進路上に箱状の落下物101がある画像100が撮像装置から入力される場合、かかる画像を路面画像機械学習モデルに入力する。   For example, as illustrated in FIG. 1A, the travel region determination device, when an image 100 having a box-like falling object 101 on the course of a vehicle is input from the imaging device, the image is used as a road surface image machine learning model. To enter.

路面画像機械学習モデルは、図1(b)に示すように、画像100における車両の走行車線(同方向車線含)の中で事前に機械学習した路面の特徴と類似する特徴がある領域A1を路面(車両の走行に好適な走行好適領域の一例)と判定する。   As shown in FIG. 1B, the road surface image machine learning model includes an area A1 having characteristics similar to the road surface characteristics machine-learned in advance in the driving lane (including the same direction lane) of the vehicle in the image 100. It is determined as a road surface (an example of a travel suitable region suitable for vehicle travel).

このとき、路面画像機械学習モデルは、落下物101が存在する領域については、そこに存在する物体が何なのかを判定することはできないが、事前に機械学習した路面の特徴とは異なるため、少なくとも路面ではないと判定することができる。   At this time, although the road surface image machine learning model cannot determine what the object exists in the area where the falling object 101 exists, it is different from the road surface characteristics machine-learned in advance, It can be determined that the road surface is not at least.

そこで、走行領域判定装置は、図1(c)に示すように、車両の走行車線の中で路面画像機械学習モデルによって路面と判定された領域A1以外の領域A2を障害物が存在する可能性がある領域(車両の走行に不適な走行不適領域の一例)と判定する。   Therefore, as illustrated in FIG. 1C, the traveling region determination device may have an obstacle in a region A2 other than the region A1 determined as a road surface by the road surface image machine learning model in the traveling lane of the vehicle. Is determined to be a certain region (an example of a travel inappropriate region that is inappropriate for vehicle travel).

なお、図1(a)、(b)、(c)に示す領域Aは、道路領域(自車走行道路(対向車線は除く))画像機械学習モデルにより、判定した画像100における車両の走行車線(同方向車線含)を除く道路外領域であり、この領域は走行不可領域となる。   1A, 1B, and 1C is a road lane of the vehicle in the image 100 determined by the road area (the own vehicle traveling road (excluding the oncoming lane)) image machine learning model. It is an area outside the road excluding (including the same lane), and this area is a non-travelable area.

また、この領域は路面画像機械学習モデルによる判定の対象外領域となる。また、走行領域判定装置は、画像100における地平線よりも上の領域についても路面画像機械学習モデルによる判定の対象外領域とする。   In addition, this region is a region that is not subject to determination by the road surface image machine learning model. In addition, the traveling region determination apparatus also sets a region above the horizon in the image 100 as a region that is not determined by the road surface image machine learning model.

また、路面画像機械学習モデルを、走行可能な道路領域を示す画像データ(対向車線領域を路面と見なさない画像データ等)で学習生成することにより、上述の道路領域にかかる処理に変えることができる。   In addition, the road surface image machine learning model can be changed to the process related to the road region described above by learning and generating image data indicating a road region where the vehicle can travel (image data that does not consider the opposite lane region as a road surface). .

この場合、乗り越えられない(中央)分離帯が無い側の道路は路面と見なす画像データでの学習処理により路面画像機械学習モデルを生成する方法も考えられが、この場合、その結果を用いた車両制御等を行う際に、対向車をその速度を含めて障害物判定する等の処理が別途必要となる。   In this case, a road surface machine machine learning model may be generated by learning processing with image data in which the road with no separation zone (center) that cannot be overcome is regarded as a road surface. In this case, the vehicle using the result is used. When performing control or the like, it is necessary to separately perform processing such as determining obstacles including the speed of oncoming vehicles.

これにより、走行領域判定装置は、路面上にあるはずがないような障害物が存在する場合に、パターンマッチング用データを使用して障害物を検知する装置よりも、障害物が存在する可能性がある領域A2を正確に判定することができる。   As a result, when there is an obstacle that should not be on the road surface, the travel area determination device may have an obstacle rather than a device that detects the obstacle using pattern matching data. It is possible to accurately determine a certain area A2.

具体的には、パターンマッチング用データを使用して障害物を検知する装置は、障害物が車両や歩行者等のように、路面上に存在することが想定される障害物であれば、障害物がある領域を判定することはできる。   Specifically, if the obstacle detection device using the pattern matching data is an obstacle that is assumed to exist on the road surface, such as a vehicle or a pedestrian, An area where an object is present can be determined.

しかしながら、路面上には、時として路上にあるはずがないような物が存在する場合がある。例えば、路上には、家財道具や建築資材等、通常であれば路上にあるはずのないような物が何等かの原因で落下している場合がある。   However, there may be an object on the road surface that sometimes cannot be on the road. For example, on the road, there may be a case where an object that should not normally be on the road, such as a household tool or a building material, has fallen for some reason.

かかる落下物は、車両や歩行者等とは異なり、形状が多種多様である。このため、パターンマッチング用データを使用して障害物を検知する装置では、かかる落下物を障害物として検知することが困難である。   Such fallen objects have a variety of shapes, unlike vehicles and pedestrians. For this reason, it is difficult for an apparatus that detects an obstacle using pattern matching data to detect such a falling object as an obstacle.

なお、家財道具や建築資材等の全ての物品について、パターンマッチング用データを用意しておけば、落下物を障害物として検知することは可能であるが、かかる手法は、膨大な量のパターンマッチング用データを用意する必要があるので現実的ではない。   In addition, it is possible to detect falling objects as obstacles by preparing pattern matching data for all articles such as household goods and building materials, but this method is a huge amount of pattern matching. It is not realistic because it is necessary to prepare data.

これに対して、実施形態に係る走行領域判定方法では、障害物を特定するのではなく、車両の走行車線の中で路面画像機械学習モデルによって路面と判定された領域A1以外の領域A2を障害物が存在する可能性がある領域と判定する。   On the other hand, in the traveling region determination method according to the embodiment, the obstacle A2 is not specified in the traveling lane of the vehicle, but the region A2 other than the region A1 determined as the road surface by the road surface image machine learning model is obstructed. It is determined that there is a possibility that an object exists.

このため、実施形態に係る走行領域判定方法によれば、障害物の種類や形状を問わず、通常であれば路上にあるはずのないような物体が路面上に落下していても、その物体が存在する可能性がある領域を正確に判定することができる。   Therefore, according to the traveling region determination method according to the embodiment, even if an object that should not normally be on the road is falling on the road regardless of the type or shape of the obstacle, the object It is possible to accurately determine a region where there is a possibility of the presence of.

なお、以上の説明では、路面判定されなかった領域を障害物として判断したが、路面判定情報を用いて(障害物判定は行わない)走行路(走行好適領域)を案内表示したり、自動走行制御に用いる等することも可能である。   In the above description, the area where the road surface has not been determined is determined as an obstacle. However, the road surface determination information is used (no obstacle determination is performed), and a travel path (traveling preferable area) is displayed and guided automatically. It can also be used for control.

次に、図2を参照し、実施形態に係る走行領域判定装置1の構成の一例について説明する。図2は、実施形態に係る走行領域判定装置1の構成の一例を示すブロック図である。図2に示すように、走行領域判定装置1は、撮像装置41、警告装置42、画像表示装置43、および車両制御装置44と接続される。   Next, an example of the configuration of the travel region determination device 1 according to the embodiment will be described with reference to FIG. FIG. 2 is a block diagram illustrating an example of a configuration of the travel region determination device 1 according to the embodiment. As shown in FIG. 2, the travel region determination device 1 is connected to an imaging device 41, a warning device 42, an image display device 43, and a vehicle control device 44.

なお、路面画像集110は、障害物が写っていない様々な路面だけが写った複数枚の画像を含む画像集である。路面画像集110に含まれる各画像は、それぞれ被写体が路面であることを示す情報が付与されている。かかる路面画像集110は、路面画像の教師あり機械学習の教材として走行領域判定装置1によって使用される。路面画像集110の一例については、図3を参照して後述する。   The road surface image collection 110 is an image collection including a plurality of images in which only various road surfaces in which no obstacle is captured are captured. Each image included in the road image collection 110 is provided with information indicating that the subject is a road surface. The road surface image collection 110 is used by the traveling area determination apparatus 1 as a teaching material for supervised machine learning of road surface images. An example of the road surface image collection 110 will be described later with reference to FIG.

撮像装置41は、例えば、走行領域判定装置1が搭載される車両の前部に設置されて車両の前方を撮像する車載カメラである。なお、撮像装置41は、車両の側部や後部に設けられ、車両の周囲を撮像する車載カメラであってもよい。撮像装置41は、撮像した画像を走行領域判定装置1へ出力する。   The imaging device 41 is, for example, an in-vehicle camera that is installed in the front part of a vehicle on which the travel region determination device 1 is mounted and images the front of the vehicle. Note that the imaging device 41 may be an in-vehicle camera that is provided on a side portion or a rear portion of the vehicle and images the surroundings of the vehicle. The imaging device 41 outputs the captured image to the travel area determination device 1.

警告装置42は、走行領域判定装置1によって障害物が存在する可能性がある領域が判定された場合に、その旨を車両のユーザへ警告する装置であり、例えば、警告音を出音するスピーカや障害物の存在を報知するインジケータランプである。画像表示装置43は、例えば、撮像装置41によって撮像された画像等を表示する液晶ディスプレイである。   The warning device 42 is a device that warns the user of the vehicle when the travel region determination device 1 determines a region where an obstacle may exist, for example, a speaker that emits a warning sound. Or an indicator lamp for notifying the presence of an obstacle. The image display device 43 is, for example, a liquid crystal display that displays an image taken by the imaging device 41.

車両制御装置44は、例えば、車両全体を統括制御するECU(Electronic Control Unit)である。車両制御装置44は、例えば、走行領域判定装置1によって障害物が存在する可能性がある領域が判定された場合に、車両の速度制御、操舵制御、および制動制御を行うことによって車両に障害物を回避させる。   The vehicle control device 44 is, for example, an ECU (Electronic Control Unit) that performs overall control of the entire vehicle. For example, when the travel region determination device 1 determines a region where an obstacle may exist, the vehicle control device 44 performs an obstacle control on the vehicle by performing vehicle speed control, steering control, and braking control. To avoid.

走行領域判定装置1は、制御部2と記憶部3とを備える。記憶部3は、例えば、データフラッシュ等の情報記憶デバイスであり、路面画像機械学習モデル31を記憶する。制御部2は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などを有するマイクロコンピュータや各種の回路を含む。   The travel area determination device 1 includes a control unit 2 and a storage unit 3. The storage unit 3 is an information storage device such as a data flash, for example, and stores a road surface image machine learning model 31. The control unit 2 includes a microcomputer having a central processing unit (CPU), a read only memory (ROM), a random access memory (RAM), and various circuits.

制御部2は、CPUがROMに記憶されたプログラムを、RAMを作業領域として使用して実行することにより機能する学習部21、取得部22、分割部23、路面判定部24、合成部25、障害物判定部26、表示制御部27、および設定部28を備える。   The control unit 2 includes a learning unit 21, an acquisition unit 22, a division unit 23, a road surface determination unit 24, a synthesis unit 25, which function when the CPU stores a program stored in the ROM using the RAM as a work area. An obstacle determination unit 26, a display control unit 27, and a setting unit 28 are provided.

なお、制御部2は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成されてもよい。制御部2が備える上記した複数の処理部は、それぞれ以下に説明する情報処理の作用を実現または実行する。なお、制御部2の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。   The control unit 2 may be configured by hardware such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA). Each of the plurality of processing units provided in the control unit 2 realizes or executes an operation of information processing described below. Note that the internal configuration of the control unit 2 is not limited to the configuration illustrated in FIG. 2, and may be another configuration as long as information processing described later is performed.

学習部21は、路面画像集110から複数枚(例えば、数千枚)の路面画像を取得し、路面画像を教師あり機械学習の教材として使用して路面画像機械学習モデル31を生成して記憶部3に記憶させる。   The learning unit 21 acquires a plurality (for example, several thousand) of road surface images from the road surface image collection 110, and generates and stores a road surface image machine learning model 31 using the road surface images as teaching materials for supervised machine learning. Store in part 3.

ここで、図3を参照し、実施形態に係る路面画像集110の一例について説明する。図3は、実施形態に係る路面画像集110の一例を示す説明図である。図3に示すように、路面画像集110には、例えば、路面に実線の中央線111aが設けられた路面画像111、路面に破線の中央線112aが設けられた路面画像112、および中央線に安全地帯113aが設けられた路面画像113が含まれている。   Here, an example of the road surface image collection 110 according to the embodiment will be described with reference to FIG. FIG. 3 is an explanatory diagram illustrating an example of the road surface image collection 110 according to the embodiment. As shown in FIG. 3, the road surface image collection 110 includes, for example, a road surface image 111 in which a solid center line 111a is provided on the road surface, a road image 112 in which a broken center line 112a is provided on the road surface, and a center line. A road surface image 113 provided with a safety zone 113a is included.

また、路面画像集110には、例えば、路面に走行速度の上限の文字114aが記載された路面画像114、この先に横断歩道があることを示すマーク115aが記載された路面画像115、および路面に横断歩道116aが設けられた路面画像116が含まれる。   In addition, the road surface image collection 110 includes, for example, a road surface image 114 in which characters 114a of the upper limit of the traveling speed are described on the road surface, a road surface image 115 in which a mark 115a indicating that there is a pedestrian crossing is described, and a road surface image 115 A road surface image 116 provided with a pedestrian crossing 116a is included.

また、路面画像集110には、例えば、路面にマンホール117aがある路面画像117、路面に道路のつなぎ目118aがある路面画像118、および路面に溝蓋119aがある路面画像119等が含まれている。このように、路面画像集110には、様々な道路構成物を含む路面画像111〜119等が含まれている。   The road surface image collection 110 includes, for example, a road surface image 117 having a manhole 117a on the road surface, a road surface image 118 having a road joint 118a on the road surface, and a road surface image 119 having a groove cover 119a on the road surface. . As described above, the road surface image collection 110 includes road surface images 111 to 119 including various road components.

学習部21は、これらの被写体が路面であることが既知の各路面画像111〜119について、路面の色、道路構成物の色、形、および配置等の特徴を教師あり機械学習して路面画像機械学習モデル31を生成する。   The learning unit 21 performs supervised machine learning on features such as the color of the road surface, the color, shape, and arrangement of the road surface for each of the road surface images 111 to 119 in which these subjects are known to be road surfaces. A machine learning model 31 is generated.

図2へ戻り、制御部2が備える学習部21以外の処理部の説明を進める。ここでは、図4を合わせて参照しながら説明する。図4は、実施形態に係る走行領域判定装置1の動作の一例を示す説明図である。   Returning to FIG. 2, the description of the processing units other than the learning unit 21 provided in the control unit 2 will be continued. Here, description will be made with reference to FIG. FIG. 4 is an explanatory diagram illustrating an example of the operation of the travel region determination device 1 according to the embodiment.

取得部22は、撮像装置41から車両周辺が撮像された画像を取得する。ここでは、取得部22は、図4(a)に示すように、車両の進路上に箱状の落下物101がある画像100を取得するものとする。   The acquisition unit 22 acquires an image in which the periphery of the vehicle is captured from the imaging device 41. Here, as illustrated in FIG. 4A, the acquisition unit 22 acquires an image 100 in which a box-like falling object 101 is present on the course of the vehicle.

取得部22は、撮像装置41から取得した画像100を分割部23へ出力する。分割部23は、図4(a)に示すように、取得部22から入力される画像100を複数の分割領域に分割し、各分割領域の画像を路面判定部24へ出力する。路面判定部24は、記憶部3から路面画像機械学習モデル31を読出し、路面画像機械学習モデル31へ分割部23から入力される各分割領域の画像を入力する。   The acquisition unit 22 outputs the image 100 acquired from the imaging device 41 to the dividing unit 23. As shown in FIG. 4A, the dividing unit 23 divides the image 100 input from the obtaining unit 22 into a plurality of divided regions, and outputs the images of the divided regions to the road surface determining unit 24. The road surface determination unit 24 reads the road surface image machine learning model 31 from the storage unit 3 and inputs the image of each divided region input from the division unit 23 to the road surface image machine learning model 31.

路面画像機械学習モデル31は、概念的には、図4(b)に示すように、入力層31a、中間層31b、および出力層31cという3層構造の処理層を備える。なお、図4(a)では、中間層31bが1層である場合を示しているが、中間層31bは複数層設けられてもよい。   Conceptually, the road surface image machine learning model 31 includes a processing layer having a three-layer structure of an input layer 31a, an intermediate layer 31b, and an output layer 31c, as shown in FIG. 4B. FIG. 4A shows a case where the intermediate layer 31b is a single layer, but a plurality of intermediate layers 31b may be provided.

入力層31a、中間層31b、および出力層31cは、各分割領域の画像の路面判定を並行して行う複数のノード31zを備える。入力層31aの各ノード31zは、それぞれ中間層31bの全ノード31zと接続される。中間層31bの各ノード31zは、それぞれ出力層31cの全ノード31zと接続される。このように、路面画像機械学習モデル31は、ノード31z同士が接続されたニューラルネットワーク構造となっている。   The input layer 31a, the intermediate layer 31b, and the output layer 31c include a plurality of nodes 31z that perform road surface determination of the image of each divided region in parallel. Each node 31z of the input layer 31a is connected to all the nodes 31z of the intermediate layer 31b. Each node 31z of the intermediate layer 31b is connected to all the nodes 31z of the output layer 31c. As described above, the road surface image machine learning model 31 has a neural network structure in which the nodes 31z are connected to each other.

入力層31aの各ノード31zは、分割部23から順次入力される各分割領域の画像が路面か否かを判定し、路面である可能性が高い程高い重み付けをした判定結果を中間層31bのノード31zへ出力する。   Each node 31z of the input layer 31a determines whether or not the image of each divided region sequentially input from the dividing unit 23 is a road surface, and the determination result that is weighted higher as the possibility of being a road surface is higher is determined in the intermediate layer 31b. Output to the node 31z.

中間層31bの各ノード31zも同様に、各分割領域の画像が路面か否かを判定し、路面である可能性が高い程高い重み付けをした判定結果を出力層31cのノード31zへ出力する。   Similarly, each node 31z of the intermediate layer 31b determines whether or not the image of each divided region is a road surface, and outputs a determination result weighted higher as the possibility of being a road surface increases, to the node 31z of the output layer 31c.

出力層31cの各ノード31zは、各分割領域の画像が路面か否かを判定し、判定結果31dを出力する。なお、図4(b)には、画像100における下から2行目の分割領域の判定結果31dを示している。   Each node 31z of the output layer 31c determines whether or not the image of each divided region is a road surface, and outputs a determination result 31d. FIG. 4B shows a determination result 31d of the divided region in the second row from the bottom in the image 100.

図4(b)に示す例では、路面画像機械学習モデル31は、画像100における下から2行目の分割領域について、左から2番目および3番目の分割領域の画像以外を路面と判定している。   In the example shown in FIG. 4B, the road surface image machine learning model 31 determines that the divided areas in the second row from the bottom in the image 100 are road images other than the images of the second and third divided areas from the left. Yes.

路面判定部24は、各分割領域の画像に対して路面画像機械学習モデル31による判定結果31dを付与して合成部25へ出力する。合成部25は、図4(c)に示すように、路面判定部24から入力される分割領域の画像を画像合成して分割前の画像100に戻して障害物判定部26へ出力する。   The road surface determination unit 24 assigns a determination result 31d by the road surface image machine learning model 31 to the image of each divided region and outputs the result to the synthesis unit 25. As shown in FIG. 4C, the combining unit 25 combines the images of the divided areas input from the road surface determination unit 24, returns the image to the image 100 before the division, and outputs it to the obstacle determination unit 26.

障害物判定部26は、合成部25から入力される画像合成された画像100の各分割領域に付与された路面か否かを示す判定結果に基づいて、画像100の分割領域毎に障害物が存在する可能性がある領域があるか否かを判定する。   The obstacle determination unit 26 determines whether there is an obstacle for each divided region of the image 100 based on the determination result indicating whether or not the road surface is given to each divided region of the combined image 100 input from the combining unit 25. It is determined whether there is an area that may exist.

障害物判定部26は、画像100の各分割領域に付与された路面か否かを示す判定結果に基づいて、画像100の分割領域毎に障害物が存在する可能性がない領域があるか否かについても判定する。このように、障害物判定部26は、画像100の分割領域毎に判定することによって、障害物が存在する可能性がある領域を正確に判定することができる。   The obstacle determination unit 26 determines whether there is an area where there is no possibility that an obstacle exists in each divided area of the image 100 based on the determination result indicating whether the road surface is given to each divided area of the image 100. Judgment is also made. As described above, the obstacle determination unit 26 can accurately determine a region where an obstacle may exist by determining each divided region of the image 100.

また、障害物判定部26は、障害物が存在する可能性がある領域がある場合、走行車線における障害物が存在する可能性がある領域の位置および大きさが車両の走行に支障をきたす場合に警告が必要と判定し、警告装置42によって車両の運転者へ警告させる。そして、障害物判定部26は、合成部25から入力される画像100と、画像100における障害物が存在する可能性がある領域の位置を示す情報を表示制御部27へ出力する。   In addition, the obstacle determination unit 26, when there is a region where there is a possibility that an obstacle exists, the position and size of the region where there is a possibility that an obstacle exists in the traveling lane may hinder the traveling of the vehicle The warning device 42 warns the driver of the vehicle. Then, the obstacle determination unit 26 outputs to the display control unit 27 the image 100 input from the synthesis unit 25 and information indicating the position of the area where the obstacle may exist in the image 100.

表示制御部27は、障害物判定部26から入力される画像100を画像表示装置43によって表示させる。さらに、表示制御部27は、図4(c)に示すように、画像100における車両の走行車線の中で障害物判定部26によって障害物が存在する可能性があると判定された領域A2以外の領域A1を走行可能領域として画像表示装置43により強調表示させる。   The display control unit 27 causes the image display device 43 to display the image 100 input from the obstacle determination unit 26. Further, as shown in FIG. 4C, the display control unit 27 is located in a region other than the area A2 where the obstacle determination unit 26 determines that an obstacle may exist in the traveling lane of the vehicle in the image 100. The area A1 is highlighted by the image display device 43 as a travelable area.

これにより、表示制御部27は、車両の走行可能領域をユーザに対して明確に報知することができる。その後、表示制御部27は、画像100における障害物が存在する可能性がある領域の位置を示す情報を設定部28へ出力する。   Thereby, the display control unit 27 can clearly notify the user of the travelable area of the vehicle. Thereafter, the display control unit 27 outputs information indicating the position of an area where an obstacle may exist in the image 100 to the setting unit 28.

設定部28は、画像100における障害物が存在する可能性がある領域の位置を回避する走行経路L1(走行可能領域を繋いだ経路)を導出し、導出した走行経路L1を示す情報を車両制御装置44へ出力して走行経路の設定を行う。これにより、車両制御装置44は、設定される走行経路L1を走行するように車両を制御することによって、落下物101を回避させることができる。   The setting unit 28 derives a travel route L1 (a route connecting the travelable regions) that avoids the position of a region where an obstacle may exist in the image 100, and performs vehicle control on information indicating the derived travel route L1. Output to the device 44 to set the travel route. Accordingly, the vehicle control device 44 can avoid the falling object 101 by controlling the vehicle so as to travel on the set travel route L1.

次に、図5を参照し、実施形態に係る走行領域判定装置1の制御部2が実行する処理の一例について説明する。図5は、実施形態に係る走行領域判定装置1の制御部2が実行する処理の一例を示すフローチャートである。制御部2は、走行領域判定装置1の動作中(車両駆動中やエンジン動作中等)の期間に図5に示すフローチャートの処理を繰り返し実行する。   Next, an example of a process executed by the control unit 2 of the travel area determination device 1 according to the embodiment will be described with reference to FIG. FIG. 5 is a flowchart illustrating an example of processing executed by the control unit 2 of the travel region determination device 1 according to the embodiment. The control unit 2 repeatedly executes the process of the flowchart shown in FIG. 5 during the operation of the travel region determination device 1 (during vehicle driving, engine operation, etc.).

図5に示すように、制御部2は、まず、撮像装置41から車両の周囲が撮像された画像を取得する(ステップS101)。その後、制御部2は、取得した画像を複数の分割領域に分割する(ステップS102)。   As shown in FIG. 5, the control unit 2 first acquires an image in which the surroundings of the vehicle are imaged from the imaging device 41 (step S101). Thereafter, the control unit 2 divides the acquired image into a plurality of divided regions (step S102).

続いて、制御部2は、分割領域内の画像が路面か否かの路面判定を行い(ステップS103)、各分割領域に対して判定結果を付与する(ステップS104)。その後、制御部2は、1フレームの画像の中で未判定の分割領域があるか否かを判定する(ステップS105)。   Subsequently, the control unit 2 determines whether or not the image in the divided area is a road surface (step S103), and gives a determination result to each divided area (step S104). Thereafter, the control unit 2 determines whether there is an undetermined divided region in one frame image (step S105).

そして、制御部2は、未判定の分割領域があると判定した場合(ステップS105,Yes)、未判定の分割領域がなくなるまでステップS103〜ステップS105の処理を繰り返す。   If the control unit 2 determines that there is an undetermined divided area (Yes in step S105), the control unit 2 repeats the processes of steps S103 to S105 until there is no undetermined divided area.

また、制御部2は、未判定の分割領域がないと判定した場合(ステップS105,No)、分割領域の画像を画像合成して(ステップS106)画像を分割前の画像に戻す。その後、制御部2は、各分割領域に付与した判定結果に基づいて障害物が存在する可能性がある障害物領域があるか否かを分割領域毎に判定する(ステップS107)。   Further, when it is determined that there is no undetermined divided area (No in step S105), the control unit 2 combines the images of the divided areas (step S106) and returns the image to the image before the division. Thereafter, the control unit 2 determines, for each divided region, whether there is an obstacle region in which an obstacle may exist based on the determination result given to each divided region (step S107).

そして、制御部2は、障害物領域がないと判定した場合(ステップS107,No)、処理を終了する。また、制御部2は、障害物領域があると判定した場合(ステップS107,Yes)、警告が必要か否かを判定する(ステップS108)。   And when it determines with the control part 2 having no obstruction area | region (step S107, No), a process is complete | finished. Moreover, when it determines with the control part 2 having an obstruction area | region (step S107, Yes), it is determined whether a warning is required (step S108).

制御部2は、障害物の位置が路肩であったり、障害物領域の大きさ(面積)が閾値以下であったりして、車両の走行に支障をきたさない場合に、警告が必要ないと判定する。そして、制御部2は、警告が必要でないと判定した場合(ステップS108,No)、処理を終了する。また、制御部2は、警告が必要であると判定した場合(ステップS108,Yes)、警告装置42によって警告を行わせる(ステップS109)。   The control unit 2 determines that a warning is not necessary when the position of the obstacle is a road shoulder or the size (area) of the obstacle area is equal to or less than a threshold value and does not hinder the traveling of the vehicle. To do. If the control unit 2 determines that the warning is not necessary (No at Step S108), the process ends. If the control unit 2 determines that a warning is necessary (Yes in step S108), the control unit 2 causes the warning device 42 to issue a warning (step S109).

続いて、制御部2は、画像表示装置43によって表示させる車両周囲の画像の中で車両の走行車線における障害物領域以外の走行可能領域を強調表示させる(ステップS110)。なお、制御部2は、このとき、障害物領域を強調表示させることもできる。また、制御部2は、このとき、障害物領域を回避する走行経路を表示画像中に重畳表示させることもできる。   Subsequently, the control unit 2 highlights a travelable area other than the obstacle area in the travel lane of the vehicle in the image around the vehicle displayed by the image display device 43 (step S110). At this time, the control unit 2 can also highlight the obstacle area. At this time, the control unit 2 can also superimpose and display a travel route that avoids the obstacle area in the display image.

その後、制御部2は、障害物領域を回避する走行経路を示す情報を車両制御装置44へ出力して走行経路設定を行い(ステップS111)、処理を終了する。制御部2は、撮像装置41から画像を取得する毎に、かかるステップS101〜ステップS110の処理を実行する。   Then, the control part 2 outputs the information which shows the driving route which avoids an obstacle area | region to the vehicle control apparatus 44, sets a driving route (step S111), and complete | finishes a process. Each time the control unit 2 acquires an image from the imaging device 41, the control unit 2 executes the processes in steps S <b> 101 to S <b> 110.

なお、制御部2が実行する処理は、図5に示す処理に限定されるものではない。制御部2は、例えば、上記したステップS101の処理の後に、道路外領域(図1に示す領域Aや画像100における地平線よりも上の領域)を判定して、路面判定処理の処理範囲を限定したり、道路外領域の表示に用いることもできる。   In addition, the process which the control part 2 performs is not limited to the process shown in FIG. For example, after the processing in step S101 described above, the control unit 2 determines the region outside the road (the region A shown in FIG. 1 or the region above the horizon in the image 100) and limits the processing range of the road surface determination processing. Or can be used to display an area outside the road.

また、上述した実施形態では、走行領域判定装置1が路面画像機械学習モデル31を使用して画像が路面であるか否かを判定したが、画像が路面であるか否かをパターンマッチング処理によって判定してもよい。次に、図6を参照して画像が路面であるか否かをパターンマッチング処理によって判定する走行領域判定装置1aについて説明する。   In the above-described embodiment, the travel region determination device 1 uses the road surface image machine learning model 31 to determine whether the image is a road surface. However, whether the image is a road surface is determined by pattern matching processing. You may judge. Next, with reference to FIG. 6, a travel region determination device 1 a that determines whether an image is a road surface by pattern matching processing will be described.

図6は、実施形態の変形例に係る走行領域判定装置1aの構成の一例を示すブロック図である。ここでは、図6に示す構成要素のうち、図2に示す構成要素と同一の構成要素については、図2に示す構成要素と同一の符号を付することにより、その説明を省略する。   FIG. 6 is a block diagram illustrating an example of a configuration of a travel region determination device 1a according to a modification of the embodiment. Here, among the components shown in FIG. 6, the same components as those shown in FIG. 2 are given the same reference numerals as those shown in FIG.

図6に示すように、走行領域判定装置1aは、制御部2aの構成および記憶部3aに記憶される情報が図2に示す走行領域判定装置1とは異なる。記憶部3aは、道路形成物画像32を記憶する。   As illustrated in FIG. 6, the travel region determination device 1 a is different from the travel region determination device 1 illustrated in FIG. 2 in the configuration of the control unit 2 a and the information stored in the storage unit 3 a. The storage unit 3a stores a road formation image 32.

道路形成物画像32は、例えば、図3に示す道路、実線の中央線111a、破線の中央線112a、安全地帯113a、文字114a、マーク115a、横断歩道116a、マンホール117a、道路のつなぎ目118a、および溝蓋119a等の画像が含まれる。   The road formation image 32 includes, for example, the road shown in FIG. 3, a solid center line 111a, a dashed center line 112a, a safety zone 113a, characters 114a, a mark 115a, a pedestrian crossing 116a, a manhole 117a, a road joint 118a, and Images of the groove lid 119a and the like are included.

また、制御部2aは、取得部22、路面判定部24a、障害物判定部26、表示制御部27、および設定部28を備える。制御部2aが備えるこれら複数の処理部のうち、路面判定部24a以外の処理部は、図2示す取得部22、障害物判定部26、表示制御部27、および設定部28と同様の処理を行う。   The control unit 2a includes an acquisition unit 22, a road surface determination unit 24a, an obstacle determination unit 26, a display control unit 27, and a setting unit 28. Among these multiple processing units included in the control unit 2a, processing units other than the road surface determination unit 24a perform the same processing as the acquisition unit 22, the obstacle determination unit 26, the display control unit 27, and the setting unit 28 illustrated in FIG. Do.

路面判定部24aは、取得部22から入力される車両の周囲が撮像された画像に対して、道路形成物画像32に含まれる複数種類の道路形成物の画像を使用したパターンマッチング処理を行うことによって、画像における路面の領域を判定する。   The road surface determination unit 24a performs a pattern matching process using images of a plurality of types of road formations included in the road formation image 32 on the image of the surroundings of the vehicle input from the acquisition unit 22. To determine the area of the road surface in the image.

そして、路面判定部24aは、車両の走行車線の中で路面と判定した領域の位置を示す情報を障害物判定部26へ出力する。これにより、障害物判定部26は、車両の走行車線の中で路面判定部24aによって路面と判定された領域以外の領域を障害物が存在する可能性がある障害物領域と判定することができる。   Then, the road surface determination unit 24 a outputs information indicating the position of the area determined as the road surface in the traveling lane of the vehicle to the obstacle determination unit 26. Thereby, the obstacle determination unit 26 can determine an area other than the area determined as the road surface by the road surface determination unit 24a in the driving lane of the vehicle as an obstacle area where an obstacle may exist. .

このように、走行領域判定装置1aは、パターンマッチング処理によって画像が路面か否かを判定することができるので、路面画像機械学習モデル31を使用しなくても、より簡易な処理で障害物が存在する可能性がある障害物領域と判定することができる。   As described above, the traveling region determination device 1a can determine whether or not the image is a road surface by the pattern matching process. Therefore, the obstacle can be detected by a simpler process without using the road surface image machine learning model 31. It can be determined that there is an obstacle area that may exist.

なお、上述した実施形態では、走行領域判定装置1が学習部21を備える場合について説明したが、実施形態に係る走行領域判定装置は、必ずしも学習部21を備えていなくてもよい。走行領域判定装置は、他の機械学習装置によって被写体が路面であることが既知の複数の画像を用いて機械学習して生成された路面画像機械学習モデル31を記憶しておくことで上述した障害物判定処理を行うことができる。   In addition, although embodiment mentioned above demonstrated the case where the travel area determination apparatus 1 was provided with the learning part 21, the travel area determination apparatus which concerns on embodiment does not necessarily need to be provided with the learning part 21. FIG. The travel region determination device stores the road surface image machine learning model 31 generated by machine learning using a plurality of images whose object is known to be a road surface by another machine learning device, and thus the obstacle described above. An object determination process can be performed.

この場合、例えば、車両に搭載される走行領域判定装置1と無線通信可能に接続されるセンター側の情報処理装置は、被写体が路面であることが既知の複数の画像を取得する。
そして、情報処理装置は、取得した複数の画像を機械学習することによって路面画像機械学習モデル(車両が安全に走行可能な走行領域の機械学習モデル)を生成し、走行領域判定装置1へ配信する。
In this case, for example, the center-side information processing device connected to the travel region determination device 1 mounted on the vehicle so as to be able to perform wireless communication acquires a plurality of images whose subject is a road surface.
Then, the information processing device generates a road surface image machine learning model (a machine learning model of a traveling region in which the vehicle can travel safely) by machine learning of the plurality of acquired images, and distributes it to the traveling region determination device 1. .

これにより、走行領域判定装置1は、センター側の情報処理装置から配信される路面画像機械学習モデルを使用することによって、上述した障害物判定処理を行うことができる。なお、センター側の情報処理装置は、走行領域判定装置1に加え、車両の道路走行を支援する任意の道路走行支援装置へ路面画像機械学習モデルを配信して道路走行支援に使用させることもできる。   Thereby, the travel area determination apparatus 1 can perform the above-described obstacle determination process by using the road surface image machine learning model distributed from the information processing apparatus on the center side. In addition to the travel area determination device 1, the information processing device on the center side can also distribute the road surface image machine learning model to any road travel support device that supports the road travel of the vehicle and use it for road travel support. .

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。   Further effects and modifications can be easily derived by those skilled in the art. Thus, the broader aspects of the present invention are not limited to the specific details and representative embodiments shown and described above. Accordingly, various modifications can be made without departing from the spirit or scope of the general inventive concept as defined by the appended claims and their equivalents.

1,1a 走行領域判定装置
2,2a 制御部
21 学習部
22 取得部
23 分割部
24,24a 路面判定部
25 合成部
26 障害物判定部
27 表示制御部
28 設定部
3,3a 記憶部
31 路面画像機械学習モデル
32 道路形成物画像
41 撮像装置
42 警告装置
43 画像表示装置
44 車両制御装置
DESCRIPTION OF SYMBOLS 1,1a Traveling area determination apparatus 2,2a Control part 21 Learning part 22 Acquisition part 23 Dividing part 24,24a Road surface determination part 25 Synthesis | combination part 26 Obstacle determination part 27 Display control part 28 Setting part 3, 3a Storage part 31 Road surface image Machine learning model 32 Road formation image 41 Imaging device 42 Warning device 43 Image display device 44 Vehicle control device

Claims (10)

撮像装置から車両の周囲が撮像された画像を取得する取得部と、
被写体が路面であることが既知の複数の画像を機械学習した機械学習モデルにより、前記取得部によって取得された画像における特定領域を判定する判定部と
を備えることを特徴とする走行領域判定装置。
An acquisition unit that acquires an image of the surroundings of the vehicle from the imaging device;
A travel region determination apparatus comprising: a determination unit that determines a specific region in an image acquired by the acquisition unit using a machine learning model obtained by machine learning a plurality of images whose subjects are known to be road surfaces.
前記取得部によって取得された画像を複数の分割領域に分割する分割部
をさらに備え、
前記判定部は、
前記分割領域毎に前記特定領域が前記車両の走行に好適な走行好適領域か否かを判定する
ことを特徴とする請求項1に記載の走行領域判定装置。
A dividing unit that divides the image acquired by the acquiring unit into a plurality of divided regions;
The determination unit
The travel region determination device according to claim 1, wherein for each of the divided regions, it is determined whether or not the specific region is a travel suitable region suitable for travel of the vehicle.
前記判定部は、
路面と判定した前記特定領域を走行好適領域と判定する
ことを特徴とする請求項1または請求項2に記載の走行領域判定装置。
The determination unit
The travel area determination device according to claim 1, wherein the specific area determined to be a road surface is determined as a preferable travel area.
前記判定部は、
路面と判定しなかった前記特定領域を前記車両の走行に不適な走行不適領域と判定する
ことを特徴とする請求項1〜3のいずれか一つに記載の走行領域判定装置。
The determination unit
The travel region determination device according to any one of claims 1 to 3, wherein the specific region that has not been determined to be a road surface is determined to be a travel inappropriate region that is inappropriate for travel of the vehicle.
前記判定部は、
前記取得部によって取得された画像における前記車両の走行車線内の領域について前記特定領域を判定する
ことを特徴とする請求項1〜4のいずれか一つに記載の走行領域判定装置。
The determination unit
The travel region determination device according to any one of claims 1 to 4, wherein the specific region is determined for a region in a travel lane of the vehicle in the image acquired by the acquisition unit.
前記取得部によって取得された画像における前記車両の走行車線の中で前記判定部によって走行好適領域と判定された領域を表示装置によって強調表示させる表示制御部
をさらに備えることを特徴とする請求項2または請求項3に記載の走行領域判定装置。
The display control part which highlights the area | region determined as the driving | running | working suitable area | region by the said determination part in the driving | running | working lane of the said vehicle in the image acquired by the said acquisition part by a display apparatus is further provided. Or the travel area determination apparatus of Claim 3.
前記取得部によって取得された画像における前記走行好適領域を前記車両の走行経路として設定する設定部
をさらに備えることを特徴とする請求項2、3、6のいずれか一つに記載の走行領域判定装置。
The travel region determination according to any one of claims 2, 3, and 6, further comprising: a setting unit that sets the travel preferable region in the image acquired by the acquisition unit as a travel route of the vehicle. apparatus.
撮像装置から車両の周囲が撮像された画像を取得する取得部と、
道路形成物の画像を記憶する記憶部と、
前記取得部によって取得される画像内で前記記憶部に記憶された前記道路形成物を含む領域を路面と判定し、当該路面と判定した領域以外の領域を走行に支障がある障害物が存在する領域と判定する判定部と
を備えることを特徴とする走行領域判定装置。
An acquisition unit that acquires an image of the surroundings of the vehicle from the imaging device;
A storage unit for storing images of road formations;
An area including the road formation stored in the storage unit in the image acquired by the acquisition unit is determined as a road surface, and there is an obstacle that hinders traveling in an area other than the area determined as the road surface. A travel region determination device comprising: a determination unit that determines a region.
撮像装置から車両の周囲が撮像された画像を取得する取得工程と、
被写体が路面であることが既知の複数の画像を機械学習した機械学習モデルにより、前記取得工程によって取得された画像における特定領域を判定する判定工程と
を含むことを特徴とする走行領域判定方法。
An acquisition step of acquiring an image obtained by imaging the periphery of the vehicle from the imaging device;
And a determination step of determining a specific region in the image acquired by the acquisition step using a machine learning model obtained by machine learning of a plurality of images whose subjects are known to be road surfaces.
道路走行支援を行う道路走行支援装置によって使用される路面画像機械学習モデルの生成方法であって、
被写体が路面であることが既知の複数の画像を取得する取得工程と、
前記取得工程によって取得された複数の画像を機械学習して路面画像機械学習モデルを生成する生成工程と
を含むことを特徴とする路面画像機械学習モデルの生成方法。
A method for generating a road surface image machine learning model used by a road driving support device that performs road driving support,
An acquisition step of acquiring a plurality of images whose subjects are known to be road surfaces;
And a generation step of generating a road surface image machine learning model by machine learning of the plurality of images acquired by the acquisition step.
JP2018104596A 2018-05-31 2018-05-31 Driving area determination device, driving area determination method, and road surface image machine learning model generation method Active JP7203514B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018104596A JP7203514B2 (en) 2018-05-31 2018-05-31 Driving area determination device, driving area determination method, and road surface image machine learning model generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018104596A JP7203514B2 (en) 2018-05-31 2018-05-31 Driving area determination device, driving area determination method, and road surface image machine learning model generation method

Publications (2)

Publication Number Publication Date
JP2019211822A true JP2019211822A (en) 2019-12-12
JP7203514B2 JP7203514B2 (en) 2023-01-13

Family

ID=68845254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018104596A Active JP7203514B2 (en) 2018-05-31 2018-05-31 Driving area determination device, driving area determination method, and road surface image machine learning model generation method

Country Status (1)

Country Link
JP (1) JP7203514B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021099877A (en) * 2020-03-17 2021-07-01 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science Technology Co., Ltd. Method, device, apparatus and storage medium for reminding travel on exclusive driveway
WO2023209755A1 (en) * 2022-04-25 2023-11-02 日本電気株式会社 Travel environment determination device, vehicle, travel environment determination method, and recording medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010176194A (en) * 2009-01-27 2010-08-12 Denso Corp Device and method for warning of lane deviation
JP2011039732A (en) * 2009-08-10 2011-02-24 Ihi Corp Image display device for vehicle control, and method of the same
JP2015057688A (en) * 2013-08-12 2015-03-26 株式会社日本自動車部品総合研究所 Travel route generation apparatus
JP2017016474A (en) * 2015-07-02 2017-01-19 富士通テン株式会社 Obstacle detection system and obstacle detection method
WO2017145645A1 (en) * 2016-02-25 2017-08-31 富士フイルム株式会社 Driving assistance apparatus, driving assistance method, and driving assistance program
JP2017215939A (en) * 2016-05-27 2017-12-07 株式会社東芝 Information processor, vehicle, information processing method and program
JP2018022234A (en) * 2016-08-01 2018-02-08 クラリオン株式会社 Image processing device and environment recognition device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010176194A (en) * 2009-01-27 2010-08-12 Denso Corp Device and method for warning of lane deviation
JP2011039732A (en) * 2009-08-10 2011-02-24 Ihi Corp Image display device for vehicle control, and method of the same
JP2015057688A (en) * 2013-08-12 2015-03-26 株式会社日本自動車部品総合研究所 Travel route generation apparatus
JP2017016474A (en) * 2015-07-02 2017-01-19 富士通テン株式会社 Obstacle detection system and obstacle detection method
WO2017145645A1 (en) * 2016-02-25 2017-08-31 富士フイルム株式会社 Driving assistance apparatus, driving assistance method, and driving assistance program
JP2017215939A (en) * 2016-05-27 2017-12-07 株式会社東芝 Information processor, vehicle, information processing method and program
JP2018022234A (en) * 2016-08-01 2018-02-08 クラリオン株式会社 Image processing device and environment recognition device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021099877A (en) * 2020-03-17 2021-07-01 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science Technology Co., Ltd. Method, device, apparatus and storage medium for reminding travel on exclusive driveway
WO2023209755A1 (en) * 2022-04-25 2023-11-02 日本電気株式会社 Travel environment determination device, vehicle, travel environment determination method, and recording medium

Also Published As

Publication number Publication date
JP7203514B2 (en) 2023-01-13

Similar Documents

Publication Publication Date Title
CN113486531B (en) Vehicle driving path planning method, device and system
JP6788477B2 (en) Recognition result presentation device and recognition result presentation method
WO2015190212A1 (en) Lane selecting device, vehicle control system and lane selecting method
JP2019509552A (en) Detection of partially occluded objects using context and depth order
JP5574789B2 (en) Vehicle periphery monitoring device and vehicle periphery monitoring method
EP3432216A1 (en) Learning data generation device, learning data generation method, and recording medium storing program
JP4909451B1 (en) Information display apparatus and control method
JP6187671B2 (en) Self-position calculation device and self-position calculation method
CN107220581A (en) Pass through the pedestrian detection and motion prediction of rearmounted video camera
JP2009037622A (en) Method and device for evaluating image
JP2017159881A (en) Recognition result presentation device, recognition result presentation method and autonomous movable body
JP7009042B2 (en) A device that can operate to determine the position of a part of the lane
EP3082068B1 (en) Traveling road surface detection device and traveling road surface detection method
CN108327723A (en) By unsupervised learning to image tracing
US10614320B2 (en) System and method for advanced highway lane detection
JP4609603B2 (en) 3D information display device and 3D information display method
JP6795379B2 (en) Operation control device, operation control method and operation control program
JP2019211822A (en) Travel area determination apparatus, travel area determination method and method for generating road surface image machine learning model
CN111094095A (en) Automatically receiving a travel signal
JP2018189457A (en) Information processing device
JP2018060422A (en) Object detection device
WO2019044625A1 (en) Collision prediction device, collision prediction method, and program
CN106096493A (en) The bar-shaped pixel using degree of depth study is estimated and road scene is split
CN109997149A (en) Information processing equipment, imaging device, apparatus control system, moving body, information processing method and message handling program
JP2019194751A (en) Lane information processing device, lane identification system, lane information processing method and lane information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210429

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221227

R150 Certificate of patent or registration of utility model

Ref document number: 7203514

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150