JP7203514B2 - Driving area determination device, driving area determination method, and road surface image machine learning model generation method - Google Patents

Driving area determination device, driving area determination method, and road surface image machine learning model generation method Download PDF

Info

Publication number
JP7203514B2
JP7203514B2 JP2018104596A JP2018104596A JP7203514B2 JP 7203514 B2 JP7203514 B2 JP 7203514B2 JP 2018104596 A JP2018104596 A JP 2018104596A JP 2018104596 A JP2018104596 A JP 2018104596A JP 7203514 B2 JP7203514 B2 JP 7203514B2
Authority
JP
Japan
Prior art keywords
road surface
area
image
unit
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018104596A
Other languages
Japanese (ja)
Other versions
JP2019211822A (en
Inventor
ともえ 大築
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2018104596A priority Critical patent/JP7203514B2/en
Publication of JP2019211822A publication Critical patent/JP2019211822A/en
Application granted granted Critical
Publication of JP7203514B2 publication Critical patent/JP7203514B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

開示の実施形態は、走行領域判定装置、走行領域判定方法、および路面画像機械学習モデルの生成方法に関する。 The disclosed embodiments relate to a driving area determination device, a driving area determination method, and a road surface image machine learning model generation method.

従来、車両の周辺が撮像された画像と、障害物の形状を予め想定して作成されたパターンマッチング用データとを比較することで、車両と衝突する可能性がある障害物を検知する障害物検知装置がある(例えば、特許文献1参照)。この障害物の検知結果は、障害物(走行不適領域)の報知や、逆に走行に支障がない走行好適領域の報知、また自動運転制御のための情報として用いられる。 Conventionally, obstacles that may collide with the vehicle are detected by comparing an image of the surroundings of the vehicle with pattern matching data created based on the assumption of the shape of the obstacle. There is a detection device (see Patent Document 1, for example). This obstacle detection result is used as information for an obstacle (unsuitable travel area), an appropriate travel area that does not hinder travel, and information for automatic driving control.

特開2009-140023号公報JP 2009-140023 A

しかしながら、障害物の形状を予め想定して作成されたパターンマッチング用データを使用して障害物を検知する装置は、想定外の障害物を検知することができないため、路面上において障害物が存在する可能性がある領域を正確に判定できないことがある。 However, a device that detects an obstacle using pattern matching data that is created by assuming the shape of an obstacle in advance cannot detect an unexpected obstacle. It may not be possible to accurately determine the areas that may be affected.

実施形態の一態様は、上記に鑑みてなされたものであって、車両が走行する道路において走行不適領域あるいは走行好適領域を精度よく判定する装置および方法、例えば、車両が走行する路面において障害物が存在する可能性がある領域を正確に判定することができる走行領域判定装置および走行領域判定方法を提供することを目的とする。 One aspect of the embodiments has been made in view of the above, and includes a device and method for accurately determining an unsuitable or suitable travel region on a road on which a vehicle travels. It is an object of the present invention to provide a travel area determination device and a travel area determination method capable of accurately determining an area in which there is a possibility that a

実施形態の一態様に係る走行領域判定装置は、取得部と、判定部とを備える。取得部は、撮像装置から車両の周囲が撮像された画像を取得する。判定部は、被写体が路面であることが既知の複数の画像を機械学習した機械学習モデルにより、前記取得部によって取得された画像における特定領域を判定する。 A travel area determination device according to an aspect of an embodiment includes an acquisition unit and a determination unit. The obtaining unit obtains an image of the surroundings of the vehicle from the imaging device. The determination unit determines a specific region in the image acquired by the acquisition unit by using a machine learning model obtained by performing machine learning on a plurality of images known to be road surfaces.

実施形態の一態様に係る走行領域判定装置および走行領域判定方法は、車両が走行する道路において走行不適領域あるいは走行好適領域を精度よく判定することができる。 A driving area determination device and a driving area determination method according to an aspect of an embodiment can accurately determine an unsuitable driving area or a suitable driving area on a road on which a vehicle travels.

図1は、実施形態に係る走行領域判定方法の概要を示す説明図である。FIG. 1 is an explanatory diagram showing an overview of the travel area determination method according to the embodiment. 図2は、実施形態に係る走行領域判定装置の構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of the configuration of the travel area determination device according to the embodiment. 図3は、実施形態に係る路面画像集の一例を示す説明図である。FIG. 3 is an explanatory diagram showing an example of a road surface image collection according to the embodiment. 図4は、実施形態に係る走行領域判定装置の動作の一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of the operation of the travel area determination device according to the embodiment. 図5は、実施形態に係る走行領域判定装置の制御部が実行する処理の一例を示すフローチャートである。FIG. 5 is a flowchart showing an example of processing executed by the control unit of the travel area determination device according to the embodiment. 図6は、実施形態の変形例に係る走行領域判定装置の構成の一例を示すブロック図である。FIG. 6 is a block diagram showing an example of the configuration of a travel area determination device according to a modification of the embodiment.

以下、添付図面を参照して、走行領域判定装置、走行領域判定方法、および路面画像機械学習モデルの生成方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。図1は、実施形態に係る走行領域判定方法の概要を示す説明図である。 Embodiments of a driving area determination device, a driving area determination method, and a road surface image machine learning model generation method will be described in detail below with reference to the accompanying drawings. In addition, this invention is not limited by embodiment shown below. FIG. 1 is an explanatory diagram showing an overview of the travel area determination method according to the embodiment.

実施形態に係る走行領域判定装置は、車両に搭載される撮像装置によって撮像される車両周辺の画像を解析することによって、画像における特定領域を判定する。そして、走行領域判定装置は、特定領域が車両の走行に好適な走行好適領域か否かを判定する。 A driving area determination device according to an embodiment determines a specific area in an image by analyzing an image around the vehicle captured by an imaging device mounted on the vehicle. Then, the travel area determination device determines whether or not the specific area is a suitable travel area suitable for vehicle travel.

走行領域判定装置は、予め被写体が路面であることが既知の複数枚の画像を機械学習した路面画像機械学習モデルを記憶している。路面画像機械学習モデルは、画像が入力された場合に、その画像の中で事前に機械学習した路面の特徴と類似する特徴がある領域を路面と判定する判定結果を出力するプログラムである。 The driving area determination device stores a road surface image machine learning model obtained by performing machine learning on a plurality of images in which it is known in advance that the subject is the road surface. The road surface image machine learning model is a program that, when an image is input, outputs a determination result that determines that an area in the image that has features similar to those of the road surface previously machine-learned is a road surface.

走行領域判定装置は、例えば、図1(a)に示すように、車両の進路上に箱状の落下物101がある画像100が撮像装置から入力される場合、かかる画像を路面画像機械学習モデルに入力する。 For example, as shown in FIG. 1A, when an image 100 with a box-shaped falling object 101 on the path of the vehicle is input from the imaging device, the driving area determination device converts the image into a road surface image machine learning model. to enter.

路面画像機械学習モデルは、図1(b)に示すように、画像100における車両の走行車線(同方向車線含)の中で事前に機械学習した路面の特徴と類似する特徴がある領域A1を路面(車両の走行に好適な走行好適領域の一例)と判定する。 As shown in FIG. 1B, the road surface image machine learning model identifies an area A1 having features similar to those of the road surface machine-learned in advance in the lane in which the vehicle is traveling (including lanes in the same direction) in the image 100. It is determined to be a road surface (an example of a suitable travel area suitable for vehicle travel).

このとき、路面画像機械学習モデルは、落下物101が存在する領域については、そこに存在する物体が何なのかを判定することはできないが、事前に機械学習した路面の特徴とは異なるため、少なくとも路面ではないと判定することができる。 At this time, the road surface image machine learning model cannot determine what the object is in the area where the falling object 101 exists. At least it can be determined that it is not a road surface.

そこで、走行領域判定装置は、図1(c)に示すように、車両の走行車線の中で路面画像機械学習モデルによって路面と判定された領域A1以外の領域A2を障害物が存在する可能性がある領域(車両の走行に不適な走行不適領域の一例)と判定する。 Therefore, as shown in FIG. 1(c), the driving area determination device detects the possibility that an obstacle exists in an area A2 other than the area A1 determined as the road surface by the road surface image machine learning model in the driving lane of the vehicle. is determined as an area (an example of an unsuitable travel area unsuitable for vehicle travel).

なお、図1(a)、(b)、(c)に示す領域Aは、道路領域(自車走行道路(対向車線は除く))画像機械学習モデルにより、判定した画像100における車両の走行車線(同方向車線含)を除く道路外領域であり、この領域は走行不可領域となる。 Area A shown in FIGS. 1(a), (b), and (c) is the road area (the road on which the vehicle is traveling (excluding the oncoming lane)) image machine learning model determines the driving lane of the vehicle in the image 100. It is an area outside the road (including lanes in the same direction), and this area is a travel-impossible area.

また、この領域は路面画像機械学習モデルによる判定の対象外領域となる。また、走行領域判定装置は、画像100における地平線よりも上の領域についても路面画像機械学習モデルによる判定の対象外領域とする。 In addition, this area becomes a non-target area for determination by the road surface image machine learning model. In addition, the driving area determination device also sets the area above the horizon in the image 100 as a non-target area for determination by the road surface image machine learning model.

また、路面画像機械学習モデルを、走行可能な道路領域を示す画像データ(対向車線領域を路面と見なさない画像データ等)で学習生成することにより、上述の道路領域にかかる処理に変えることができる。 In addition, by learning and generating the road surface image machine learning model with image data that indicates the road area on which travel is possible (such as image data that does not regard the oncoming lane area as the road surface), it is possible to change to the above-described processing related to the road area. .

この場合、乗り越えられない(中央)分離帯が無い側の道路は路面と見なす画像データでの学習処理により路面画像機械学習モデルを生成する方法も考えられが、この場合、その結果を用いた車両制御等を行う際に、対向車をその速度を含めて障害物判定する等の処理が別途必要となる。 In this case, it is conceivable to generate a road surface image machine learning model by learning processing with image data that considers the road on the side without the inaccessible (central) divider to be the road surface. When performing control and the like, additional processing such as judging an oncoming vehicle as an obstacle, including its speed, is required.

これにより、走行領域判定装置は、路面上にあるはずがないような障害物が存在する場合に、パターンマッチング用データを使用して障害物を検知する装置よりも、障害物が存在する可能性がある領域A2を正確に判定することができる。 As a result, when there is an obstacle that should not exist on the road surface, the traveling area determination device can detect the possibility of the presence of the obstacle rather than the device that detects the obstacle using the pattern matching data. It is possible to accurately determine the area A2 where

具体的には、パターンマッチング用データを使用して障害物を検知する装置は、障害物が車両や歩行者等のように、路面上に存在することが想定される障害物であれば、障害物がある領域を判定することはできる。 Specifically, a device that uses pattern matching data to detect obstacles detects obstacles such as vehicles and pedestrians that are expected to exist on the road surface. It is possible to determine the area where an object is.

しかしながら、路面上には、時として路上にあるはずがないような物が存在する場合がある。例えば、路上には、家財道具や建築資材等、通常であれば路上にあるはずのないような物が何等かの原因で落下している場合がある。 However, sometimes there are things on the road that should not be on the road. For example, there are cases where objects such as household goods, building materials, etc., which normally should not be on the road, are dropped for some reason.

かかる落下物は、車両や歩行者等とは異なり、形状が多種多様である。このため、パターンマッチング用データを使用して障害物を検知する装置では、かかる落下物を障害物として検知することが困難である。 Such falling objects have a wide variety of shapes, unlike vehicles, pedestrians, and the like. Therefore, it is difficult for a device that detects an obstacle using pattern matching data to detect such a falling object as an obstacle.

なお、家財道具や建築資材等の全ての物品について、パターンマッチング用データを用意しておけば、落下物を障害物として検知することは可能であるが、かかる手法は、膨大な量のパターンマッチング用データを用意する必要があるので現実的ではない。 It is possible to detect falling objects as obstacles by preparing pattern matching data for all items such as household goods and building materials. It is not realistic because it is necessary to prepare the data for

これに対して、実施形態に係る走行領域判定方法では、障害物を特定するのではなく、車両の走行車線の中で路面画像機械学習モデルによって路面と判定された領域A1以外の領域A2を障害物が存在する可能性がある領域と判定する。 On the other hand, in the driving area determination method according to the embodiment, instead of specifying an obstacle, an area A2 other than the area A1 determined as the road surface by the road surface image machine learning model in the driving lane of the vehicle is identified as an obstacle. Determined as an area where an object may exist.

このため、実施形態に係る走行領域判定方法によれば、障害物の種類や形状を問わず、通常であれば路上にあるはずのないような物体が路面上に落下していても、その物体が存在する可能性がある領域を正確に判定することができる。 Therefore, according to the driving area determination method according to the embodiment, regardless of the type or shape of the obstacle, even if an object that should not normally be on the road is dropped on the road, the object can accurately determine regions where

なお、以上の説明では、路面判定されなかった領域を障害物として判断したが、路面判定情報を用いて(障害物判定は行わない)走行路(走行好適領域)を案内表示したり、自動走行制御に用いる等することも可能である。 In the above description, an area that was not judged as a road surface was judged as an obstacle. It is also possible to use it for control.

次に、図2を参照し、実施形態に係る走行領域判定装置1の構成の一例について説明する。図2は、実施形態に係る走行領域判定装置1の構成の一例を示すブロック図である。図2に示すように、走行領域判定装置1は、撮像装置41、警告装置42、画像表示装置43、および車両制御装置44と接続される。 Next, with reference to FIG. 2, an example of the configuration of the travel area determination device 1 according to the embodiment will be described. FIG. 2 is a block diagram showing an example of the configuration of the travel area determination device 1 according to the embodiment. As shown in FIG. 2 , the travel area determination device 1 is connected to an imaging device 41 , a warning device 42 , an image display device 43 and a vehicle control device 44 .

なお、路面画像集110は、障害物が写っていない様々な路面だけが写った複数枚の画像を含む画像集である。路面画像集110に含まれる各画像は、それぞれ被写体が路面であることを示す情報が付与されている。かかる路面画像集110は、路面画像の教師あり機械学習の教材として走行領域判定装置1によって使用される。路面画像集110の一例については、図3を参照して後述する。 Note that the road surface image collection 110 is an image collection including a plurality of images showing only various road surfaces with no obstacles. Each image included in the road surface image collection 110 is provided with information indicating that the subject is the road surface. The road surface image collection 110 is used by the driving area determination device 1 as teaching materials for supervised machine learning of road surface images. An example of the road surface image collection 110 will be described later with reference to FIG.

撮像装置41は、例えば、走行領域判定装置1が搭載される車両の前部に設置されて車両の前方を撮像する車載カメラである。なお、撮像装置41は、車両の側部や後部に設けられ、車両の周囲を撮像する車載カメラであってもよい。撮像装置41は、撮像した画像を走行領域判定装置1へ出力する。 The imaging device 41 is, for example, an in-vehicle camera that is installed in the front part of the vehicle in which the travel area determination device 1 is mounted and captures an image of the front of the vehicle. Note that the imaging device 41 may be an in-vehicle camera that is provided at the side or rear of the vehicle and captures an image of the surroundings of the vehicle. The imaging device 41 outputs the captured image to the travel area determination device 1 .

警告装置42は、走行領域判定装置1によって障害物が存在する可能性がある領域が判定された場合に、その旨を車両のユーザへ警告する装置であり、例えば、警告音を出音するスピーカや障害物の存在を報知するインジケータランプである。画像表示装置43は、例えば、撮像装置41によって撮像された画像等を表示する液晶ディスプレイである。 The warning device 42 is a device that warns the user of the vehicle to that effect when the travel region determination device 1 determines a region where an obstacle may exist. It is an indicator lamp that notifies the presence of obstacles. The image display device 43 is, for example, a liquid crystal display that displays images captured by the imaging device 41 .

車両制御装置44は、例えば、車両全体を統括制御するECU(Electronic Control Unit)である。車両制御装置44は、例えば、走行領域判定装置1によって障害物が存在する可能性がある領域が判定された場合に、車両の速度制御、操舵制御、および制動制御を行うことによって車両に障害物を回避させる。 The vehicle control device 44 is, for example, an ECU (Electronic Control Unit) that controls the entire vehicle. For example, when the travel area determination device 1 determines an area in which an obstacle may exist, the vehicle control device 44 performs speed control, steering control, and braking control of the vehicle to detect the obstacle in the vehicle. avoid.

走行領域判定装置1は、制御部2と記憶部3とを備える。記憶部3は、例えば、データフラッシュ等の情報記憶デバイスであり、路面画像機械学習モデル31を記憶する。制御部2は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などを有するマイクロコンピュータや各種の回路を含む。 A travel area determination device 1 includes a control unit 2 and a storage unit 3 . The storage unit 3 is, for example, an information storage device such as data flash, and stores a road surface image machine learning model 31 . The control unit 2 includes a microcomputer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and various circuits.

制御部2は、CPUがROMに記憶されたプログラムを、RAMを作業領域として使用して実行することにより機能する学習部21、取得部22、分割部23、路面判定部24、合成部25、障害物判定部26、表示制御部27、および設定部28を備える。 The control unit 2 includes a learning unit 21, an acquiring unit 22, a dividing unit 23, a road surface determining unit 24, a synthesizing unit 25, a learning unit 21, an acquiring unit 22, a dividing unit 23, a road surface determining unit 24, a synthesizing unit 25, and a program stored in the ROM. An obstacle determination unit 26 , a display control unit 27 and a setting unit 28 are provided.

なお、制御部2は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成されてもよい。制御部2が備える上記した複数の処理部は、それぞれ以下に説明する情報処理の作用を実現または実行する。なお、制御部2の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。 Note that the control unit 2 may be configured by hardware such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). Each of the plurality of processing units provided in the control unit 2 implements or executes the action of information processing described below. Note that the internal configuration of the control unit 2 is not limited to the configuration shown in FIG. 2, and may be another configuration as long as it performs the information processing described later.

学習部21は、路面画像集110から複数枚(例えば、数千枚)の路面画像を取得し、路面画像を教師あり機械学習の教材として使用して路面画像機械学習モデル31を生成して記憶部3に記憶させる。 The learning unit 21 acquires a plurality of (for example, several thousand) road surface images from the road surface image collection 110, uses the road surface images as teaching materials for supervised machine learning, and generates and stores a road surface image machine learning model 31. Store in part 3.

ここで、図3を参照し、実施形態に係る路面画像集110の一例について説明する。図3は、実施形態に係る路面画像集110の一例を示す説明図である。図3に示すように、路面画像集110には、例えば、路面に実線の中央線111aが設けられた路面画像111、路面に破線の中央線112aが設けられた路面画像112、および中央線に安全地帯113aが設けられた路面画像113が含まれている。 Here, an example of the road surface image collection 110 according to the embodiment will be described with reference to FIG. FIG. 3 is an explanatory diagram showing an example of the road surface image collection 110 according to the embodiment. As shown in FIG. 3, the road surface image collection 110 includes, for example, a road surface image 111 in which a solid center line 111a is provided on the road surface, a road surface image 112 in which a broken center line 112a is provided on the road surface, and A road surface image 113 with safety zones 113a is included.

また、路面画像集110には、例えば、路面に走行速度の上限の文字114aが記載された路面画像114、この先に横断歩道があることを示すマーク115aが記載された路面画像115、および路面に横断歩道116aが設けられた路面画像116が含まれる。 Further, the road surface image collection 110 includes, for example, a road surface image 114 in which characters 114a indicating the upper limit of the traveling speed are written on the road surface, a road surface image 115 in which a mark 115a indicating that there is a pedestrian crossing ahead, and A road surface image 116 with a pedestrian crossing 116a is included.

また、路面画像集110には、例えば、路面にマンホール117aがある路面画像117、路面に道路のつなぎ目118aがある路面画像118、および路面に溝蓋119aがある路面画像119等が含まれている。このように、路面画像集110には、様々な道路構成物を含む路面画像111~119等が含まれている。 Further, the road surface image collection 110 includes, for example, a road surface image 117 with a manhole 117a on the road surface, a road surface image 118 with a road joint 118a on the road surface, and a road surface image 119 with a groove lid 119a on the road surface. . In this manner, the road surface image collection 110 includes road surface images 111 to 119 including various road components.

学習部21は、これらの被写体が路面であることが既知の各路面画像111~119について、路面の色、道路構成物の色、形、および配置等の特徴を教師あり機械学習して路面画像機械学習モデル31を生成する。 The learning unit 21 performs supervised machine learning on the features such as the color of the road surface and the color, shape, and arrangement of the road components for each of the road surface images 111 to 119 whose subject is known to be the road surface. Generate a machine learning model 31 .

図2へ戻り、制御部2が備える学習部21以外の処理部の説明を進める。ここでは、図4を合わせて参照しながら説明する。図4は、実施形態に係る走行領域判定装置1の動作の一例を示す説明図である。 Returning to FIG. 2, the description of the processing units other than the learning unit 21 included in the control unit 2 will proceed. Here, description will be made with reference to FIG. 4 as well. FIG. 4 is an explanatory diagram showing an example of the operation of the travel area determination device 1 according to the embodiment.

取得部22は、撮像装置41から車両周辺が撮像された画像を取得する。ここでは、取得部22は、図4(a)に示すように、車両の進路上に箱状の落下物101がある画像100を取得するものとする。 The acquisition unit 22 acquires an image of the surroundings of the vehicle from the imaging device 41 . Here, as shown in FIG. 4A, the acquisition unit 22 acquires an image 100 in which a box-shaped fallen object 101 is present on the path of the vehicle.

取得部22は、撮像装置41から取得した画像100を分割部23へ出力する。分割部23は、図4(a)に示すように、取得部22から入力される画像100を複数の分割領域に分割し、各分割領域の画像を路面判定部24へ出力する。路面判定部24は、記憶部3から路面画像機械学習モデル31を読出し、路面画像機械学習モデル31へ分割部23から入力される各分割領域の画像を入力する。 The acquisition unit 22 outputs the image 100 acquired from the imaging device 41 to the division unit 23 . As shown in FIG. 4A, the dividing unit 23 divides the image 100 input from the obtaining unit 22 into a plurality of divided regions, and outputs the image of each divided region to the road surface determination unit 24 . The road surface determination unit 24 reads the road surface image machine learning model 31 from the storage unit 3 and inputs the image of each divided area input from the dividing unit 23 to the road surface image machine learning model 31 .

路面画像機械学習モデル31は、概念的には、図4(b)に示すように、入力層31a、中間層31b、および出力層31cという3層構造の処理層を備える。なお、図4(a)では、中間層31bが1層である場合を示しているが、中間層31bは複数層設けられてもよい。 The road surface image machine learning model 31 conceptually has three processing layers, an input layer 31a, an intermediate layer 31b, and an output layer 31c, as shown in FIG. 4(b). In addition, although FIG. 4A shows the case where the intermediate layer 31b is one layer, the intermediate layer 31b may be provided in plural layers.

入力層31a、中間層31b、および出力層31cは、各分割領域の画像の路面判定を並行して行う複数のノード31zを備える。入力層31aの各ノード31zは、それぞれ中間層31bの全ノード31zと接続される。中間層31bの各ノード31zは、それぞれ出力層31cの全ノード31zと接続される。このように、路面画像機械学習モデル31は、ノード31z同士が接続されたニューラルネットワーク構造となっている。 The input layer 31a, the intermediate layer 31b, and the output layer 31c are provided with a plurality of nodes 31z for parallelly performing road surface determination of the image of each divided area. Each node 31z of the input layer 31a is connected to all the nodes 31z of the intermediate layer 31b. Each node 31z of the intermediate layer 31b is connected to all the nodes 31z of the output layer 31c. Thus, the road surface image machine learning model 31 has a neural network structure in which the nodes 31z are connected to each other.

入力層31aの各ノード31zは、分割部23から順次入力される各分割領域の画像が路面か否かを判定し、路面である可能性が高い程高い重み付けをした判定結果を中間層31bのノード31zへ出力する。 Each node 31z of the input layer 31a determines whether or not the image of each divided region sequentially input from the dividing unit 23 is a road surface. Output to node 31z.

中間層31bの各ノード31zも同様に、各分割領域の画像が路面か否かを判定し、路面である可能性が高い程高い重み付けをした判定結果を出力層31cのノード31zへ出力する。 Similarly, each node 31z of the intermediate layer 31b determines whether or not the image of each divided area is a road surface, and outputs a determination result weighted higher to the node 31z of the output layer 31c if the image is likely to be a road surface.

出力層31cの各ノード31zは、各分割領域の画像が路面か否かを判定し、判定結果31dを出力する。なお、図4(b)には、画像100における下から2行目の分割領域の判定結果31dを示している。 Each node 31z of the output layer 31c determines whether or not the image of each divided area is a road surface, and outputs a determination result 31d. In addition, FIG. 4B shows the determination result 31d of the divided area in the second row from the bottom in the image 100. As shown in FIG.

図4(b)に示す例では、路面画像機械学習モデル31は、画像100における下から2行目の分割領域について、左から2番目および3番目の分割領域の画像以外を路面と判定している。 In the example shown in FIG. 4(b), the road surface image machine learning model 31 determines that the second divided area from the bottom of the image 100 except for the images of the second and third divided areas from the left is the road surface. there is

路面判定部24は、各分割領域の画像に対して路面画像機械学習モデル31による判定結果31dを付与して合成部25へ出力する。合成部25は、図4(c)に示すように、路面判定部24から入力される分割領域の画像を画像合成して分割前の画像100に戻して障害物判定部26へ出力する。 The road surface determination unit 24 assigns the determination result 31 d by the road surface image machine learning model 31 to the image of each divided area, and outputs the image to the synthesis unit 25 . As shown in FIG. 4( c ), the synthesizing unit 25 synthesizes the images of the divided regions input from the road surface determining unit 24 , restores the image 100 before division, and outputs the image 100 to the obstacle determining unit 26 .

障害物判定部26は、合成部25から入力される画像合成された画像100の各分割領域に付与された路面か否かを示す判定結果に基づいて、画像100の分割領域毎に障害物が存在する可能性がある領域があるか否かを判定する。 The obstacle determination unit 26 determines whether an obstacle exists in each divided area of the image 100 based on the determination result indicating whether or not it is a road surface given to each divided area of the combined image 100 input from the synthesizing unit 25 . Determine whether there is an area that may exist.

障害物判定部26は、画像100の各分割領域に付与された路面か否かを示す判定結果に基づいて、画像100の分割領域毎に障害物が存在する可能性がない領域があるか否かについても判定する。このように、障害物判定部26は、画像100の分割領域毎に判定することによって、障害物が存在する可能性がある領域を正確に判定することができる。 The obstacle determination unit 26 determines whether or not there is an area in which there is no possibility of an obstacle existing in each divided area of the image 100 based on the determination result indicating whether or not the divided area of the image 100 is a road surface. It is also determined whether In this manner, the obstacle determination unit 26 can accurately determine a region in which an obstacle may exist by performing determination for each divided region of the image 100 .

また、障害物判定部26は、障害物が存在する可能性がある領域がある場合、走行車線における障害物が存在する可能性がある領域の位置および大きさが車両の走行に支障をきたす場合に警告が必要と判定し、警告装置42によって車両の運転者へ警告させる。そして、障害物判定部26は、合成部25から入力される画像100と、画像100における障害物が存在する可能性がある領域の位置を示す情報を表示制御部27へ出力する。 In addition, when there is an area where an obstacle may exist, the obstacle determination unit 26 determines whether the position and size of the area in the driving lane where an obstacle may exist interferes with the running of the vehicle. , the warning device 42 warns the driver of the vehicle. Then, the obstacle determination section 26 outputs the image 100 input from the synthesizing section 25 and information indicating the position of the area in the image 100 in which an obstacle may exist to the display control section 27 .

表示制御部27は、障害物判定部26から入力される画像100を画像表示装置43によって表示させる。さらに、表示制御部27は、図4(c)に示すように、画像100における車両の走行車線の中で障害物判定部26によって障害物が存在する可能性があると判定された領域A2以外の領域A1を走行可能領域として画像表示装置43により強調表示させる。 The display control unit 27 causes the image display device 43 to display the image 100 input from the obstacle determination unit 26 . Furthermore, as shown in FIG. 4(c), the display control unit 27 displays the vehicle driving lane in the image 100 other than the area A2 where the obstacle determination unit 26 determines that an obstacle may exist. The image display device 43 highlights the area A1 as a travelable area.

これにより、表示制御部27は、車両の走行可能領域をユーザに対して明確に報知することができる。その後、表示制御部27は、画像100における障害物が存在する可能性がある領域の位置を示す情報を設定部28へ出力する。 Accordingly, the display control unit 27 can clearly notify the user of the vehicle travelable area. After that, the display control unit 27 outputs to the setting unit 28 information indicating the position of the area in the image 100 where an obstacle may exist.

設定部28は、画像100における障害物が存在する可能性がある領域の位置を回避する走行経路L1(走行可能領域を繋いだ経路)を導出し、導出した走行経路L1を示す情報を車両制御装置44へ出力して走行経路の設定を行う。これにより、車両制御装置44は、設定される走行経路L1を走行するように車両を制御することによって、落下物101を回避させることができる。 The setting unit 28 derives a travel route L1 (a route connecting travelable regions) that avoids the position of an area in which an obstacle may exist in the image 100, and transmits information indicating the derived travel route L1 to vehicle control. The information is output to the device 44 to set the travel route. Accordingly, the vehicle control device 44 can avoid the falling object 101 by controlling the vehicle to travel along the set travel route L1.

次に、図5を参照し、実施形態に係る走行領域判定装置1の制御部2が実行する処理の一例について説明する。図5は、実施形態に係る走行領域判定装置1の制御部2が実行する処理の一例を示すフローチャートである。制御部2は、走行領域判定装置1の動作中(車両駆動中やエンジン動作中等)の期間に図5に示すフローチャートの処理を繰り返し実行する。 Next, an example of processing executed by the control unit 2 of the travel area determination device 1 according to the embodiment will be described with reference to FIG. 5 . FIG. 5 is a flowchart showing an example of processing executed by the control unit 2 of the travel area determination device 1 according to the embodiment. The control unit 2 repeatedly executes the processing of the flowchart shown in FIG. 5 during the operation of the driving area determination device 1 (while the vehicle is being driven, the engine is operating, etc.).

図5に示すように、制御部2は、まず、撮像装置41から車両の周囲が撮像された画像を取得する(ステップS101)。その後、制御部2は、取得した画像を複数の分割領域に分割する(ステップS102)。 As shown in FIG. 5, the control unit 2 first acquires an image of the surroundings of the vehicle from the imaging device 41 (step S101). After that, the control unit 2 divides the acquired image into a plurality of divided areas (step S102).

続いて、制御部2は、分割領域内の画像が路面か否かの路面判定を行い(ステップS103)、各分割領域に対して判定結果を付与する(ステップS104)。その後、制御部2は、1フレームの画像の中で未判定の分割領域があるか否かを判定する(ステップS105)。 Subsequently, the control unit 2 determines whether or not the image in the divided area is a road surface (step S103), and gives the determination result to each divided area (step S104). After that, the control unit 2 determines whether or not there is an undetermined divided area in the image of one frame (step S105).

そして、制御部2は、未判定の分割領域があると判定した場合(ステップS105,Yes)、未判定の分割領域がなくなるまでステップS103~ステップS105の処理を繰り返す。 If the control unit 2 determines that there is an undetermined divided area (step S105, Yes), it repeats the processing of steps S103 to S105 until there is no undetermined divided area.

また、制御部2は、未判定の分割領域がないと判定した場合(ステップS105,No)、分割領域の画像を画像合成して(ステップS106)画像を分割前の画像に戻す。その後、制御部2は、各分割領域に付与した判定結果に基づいて障害物が存在する可能性がある障害物領域があるか否かを分割領域毎に判定する(ステップS107)。 If the control unit 2 determines that there is no undetermined divided area (step S105, No), it synthesizes the images of the divided areas (step S106) and returns the image to the image before division. After that, the control unit 2 determines for each divided area whether or not there is an obstacle area in which an obstacle may exist based on the determination result given to each divided area (step S107).

そして、制御部2は、障害物領域がないと判定した場合(ステップS107,No)、処理を終了する。また、制御部2は、障害物領域があると判定した場合(ステップS107,Yes)、警告が必要か否かを判定する(ステップS108)。 Then, when the controller 2 determines that there is no obstacle area (step S107, No), the process ends. Further, when the controller 2 determines that there is an obstacle area (step S107, Yes), it determines whether or not a warning is necessary (step S108).

制御部2は、障害物の位置が路肩であったり、障害物領域の大きさ(面積)が閾値以下であったりして、車両の走行に支障をきたさない場合に、警告が必要ないと判定する。そして、制御部2は、警告が必要でないと判定した場合(ステップS108,No)、処理を終了する。また、制御部2は、警告が必要であると判定した場合(ステップS108,Yes)、警告装置42によって警告を行わせる(ステップS109)。 The control unit 2 determines that a warning is not necessary when the position of the obstacle is on the road shoulder or the size (area) of the obstacle area is equal to or less than a threshold value and does not hinder the running of the vehicle. do. Then, when the controller 2 determines that the warning is not necessary (step S108, No), the process ends. If the controller 2 determines that a warning is necessary (step S108, Yes), the warning device 42 issues a warning (step S109).

続いて、制御部2は、画像表示装置43によって表示させる車両周囲の画像の中で車両の走行車線における障害物領域以外の走行可能領域を強調表示させる(ステップS110)。なお、制御部2は、このとき、障害物領域を強調表示させることもできる。また、制御部2は、このとき、障害物領域を回避する走行経路を表示画像中に重畳表示させることもできる。 Subsequently, the control unit 2 highlights the drivable area other than the obstacle area in the lane in which the vehicle is traveling in the image around the vehicle displayed by the image display device 43 (step S110). At this time, the control unit 2 can also highlight the obstacle area. At this time, the control unit 2 can also superimpose a travel route avoiding the obstacle area on the display image.

その後、制御部2は、障害物領域を回避する走行経路を示す情報を車両制御装置44へ出力して走行経路設定を行い(ステップS111)、処理を終了する。制御部2は、撮像装置41から画像を取得する毎に、かかるステップS101~ステップS110の処理を実行する。 After that, the control unit 2 outputs information indicating a travel route that avoids the obstacle area to the vehicle control device 44, sets the travel route (step S111), and ends the process. The control unit 2 executes the processing of steps S101 to S110 each time an image is acquired from the imaging device 41. FIG.

なお、制御部2が実行する処理は、図5に示す処理に限定されるものではない。制御部2は、例えば、上記したステップS101の処理の後に、道路外領域(図1に示す領域Aや画像100における地平線よりも上の領域)を判定して、路面判定処理の処理範囲を限定したり、道路外領域の表示に用いることもできる。 Note that the processing executed by the control unit 2 is not limited to the processing shown in FIG. For example, after the process of step S101 described above, the control unit 2 determines an area outside the road (area A shown in FIG. 1 or an area above the horizon in the image 100) to limit the processing range of the road surface determination process. Alternatively, it can be used to display an area outside the road.

また、上述した実施形態では、走行領域判定装置1が路面画像機械学習モデル31を使用して画像が路面であるか否かを判定したが、画像が路面であるか否かをパターンマッチング処理によって判定してもよい。次に、図6を参照して画像が路面であるか否かをパターンマッチング処理によって判定する走行領域判定装置1aについて説明する。 In the above-described embodiment, the driving area determination device 1 uses the road surface image machine learning model 31 to determine whether or not the image is the road surface. You can judge. Next, with reference to FIG. 6, the travel area determination device 1a that determines whether or not an image is a road surface by pattern matching processing will be described.

図6は、実施形態の変形例に係る走行領域判定装置1aの構成の一例を示すブロック図である。ここでは、図6に示す構成要素のうち、図2に示す構成要素と同一の構成要素については、図2に示す構成要素と同一の符号を付することにより、その説明を省略する。 FIG. 6 is a block diagram showing an example of the configuration of a travel area determination device 1a according to a modification of the embodiment. Here, among the constituent elements shown in FIG. 6, the constituent elements that are the same as the constituent elements shown in FIG. 2 are given the same reference numerals as the constituent elements shown in FIG.

図6に示すように、走行領域判定装置1aは、制御部2aの構成および記憶部3aに記憶される情報が図2に示す走行領域判定装置1とは異なる。記憶部3aは、道路形成物画像32を記憶する。 As shown in FIG. 6, the driving area determination device 1a differs from the driving area determination device 1 shown in FIG. 2 in the configuration of the control unit 2a and the information stored in the storage unit 3a. The storage unit 3 a stores the road formation image 32 .

道路形成物画像32は、例えば、図3に示す道路、実線の中央線111a、破線の中央線112a、安全地帯113a、文字114a、マーク115a、横断歩道116a、マンホール117a、道路のつなぎ目118a、および溝蓋119a等の画像が含まれる。 The road structure image 32 includes, for example, the road shown in FIG. An image such as the gutter lid 119a is included.

また、制御部2aは、取得部22、路面判定部24a、障害物判定部26、表示制御部27、および設定部28を備える。制御部2aが備えるこれら複数の処理部のうち、路面判定部24a以外の処理部は、図2示す取得部22、障害物判定部26、表示制御部27、および設定部28と同様の処理を行う。 The control unit 2a also includes an acquisition unit 22, a road surface determination unit 24a, an obstacle determination unit 26, a display control unit 27, and a setting unit . Of these plurality of processing units included in the control unit 2a, the processing units other than the road surface determination unit 24a perform the same processing as the acquisition unit 22, the obstacle determination unit 26, the display control unit 27, and the setting unit 28 shown in FIG. conduct.

路面判定部24aは、取得部22から入力される車両の周囲が撮像された画像に対して、道路形成物画像32に含まれる複数種類の道路形成物の画像を使用したパターンマッチング処理を行うことによって、画像における路面の領域を判定する。 The road surface determination unit 24a performs pattern matching processing using images of a plurality of types of road formations included in the road formations image 32 on the image of the surroundings of the vehicle input from the acquisition unit 22. determines the area of the road surface in the image.

そして、路面判定部24aは、車両の走行車線の中で路面と判定した領域の位置を示す情報を障害物判定部26へ出力する。これにより、障害物判定部26は、車両の走行車線の中で路面判定部24aによって路面と判定された領域以外の領域を障害物が存在する可能性がある障害物領域と判定することができる。 Then, the road surface determination unit 24a outputs to the obstacle determination unit 26 information indicating the position of the area determined to be the road surface in the lane in which the vehicle is traveling. As a result, the obstacle determination unit 26 can determine an area other than the area determined to be the road surface by the road surface determination unit 24a in the lane in which the vehicle is traveling, as an obstacle area in which an obstacle may exist. .

このように、走行領域判定装置1aは、パターンマッチング処理によって画像が路面か否かを判定することができるので、路面画像機械学習モデル31を使用しなくても、より簡易な処理で障害物が存在する可能性がある障害物領域と判定することができる。 As described above, the traveling area determination device 1a can determine whether or not an image is a road surface by pattern matching processing. It can be determined as an obstacle area that may exist.

なお、上述した実施形態では、走行領域判定装置1が学習部21を備える場合について説明したが、実施形態に係る走行領域判定装置は、必ずしも学習部21を備えていなくてもよい。走行領域判定装置は、他の機械学習装置によって被写体が路面であることが既知の複数の画像を用いて機械学習して生成された路面画像機械学習モデル31を記憶しておくことで上述した障害物判定処理を行うことができる。 In the above-described embodiment, the case where the travel area determination device 1 includes the learning unit 21 has been described, but the travel area determination device according to the embodiment does not necessarily include the learning unit 21 . The driving area determination device stores the road surface image machine learning model 31 generated by machine learning using a plurality of images known by another machine learning device that the subject is the road surface. Object judgment processing can be performed.

この場合、例えば、車両に搭載される走行領域判定装置1と無線通信可能に接続されるセンター側の情報処理装置は、被写体が路面であることが既知の複数の画像を取得する。
そして、情報処理装置は、取得した複数の画像を機械学習することによって路面画像機械学習モデル(車両が安全に走行可能な走行領域の機械学習モデル)を生成し、走行領域判定装置1へ配信する。
In this case, for example, the information processing device on the center side, which is wirelessly communicably connected to the traveling area determination device 1 mounted on the vehicle, acquires a plurality of images in which it is known that the subject is the road surface.
Then, the information processing device performs machine learning on the plurality of acquired images to generate a road surface image machine learning model (a machine learning model of a travel area in which the vehicle can safely travel), and distributes it to the travel area determination device 1. .

これにより、走行領域判定装置1は、センター側の情報処理装置から配信される路面画像機械学習モデルを使用することによって、上述した障害物判定処理を行うことができる。なお、センター側の情報処理装置は、走行領域判定装置1に加え、車両の道路走行を支援する任意の道路走行支援装置へ路面画像機械学習モデルを配信して道路走行支援に使用させることもできる。 As a result, the travel area determination device 1 can perform the above-described obstacle determination processing by using the road surface image machine learning model distributed from the information processing device on the center side. In addition to the driving area determination device 1, the information processing device on the center side can distribute the road surface image machine learning model to any road driving support device that supports the road driving of the vehicle, so that it can be used for road driving support. .

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and modifications can be easily derived by those skilled in the art. Therefore, the broader aspects of the invention are not limited to the specific details and representative embodiments so shown and described. Accordingly, various changes may be made without departing from the spirit or scope of the general inventive concept defined by the appended claims and equivalents thereof.

1,1a 走行領域判定装置
2,2a 制御部
21 学習部
22 取得部
23 分割部
24,24a 路面判定部
25 合成部
26 障害物判定部
27 表示制御部
28 設定部
3,3a 記憶部
31 路面画像機械学習モデル
32 道路形成物画像
41 撮像装置
42 警告装置
43 画像表示装置
44 車両制御装置
Reference Signs List 1, 1a running area determination device 2, 2a control unit 21 learning unit 22 acquisition unit 23 division unit 24, 24a road surface determination unit 25 synthesis unit 26 obstacle determination unit 27 display control unit 28 setting unit 3, 3a storage unit 31 road surface image Machine learning model 32 Road formation image 41 Imaging device 42 Warning device 43 Image display device 44 Vehicle control device

Claims (8)

撮像装置から車両の周囲が撮像された画像を取得する取得部と、
既知の複数の路面画像のみを用いて機械学習した路面機械学習モデルにより、前記取得部によって取得された画像における特定領域が路面であることを判定する判定部を備え、
前記判定部は、路面であると判定されなかった領域を前記車両の走行に不適な走行不適領域と判定する
ことを特徴とする走行領域判定装置。
an acquisition unit that acquires an image of the surroundings of the vehicle from the imaging device;
A determination unit that determines that a specific area in the image acquired by the acquisition unit is a road surface by a road surface machine learning model machine-learned using only a plurality of known road surface images,
The travel area determination device, wherein the determination unit determines an area that is not determined to be a road surface as an unsuitable travel area for the vehicle to travel.
前記取得部によって取得された画像を複数に分割して前記特定領域とする分割部
をさらに備える
ことを特徴とする請求項1に記載の走行領域判定装置。
The driving region determination device according to claim 1, further comprising: a dividing unit that divides the image acquired by the acquiring unit into a plurality of pieces to form the specific regions.
前記判定部は、
路面と判定した前記特定領域を走行好適領域と判定する
ことを特徴とする請求項1または請求項2に記載の走行領域判定装置。
The determination unit is
The travel area determination device according to claim 1 or 2, wherein the specific area determined as a road surface is determined as a suitable travel area.
前記判定部は、
前記取得部によって取得された画像における前記車両の走行車線内の領域について前記特定領域を判定する
ことを特徴とする請求項1~3のいずれか一つに記載の走行領域判定装置。
The determination unit is
4. The driving area determination device according to claim 1, wherein the specific area is determined for an area within the driving lane of the vehicle in the image acquired by the acquisition unit.
前記取得部によって取得された画像における前記車両の走行車線の中で前記判定部によって走行好適領域と判定された領域を表示装置によって強調表示させる表示制御部
をさらに備えることを特徴とする請求項3に記載の走行領域判定装置。
4. A display control unit that causes a display device to highlight an area determined by the determining unit to be a suitable driving area in the driving lane of the vehicle in the image acquired by the acquiring unit, further comprising a display control unit. 2. The traveling area determination device according to 1.
前記取得部によって取得された画像における前記走行好適領域を前記車両の走行経路として設定する設定部
をさらに備えることを特徴とする請求項3または請求項5に記載の走行領域判定装置。
6. The travel area determination device according to claim 3, further comprising a setting unit that sets the suitable travel area in the image acquired by the acquisition unit as a travel route of the vehicle.
撮像装置から車両の周囲が撮像された画像を取得する取得工程と、
知の複数の路面画像のみを用いて機械学習した路面機械学習モデルにより、前記取得工程によって取得された画像における特定領域が路面であることを判定する判定工程とを含み、
前記判定工程は、路面であると判定されなかった領域を前記車両の走行に不適な走行不適領域と判定する
ことを特徴とする走行領域判定方法。
an acquisition step of acquiring an image in which the surroundings of the vehicle are captured from the imaging device;
A determination step of determining that a specific area in the image acquired by the acquisition step is a road surface by a road surface machine learning model machine -learned using only a plurality of known road surface images,
The driving area determining method, wherein the determining step determines an area not determined to be a road surface as an unsuitable driving area unsuitable for driving the vehicle.
道路走行支援を行う道路走行支援装置によって使用される車両の走行に不適な走行不適領域である路面障害物を検出する路面画像機械学習モデルの生成方法であって、
被写体が路面であることが既知の複数の画像から路面のみを機械学習して、路面画像機械学習モデルを生成する生成工程
を含むことを特徴とする路面画像機械学習モデルの生成方法。
A method for generating a road surface image machine learning model for detecting a road surface obstacle that is an unsuitable driving area for a vehicle used by a road driving support device that performs road driving support,
A method of generating a road surface image machine learning model, comprising: generating a road surface image machine learning model by machine learning only the road surface from a plurality of images known to be road surfaces as objects.
JP2018104596A 2018-05-31 2018-05-31 Driving area determination device, driving area determination method, and road surface image machine learning model generation method Active JP7203514B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018104596A JP7203514B2 (en) 2018-05-31 2018-05-31 Driving area determination device, driving area determination method, and road surface image machine learning model generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018104596A JP7203514B2 (en) 2018-05-31 2018-05-31 Driving area determination device, driving area determination method, and road surface image machine learning model generation method

Publications (2)

Publication Number Publication Date
JP2019211822A JP2019211822A (en) 2019-12-12
JP7203514B2 true JP7203514B2 (en) 2023-01-13

Family

ID=68845254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018104596A Active JP7203514B2 (en) 2018-05-31 2018-05-31 Driving area determination device, driving area determination method, and road surface image machine learning model generation method

Country Status (1)

Country Link
JP (1) JP7203514B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111402609A (en) * 2020-03-17 2020-07-10 北京百度网讯科技有限公司 Special lane driving reminding method, device, equipment and storage medium
WO2023209755A1 (en) * 2022-04-25 2023-11-02 日本電気株式会社 Travel environment determination device, vehicle, travel environment determination method, and recording medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010176194A (en) 2009-01-27 2010-08-12 Denso Corp Device and method for warning of lane deviation
JP2011039732A (en) 2009-08-10 2011-02-24 Ihi Corp Image display device for vehicle control, and method of the same
JP2015057688A (en) 2013-08-12 2015-03-26 株式会社日本自動車部品総合研究所 Travel route generation apparatus
JP2017016474A (en) 2015-07-02 2017-01-19 富士通テン株式会社 Obstacle detection system and obstacle detection method
WO2017145645A1 (en) 2016-02-25 2017-08-31 富士フイルム株式会社 Driving assistance apparatus, driving assistance method, and driving assistance program
JP2017215939A (en) 2016-05-27 2017-12-07 株式会社東芝 Information processor, vehicle, information processing method and program
JP2018022234A (en) 2016-08-01 2018-02-08 クラリオン株式会社 Image processing device and environment recognition device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010176194A (en) 2009-01-27 2010-08-12 Denso Corp Device and method for warning of lane deviation
JP2011039732A (en) 2009-08-10 2011-02-24 Ihi Corp Image display device for vehicle control, and method of the same
JP2015057688A (en) 2013-08-12 2015-03-26 株式会社日本自動車部品総合研究所 Travel route generation apparatus
JP2017016474A (en) 2015-07-02 2017-01-19 富士通テン株式会社 Obstacle detection system and obstacle detection method
WO2017145645A1 (en) 2016-02-25 2017-08-31 富士フイルム株式会社 Driving assistance apparatus, driving assistance method, and driving assistance program
JP2017215939A (en) 2016-05-27 2017-12-07 株式会社東芝 Information processor, vehicle, information processing method and program
JP2018022234A (en) 2016-08-01 2018-02-08 クラリオン株式会社 Image processing device and environment recognition device

Also Published As

Publication number Publication date
JP2019211822A (en) 2019-12-12

Similar Documents

Publication Publication Date Title
US10853670B2 (en) Road surface characterization using pose observations of adjacent vehicles
CN106663193B (en) System and method for curb detection and pedestrian hazard assessment
CN106461774B (en) Senior Officer's auxiliary system based on radar prompt visual imaging
JP4450023B2 (en) Own vehicle risk acquisition device
JP4981808B2 (en) Vehicle start control method and driver support system based on sensor
US9569673B2 (en) Method and device for detecting a position of a vehicle on a lane
JP6337961B2 (en) Signal recognition device and signal recognition method
JP2009037622A (en) Method and device for evaluating image
JP7009042B2 (en) A device that can operate to determine the position of a part of the lane
EP3054400B1 (en) Traveling road surface detection device and traveling road surface detection method
JP5574789B2 (en) Vehicle periphery monitoring device and vehicle periphery monitoring method
JP2008123462A (en) Object detector
JP6431204B2 (en) State prediction apparatus and state prediction method
CN108327723A (en) By unsupervised learning to image tracing
JP7203514B2 (en) Driving area determination device, driving area determination method, and road surface image machine learning model generation method
JP2018124768A (en) Vehicle control device
JPWO2020066505A1 (en) Recognition device
US11442456B2 (en) Apparatus for determining lane change path of autonomous vehicle and method thereof
CN109076197A (en) Display control unit
JP2009053818A (en) Image processor and method thereof
JP2020112417A (en) Travel lane estimation device, travel lane estimation method, and control program
JP2015225546A (en) Object detection device, drive support apparatus, object detection method, and object detection program
JPWO2020261567A5 (en)
JP6115429B2 (en) Own vehicle position recognition device
JP2007264717A (en) Lane deviation decision device, lane deviation prevention device and lane follow-up supporting device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210429

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221227

R150 Certificate of patent or registration of utility model

Ref document number: 7203514

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150