JP6948365B2 - Programs, devices, and methods for calculating the vanishing point - Google Patents

Programs, devices, and methods for calculating the vanishing point Download PDF

Info

Publication number
JP6948365B2
JP6948365B2 JP2019167271A JP2019167271A JP6948365B2 JP 6948365 B2 JP6948365 B2 JP 6948365B2 JP 2019167271 A JP2019167271 A JP 2019167271A JP 2019167271 A JP2019167271 A JP 2019167271A JP 6948365 B2 JP6948365 B2 JP 6948365B2
Authority
JP
Japan
Prior art keywords
vanishing point
estimated
points
point
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019167271A
Other languages
Japanese (ja)
Other versions
JP2021043143A (en
Inventor
浩大 本多
浩大 本多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mobility Technologies Co Ltd
Original Assignee
Mobility Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mobility Technologies Co Ltd filed Critical Mobility Technologies Co Ltd
Priority to JP2019167271A priority Critical patent/JP6948365B2/en
Publication of JP2021043143A publication Critical patent/JP2021043143A/en
Application granted granted Critical
Publication of JP6948365B2 publication Critical patent/JP6948365B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)

Description

本発明は、撮影画像における消失点を算出するためのプログラム、装置、及び方法に関するものである。 The present invention relates to a program, an apparatus, and a method for calculating a vanishing point in a captured image.

従来、車両に配置されたカメラの撮影画像における消失点を用いた様々な技術が提案されている。例えば、下記特許文献1は、車両前方の撮像画像の中から対象車両画像及び消失点を検出し、これらの対象車両画像及び消失点に基づいて、当該対象車両までの距離(車間距離)を算出する装置を開示している。また、例えば、下記特許文献2は、車両前方の景色の撮影画像に基づいて車両前方側の視界における消失点を算出し、当該消失点に基づいて、車両の前照灯(ヘッドライト)を制御する装置を開示している。 Conventionally, various techniques using vanishing points in images taken by a camera placed in a vehicle have been proposed. For example, Patent Document 1 below detects a target vehicle image and a vanishing point from images captured in front of the vehicle, and calculates a distance (inter-vehicle distance) to the target vehicle based on the target vehicle image and the vanishing point. The device to be used is disclosed. Further, for example, in Patent Document 2 below, a vanishing point in the field of view on the front side of the vehicle is calculated based on a photographed image of the scenery in front of the vehicle, and the headlight of the vehicle is controlled based on the vanishing point. The device to be used is disclosed.

特開2014−167397号公報Japanese Unexamined Patent Publication No. 2014-167397 特開2019−10962号公報Japanese Unexamined Patent Publication No. 2019-10962

しかしながら、車両の走行中において、車体の振動等によってカメラの向きが変化すると、撮影画像における消失点の位置も変化してしまう場合がある。こうした消失点の位置の変化は、上述した車間距離の算出、及び、前照灯の制御等の消失点を利用する様々な処理に対して影響を与えてしまう可能性がある。 However, if the direction of the camera changes due to vibration of the vehicle body or the like while the vehicle is running, the position of the vanishing point in the captured image may also change. Such a change in the position of the vanishing point may affect the above-mentioned calculation of the inter-vehicle distance and various processes using the vanishing point such as control of the headlight.

本発明の実施形態は、車両に配置されたカメラの撮影画像における消失点の適切な算出を支援することを目的の一つとする。本発明の実施形態の他の目的は、本明細書全体を参照することにより明らかとなる。 One of the objects of the embodiment of the present invention is to support an appropriate calculation of a vanishing point in an image captured by a camera arranged in a vehicle. Other objects of the embodiments of the present invention will become apparent by reference to the entire specification.

本発明の一実施形態に係るプログラムは、1又は複数のコンピュータに、車両に配置されたカメラの撮影画像における第1消失点を算出するステップと、前記撮影画像内の車線の境界線上の点と推定される複数の推定点を検出し、前記第1消失点及び前記複数の推定点に少なくとも基づいて、第2消失点を算出するステップと、を実行させる。ここで、本明細書において、「消失点」は、遠近法や透視図法において平行な直線群が集まる点として定義され、「消点」及び「無限遠点」等が含まれる。 A program according to an embodiment of the present invention includes a step of calculating a first vanishing point in an image captured by a camera arranged in a vehicle on one or a plurality of computers, and a point on a lane boundary in the captured image. A step of detecting a plurality of estimated vanishing points and calculating a second vanishing point based on at least the first vanishing point and the plurality of vanishing points is executed. Here, in the present specification, the "vanishing point" is defined as a point where parallel straight lines are gathered in perspective and perspective projection, and includes "vanishing point", "point at infinity" and the like.

本発明の一実施形態に係る装置は、車両に配置されたカメラの撮影画像内の車線の境界線上の点と推定される複数の推定点を検出するように構成された推定点検出部と、前記撮影画像における消失点を算出するように構成された消失点算出部と、を備え、前記消失点算出部は、前記撮影画像における第1消失点及び前記複数の推定点に少なくとも基づいて、第2消失点を算出するように構成されている。 An apparatus according to an embodiment of the present invention includes an estimation point detection unit configured to detect a plurality of estimation points estimated to be points on a lane boundary in an image captured by a camera arranged in a vehicle. A vanishing point calculation unit configured to calculate a vanishing point in the captured image is provided, and the vanishing point calculation unit is a first vanishing point calculation unit based on at least the first vanishing point and the plurality of estimated points in the captured image. 2 It is configured to calculate the vanishing point.

本発明の一実施形態に係る方法は、車両に配置されたカメラの撮影画像における第1消失点を算出する工程と、前記撮影画像内の車線の境界線上の点と推定される複数の推定点を検出し、前記第1消失点及び前記複数の推定点に少なくとも基づいて第2消失点を算出する工程と、を備える。 A method according to an embodiment of the present invention includes a step of calculating a first vanishing point in an image captured by a camera arranged in a vehicle, and a plurality of estimated points estimated to be points on a lane boundary line in the captured image. Is included, and a step of calculating a second vanishing point based on at least the first vanishing point and the plurality of estimated points is provided.

本発明の様々な実施形態は、車両に配置されたカメラの撮影画像における消失点の適切な算出を支援する。 Various embodiments of the present invention support the proper calculation of vanishing points in images captured by a camera placed in a vehicle.

本発明の一実施形態に係る車載装置10の構成を概略的に示す構成図。FIG. 6 is a configuration diagram schematically showing a configuration of an in-vehicle device 10 according to an embodiment of the present invention. 車載装置10が実行する消失点の算出に関する処理を例示するフロー図。FIG. 6 is a flow chart illustrating a process related to calculation of a vanishing point executed by the in-vehicle device 10. 本実施形態における推定点を説明するための図。The figure for demonstrating the estimation point in this embodiment. 複数の推定点をグルーピングする際に車載装置10の消失点算出部114が実行する処理を例示するフロー図。FIG. 5 is a flow chart illustrating a process executed by the vanishing point calculation unit 114 of the vehicle-mounted device 10 when grouping a plurality of estimated points. 推定点のグルーピングの手順を説明するための図。The figure for demonstrating the procedure of grouping of estimated points. 推定点のグルーピングの手順を説明するための図。The figure for demonstrating the procedure of grouping of estimated points. 仮消失点を算出する手順を説明するための図。The figure for demonstrating the procedure for calculating a temporary vanishing point. 車載装置10が実行する車間距離の算出に関する処理を例示するフロー図である。FIG. 5 is a flow chart illustrating a process related to calculation of an inter-vehicle distance executed by the in-vehicle device 10. 車両が検出される撮影画像20を例示する図。The figure which illustrates the photographed image 20 in which a vehicle is detected. 車間距離を算出する方法を説明するための図。The figure for demonstrating the method of calculating the inter-vehicle distance.

以下、図面を参照しながら、本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る車載装置10の構成を概略的に示す構成図である。装置10は、一般的なコンピュータとして構成されており、図示するように、コンピュータプロセッサ11と、メインメモリ12と、入出力I/F13と、通信I/F14と、ストレージ(記憶装置)15とを備え、これらの各構成要素が図示しないバス等を介して電気的に接続されている。車載装置10は、自動車等の車両に搭載されて使用される。 FIG. 1 is a configuration diagram schematically showing a configuration of an in-vehicle device 10 according to an embodiment of the present invention. The device 10 is configured as a general computer, and as shown in the figure, a computer processor 11, a main memory 12, an input / output I / F 13, a communication I / F 14, and a storage (storage device) 15. Each of these components is electrically connected via a bus or the like (not shown). The in-vehicle device 10 is mounted and used in a vehicle such as an automobile.

コンピュータプロセッサ11は、CPU及びGPU等として構成され、ストレージ15等に記憶されている様々なプログラムをメインメモリ12に読み込んで、当該プログラムに含まれる各種の命令を実行する。メインメモリ12は、例えば、DRAM等によって構成される。 The computer processor 11 is configured as a CPU, a GPU, and the like, reads various programs stored in the storage 15 and the like into the main memory 12, and executes various instructions included in the programs. The main memory 12 is composed of, for example, a DRAM or the like.

入出力I/F13は、ユーザ等との間で情報をやり取りするための各種の入出力装置を含む。入出力I/F13は、例えば、ポインティングデバイス(例えば、タッチパネル等)、物理ボタン等の情報入力装置、マイクロフォン等の音声入力装置、カメラ等の画像入力装置を含む。また、入出力I/F13は、ディスプレイ等の画像出力装置(表示装置)、スピーカー等の音声出力装置を含む。 The input / output I / F 13 includes various input / output devices for exchanging information with a user or the like. The input / output I / F 13 includes, for example, a pointing device (for example, a touch panel), an information input device such as a physical button, a voice input device such as a microphone, and an image input device such as a camera. Further, the input / output I / F 13 includes an image output device (display device) such as a display and an audio output device such as a speaker.

本実施形態において、入出力I/F13は、カメラ131を含む。車載装置10は、当該装置10が搭載されている車両の前方がカメラ131の視野となると共に、当該カメラ131の光軸が路面と平行となるように設置される。 In this embodiment, the input / output I / F 13 includes a camera 131. The in-vehicle device 10 is installed so that the front of the vehicle on which the device 10 is mounted is the field of view of the camera 131 and the optical axis of the camera 131 is parallel to the road surface.

通信I/F14は、ネットワークアダプタ等のハードウェア、各種の通信用ソフトウェア、及びこれらの組み合わせとして実装され、有線又は無線の通信を実現できるように構成されている。 The communication I / F 14 is implemented as hardware such as a network adapter, various communication software, and a combination thereof, and is configured to realize wired or wireless communication.

ストレージ15は、例えば磁気ディスク又はフラッシュメモリ等によって構成される。ストレージ15は、オペレーティングシステムを含む様々なプログラム及び各種データ等を記憶する。本実施形態において、ストレージ15には、コンピュータを、本実施形態の車載装置10として機能させるための車載装置用プログラム151と、カメラ131によって撮影される撮影画像に含まれる道路標示の区画線上の点と推定される推定点の検出に用いられる推定点検出用学習済みモデル152と、同じく撮影画像に含まれる車両(所定のオブジェクト)の検出に用いられる車両検出用学習済みモデル153とが格納されている。 The storage 15 is composed of, for example, a magnetic disk, a flash memory, or the like. The storage 15 stores various programs including an operating system, various data, and the like. In the present embodiment, the storage 15 includes a program for an in-vehicle device 151 for causing the computer to function as the in-vehicle device 10 of the present embodiment, and a point on a lane marking of a road sign included in a captured image taken by the camera 131. The trained model 152 for estimating point detection used for detecting the estimated point estimated to be, and the trained model 153 for vehicle detection used for detecting the vehicle (predetermined object) also included in the captured image are stored. There is.

本実施形態において、車載装置10は、それぞれが上述したハードウェア構成を有する複数の装置を用いて構成され得る。 In the present embodiment, the vehicle-mounted device 10 may be configured by using a plurality of devices, each of which has the above-mentioned hardware configuration.

次に、本実施形態の車載装置10が有する機能について説明する。図1に示すように、装置10のコンピュータプロセッサ11は、カメラ131によって撮影される撮影画像内の区画線上の点と推定される複数の推定点を検出するように構成された推定点検出部112、カメラ131の撮影画像における消失点を算出するように構成された消失点算出部114、カメラ131の撮影画像内の車両を検出するように構成された車両検出部116、及び、車間距離を算出するように構成された車間距離算出部118、として機能するように構成されている。これらの機能は、コンピュータプロセッサ11が、メインメモリ12等のハードウェア、並びに、ストレージ15等に記憶されている各種プログラムやデータ等と協働して動作することによって実現され、例えば、メインメモリ12に読み込まれたプログラムに含まれる命令を実行することによって実現される。 Next, the functions of the vehicle-mounted device 10 of the present embodiment will be described. As shown in FIG. 1, the computer processor 11 of the apparatus 10 is an estimation point detection unit 112 configured to detect a plurality of estimation points estimated to be points on a lane marking in a captured image captured by the camera 131. , The vanishing point calculation unit 114 configured to calculate the vanishing point in the image captured by the camera 131, the vehicle detection unit 116 configured to detect the vehicle in the image captured by the camera 131, and the inter-vehicle distance calculation. It is configured to function as an inter-vehicle distance calculation unit 118, which is configured to do so. These functions are realized by the computer processor 11 operating in cooperation with hardware such as the main memory 12 and various programs and data stored in the storage 15 and the like. For example, the main memory 12 It is realized by executing the instruction included in the program loaded in.

次に、本実施形態の車載装置10の動作について説明する。まず、消失点の算出(カメラ131のオートキャリブレーション)に関する動作について説明する。図2は、車載装置10が実行する消失点の算出に関する処理を例示するフロー図である。これらの処理は、車載装置10の起動時に実行され、その後、定期的に繰り返し実行される。 Next, the operation of the in-vehicle device 10 of the present embodiment will be described. First, the operation related to the calculation of the vanishing point (auto-calibration of the camera 131) will be described. FIG. 2 is a flow chart illustrating a process related to calculation of a vanishing point executed by the in-vehicle device 10. These processes are executed when the in-vehicle device 10 is started, and then are periodically and repeatedly executed.

車載装置10は、まず、図2に示すように、カメラ131によって撮影される撮影画像を取得し(ステップS100)、取得した撮影画像内の道路標示の区画線上の点と推定される複数の推定点を検出する(ステップS110)。これらの撮影画像の取得、及び、推定点の検出は、推定点検出部112によって実行される。具体的には、推定点検出部112は、その時点におけるカメラ131の撮影画像(車載装置10が搭載されている走行中の車両の前方の景色に対応する画像)を取得する。また、本実施形態において、推定点検出部112は、取得した撮影画像内の所定の高さの仮想的な水平線と区画線との交点を、推定点として検出する。 First, as shown in FIG. 2, the in-vehicle device 10 acquires a captured image captured by the camera 131 (step S100), and a plurality of estimates presumed to be points on the lane marking of the road marking in the acquired captured image. A point is detected (step S110). Acquisition of these captured images and detection of estimated points are executed by the estimated point detecting unit 112. Specifically, the estimation point detection unit 112 acquires an image taken by the camera 131 at that time (an image corresponding to the scenery in front of the moving vehicle on which the in-vehicle device 10 is mounted). Further, in the present embodiment, the estimation point detection unit 112 detects the intersection of the virtual horizon and the division line at a predetermined height in the acquired captured image as the estimation point.

図3は、本実施形態における推定点を説明するための図であり、カメラ131の撮影画像の一例としての撮影画像20を例示している。当該撮影画像20において、車道に描かれている3本の区画線ML1〜ML3が前方(車両の進行方向)に延びており、これらの区画線ML1〜ML3の各々と、高さの異なる3つの仮想的な水平線y1〜y3の各々との交点(つまり「所定の3つの高さにおける各区画線上の3つの点」と言うこともできる。)が、推定点EPとして検出される。 FIG. 3 is a diagram for explaining an estimated point in the present embodiment, and illustrates a captured image 20 as an example of a captured image of the camera 131. In the photographed image 20, the three lane markings ML1 to ML3 drawn on the roadway extend forward (in the direction of travel of the vehicle), and each of these lane markings ML1 to ML3 has three different heights. An intersection with each of the virtual horizontal lines y1 to y3 (that is, "three points on each lane marking at three predetermined heights") is detected as an estimated point EP.

本実施形態において、撮影画像内の推定点の検出は、上述した推定点検出用学習済みモデル152を用いて行われる。推定点検出用学習済みモデル152は、例えば、畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)モデルとして構成されており、撮影画像が入力されると、当該撮影画像に含まれる推定点の位置を特定する位置特定情報(例えば、座標情報及び信頼度)を出力するように構成されている。こうした学習済みモデル152は、学習データを用いた機械学習によって生成される。学習データは、例えば、走行中の車両から撮影された多数の学習用画像を含む。学習用画像は、例えば、車両の前方を撮影するように設けられたカメラを介して撮影される動画を構成する各フレームに対応する静止画である。学習用画像には、当該画像に含まれる、1又は複数の区画線の各々と、3つの仮想的な水平線y1〜y3の各々との交点の位置特定情報が関連付けられる。 In the present embodiment, the detection of the estimated points in the captured image is performed by using the above-described trained model 152 for detecting the estimated points. The trained model 152 for estimating point detection is configured as, for example, a convolutional neural network (CNN) model, and when a captured image is input, the position of the estimated point included in the captured image is specified. It is configured to output position identification information (for example, coordinate information and reliability). Such a trained model 152 is generated by machine learning using training data. The learning data includes, for example, a large number of learning images taken from a moving vehicle. The learning image is, for example, a still image corresponding to each frame constituting a moving image shot through a camera provided so as to shoot the front of the vehicle. The learning image is associated with position-specific information at the intersection of each of the one or more division lines included in the image and each of the three virtual horizontal lines y1 to y3.

なお、学習済みモデルを用いた推定点の検出は、推定点を検出する手法の一例であって、本発明の他の実施形態においては、他の手法を用いて推定点が検出される。例えば、他の実施形態においては、ルールベースのアルゴリズムを用いた画像解析によって推定点が検出される。 The detection of the estimated points using the trained model is an example of a method for detecting the estimated points, and in another embodiment of the present invention, the estimated points are detected by using another method. For example, in other embodiments, the estimated points are detected by image analysis using a rule-based algorithm.

図2のフロー図に戻る。こうして推定点を検出すると、車載装置10は、次に、複数の推定点のグルーピングを行う(ステップS120)。当該グルーピングは、消失点算出部114によって実行される。本実施形態において、消失点算出部114は、前回登録された前回消失点(第1消失点)の位置に基づいて複数の推定点のグルーピングを行う。前回登録された消失点が存在しない場合(例えば、車載装置10の起動直後等)には、所定位置(例えば、撮影画像の重心(中央)等)が前回消失点の位置とされる。 Return to the flow chart of FIG. When the estimated points are detected in this way, the vehicle-mounted device 10 then groups a plurality of estimated points (step S120). The grouping is executed by the vanishing point calculation unit 114. In the present embodiment, the vanishing point calculation unit 114 groups a plurality of estimated points based on the positions of the previously registered vanishing points (first vanishing points). When the previously registered vanishing point does not exist (for example, immediately after the in-vehicle device 10 is started), a predetermined position (for example, the center of gravity (center) of the captured image) is set as the position of the previous vanishing point.

図4は、複数の推定点をグルーピングする際に車載装置10の消失点算出部114が実行する処理を例示するフロー図である。消失点算出部114は、まず、図示するように、3つの仮想的な水平線y1〜y3のうち、最も高さの低い(最も下側に位置する)水平線y1上の推定点の中から、グルーピングを未処理の推定点を特定する(ステップS200)。未処理の推定点は、例えば、左側の推定点から右側の推定点へと向かって順に特定される。 FIG. 4 is a flow chart illustrating a process executed by the vanishing point calculation unit 114 of the vehicle-mounted device 10 when grouping a plurality of estimated points. As shown in the figure, the vanishing point calculation unit 114 first groups the estimated points on the lowest (lowermost) horizontal line y1 among the three virtual horizontal lines y1 to y3. To identify the unprocessed estimated points (step S200). The unprocessed estimation points are specified in order from, for example, the estimation points on the left side to the estimation points on the right side.

次に、消失点算出部114は、特定した水平線y1上の推定点及び前回消失点を通る仮想的な直線と、水平線y1の1つ上側に位置する仮想的な水平線y2と、の交点を算出する(ステップS210)。図5は、推定点のグルーピングの手順を説明するための図である。ステップS210では、例えば、図5に示すように、水平線y1上の推定点EP1及び前回消失点VP_prevを通る直線SL1と水平線y2との交点IP11(の座標情報)が算出される。 Next, the vanishing point calculation unit 114 calculates the intersection of the estimated point on the specified horizon y1 and the virtual straight line passing through the previous vanishing point and the virtual horizon y2 located one above the horizon y1. (Step S210). FIG. 5 is a diagram for explaining a procedure for grouping estimated points. In step S210, for example, as shown in FIG. 5, the intersection IP11 (coordinate information) of the straight line SL1 passing through the estimated point EP1 on the horizon y1 and the previous vanishing point VP_prev and the horizon y2 is calculated.

図4のフロー図に戻る。こうして水平線y1上の推定点及び前回消失点を通る直線と水平線y2との交点を算出すると、消失点算出部114は、次に、算出した交点から水平方向の所定範囲(例えば、±xピクセルの範囲)内に水平線y2上の推定点が存在するか否かを判定し(ステップS220)、所定範囲内に水平線y2上の推定点が存在する場合には(ステップS220においてYES)、当該推定点を、水平線y1上の推定点と同じグループの推定点として選択する一方(ステップS230)、所定範囲内に水平線y2上の推定点が存在しない場合には(ステップS220においてNO)、水平線y1上の推定点及び前回消失点を通る直線と水平線y2との交点を、水平線y1上の推定点と同じグループの推定点として選択する(ステップS240)。 Return to the flow chart of FIG. When the intersection of the estimated point on the horizon y1 and the straight line passing through the previous disappearance point and the horizon y2 is calculated in this way, the vanishing point calculation unit 114 then calculates a predetermined range in the horizontal direction (for example, ± x pixels) from the calculated intersection. It is determined whether or not there is an estimated point on the horizon y2 within the range) (step S220), and if there is an estimated point on the horizon y2 within the predetermined range (YES in step S220), the estimated point Is selected as an estimation point in the same group as the estimation point on the horizon y1 (step S230), while there is no estimation point on the horizon y2 within a predetermined range (NO in step S220), on the horizon y1. The intersection of the estimated point and the straight line passing through the previous disappearance point and the horizontal line y2 is selected as an estimated point in the same group as the estimated point on the horizontal line y1 (step S240).

例えば、図5の例では、直線SL1と水平線y2との交点IP11から水平方向の所定範囲R(交点IP11の右側)に水平線y2上の推定点EP2が存在しているから、当該推定点EP2が、水平線y1上の推定点EP1と同じグループの推定点として選択される。一方、図6の例では、直線SL1と水平線y2との交点IP11から水平方向の所定範囲Rに水平線y2上の推定点が存在していないから、当該交点IP11が、水平線y1上の推定点EP1と同じグループの推定点として選択される。このように、一部の推定点が欠落する場合は、例えば、撮影画像における仮想的な水平線と区画線との交点付近に障害物等が存在して区画線が隠れてしまっている場合等が考えられる。このように、一部の推定点が欠落している場合に他の点(前回消失点を通る直線と水平線との交点)を推定点と見做して処理を進めることにより、消失点を算出する処理の高速化が図られる。 For example, in the example of FIG. 5, since the estimated point EP2 on the horizontal line y2 exists in a predetermined range R (right side of the intersection IP11) in the horizontal direction from the intersection IP11 of the straight line SL1 and the horizontal line y2, the estimated point EP2 is , Selected as an estimated point in the same group as the estimated point EP1 on the horizon y1. On the other hand, in the example of FIG. 6, since the estimated point on the horizontal line y2 does not exist in the predetermined range R in the horizontal direction from the intersection IP11 between the straight line SL1 and the horizontal line y2, the intersection IP11 is the estimated point EP1 on the horizontal line y1. Is selected as the estimated point for the same group as. In this way, when some estimated points are missing, for example, there is a case where an obstacle or the like exists near the intersection of the virtual horizon and the lane marking in the captured image and the lane marking is hidden. Conceivable. In this way, when some estimated points are missing, the vanishing point is calculated by regarding the other points (the intersection of the straight line passing through the previous vanishing point and the horizon) as the estimated points and proceeding with the processing. The processing speed is increased.

図4のフロー図に戻り、消失点算出部114は、次に、水平線y1上の推定点及び前回消失点を通る仮想的な直線と、最も上側の水平線y3と、の交点を算出し(ステップS250)、算出した交点から水平方向の所定範囲(例えば、±xピクセルの範囲)内に水平線y3上の推定点が存在するか否かを判定し(ステップS260)、所定範囲内に水平線y3上の推定点が存在する場合には(ステップS260においてYES)、当該推定点を、水平線y1上の推定点と同じグループの推定点として選択する一方(ステップS270)、所定範囲内に水平線y3上の推定点が存在しない場合には(ステップS260においてNO)、水平線y1上の推定点及び前回消失点を通る直線と水平線y3との交点を、水平線y1上の推定点と同じグループの推定点として選択する(ステップS280)。 Returning to the flow chart of FIG. 4, the vanishing point calculation unit 114 then calculates the intersection of the estimated point on the horizontal line y1 and the virtual straight line passing through the previous vanishing point and the uppermost horizontal line y3 (step). S250), it is determined whether or not there is an estimated point on the horizontal line y3 within a predetermined range in the horizontal direction (for example, a range of ± x pixels) from the calculated intersection (step S260), and on the horizontal line y3 within the predetermined range. (YES in step S260), the estimated point is selected as an estimated point in the same group as the estimated point on the horizon y1 (step S270), while on the horizon y3 within a predetermined range. If the estimation point does not exist (NO in step S260), the estimation point on the horizon y1 and the intersection of the straight line passing through the previous vanishing point and the horizon y3 are selected as the estimation points in the same group as the estimation point on the horizon y1. (Step S280).

例えば、図5及び図6の例では、直線SL1と水平線y3との交点IP12から水平方向の所定範囲R(交点IP12の右側)に水平線y3上の推定点EP3が存在しているから、当該推定点EP3が、水平線y1上の推定点EP1と同じグループの推定点として選択される。この結果、図5の例では、水平線y1上の推定点EP1、水平線y2上の推定点EP2、及び、水平線y3上の推定点EP3が同じグループにグルーピングされる。一方、図6の例では、水平線y1上の推定点EP1、水平線y2上の交点IP11、及び、水平線y3上の推定点EP3が同じグループにグルーピングされる。 For example, in the examples of FIGS. 5 and 6, since the estimated point EP3 on the horizontal line y3 exists in a predetermined range R (right side of the intersection IP12) in the horizontal direction from the intersection IP12 of the straight line SL1 and the horizontal line y3, the estimation is performed. The point EP3 is selected as the estimated point in the same group as the estimated point EP1 on the horizon y1. As a result, in the example of FIG. 5, the estimated point EP1 on the horizontal line y1, the estimated point EP2 on the horizontal line y2, and the estimated point EP3 on the horizontal line y3 are grouped into the same group. On the other hand, in the example of FIG. 6, the estimated point EP1 on the horizontal line y1, the intersection IP11 on the horizontal line y2, and the estimated point EP3 on the horizontal line y3 are grouped in the same group.

図4のフロー図に戻り、消失点算出部114は、次に、水平線y1上の未処理の推定点が存在する(残っている)か否かを判定し(ステップS290)、未処理の推定点が存在する場合には(ステップS290においてYES)、当該未処理の推定点の特定(ステップS200)へと戻る一方、未処理の推定点が存在しない場合には(ステップS290においてNO)、図4のフロー図における処理を終了する。図4のフロー図における処理を終了すると、水平線y1上の推定点の数と同じ数のグループが作成されていることになる。 Returning to the flow chart of FIG. 4, the vanishing point calculation unit 114 then determines whether or not an unprocessed estimated point on the horizon y1 exists (remains) (step S290), and unprocessed estimation. If a point exists (YES in step S290), the process returns to the identification of the unprocessed estimated point (step S200), while if there is no unprocessed estimated point (NO in step S290), the figure. The process in the flow chart of No. 4 is completed. When the processing in the flow chart of FIG. 4 is completed, the same number of groups as the number of estimated points on the horizontal line y1 are created.

図2のフロー図に戻る。こうして複数の推定点のグルーピングを行うと、車載装置10は、次に、グルーピングによって作成されたグループの数が2以上であるか否かを判定する(ステップS130)。当該判定は、消失点算出部114によって実行される。 Return to the flow chart of FIG. When the grouping of the plurality of estimated points is performed in this way, the vehicle-mounted device 10 next determines whether or not the number of groups created by the grouping is 2 or more (step S130). The determination is executed by the vanishing point calculation unit 114.

そして、車載装置10は、グループの数が2未満(つまり、1)である場合には(ステップS130においてNO)、撮影画像の取得(ステップS100)へと戻り、その時点におけるカメラ131の撮影画像を新たに取得して、再び推定点の検出(ステップS110)へと進む。 Then, when the number of groups is less than 2 (that is, 1) (NO in step S130), the in-vehicle device 10 returns to the acquisition of the captured image (step S100), and the captured image of the camera 131 at that time. Is newly acquired, and the process proceeds to the detection of the estimated point (step S110) again.

一方、グループの数が2以上である場合には(ステップS130においてYES)、車載装置10は、仮消失点(第2消失点)の算出及び蓄積を行う(ステップS140)。仮消失点の算出及び蓄積は、消失点算出部114によって実行される。本実施形態において、消失点算出部114は、同じグループに属する複数の推定点に基づいて、区画線と推定される推定区画線を算出し、複数の推定区画線の交点に基づいて仮消失点を算出する。 On the other hand, when the number of groups is 2 or more (YES in step S130), the vehicle-mounted device 10 calculates and accumulates a temporary vanishing point (second vanishing point) (step S140). The calculation and accumulation of the temporary vanishing point is executed by the vanishing point calculation unit 114. In the present embodiment, the vanishing point calculation unit 114 calculates an estimated vanishing point that is presumed to be a lane marking based on a plurality of estimated points belonging to the same group, and a temporary vanishing point based on the intersection of the plurality of estimated vanishing points. Is calculated.

図7は、仮消失点を算出する手順を説明するための図である。図7の例において、水平線y1上の3つの推定点EP11、EP21、EP31のうち、左側の推定点EP11は、水平線y2上の左側の推定点EP12及び水平線y3上の左側の推定点EP13と同じグループにグルーピングされている。同様に、水平線y1上の左右方向中央の推定点EP21は、水平線y2上の左右方向中央の推定点EP22及び水平線y3上の左右方向中央の推定点EP23と同じグループにグルーピングされており、また、水平線y1上の右側の推定点EP31は、水平線y2上の右側の推定点EP32及び水平線y3上の右側の推定点EP33と同じグループにグルーピングされている。 FIG. 7 is a diagram for explaining a procedure for calculating a temporary vanishing point. In the example of FIG. 7, of the three estimated points EP11, EP21, and EP31 on the horizontal line y1, the estimated point EP11 on the left side is the same as the estimated point EP12 on the left side on the horizontal line y2 and the estimated point EP13 on the left side on the horizontal line y3. Grouped into groups. Similarly, the left-right center estimation point EP21 on the horizontal line y1 is grouped in the same group as the left-right center estimation point EP22 on the horizontal line y2 and the left-right center estimation point EP23 on the horizontal line y3. The right estimated point EP31 on the horizontal line y1 is grouped in the same group as the right estimated point EP32 on the horizontal line y2 and the right estimated point EP33 on the horizontal line y3.

本実施形態において、消失点算出部114は、同じグループに属する3つの推定点における2つの推定点の組合せ(3つの組合せが存在する。)毎に、2つの推定点を通る直線の傾きを算出し、3つの組合せの各々の傾きの代表値(例えば、平均値又は中央値等)を推定区画線の傾きとし、当該傾きを有すると共に同じグループに属する水平線y1上の推定点を通る直線を、推定区画線として算出する。 In the present embodiment, the vanishing point calculation unit 114 calculates the slope of a straight line passing through the two estimation points for each combination of the two estimation points (there are three combinations) in the three estimation points belonging to the same group. Then, the representative value (for example, the average value or the median value) of the inclination of each of the three combinations is used as the inclination of the estimated division line, and a straight line having the inclination and passing through the estimated point on the horizontal line y1 belonging to the same group is defined as the inclination. Calculated as an estimated lane marking.

例えば、図7の例では、同じグループに属する3つの推定点EP11、EP12、EP13における2つの推定点の組合せである推定点EP11、EP12を通る直線の傾き、同じく推定点EP11、EP13を通る直線の傾き、及び、同じく推定点EP12、EP13を通る直線の傾きの代表値を算出し、算出した代表値の傾きを有すると共に水平線y1上の推定点EP11を通る直線が、推定区画線EL1として算出される。同様に、同じグループに属する3つの推定点EP21、EP22、EP23に基づいて推定区画線EL2が算出されると共に、同じグループに属する3つの推定点EP31、EP32、EP33に基づいて推定区画線EL3が算出される。 For example, in the example of FIG. 7, the slope of a straight line passing through the estimation points EP11 and EP12, which is a combination of two estimation points in the three estimation points EP11, EP12, and EP13 belonging to the same group, and a straight line passing through the estimation points EP11 and EP13. And the representative value of the slope of the straight line passing through the estimated points EP12 and EP13 are calculated, and the straight line having the slope of the calculated representative value and passing through the estimated point EP11 on the horizontal line y1 is calculated as the estimated lane marking EL1. Will be done. Similarly, the estimated lane line EL2 is calculated based on the three estimated points EP21, EP22, and EP23 belonging to the same group, and the estimated lane marking EL3 is calculated based on the three estimated points EP31, EP32, and EP33 belonging to the same group. It is calculated.

このように、本実施形態では、推定区画線を算出する際には、3つの仮想的な水平線y1〜y3のうち最も下側に位置する水平線y1上の推定点が基準となっている(水平線y1上の推定点と前回消失点とを通る直線に基づいて推定点のグルーピングが行われると共に、水平線y1上の推定点を通るように推定区画線が算出される。)。しかしながら、本発明の他の実施形態では、推定区画線を算出する際に、水平線y2上の推定点が基準となり、又は、水平線y3上の推定点が基準となる。 As described above, in the present embodiment, when calculating the estimated division line, the estimated point on the horizontal line y1 located at the lowermost side of the three virtual horizontal lines y1 to y3 is used as a reference (horizontal line). The estimated points are grouped based on the straight line passing through the estimated point on y1 and the previous vanishing point, and the estimated dividing line is calculated so as to pass through the estimated point on the horizontal line y1). However, in another embodiment of the present invention, when calculating the estimated division line, the estimated point on the horizon y2 is used as a reference, or the estimated point on the horizon y3 is used as a reference.

また、こうした推定区画線を算出する手法は例示であって、本発明の他の実施形態においては、他の手法を用いて推定区画線が算出される。例えば、他の実施形態においては、同じグループに属する3つの推定点に対して最小二乗法を適用することによって得られる直線が、推定区画線として用いられる。 Further, the method for calculating such an estimated lane marking is an example, and in another embodiment of the present invention, the estimated lane marking is calculated by using another method. For example, in other embodiments, a straight line obtained by applying the least squares method to three estimated points belonging to the same group is used as the estimated lane marking.

本実施形態において、消失点算出部114は、複数の推定区画線の交点を仮消失点として算出し、当該交点が複数存在する場合(つまり、推定区画線の数が3以上である場合)には、複数の交点の代表値(平均値又は中央値)を仮消失点として算出する。 In the present embodiment, the vanishing point calculation unit 114 calculates the intersections of a plurality of estimated vanishing points as temporary vanishing points, and when there are a plurality of such intersections (that is, when the number of estimated vanishing points is 3 or more). Calculates the representative value (average value or median value) of a plurality of intersections as a temporary vanishing point.

例えば、図7の例では、3つの推定区画線EL1〜EL3のうち、推定区画線EL1、EL2の交点IP21、推定区画線EL1、EL3の交点IP22、及び、推定区画線E21、EL3の交点IP23に基づいて仮消失点が算出され、具体的には、これらの交点IP21、IP22、IP23の各々のX座標の代表値、及び、Y座標の代表値によって特定される点が、仮消失点(の座標情報)として算出される。 For example, in the example of FIG. 7, among the three estimated lane markings EL1 to EL3, the intersection IP21 of the estimated lane markings EL1 and EL2, the intersection IP22 of the estimated lane markings EL1 and EL3, and the intersection IP23 of the estimated lane markings E21 and EL3. The temporary vanishing point is calculated based on the above, and specifically, the point specified by the representative value of the X coordinate of each of these intersections IP21, IP22, and IP23 and the representative value of the Y coordinate is the temporary vanishing point ( (Coordinate information of) is calculated.

図2のフロー図に戻り、ステップS140では、算出した仮消失点に関する情報(例えば、座標情報が含まれる。)が、ストレージ15において蓄積される。こうして仮消失点の算出及び蓄積を行うと、車載装置10は、次に、蓄積された仮消失点の数が閾値Nvp以上であるか否かを判定する(ステップS150)。当該判定は、消失点算出部114によって実行される。そして、蓄積されている仮消失点の数が閾値Nvp未満である場合には(ステップS150においてNO)、車載装置10は、撮影画像の取得(ステップS100)へと戻り、その時点におけるカメラ131の撮影画像を新たに取得して、再び推定点の検出(ステップS110)へと進む。 Returning to the flow chart of FIG. 2, in step S140, the calculated information on the temporary vanishing point (for example, the coordinate information is included) is accumulated in the storage 15. After calculating and accumulating the temporary vanishing points in this way, the in-vehicle device 10 next determines whether or not the number of accumulated temporary vanishing points is equal to or greater than the threshold value Nvp (step S150). The determination is executed by the vanishing point calculation unit 114. Then, when the number of accumulated temporary vanishing points is less than the threshold value Nvp (NO in step S150), the in-vehicle device 10 returns to the acquisition of the captured image (step S100), and the camera 131 at that time The captured image is newly acquired, and the process proceeds to the detection of the estimated point (step S110) again.

一方、蓄積された仮消失点の数が閾値Nvp以上である場合には(ステップS150においてYES)、車載装置10は、蓄積されている複数の仮消失点に基づいて消失点(第3消失点)の算出及び登録を行う(ステップS160)。消失点の算出及び登録は、消失点算出部114によって実行される。 On the other hand, when the number of accumulated temporary vanishing points is equal to or greater than the threshold value Nvp (YES in step S150), the in-vehicle device 10 has a vanishing point (third vanishing point) based on the plurality of accumulated temporary vanishing points. ) Is calculated and registered (step S160). The calculation and registration of the vanishing point is executed by the vanishing point calculation unit 114.

本実施形態において、消失点算出部114は、蓄積されている複数の仮消失点の各々のX座標の代表値、及び、Y座標の代表値によって特定される点を、今回の消失点として算出(フィルタリング)する。算出された消失点に関する情報(例えば、座標情報が含まれる。)は、ストレージ15において記憶される。このように、複数の仮消失点に基づいて今回の消失点を算出することによって、消失点の正確な算出が促進される。 In the present embodiment, the vanishing point calculation unit 114 calculates the point specified by the representative value of the X coordinate and the representative value of the Y coordinate of each of the accumulated temporary vanishing points as the current vanishing point. (Filtering). The calculated vanishing point information (for example, including coordinate information) is stored in the storage 15. In this way, by calculating the current vanishing point based on the plurality of temporary vanishing points, the accurate calculation of the vanishing point is promoted.

図2に例示したフロー図における処理は、上述したように、車載装置10の起動後、定期的に(例えば、消失点の算出及び登録が行われてから所定時間が経過する都度)、繰り返し実行される。そして、次回の推定点のグルーピング(ステップS120)においては、今回新たに登録された消失点が、前回消失点として用いられる。 As described above, the processing in the flow diagram illustrated in FIG. 2 is repeatedly executed periodically (for example, each time a predetermined time elapses after the calculation and registration of the vanishing point are performed) after the in-vehicle device 10 is started. Will be done. Then, in the next grouping of estimated points (step S120), the vanishing point newly registered this time is used as the previous vanishing point.

このように、本実施形態では、消失点が繰り返し算出されるから、例えば、車体の振動等によるカメラの向きの変化に応じて消失点の位置が変化してしまった場合に対応することが可能であり、また、今回の消失点の算出(より詳しくは、複数の推定点のグルーピング)において前回の消失点が用いられるから、処理の簡易化及び高速化が促進される。 As described above, in the present embodiment, the vanishing point is calculated repeatedly, so that it is possible to deal with a case where the position of the vanishing point changes according to a change in the orientation of the camera due to vibration of the vehicle body or the like. Further, since the previous vanishing point is used in the calculation of the vanishing point this time (more specifically, the grouping of a plurality of estimated points), the simplification and speeding up of the processing are promoted.

以上、消失点の算出に関する動作について説明した。次に、車間距離の算出に関する動作について説明する。図8は、車載装置10が実行する車間距離の算出に関する処理を例示するフロー図である。 The operation related to the calculation of the vanishing point has been described above. Next, the operation related to the calculation of the inter-vehicle distance will be described. FIG. 8 is a flow chart illustrating a process related to calculation of the inter-vehicle distance executed by the in-vehicle device 10.

車載装置10は、まず、図8に示すように、カメラ131の撮影画像内の車両を検出する(ステップS300)。当該車両の検出は、車両検出部116によって実行される。 First, as shown in FIG. 8, the in-vehicle device 10 detects the vehicle in the captured image of the camera 131 (step S300). The detection of the vehicle is executed by the vehicle detection unit 116.

本実施形態において、撮影画像内の車両の検出は、上述した車両検出用学習済みモデル153を用いて行われる。車両検出用学習済みモデル153は、例えば、畳み込みニューラルネットワークモデルとして構成されており、撮影画像が入力されると、当該撮影画像に含まれる車両を囲む矩形の検出領域を特定する領域特定情報(例えば、矩形領域の左下頂点及び右上頂点それぞれの座標情報)を出力するように構成されている。こうした学習済みモデル153は、学習データを用いた機械学習によって生成される。学習データは、例えば、走行中の車両から撮影された多数の学習用画像を含む。学習用画像は、例えば、車両の前方を撮影するように設けられたカメラを介して撮影される動画を構成する各フレームに対応する静止画である。学習用画像には、当該画像に含まれる車両を囲む矩形の検出領域の領域特定情報が関連付けられる。 In the present embodiment, the detection of the vehicle in the captured image is performed by using the above-described trained model 153 for vehicle detection. The trained model 153 for vehicle detection is configured as, for example, a convolutional neural network model, and when a captured image is input, region identification information (for example,) that specifies a rectangular detection region surrounding the vehicle included in the captured image is used. , Coordinate information of each of the lower left vertex and the upper right vertex of the rectangular area) is output. Such a trained model 153 is generated by machine learning using the training data. The learning data includes, for example, a large number of learning images taken from a moving vehicle. The learning image is, for example, a still image corresponding to each frame constituting a moving image shot through a camera provided so as to shoot the front of the vehicle. The learning image is associated with the area identification information of the rectangular detection area that surrounds the vehicle included in the image.

例えば、図9に例示するように、撮影画像20に含まれる車両CRは、矩形の検出領域DAとして検出される。なお、本発明の他の実施形態では、車両に代えて、又は、これに加えて、歩行者等の他のオブジェクトが検出されるように構成される。 For example, as illustrated in FIG. 9, the vehicle CR included in the captured image 20 is detected as a rectangular detection region DA. In addition, in another embodiment of the present invention, other objects such as pedestrians are detected in place of or in addition to the vehicle.

なお、学習済みモデルを用いた車両の検出は、車両を検出する手法の一例であって、本発明の他の実施形態においては、他の手法を用いて車両が検出される。例えば、他の実施形態においては、ルールベースのアルゴリズムを用いた画像解析によって車両が検出される。 Note that the vehicle detection using the trained model is an example of a method for detecting a vehicle, and in another embodiment of the present invention, the vehicle is detected by using another method. For example, in other embodiments, the vehicle is detected by image analysis using a rule-based algorithm.

図8のフロー図に戻り、続いて、車載装置10は、撮影画像における車両の検出領域と消失点との位置関係に基づいて車間距離を算出する(ステップS310)。車間距離の算出は、車間距離算出部118によって実行される。 Returning to the flow chart of FIG. 8, the in-vehicle device 10 subsequently calculates the inter-vehicle distance based on the positional relationship between the vehicle detection region and the vanishing point in the captured image (step S310). The calculation of the inter-vehicle distance is executed by the inter-vehicle distance calculation unit 118.

本実施形態において、車間距離算出部118は、具体的には、撮影画像における車両の検出領域の下辺と消失点との高さ方向の差分、及び、カメラ131の路面からの高さに基づいて、車間距離を算出する。消失点は、その時点で登録されている最新の消失点が用いられる。ここで、図9に例示した撮影画像20において、消失点VPのy座標(高さ)をyVP、検出領域DAの下辺のy座標をyDAとする。 In the present embodiment, the inter-vehicle distance calculation unit 118 is specifically based on the difference in the height direction between the lower side of the detection area of the vehicle and the vanishing point in the captured image and the height of the camera 131 from the road surface. , Calculate the inter-vehicle distance. As the vanishing point, the latest vanishing point registered at that time is used. Here, in the captured image 20 illustrated in FIG. 9, the y-coordinate (height) of the vanishing point VP is yVP, and the y-coordinate of the lower side of the detection area DA is yDA.

図10は、カメラ131の路面からの高さH、撮影画像20における消失点VPのy座標yVPと検出領域DAの下辺のy座標yDAとの差分Δy、及び、カメラ131と車両CRとの間の車間距離Lとの関係を例示する。車間距離Lは、以下の式(1)によって算出される。

L=α(H)/Δy・・・(1)

ここで、α(H)は、高さHに基づいて算出される定数である。高さH(カメラ131の路面からの高さ)は、車載装置10が車両に搭載される際に計測されて、予めストレージ15に記憶されている。
FIG. 10 shows the height H of the camera 131 from the road surface, the difference Δy between the y-coordinate yVP of the vanishing point VP in the captured image 20 and the y-coordinate yDA of the lower side of the detection area DA, and the distance between the camera 131 and the vehicle CR. The relationship with the inter-vehicle distance L will be illustrated. The inter-vehicle distance L is calculated by the following formula (1).

L = α (H) / Δy ... (1)

Here, α (H) is a constant calculated based on the height H. The height H (height of the camera 131 from the road surface) is measured when the in-vehicle device 10 is mounted on the vehicle and is stored in the storage 15 in advance.

図8に例示したフロー図の処理は、繰り返し実行され、つまり、撮影画像に含まれる車両の検出、及び、検出された車両との間の車間距離の算出が繰り返し実行される。 The processing of the flow chart illustrated in FIG. 8 is repeatedly executed, that is, the detection of the vehicle included in the captured image and the calculation of the inter-vehicle distance to the detected vehicle are repeatedly executed.

以上説明した本実施形態に係る車載装置10は、カメラ131の撮影画像内の道路標示の区画線上の点と推定される複数の推定点を検出し、これらの複数の推定点及び前回の消失点に基づいて今回の消失点を算出するから、消失点の適切な算出が支援される。 The in-vehicle device 10 according to the present embodiment described above detects a plurality of estimated points estimated to be points on the lane marking of the road sign in the captured image of the camera 131, and these plurality of estimated points and the previous vanishing point. Since the vanishing point is calculated based on the above, the appropriate calculation of the vanishing point is supported.

上述した実施形態では、道路標示の区画線と推定される推定区画線に基づいて仮消失点を算出するようにしたが、道路標示の区画線に加えて、車両が走行する車線の様々な境界線(例えば、車道と歩道との境界線等が含まれる。)と推定される推定境界線に基づいて、仮消失点を算出するようにしても良い。 In the above-described embodiment, the temporary vanishing point is calculated based on the presumed lane marking line, but in addition to the road marking lane marking, various boundaries of the lane in which the vehicle travels. The temporary vanishing point may be calculated based on the estimated boundary line estimated to be a line (for example, the boundary line between the road and the sidewalk).

上述した実施形態では、高さの異なる3つの仮想的な水平線と区画線との交点を推定点として検出するようにしたが、2つ、又は、4つ以上の水平線と区画線との交点を推定点として検出するようにしても良い。例えば、2つの水平線と区画線との交点を推定点として検出する場合には、同じグループに属する2つの推定点を通る直線が、推定区画線として算出される。 In the above-described embodiment, the intersections of three virtual horizon lines having different heights and the lane markings are detected as estimated points, but the intersections of two or four or more horizon lines and the lane markings are detected. It may be detected as an estimation point. For example, when the intersection of two horizontal lines and a lane marking is detected as an estimation point, a straight line passing through two estimation points belonging to the same group is calculated as an estimation lane marking.

上述した実施形態では、消失点に基づいて車間距離を算出するように構成したが、本発明の他の実施形態では、消失点に基づく他の処理が実行されるように構成され、例えば、消失点に基づく前照灯(ヘッドライト)の制御が実行されるように構成される。 In the above-described embodiment, the inter-vehicle distance is calculated based on the vanishing point, but in another embodiment of the present invention, other processing based on the vanishing point is executed, for example, disappearance. It is configured to perform point-based headlight control.

本発明の他の実施形態では、車載装置10の機能の少なくとも一部は、クラウドサーバ(通信ネットワークを介して接続されたサーバ等)等によって実現される。 In another embodiment of the present invention, at least a part of the functions of the in-vehicle device 10 is realized by a cloud server (a server connected via a communication network, etc.) or the like.

本明細書で説明された処理及び手順は、明示的に説明されたもの以外にも、ソフトウェア、ハードウェアまたはこれらの任意の組み合わせによって実現される。例えば、本明細書で説明される処理及び手順は、集積回路、揮発性メモリ、不揮発性メモリ、磁気ディスク等の媒体に、当該処理及び手順に相当するロジックを実装することによって実現される。また、本明細書で説明された処理及び手順は、当該処理・手順に相当するコンピュータプログラムとして実装し、各種のコンピュータに実行させることが可能である。 The processes and procedures described herein are implemented by software, hardware, or any combination thereof, other than those expressly described. For example, the processes and procedures described herein are realized by implementing logic corresponding to the processes and procedures on a medium such as an integrated circuit, a volatile memory, a non-volatile memory, or a magnetic disk. Further, the processes and procedures described in the present specification can be implemented as a computer program corresponding to the processes and procedures and executed by various computers.

本明細書中で説明された処理及び手順が単一の装置、ソフトウェア、コンポーネント、モジュールによって実行される旨が説明されたとしても、そのような処理または手順は複数の装置、複数のソフトウェア、複数のコンポーネント、及び/又は複数のモジュールによって実行され得る。また、本明細書において説明されたソフトウェアおよびハードウェアの要素は、それらをより少ない構成要素に統合して、またはより多い構成要素に分解することによって実現することも可能である。 Even if it is explained that the processes and procedures described herein are performed by a single device, software, component, module, such processes or procedures are performed by multiple devices, multiple software, multiple devices. Can be executed by a component of, and / or multiple modules. The software and hardware components described herein can also be realized by integrating them into fewer components or by breaking them down into more components.

本明細書において、発明の構成要素が単数もしくは複数のいずれか一方として説明された場合、又は、単数もしくは複数のいずれとも限定せずに説明された場合であっても、文脈上別に解すべき場合を除き、当該構成要素は単数又は複数のいずれであってもよい。 In the present specification, when the components of the invention are described as either singular or plural, or even when they are described without limitation to either singular or plural, they should be understood separately in the context. Except for, the component may be either singular or plural.

10 車載装置
11 コンピュータプロセッサ
112 推定点検出部
114 消失点算出部
116 車両検出部
118 車間距離算出部
13 入出力I/F
131 カメラ
15 ストレージ
151 車載装置用プログラム
152 推定点検出用学習済みモデル
153 車両検出用学習済みモデル
20 撮影画像
DA 検出領域
EL 推定区画線
EP 推定点
ML 区画線
VP 消失点
10 In-vehicle device 11 Computer processor 112 Estimated point detection unit 114 Vanishing point calculation unit 116 Vehicle detection unit 118 Inter-vehicle distance calculation unit 13 Input / output I / F
131 Camera 15 Storage 151 In-vehicle device program 152 Learned model for estimated point detection 153 Learned model for vehicle detection 20 Captured image DA detection area EL Estimated lane line EP Estimated point ML lane marking point VP Vanishing point

Claims (13)

1又は複数のコンピュータに、
車両に配置されたカメラの撮影画像における第1消失点を登録するステップと、
前記撮影画像内の車線の境界線上の点と推定される複数の推定点を検出し、前記第1消失点及び前記複数の推定点に少なくとも基づいて、第2消失点を算出するステップと、を実行させる、
プログラム。
For one or more computers
The step of registering the first vanishing point in the image taken by the camera placed in the vehicle,
A step of detecting a plurality of estimated points estimated to be points on a lane boundary line in the captured image and calculating a second vanishing point based on at least the first vanishing point and the plurality of estimated points. Let it run
program.
前記第2消失点を算出するステップは、前記撮影画像内の所定の高さの仮想的な水平線と車線の境界線との交点を推定点として検出することを含む、
請求項1のプログラム。
The step of calculating the second vanishing point includes detecting the intersection of a virtual horizon of a predetermined height and a lane boundary line in the captured image as an estimation point.
The program of claim 1.
前記第2消失点を算出するステップは、前記第1消失点及び前記複数の推定点に少なくとも基づいて前記撮影画像内の車線の境界線と推定される複数の推定境界線を算出し、前記複数の推定境界線に少なくとも基づいて、前記第2消失点を算出することを含む、
請求項1又は2のプログラム。
In the step of calculating the second vanishing point, a plurality of estimated boundary lines estimated to be lane boundaries in the captured image are calculated based on at least the first vanishing point and the plurality of estimated points, and the plurality of estimated vanishing points are calculated. Including calculating the second vanishing point based on at least the estimated boundary line of
The program of claim 1 or 2.
前記第2消失点を算出するステップは、前記第1消失点に少なくとも基づいて前記複数の推定点をグルーピングし、同じグループに属する複数の推定点に少なくとも基づいて、1の推定境界線を算出することを含む、
請求項3のプログラム。
In the step of calculating the second vanishing point, the plurality of estimated points are grouped based on at least the first vanishing point, and one estimated boundary line is calculated based on at least a plurality of estimated points belonging to the same group. Including that
The program of claim 3.
前記第2消失点を算出するステップは、前記複数の推定境界線の交点に少なくとも基づいて、前記第2消失点を算出することを含む、
請求項3又は4のプログラム。
The step of calculating the second vanishing point includes calculating the second vanishing point based on at least the intersection of the plurality of estimated boundaries.
The program of claim 3 or 4.
前記第2消失点を算出するステップは、3以上の推定境界線の複数の交点に対する統計処理を介して前記第2消失点を算出することを含む、
請求項5のプログラム。
The step of calculating the second vanishing point includes calculating the second vanishing point via statistical processing for a plurality of intersections of three or more estimated boundaries.
The program of claim 5.
前記第2消失点を算出するステップは、前記複数の交点の代表値を前記第2消失点として算出することを含む、
請求項6のプログラム。
The step of calculating the second vanishing point includes calculating the representative value of the plurality of intersections as the second vanishing point.
The program of claim 6.
前記1又は複数のコンピュータに、さらに、前記第2消失点を算出するステップを繰り返し実行させると共に、2以上の所定数の前記第2消失点の算出に応じて、前記所定数の前記第2消失点に対する統計処理を介して第3消失点を算出するステップを実行させる、
請求項1ないし7何れかのプログラム。
The one or a plurality of computers are made to repeatedly execute the step of calculating the second vanishing point, and the predetermined number of the second vanishing points is calculated according to the calculation of two or more predetermined numbers of the second vanishing points. Perform the step of calculating the third vanishing point via statistical processing on the points,
The program according to any one of claims 1 to 7.
前記第3消失点を算出するステップは、前記所定数の前記第2消失点の代表値を前記第3消失点として算出することを含む、
請求項8のプログラム。
The step of calculating the third vanishing point includes calculating a representative value of the predetermined number of the second vanishing points as the third vanishing point.
The program of claim 8.
前記1又は複数のコンピュータに、さらに、前記撮影画像内の所定のオブジェクトを検出し、前記撮影画像における前記第3消失点と前記所定のオブジェクトとの位置関係に少なくとも基づいて、前記カメラと前記所定のオブジェクトとの間の距離に基づく距離を算出するステップを実行させる、
請求項8又は9のプログラム。
The camera and the predetermined object are further detected by the one or a plurality of computers in the captured image, and based on at least the positional relationship between the third vanishing point and the predetermined object in the captured image. To perform the step of calculating the distance based on the distance to the object of
The program of claim 8 or 9.
前記第1消失点を登録するステップは、前記第3消失点を新たな前記第1消失点として登録することを含む、
請求項8ないし10何れかのプログラム。
The step of registering the first vanishing point comprises registering the third vanishing point as a new first vanishing point.
The program according to any one of claims 8 to 10.
車両に配置されたカメラの撮影画像内の車線の境界線上の点と推定される複数の推定点を検出するように構成された推定点検出部と、
前記撮影画像における消失点を算出及び登録するように構成された消失点算出部と、を備え、
前記消失点算出部は、先に登録された第1消失点及び前記複数の推定点に少なくとも基づいて、第2消失点を算出するように構成されている、
装置。
An estimation point detection unit configured to detect a plurality of estimation points estimated to be points on the lane boundary in an image captured by a camera placed on the vehicle, and an estimation point detection unit.
A vanishing point calculation unit configured to calculate and register a vanishing point in the captured image is provided.
The vanishing point calculation unit is configured to calculate a second vanishing point based on at least the first vanishing point registered earlier and the plurality of estimated points.
Device.
車両に配置されたカメラの撮影画像における第1消失点を登録する工程と、
前記撮影画像内の車線の境界線上の点と推定される複数の推定点を検出し、前記第1消失点及び前記複数の推定点に少なくとも基づいて第2消失点を算出する工程と、を備える、
方法。
The process of registering the first vanishing point in the image taken by the camera placed in the vehicle, and
A step of detecting a plurality of estimated points estimated to be points on a lane boundary line in the captured image and calculating a second vanishing point based on at least the first vanishing point and the plurality of estimated points. ,
Method.
JP2019167271A 2019-09-13 2019-09-13 Programs, devices, and methods for calculating the vanishing point Active JP6948365B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019167271A JP6948365B2 (en) 2019-09-13 2019-09-13 Programs, devices, and methods for calculating the vanishing point

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019167271A JP6948365B2 (en) 2019-09-13 2019-09-13 Programs, devices, and methods for calculating the vanishing point

Publications (2)

Publication Number Publication Date
JP2021043143A JP2021043143A (en) 2021-03-18
JP6948365B2 true JP6948365B2 (en) 2021-10-13

Family

ID=74863955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019167271A Active JP6948365B2 (en) 2019-09-13 2019-09-13 Programs, devices, and methods for calculating the vanishing point

Country Status (1)

Country Link
JP (1) JP6948365B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023145906A1 (en) * 2022-01-31 2023-08-03 本田技研工業株式会社 Image processing device, image processing method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0778234A (en) * 1993-06-30 1995-03-20 Nissan Motor Co Ltd Course detector
JP3304905B2 (en) * 1999-01-08 2002-07-22 住友電気工業株式会社 Object tracking recognition device
JP3575346B2 (en) * 1999-09-03 2004-10-13 日本電気株式会社 Road white line detection system, road white line detection method, and recording medium recording road white line detection program
JP4801821B2 (en) * 2007-09-21 2011-10-26 本田技研工業株式会社 Road shape estimation device
JP5752728B2 (en) * 2013-02-28 2015-07-22 富士フイルム株式会社 Inter-vehicle distance calculation device and operation control method thereof

Also Published As

Publication number Publication date
JP2021043143A (en) 2021-03-18

Similar Documents

Publication Publication Date Title
JP7349792B2 (en) How to provide information for vehicle operation
JP4801821B2 (en) Road shape estimation device
JP5776795B2 (en) Three-dimensional object detection device
JP7077910B2 (en) Bound line detection device and lane marking method
JPWO2014017520A1 (en) Three-dimensional object detection apparatus and three-dimensional object detection method
JP6520740B2 (en) Object detection method, object detection device, and program
JP2018081545A (en) Image data extraction device and image data extraction method
KR20150084234A (en) System and methof of detecting vehicle and lane position
CN110858405A (en) Attitude estimation method, device and system of vehicle-mounted camera and electronic equipment
JP6139465B2 (en) Object detection device, driving support device, object detection method, and object detection program
JP5682735B2 (en) Three-dimensional object detection device
JPWO2014017521A1 (en) Three-dimensional object detection device
CN111046719A (en) Apparatus and method for converting image
JP2020086545A (en) Object detection device, object detection method and computer program for object detection
JP2021149863A (en) Object state identifying apparatus, object state identifying method, computer program for identifying object state, and control apparatus
JP6948365B2 (en) Programs, devices, and methods for calculating the vanishing point
JP2021128705A (en) Object state identification device
JP7095559B2 (en) Bound line detection device and lane marking method
JP5888275B2 (en) Road edge detection system, method and program
JP6918425B2 (en) Devices, methods, and programs for detecting boundaries contained in captured images
US20230245323A1 (en) Object tracking device, object tracking method, and storage medium
JP2020201746A (en) Distance estimation device, distance estimation method, and distance estimation computer program
JP4155252B2 (en) Vehicle detection device
JP5938940B2 (en) Three-dimensional object detection device
US20230296407A1 (en) Apparatus, method, and computer program for determining sections for map update

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200128

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20200703

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210917

R150 Certificate of patent or registration of utility model

Ref document number: 6948365

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533