JP2018120303A - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP2018120303A
JP2018120303A JP2017009671A JP2017009671A JP2018120303A JP 2018120303 A JP2018120303 A JP 2018120303A JP 2017009671 A JP2017009671 A JP 2017009671A JP 2017009671 A JP2017009671 A JP 2017009671A JP 2018120303 A JP2018120303 A JP 2018120303A
Authority
JP
Japan
Prior art keywords
image
candidate
control unit
target
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017009671A
Other languages
Japanese (ja)
Inventor
宏次朗 立石
Kojiro Tateishi
宏次朗 立石
直輝 川嵜
Naoteru Kawasaki
直輝 川嵜
雄介 田中
Yusuke Tanaka
雄介 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Soken Inc filed Critical Denso Corp
Priority to JP2017009671A priority Critical patent/JP2018120303A/en
Publication of JP2018120303A publication Critical patent/JP2018120303A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a technique for reducing a load on image processing.SOLUTION: A control unit 15 acquires a captured image captured by a camera 11 mounted in a vehicle. The control unit 15 sets a plurality of neighboring positions which are the positions separated from a target position by a predetermined distance and identifies a position corresponding to each of the target position and the neighboring position in the acquired captured image as a candidate position based on a relative position of the target position, with an estimated position as a reference. The control unit 15 determines whether or not the candidate position represents the position of a target object in the captured image. When the candidate position represents the position of the target object in the captured image, the control unit 15 causes a memory to record the candidate position as a detection position. The target object is the object arranged along a direction in which a road on which the vehicle travels extends. The neighboring position is the position within a predetermined range including the target position. The candidate position is the position where the target object can exist in the captured image.SELECTED DRAWING: Figure 1

Description

本開示は、車両に設けられたカメラにより撮像された画像の中から、特定の対象物を検出する技術に関する。   The present disclosure relates to a technique for detecting a specific object from an image captured by a camera provided in a vehicle.

従来、車両に設けられたカメラにより撮像された画像の中から、特定の対象物を検出するという技術が知られている(特許文献1参照)。   2. Description of the Related Art Conventionally, a technique for detecting a specific object from an image captured by a camera provided in a vehicle is known (see Patent Document 1).

特開2016−143324号公報Japanese Patent Laid-Open No. 2006-143324

特許文献1に記載のような従来技術においては、画像の中から対象物を検出する際に、画像の全範囲において周知のパタンマッチング等といった画像処理によって該画像の中から対象物を検出することが一般的である。   In the related art as described in Patent Document 1, when detecting an object from an image, the object is detected from the image by image processing such as known pattern matching in the entire range of the image. Is common.

しかしながら、このような従来技術においては、画像の全範囲においてパタンマッチング等といった画像処理を行うため、画像処理の負荷が大きいという問題があった。
本開示の一局面は、画像処理の負荷を低減する技術を提供する。
However, in such a conventional technique, image processing such as pattern matching is performed on the entire range of the image, so that there is a problem that the load of image processing is heavy.
One aspect of the present disclosure provides a technique for reducing the load of image processing.

本開示の一態様は、車両に搭載される物体検出装置(15)である。物体検出装置は、車両位置部(S115)と、対象位置部(S120)と、画像取得部(S130)と、基本部(S135)と、判断部(S160)と、記録指示部(S165)と、を備える。   One aspect of the present disclosure is an object detection device (15) mounted on a vehicle. The object detection device includes a vehicle position part (S115), a target position part (S120), an image acquisition part (S130), a basic part (S135), a determination part (S160), and a recording instruction part (S165). .

車両位置部は、車両の位置を推定する位置推定装置(12)から、位置推定装置によって推定された車両の位置である推定位置を取得する。対象位置部は、予め定められた対象物の位置を含む地図データを保存する地図保存部(13)から対象物の位置である対象位置を取得する。画像取得部は、車両に搭載されたカメラ(11)によって撮像された撮像画像を取得する。   A vehicle position part acquires the estimated position which is the position of the vehicle estimated by the position estimation apparatus from the position estimation apparatus (12) which estimates the position of a vehicle. The target position unit acquires the target position that is the position of the target object from the map storage unit (13) that stores map data including the position of the predetermined target object. An image acquisition part acquires the picked-up image imaged with the camera (11) mounted in the vehicle.

基本部は、対象位置に対して近傍位置を設定し、且つ、推定位置を基準とする対象位置の相対的な位置に基づいて、撮像画像において対象位置及び近傍位置のそれぞれに対応する位置を候補位置として特定する。   The basic unit sets a neighboring position with respect to the target position, and based on the relative position of the target position with respect to the estimated position, candidates corresponding to the target position and the neighboring position in the captured image are selected. Specify as location.

判断部は、候補位置が撮像画像における対象物の位置を表しているか否かを判断する。記録指示部は、候補位置が撮像画像における対象物の位置を表している場合に、候補位置を検出位置として記録部(52)に記録させる。   The determination unit determines whether the candidate position represents the position of the object in the captured image. When the candidate position represents the position of the target object in the captured image, the recording instruction unit causes the recording unit (52) to record the candidate position as the detection position.

対象物は、車両が走行する道路が延びる方向に沿って配置されている物体である。近傍位置は、対象位置から予め定められた範囲内に含まれる位置である。候補位置は、撮像画像において対象物が存在し得る位置である。   The target object is an object arranged along the direction in which the road on which the vehicle travels extends. The proximity position is a position included within a predetermined range from the target position. The candidate position is a position where an object can exist in the captured image.

このような構成によれば、撮像画像において、地図データに基づく対象位置及び近傍位置、に対応する候補位置についてのみ、対象物の位置を表しているか否かを判断する構成を備えるので、画像処理の負荷を低減することができる。   According to such a configuration, since the captured image has a configuration for determining whether or not only the candidate position corresponding to the target position and the neighboring position based on the map data represents the position of the target object, image processing is performed. Can be reduced.

なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。   Note that the reference numerals in parentheses described in this column and in the claims indicate the correspondence with the specific means described in the embodiment described later as one aspect, and the technical scope of the present disclosure It is not limited.

車載システムの構成を示すブロック図。The block diagram which shows the structure of a vehicle-mounted system. 検出処理を示すフローチャート。The flowchart which shows a detection process. 地図データに基づく対象位置及び近傍位置を説明する図。The figure explaining the object position and neighborhood position based on map data. 画像候補位置を説明する図。The figure explaining an image candidate position. 第1実施形態の追加処理を示すフローチャート。The flowchart which shows the addition process of 1st Embodiment. 白線の基準輝度分布を示す図。The figure which shows the reference | standard brightness distribution of a white line. 基準輝度分布との一致の度合いを検出する様子を説明する図。The figure explaining a mode that the degree of matching with reference | standard brightness distribution is detected. 制御部の作動を説明する図。The figure explaining the action | operation of a control part. 自車両の移動量に応じて新たな検出位置が特定されることを説明する図。The figure explaining that a new detection position is specified according to the moving amount | distance of the own vehicle. 測位装置による推定誤差によって、画像候補位置が対象物である白線の位置を表さない比較例を説明する図。The figure explaining the comparative example by which the image candidate position does not represent the position of the white line which is a target object by the estimation error by a positioning apparatus. 第2実施形態の追加処理を示すフローチャート。The flowchart which shows the addition process of 2nd Embodiment. 推定線に基づく現画像位置の特定を説明する図。The figure explaining specification of the present image position based on an estimated line.

以下、図面を参照しながら、本開示の実施形態を説明する。
[1.第1実施形態]
[1−1.構成]
図1に示す車載システム10は、車両に搭載されるシステムであって、車両の周辺における予め定められた範囲内の撮像画像の中から予め定められた対象物を検出するシステムである。以下では、車載システム10が搭載される車両を自車両ともいう。また、以下でいう撮像範囲とは、車両の周辺における予め定められた範囲に相当する。
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
[1. First Embodiment]
[1-1. Constitution]
An in-vehicle system 10 shown in FIG. 1 is a system mounted on a vehicle, and is a system that detects a predetermined object from captured images within a predetermined range around the vehicle. Hereinafter, a vehicle on which the in-vehicle system 10 is mounted is also referred to as a host vehicle. The imaging range referred to below corresponds to a predetermined range around the vehicle.

ここでいう対象物とは、車載システム10が検出対象とする物体であって、道路の延びる方向に沿って配置されている物体をいう。道路の延びる方向に沿って配置されている物体には、例えば道路における白線や黄線等の区画線、ガードレール、縁石、防音壁等といった物体が含まれうる。   The object here refers to an object to be detected by the in-vehicle system 10 and disposed along the direction in which the road extends. The objects arranged along the road extending direction may include objects such as white lines and yellow lines on the road, guardrails, curbs, sound barriers, and the like.

車載システム10は、制御部15を備える。また、車載システム10は、カメラ11、測位装置12、移動量検出装置13、地図データ記録部14、及び車両制御部16を備えてもよい。   The in-vehicle system 10 includes a control unit 15. The in-vehicle system 10 may include a camera 11, a positioning device 12, a movement amount detection device 13, a map data recording unit 14, and a vehicle control unit 16.

カメラ11は、路面を含む自車両の進行方向前方を撮像するように自車両の前方端部に設置されている。ここでいう前方とは、自車両における中央から見てフロントガラスのある方向をいう。自車両の進行方向前方を含む予め定められた角度範囲内がカメラ11の撮像範囲として設定されている。なお、カメラ11の設置位置及び撮像範囲はこれに限定されるものではない。カメラ11は、例えば自車両の後方端部や側方端部といった任意の位置に設置されうる。また、撮像範囲には、例えば自車両の後方や自車両の側方等といった、自車両の周囲における任意の範囲が含まれうる。   The camera 11 is installed at the front end of the host vehicle so as to capture the front of the host vehicle including the road surface in the traveling direction. Here, the front refers to the direction in which the windshield is present when viewed from the center of the host vehicle. A predetermined angle range including the front in the traveling direction of the host vehicle is set as the imaging range of the camera 11. In addition, the installation position and imaging range of the camera 11 are not limited to this. The camera 11 can be installed at an arbitrary position such as a rear end or a side end of the host vehicle. In addition, the imaging range may include an arbitrary range around the host vehicle, such as behind the host vehicle or the side of the host vehicle.

測位装置12は、推定位置を制御部15へ出力する。推定位置とは、測位装置12によって推定された自車両の現在位置である。本実施形態では、測位装置12は、図示しないGNSS受信装置を有する。GNSS受信装置は、GNSS信号に基づいて自車両の位置を特定し、特定した位置を推定位置として制御部15へ出力する。GNSSは、Global Navigation Satellite Systemの略である。   The positioning device 12 outputs the estimated position to the control unit 15. The estimated position is the current position of the host vehicle estimated by the positioning device 12. In the present embodiment, the positioning device 12 has a GNSS receiving device (not shown). The GNSS receiver identifies the position of the host vehicle based on the GNSS signal, and outputs the identified position to the control unit 15 as an estimated position. GNSS is an abbreviation for Global Navigation Satellite System.

なお、測位装置12は、これに限定されるものではなく、GNSS受信装置に代えてGPS受信機を有しうる。GPSは、Global Positioning Systemの略である。また、測位装置12は、図示しないジャイロスコープ、車速センサ、及びGセンサ等といったセンサを含む、自律センサを有しうる。つまり、測位装置12は、自律センサによる検出信号に基づいて、公知の自律航法によって推定位置を算出するように構成されうる。   The positioning device 12 is not limited to this, and may have a GPS receiver instead of the GNSS receiving device. GPS is an abbreviation for Global Positioning System. The positioning device 12 may have an autonomous sensor including sensors such as a gyroscope, a vehicle speed sensor, and a G sensor (not shown). That is, the positioning device 12 can be configured to calculate the estimated position by a known autonomous navigation based on the detection signal from the autonomous sensor.

移動量検出装置13は、自車両の移動量を算出し、制御部15へ出力する。ここでいう自車両の移動量とは、自車両が進んだ距離と自車両の進行方向の変化とをいう。移動量検出装置13は、移動量を予め定められた時間毎に算出する。具体的には、移動量検出装置13は、図示しない車速センサとヨーレートセンサとを有する。車速センサは、自車両の車速を検出する。ヨーレートセンサは、自車両のヨーレートを検出する。移動量検出装置13は、車速センサ、ヨーレートセンサの検出結果に基づいて、移動量を算出する。   The movement amount detection device 13 calculates the movement amount of the host vehicle and outputs it to the control unit 15. The moving amount of the host vehicle here refers to a distance traveled by the host vehicle and a change in the traveling direction of the host vehicle. The movement amount detection device 13 calculates the movement amount every predetermined time. Specifically, the movement amount detection device 13 includes a vehicle speed sensor and a yaw rate sensor (not shown). The vehicle speed sensor detects the vehicle speed of the host vehicle. The yaw rate sensor detects the yaw rate of the host vehicle. The movement amount detection device 13 calculates the movement amount based on the detection results of the vehicle speed sensor and the yaw rate sensor.

地図データ記録部14は、HDDにより構成され、地図データ141等を記録している。HDDはハードディスクドライブの略である。地図データ141は、例えば、道路の位置、道路の形状、道路における車線数、交差点の位置等といった、道路に関する情報を含む。   The map data recording unit 14 is composed of an HDD and records map data 141 and the like. HDD is an abbreviation for hard disk drive. The map data 141 includes information about the road such as the position of the road, the shape of the road, the number of lanes on the road, the position of the intersection, and the like.

また、地図データ141は、車載システム10によって検出される対象物の位置を表す情報を含む。例えば、区画線、ガードレール、縁石等といった、道路の延びる方向に沿って配置されている対象物については、数mから数十m毎に、その位置の情報が地図データ141に含まれている。位置の情報は、緯度及び経度で表されている。   The map data 141 includes information representing the position of the object detected by the in-vehicle system 10. For example, for the objects arranged along the road extending direction, such as lane markings, guardrails, curbs, etc., the map data 141 includes position information for every several to several tens of meters. The position information is represented by latitude and longitude.

車両制御部16は、制御部15からの信号に応じて、自車両のエンジン、ブレーキ、ステアリング等の制御を行う。
制御部15は、CPU51と、RAM、ROM、フラッシュメモリ等の半導体メモリ(以下、メモリ52)と、を有する周知のマイクロコンピュータを中心に構成される。制御部15の各種機能は、CPU51が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ52が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、制御部15を構成するマイクロコンピュータの数は1つでも複数でもよい。
The vehicle control unit 16 controls the engine, brakes, steering, and the like of the host vehicle in accordance with a signal from the control unit 15.
The control unit 15 is mainly configured by a known microcomputer having a CPU 51 and a semiconductor memory (hereinafter, memory 52) such as a RAM, a ROM, and a flash memory. Various functions of the control unit 15 are realized by the CPU 51 executing a program stored in a non-transitional physical recording medium. In this example, the memory 52 corresponds to a non-transitional tangible recording medium that stores a program. Also, by executing this program, a method corresponding to the program is executed. The number of microcomputers constituting the control unit 15 may be one or plural.

制御部15は、CPU51が後述する検出処理等のプログラムを実行することで、対象物の検出等の各種機能を実現する。制御部15を構成するこれらの要素を実現する手法はソフトウェアに限るものではなく、その一部又は全部の要素について、一つあるいは複数のハードウェアを用いて実現してもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は多数の論理回路を含むデジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現してもよい。   The control part 15 implement | achieves various functions, such as detection of a target object, when CPU51 runs programs, such as a detection process mentioned later. The method of realizing these elements constituting the control unit 15 is not limited to software, and some or all of the elements may be realized using one or a plurality of hardware. For example, when the above function is realized by an electronic circuit that is hardware, the electronic circuit may be realized by a digital circuit including a large number of logic circuits, an analog circuit, or a combination thereof.

[1−2.処理]
次に、制御部15が実行する検出処理について、図2のフローチャートを用いて説明する。検出処理は、カメラ11の撮像画像の中から対象物を検出する処理である。具体的には、検出処理は、撮像画像における対象物の位置である検出位置を特定する処理である。以下では、道路における区画線である白線を対象物として検出する例を説明する。制御部15は、車載システム10に電源が投入されている間、予め定められた周期である処理周期毎に、検出処理を繰り返し実行する。
[1-2. processing]
Next, detection processing executed by the control unit 15 will be described with reference to the flowchart of FIG. The detection process is a process of detecting an object from the captured image of the camera 11. Specifically, the detection process is a process of specifying a detection position that is a position of an object in a captured image. Below, the example which detects the white line which is a lane marking in a road as a target object is demonstrated. The control unit 15 repeatedly executes the detection process for each processing cycle that is a predetermined cycle while the vehicle-mounted system 10 is powered on.

制御部15は、はじめにS110では、車載システム10にて検出する対象物の種類を特定する。対象物の種類とは、例えば、白線、黄線、縁石、ガードレール等といった、対象物の種別をいう。本実施形態では、対象物の種類を表す情報(以下、種類情報)が予めメモリ52に記録されている。制御部15は種類情報を取得して対象物の種類を特定する。本実施形態では、種類情報は対象物の種類が白線であることを表している。   First, in S110, the control unit 15 specifies the type of the object detected by the in-vehicle system 10. The type of the object refers to the type of the object such as a white line, a yellow line, a curb, a guardrail, and the like. In the present embodiment, information indicating the type of the object (hereinafter referred to as type information) is recorded in the memory 52 in advance. The control unit 15 acquires the type information and specifies the type of the object. In the present embodiment, the type information indicates that the type of the object is a white line.

なお、これに限定されるものではなく、車載システム10にて検出する対象物の種類は、例えば、車両の運転者によって図示しない入力装置を用いて入力されうる。そして、制御部15は、入力装置を用いて入力された情報に基づいて対象物の種類を特定しうる。   In addition, it is not limited to this, The kind of target object detected by the vehicle-mounted system 10 can be input using the input device which is not illustrated by the driver | operator of a vehicle, for example. And the control part 15 can pinpoint the kind of target object based on the information input using the input device.

制御部15は、S115では、測位装置12から推定位置を取得する。図3に示すように、推定位置Pは、例えば(x0、y0)といったように、緯度及び経度を用いて表されている。 In S115, the control unit 15 acquires the estimated position from the positioning device 12. As shown in FIG. 3, the estimated position P is represented using latitude and longitude, for example (x 0 , y 0 ).

制御部15は、S120では、地図データ記録部14から、対象位置を取得する。対象位置とは、地図データ141に基づく対象物の位置である。制御部15は、本実施形態では、図3に示すように、自車両1が走行する車線である自車線101と自車線101に隣接する隣接車線102との区画線である白線202、自車線101における白線202と反対側の白線201、隣接車線102における白線202と反対側の白線203、といった複数の白線を対象物とする。   In S120, the control unit 15 acquires the target position from the map data recording unit 14. The target position is the position of the target based on the map data 141. In the present embodiment, as shown in FIG. 3, the control unit 15 includes a white line 202 that is a lane line between the own lane 101 that is the lane in which the host vehicle 1 travels and an adjacent lane 102 that is adjacent to the own lane 101. A plurality of white lines such as a white line 201 opposite to the white line 202 in 101 and a white line 203 opposite to the white line 202 in the adjacent lane 102 are set as objects.

白線の位置は、数m毎に、地図データ141に記録されている。制御部15は、地図データ141に記録されている白線の位置であって、自車両1に搭載されたカメラ11の撮像範囲Z内における複数の白線の位置を対象位置として取得する。図3において、対象位置Aは、点線300によって囲まれた範囲内における黒丸によって示されている。   The position of the white line is recorded in the map data 141 every several meters. The control unit 15 acquires, as target positions, the positions of the white lines recorded in the map data 141 and the positions of a plurality of white lines within the imaging range Z of the camera 11 mounted on the host vehicle 1. In FIG. 3, the target position A is indicated by a black circle within the range surrounded by the dotted line 300.

制御部15は、S125では、対象位置Aに対して近傍位置を設定する。近傍位置とは、対象位置A含む予め定められた範囲内に含まれる位置である。図3において、近傍位置Bは、点線300によって囲まれた範囲内における白丸によって示されている。   In S125, the control unit 15 sets a vicinity position with respect to the target position A. The vicinity position is a position included in a predetermined range including the target position A. In FIG. 3, the vicinity position B is indicated by a white circle within the range surrounded by the dotted line 300.

本実施形態では、制御部15は、図3に示すように、白線から横方向右及び左に予め定められた距離である指定横距離Dx離れた範囲内に含まれる位置を近傍位置Bとして設定する。つまり、白線は複数の対象位置Aを並べて構成されており、制御部15は、白線を構成するこれらの対象位置Aから横方向右及び左に指定横距離Dx離れた範囲内に含まれる位置を近傍位置Bとして設定する。   In the present embodiment, as shown in FIG. 3, the control unit 15 sets a position included within a range that is a predetermined distance Dx that is a predetermined distance from the white line to the right and left in the horizontal direction as the vicinity position B. To do. That is, the white line is configured by arranging a plurality of target positions A, and the control unit 15 determines positions included in a range that is separated from the target position A that configures the white line by a specified lateral distance Dx to the right and left in the horizontal direction. Set as the proximity position B.

ここでいう横方向とは、地図で表された平面上において道路の延びる方向に対して垂直な方向をいう。本実施形態では、測位装置12による推定位置Pの誤差(以下、測位装置12による推定誤差)よりも小さい任意の値が指定横距離Dxとして設定されている。指定横距離Dxは、予めメモリ52に記録されている。   The lateral direction here refers to a direction perpendicular to the direction in which the road extends on the plane represented by the map. In the present embodiment, an arbitrary value smaller than the error of the estimated position P by the positioning device 12 (hereinafter, estimated error by the positioning device 12) is set as the designated lateral distance Dx. The designated lateral distance Dx is recorded in the memory 52 in advance.

制御部15は、撮像範囲Z内における白線のそれぞれに対して、少なくとも一つの近傍位置Bを設定する。
なお、制御部15は、白線に対して複数の近傍位置Bを設定する場合、隣り合う近傍位置B間の距離であって、道路の延びる方向における距離(以下、縦距離)dyを任意の値に設定しうる。
The control unit 15 sets at least one neighboring position B for each white line in the imaging range Z.
In addition, when the control part 15 sets the some vicinity position B with respect to a white line, it is the distance between the adjacent vicinity positions B, Comprising: The distance (henceforth, vertical distance) dy in the road extending direction is arbitrary values. Can be set.

本実施形態では、制御部15は、隣り合う近傍位置B間の縦距離dyを、測位装置12による推定誤差未満のランダムな値に設定する。ただし、これに限定されるものではなく、例えば、隣り合う近傍位置B間の縦距離dyは、測位装置12による推定誤差未満の予め定められた値に設定されうる。   In the present embodiment, the control unit 15 sets the vertical distance dy between adjacent neighboring positions B to a random value that is less than the estimation error by the positioning device 12. However, the present invention is not limited to this. For example, the vertical distance dy between adjacent neighboring positions B can be set to a predetermined value that is less than the estimation error by the positioning device 12.

図2に戻り説明を続ける。制御部15は、S130では、カメラ11によって撮像された撮像画像を取得する。
制御部15は、S135では、画像候補位置を特定する。制御部15は、推定位置Pを基準とする対象位置Aの相対的な位置及び推定位置Pを基準とする近傍位置Bの相対的な位置に基づいて、緯度及び経度で表された対象位置A及び近傍位置Bの位置を画像座標に変換する。画像座標とは、撮像画像における座標である。制御部15は、画像座標への変換をカメラ11のカメラパラメータを用いて行う。カメラパラメータは、カメラ11の取付位置及び取付姿勢を表しており、予めメモリ52に記録されている。
Returning to FIG. In S130, the control unit 15 acquires a captured image captured by the camera 11.
In S135, the control unit 15 specifies an image candidate position. Based on the relative position of the target position A relative to the estimated position P and the relative position of the neighboring position B relative to the estimated position P, the control unit 15 performs the target position A expressed in latitude and longitude. And the position of the vicinity position B is converted into image coordinates. Image coordinates are coordinates in a captured image. The control unit 15 performs conversion into image coordinates using the camera parameters of the camera 11. The camera parameter represents the mounting position and mounting posture of the camera 11 and is recorded in the memory 52 in advance.

制御部15は、これらの画像座標を、S130にて取得された撮像画像において対象位置A及び近傍位置Bのそれぞれに対応する位置である画像候補位置として特定する。画像候補位置とは、撮像画像において白線が存在し得る位置を表している。制御部15は、特定した画像候補位置をメモリ52に記録する。   The control unit 15 specifies these image coordinates as image candidate positions that are positions corresponding to the target position A and the neighboring position B in the captured image acquired in S130. The image candidate position represents a position where a white line can exist in the captured image. The control unit 15 records the specified image candidate position in the memory 52.

図4に示す撮像画像において、画像候補位置Mは、点線301で囲まれている範囲内における白丸で示されている。つまり、本ステップの終了後には、図4において点線301で囲まれている範囲内の白丸のそれぞれの位置が画像候補位置Mとしてメモリ52に記録される。   In the captured image shown in FIG. 4, the image candidate position M is indicated by a white circle within a range surrounded by a dotted line 301. That is, after the end of this step, the position of each white circle within the range surrounded by the dotted line 301 in FIG. 4 is recorded in the memory 52 as the image candidate position M.

図2に戻り説明を続ける。制御部15は、S140では、S130にて取得した撮像画像が1フレーム目であるか否かを判断する。1フレーム目であることは、初回に撮像された撮像画像であることを表しており、検出位置がまだ一度も検出されていないことを表す。ここで、制御部15は、1フレーム目である場合には、後述する画像追加位置として何も設定せずに、処理をS150へ移行させる。一方、制御部15は、1フレーム目でない場合には、処理をS145へ移行させる。   Returning to FIG. In S140, the control unit 15 determines whether or not the captured image acquired in S130 is the first frame. The first frame represents a captured image captured for the first time and represents that the detection position has not been detected yet. Here, in the case of the first frame, the control unit 15 shifts the processing to S150 without setting anything as an image addition position to be described later. On the other hand, if it is not the first frame, the control unit 15 shifts the process to S145.

制御部15は、S145では、追加処理を実行する。追加処理は、撮像画像において現画像位置及び画像予備位置を特定する処理である。制御部15は、本検出処理を実行することによって、検出位置を処理周期毎にメモリ52に繰り返し記録させている。現画像位置とは、S130にて取得された撮像画像において、メモリ52に記録された過去の検出位置に対応する位置である。画像予備位置とは、現画像位置を含む所定の範囲内の位置である。制御部15は、現画像位置及び画像予備位置を画像追加位置としてメモリ52に記録した後に、処理をS150へ移行させる。   In S145, the control unit 15 performs an additional process. The additional processing is processing for specifying the current image position and the image preliminary position in the captured image. The controller 15 repeatedly records the detected position in the memory 52 for each processing cycle by executing this detection process. The current image position is a position corresponding to a past detection position recorded in the memory 52 in the captured image acquired in S130. The image preliminary position is a position within a predetermined range including the current image position. After recording the current image position and the image preliminary position in the memory 52 as the image addition position, the control unit 15 shifts the processing to S150.

ここで、追加処理について、図5のフローチャートを用いて説明する。
制御部15は、S200では、移動量検出装置13から自車両の移動量を取得する。本実施形態では、移動量検出装置13は処理周期毎に移動量を出力するように構成されおり、移動量が出力される周期とS200にて移動量が取得される周期とは同期している。
Here, the addition process will be described with reference to the flowchart of FIG.
In S200, the control unit 15 acquires the movement amount of the host vehicle from the movement amount detection device 13. In the present embodiment, the movement amount detection device 13 is configured to output a movement amount for each processing cycle, and the cycle in which the movement amount is output is synchronized with the cycle in which the movement amount is acquired in S200. .

制御部15は、S210では、「過去の処理周期」において検出された白線の検出位置をメモリ52から取得する。以下では、白線の検出位置、を単に、検出位置ともいう。また、過去の処理周期において検出された検出位置、を単に、過去の検出位置ともいう。   In S <b> 210, the control unit 15 acquires the detection position of the white line detected in the “past processing cycle” from the memory 52. Hereinafter, the detection position of the white line is also simply referred to as a detection position. In addition, the detection position detected in the past processing cycle is also simply referred to as the past detection position.

本実施形態では、前述の「過去の処理周期」とは、本検出処理が実行されている現在の処理周期(以下、現周期)よりも1つ前の過去の処理周期をいうものとする。また、前述の過去の検出位置とは、現周期よりも1つ前の過去の処理周期において検出された検出位置をいうものとする。なお、検出位置は撮像画像における画像座標により表されている。   In the present embodiment, the above-mentioned “past processing cycle” refers to a past processing cycle one prior to the current processing cycle (hereinafter, the current cycle) in which the main detection processing is executed. In addition, the above-described past detection position refers to a detection position detected in a past processing cycle immediately before the current cycle. The detection position is represented by image coordinates in the captured image.

制御部15は、S220では、S200にて取得した自車両の移動量とS210にて取得した過去の検出位置とに基づいて、現画像位置を特定する。具体的には、後述する図8に示すように、制御部15は、S210にて取得された過去の処理周期Tn-1における検出位置である過去の検出位置Cを、自車両の移動量を反映させて、S130にて取得された撮像画像における撮像画像上の位置である現画像位置Dに変換する。現画像位置Dは緯度及び経度により表されている。なお以下では、S130にて取得された撮像画像を現周期の撮像画像ともいう。 In S220, the control unit 15 specifies the current image position based on the movement amount of the host vehicle acquired in S200 and the past detection position acquired in S210. Specifically, as shown in FIG. 8, which will be described later, the control unit 15 sets the past detection position C, which is the detection position in the past processing cycle T n−1 acquired in S210, as the amount of movement of the host vehicle. Is reflected and converted to the current image position D, which is the position on the captured image in the captured image acquired in S130. The current image position D is represented by latitude and longitude. Hereinafter, the captured image acquired in S130 is also referred to as a captured image of the current period.

制御部15は、S230では、S220にて特定された現画像位置Dのそれぞれを、画像追加位置として、メモリ52に記録する。
更に、制御部15は、S240では、画像予備位置を設定する。制御部15は、現画像位置Dを含む所定の範囲内の位置を画像予備位置Eとして設定する。
In S230, the control unit 15 records each of the current image positions D specified in S220 in the memory 52 as image addition positions.
Further, in S240, the control unit 15 sets an image preliminary position. The control unit 15 sets a position within a predetermined range including the current image position D as the image preliminary position E.

図8に示すように、ここでいう所定の範囲Jとは、現画像位置Dを中心として予め定められた画像指定距離を半径とする円で示される範囲をいう。画像指定距離とは撮像画像における画素間の距離である。   As shown in FIG. 8, the predetermined range J here refers to a range indicated by a circle whose radius is a predetermined image designated distance centered on the current image position D. The designated image distance is a distance between pixels in a captured image.

本実施形態では、画像指定距離は、撮像画像における画素間の距離であって測位装置12による推定誤差に相当する大きさに設定されている。ただし、これに限定されるものではない。例えば、所定の範囲は任意の形状に設定されうる。また、処理の範囲は任意の大きさに設定されうる。   In this embodiment, the image designation distance is a distance between pixels in the captured image and is set to a size corresponding to an estimation error by the positioning device 12. However, it is not limited to this. For example, the predetermined range can be set to an arbitrary shape. Further, the processing range can be set to an arbitrary size.

制御部15は、1つの現画像位置Dに対して所定の範囲J内に少なくとも1つの画像予備位置Eを設定しうる。本実施形態では、制御部15は、現画像位置Dに対して所定の範囲J内に複数の画像予備位置Eを設定する。なお、図8には、現画像位置Dに対して1つの画像予備位置Eのみが示されている。   The control unit 15 can set at least one image preliminary position E within a predetermined range J for one current image position D. In the present embodiment, the control unit 15 sets a plurality of image preliminary positions E within a predetermined range J with respect to the current image position D. FIG. 8 shows only one image preliminary position E with respect to the current image position D.

制御部15は、S250では、S230にてメモリ52に記録された画像追加位置のそれぞれと、S240にて設定された画像予備位置Eのそれぞれとを、画像追加位置としてメモリ52に記録する。そして、本追加処理を終了する。これにより、現画像位置Dのそれぞれと、現画像位置Dの周辺に設定された複数の画像予備位置Eのそれぞれと、が画像追加位置としてメモリ52に記録される。   In S250, the control unit 15 records each of the image addition positions recorded in the memory 52 in S230 and each of the image preliminary positions E set in S240 in the memory 52 as image addition positions. And this addition process is complete | finished. As a result, each of the current image position D and each of the plurality of preliminary image positions E set around the current image position D are recorded in the memory 52 as image addition positions.

図2に戻り説明を続ける。制御部15は、S150では、S135にて特定された画像候補位置Mのそれぞれと、S145にて特定された画像追加位置のそれぞれと、を画像候補位置Mとしてメモリ52に記録し直す。つまり、S135にて特定された画像候補位置Mのそれぞれと、現画像位置Dのそれぞれと、画像予備位置Eのそれぞれと、が画像候補位置Mとしてメモリ52に記録される。   Returning to FIG. In S150, the control unit 15 re-records each of the image candidate positions M specified in S135 and each of the image addition positions specified in S145 in the memory 52 as the image candidate positions M. That is, each of the image candidate positions M specified in S135, each of the current image positions D, and each of the image preliminary positions E are recorded in the memory 52 as the image candidate positions M.

制御部15は、S155では、検出すべき対象物の種類に応じて、基準輝度分布を取得する。検出すべき対象物の種類は、S110にて特定されている。基準輝度分布とは、撮像画像における輝度の分布(以下、輝度分布)であって、対象物の種類に応じて予め定められ輝度分布である。本実施形態では、例えば、白線、黄色線、縁石、ガードレール等といった、複数種類の対象物についての基準輝度分布が、メモリ52に予め記録されている。   In S155, the control unit 15 acquires a reference luminance distribution according to the type of the object to be detected. The type of the object to be detected is specified in S110. The reference luminance distribution is a luminance distribution (hereinafter referred to as luminance distribution) in the captured image, and is a luminance distribution determined in advance according to the type of the object. In the present embodiment, for example, reference luminance distributions for a plurality of types of objects such as white lines, yellow lines, curbs, guardrails, and the like are recorded in the memory 52 in advance.

本実施形態では、基準輝度分布は、道路の延びる方向を縦の方向(以下、画像縦方向)とする撮像画像において、該画像縦方向に対して垂直な方向(以下、画像横方向)における輝度分布であって、所定の範囲(以下、検出範囲)内における画素の輝度分布として表されている。前述のようにS110において白線を対象物とすることが特定されているので、制御部15は、例えば図6に示すように、白線の基準輝度分布を取得する。   In the present embodiment, the reference luminance distribution is a luminance in a direction (hereinafter, image horizontal direction) perpendicular to the image vertical direction in a captured image in which the road extending direction is the vertical direction (hereinafter image vertical direction). This is a distribution and is represented as a luminance distribution of pixels within a predetermined range (hereinafter referred to as a detection range). As described above, since it is specified in S110 that the white line is an object, the control unit 15 acquires a reference luminance distribution of the white line, for example, as illustrated in FIG.

制御部15は、S160では、S155にて取得された基準輝度分布に基づいて、メモリ52に記録されている画像候補位置Mのそれぞれが、撮像画像における白線の位置を表しているか否かを判断する。   In S160, the control unit 15 determines whether each of the image candidate positions M recorded in the memory 52 represents the position of the white line in the captured image, based on the reference luminance distribution acquired in S155. To do.

具体的には、制御部15は、図7に示すように、S130にて取得された撮像画像における候補位置Mを含む所定の検出範囲内の輝度分布を取得する。ここで、S130にて取得された撮像画像は、自車両1の進行方向を縦の方向とし、該縦の方向に垂直な方向を横の方向とする画像である。S130にて取得された撮像画像における、該横の方向における位置を横位置という。本実施形態では、画像候補位置Mを含む、横位置において検出範囲と等しい範囲内の輝度分布を取得する。   Specifically, as illustrated in FIG. 7, the control unit 15 acquires a luminance distribution within a predetermined detection range including the candidate position M in the captured image acquired in S <b> 130. Here, the captured image acquired in S <b> 130 is an image in which the traveling direction of the host vehicle 1 is a vertical direction and a direction perpendicular to the vertical direction is a horizontal direction. The position in the horizontal direction in the captured image acquired in S130 is referred to as a horizontal position. In the present embodiment, the luminance distribution within the range equal to the detection range at the horizontal position including the image candidate position M is acquired.

制御部15は、取得した輝度分布と基準輝度分布との一致の度合いに基づいて、一致の度合いが予め定められた閾値以上である場合に、画像候補位置MがS130にて取得された撮像画像において白線の位置を表していると判断する。一致の度合いとは、一致の度合いが大きい場合に、一致の度合いが小さい場合よりも大きい値となる。このような判断方法はパタンマッチングとして周知の方法であるため、詳細な説明を省略する。   Based on the degree of matching between the acquired luminance distribution and the reference luminance distribution, the control unit 15 captures the image candidate position M acquired in S130 when the degree of matching is equal to or greater than a predetermined threshold. It is determined that the position of the white line is represented by. The degree of matching is larger when the degree of matching is larger than when the degree of matching is small. Since such a determination method is a well-known method as pattern matching, detailed description is omitted.

制御部15は、画像候補位置Mが撮像画像における白線の位置を表している場合に処理をS165へ移行させ、画像候補位置Mが撮像画像における白線の位置を表していない場合に処理をS170へ移行させる。   The control unit 15 shifts the process to S165 when the image candidate position M represents the position of the white line in the captured image, and proceeds to S170 when the image candidate position M does not represent the position of the white line in the captured image. Transition.

制御部15は、S165では、画像候補位置Mを白線についての検出位置としてメモリ52に記録させる。
制御部15は、S170では、全ての画像候補位置Mについて白線の位置であるか否かの判断を実行したか、を判断する。ここで、制御部15は、全ての画像候補位置Mについて判断を実行していない場合に処理をS160へ移行させ、S160〜S170の処理を繰り返す。一方、制御部15は、全ての画像候補位置Mについて判断を実行した場合に、本検出処理を終了する。
In S165, the control unit 15 causes the image candidate position M to be recorded in the memory 52 as a detection position for the white line.
In S <b> 170, the control unit 15 determines whether it is determined whether or not all image candidate positions M are white line positions. Here, the control part 15 makes a process transfer to S160, when determination is not performed about all the image candidate positions M, and repeats the process of S160-S170. On the other hand, the control part 15 complete | finishes this detection process, when determination is performed about all the image candidate positions M. FIG.

つまり、このように構成された制御部15は、次のように作動する。
(1)制御部15は、図8に示すように、地図データ141に基づく対象位置A及び対象位置Aの周辺に設定された複数の近傍位置Bを現周期Tnの撮像画像における画像座標に変換した位置、である画像候補位置Mをメモリ52に記録する。なお、図8において、点線301で囲まれた範囲内の丸印が、ここでいう画像候補位置Mを示している。
That is, the control unit 15 configured as described above operates as follows.
(1) As shown in FIG. 8, the control unit 15 converts the target position A based on the map data 141 and a plurality of neighboring positions B set around the target position A into image coordinates in the captured image of the current period T n. The image candidate position M, which is the converted position, is recorded in the memory 52. In FIG. 8, a circle within a range surrounded by a dotted line 301 indicates the image candidate position M here.

(2)制御部15は、図8に示すように、過去の検出位置Cを自車両1の移動量に基づいて現周期Tnの撮像画像における画像座標に変換した位置、である現画像位置Dをメモリ52に記録する。なお、図8において、点線302で囲まれた範囲内の丸印が検出位置Cを示している。また、点線303で囲まれた範囲内の黒い丸印が現画像位置Dを示している。 (2) As shown in FIG. 8, the control unit 15 converts the past detection position C into the image coordinates in the captured image of the current period T n based on the movement amount of the host vehicle 1. D is recorded in the memory 52. In FIG. 8, a circle in the range surrounded by the dotted line 302 indicates the detection position C. Further, a black circle within a range surrounded by a dotted line 303 indicates the current image position D.

(3)制御部15は、図8に示すように、現周期Tnの撮像画像において現画像位置Dの周辺に設定された複数の位置である画像予備位置Eをメモリ52に記録する。なお、図8において、点線303で囲まれた範囲内の白い丸印が画像予備位置Eを示している。本実施形態では、現画像位置Dの周辺に複数の画像予備位置Eが設定される。 (3) As shown in FIG. 8, the control unit 15 records in the memory 52 image preliminary positions E that are a plurality of positions set around the current image position D in the captured image of the current period T n . In FIG. 8, a white circle in the range surrounded by the dotted line 303 indicates the image preliminary position E. In the present embodiment, a plurality of image preliminary positions E are set around the current image position D.

(4)制御部15は、(1)の画像候補位置Mと、(2)の現画像位置Dと、(3)の画像予備位置Eと、を画像候補位置Mとして、メモリ52に記録し直す。制御部15は、画像候補位置Mとしての(1)の画像候補位置Mと、(2)の現画像位置Dと、(3)の画像予備位置Eとについて、現周期Tnの撮像画像における対象物の位置を表しているか否かを判断する。制御部15は、複数の画像候補位置Mのうち現周期Tnの撮像画像における対象物の位置を表している画像候補位置M、を検出位置Nとしてメモリ52に記録する。 (4) The control unit 15 records the image candidate position M in (1), the current image position D in (2), and the image preliminary position E in (3) in the memory 52 as the image candidate position M. cure. The control unit 15 in the captured image of the current period T n for the image candidate position M of (1), the current image position D of (2), and the image preliminary position E of (3) as the image candidate position M. It is determined whether or not the position of the object is represented. Control unit 15 records in the memory 52 the image candidate position M, which represents the position of the object in the captured image of the current period T n of the plurality of image candidate position M as a detection position N.

なお、図8において、点線304及び点線305で囲まれた範囲内の黒丸が検出位置Nを示している。点線304で囲まれた範囲内の検出位置Nは、(1)の画像候補位置Mに基づいて判断を行うことによって検出された検出位置Nを示す。点線305で囲まれた範囲内の検出位置Nは、(2)の現画像位置Dと、(3)の画像予備位置Eと、に基づいて判断を行うことによって検出された検出位置Nを示す。   In FIG. 8, the black circle in the range surrounded by the dotted line 304 and the dotted line 305 indicates the detection position N. The detection position N within the range surrounded by the dotted line 304 indicates the detection position N detected by making a determination based on the image candidate position M in (1). The detection position N within the range surrounded by the dotted line 305 indicates the detection position N detected by making a determination based on the current image position D in (2) and the image preliminary position E in (3). .

[1−3.効果]
以上詳述した第1実施形態によれば、以下の効果を奏する。
(1a)制御部15は、S115では、自車両の位置を推定する測位装置12から、測位装置12によって推定された自車両1の位置である推定位置Pを取得する。制御部15は、S120では、予め定められた対象物の位置を含む地図データ141を保存する地図データ記録部14から対象物の位置である対象位置Aを取得する。
[1-3. effect]
According to the first embodiment described in detail above, the following effects are obtained.
(1a) In S115, the control unit 15 acquires an estimated position P that is the position of the host vehicle 1 estimated by the positioning device 12 from the positioning device 12 that estimates the position of the host vehicle. In S120, the control unit 15 acquires the target position A, which is the position of the target object, from the map data recording unit 14 that stores the map data 141 including the position of the predetermined target object.

制御部15は、S130では、車両に搭載されたカメラ11によって撮像された撮像画像を取得する。制御部15は、S135では、対象位置Aに対して近傍位置Bを設定し、且つ、推定位置Pを基準とする対象位置Aの相対的な位置に基づいて、撮像画像において対象位置A及び近傍位置Bのそれぞれに対応する位置を画像候補位置Mとして特定する。   In S130, the control unit 15 acquires a captured image captured by the camera 11 mounted on the vehicle. In S135, the control unit 15 sets the vicinity position B with respect to the target position A, and based on the relative position of the target position A with the estimated position P as a reference, the target position A and the vicinity A position corresponding to each of the positions B is specified as an image candidate position M.

制御部15は、S160では、画像候補位置Mが撮像画像における対象物の位置を表しているか否かを判断する。制御部15は、S165では、画像候補位置Mが撮像画像における対象物の位置を表している場合に、画像候補位置Mを検出位置としてメモリ52に記録させる。   In S160, the control unit 15 determines whether the image candidate position M represents the position of the object in the captured image. In S165, when the image candidate position M represents the position of the object in the captured image, the control unit 15 records the image candidate position M in the memory 52 as the detection position.

対象物は、自車両1が走行する道路が延びる方向に沿って配置されている物体である。近傍位置Bは、対象位置Aから予め定められた範囲内に含まれる位置である。画像候補位置Mは、撮像画像において対象物が存在し得る位置である。   The target object is an object arranged along the direction in which the road on which the host vehicle 1 travels extends. The proximity position B is a position included within a predetermined range from the target position A. The image candidate position M is a position where an object can exist in the captured image.

これによれば、撮像画像において画像候補位置Mについてのみ対象物の位置を表しているか否かを判断するので、例えば撮像画像に含まれる全ての位置それぞれについて対象物の位置を表しているか否かを判断する場合よりも、画像処理について処理負荷を低減することができる。   According to this, since it is determined whether or not the position of the object is represented only for the image candidate position M in the captured image, for example, whether or not the position of the object is represented for each of all the positions included in the captured image. The processing load for image processing can be reduced as compared with the case of determining.

また、対象位置Aのみではなく対象位置Aから予め定められた範囲内に位置する近傍位置Bも画像候補位置Mとして設定されており該近傍位置Bについても対象物を表しているか否かが判断されるので、仮に測位装置12による推定位置Pに誤差が生じていたとしても、撮像画像において検出位置を特定することが可能となる。   Further, not only the target position A but also a neighboring position B located within a predetermined range from the target position A is set as an image candidate position M, and it is determined whether or not the neighboring position B also represents an object. Therefore, even if there is an error in the estimated position P by the positioning device 12, the detected position can be specified in the captured image.

また、本実施形態では、対象位置Aと近傍位置Bとの横方向における距離である指定横距離Dxは、測位装置12による推定誤差未満に設定されているので、近傍位置Bに基づいて検出位置を精度よく特定することができる。   In the present embodiment, the designated lateral distance Dx, which is the distance in the lateral direction between the target position A and the neighboring position B, is set to be less than the estimation error by the positioning device 12, so that the detected position based on the neighboring position B is detected. Can be accurately identified.

また、本実施形態では、図9に示すように、過去の処理周期Tn-1においてカメラ11の撮像範囲Z外であった範囲についても、現周期Tnにおいてカメラ11の撮像範囲Z内となる範囲については、新たに検出位置Nを特定することが可能となる。つまり、自車両1の移動量に応じて次々と新たな検出位置Nを特定することができる。 Further, in the present embodiment, as shown in FIG. 9, the range outside the imaging range Z of the camera 11 in the past processing cycle T n−1 is also within the imaging range Z of the camera 11 in the current cycle T n . In such a range, it is possible to newly specify the detection position N. That is, new detection positions N can be identified one after another according to the amount of movement of the host vehicle 1.

(1b)制御部15は、S165では、所定の処理周期で繰り返し検出位置をメモリ52に記録させる。制御部15は、S220では、S130によって取得された撮像画像においてメモリ52に記録された過去の検出位置Cに対応する位置、である現画像位置Dを特定する。制御部15は、S160では、S135によって特定された画像候補位置Mと、現画像位置Dと、のそれぞれを画像候補位置Mとして、これら画像候補位置Mについて判断を行う。   (1b) In S165, the control unit 15 repeatedly records the detected position in the memory 52 at a predetermined processing cycle. In S220, the control unit 15 specifies a current image position D that is a position corresponding to the past detection position C recorded in the memory 52 in the captured image acquired in S130. In S160, the control unit 15 determines each of the image candidate positions M using the image candidate position M specified in S135 and the current image position D as the image candidate positions M.

ここで、過去の検出位置Cは、パタンマッチングのような画像処理によって過去の撮像画像において対象物の位置として特定された位置であるので、精度が高い。つまり、過去の検出位置Cは、測位装置12による測定位置Pに誤差が生じていたとしても、過去の撮像画像における対象物の位置を正確に表している。   Here, since the past detection position C is a position specified as the position of the target object in the past captured image by image processing such as pattern matching, the accuracy is high. That is, the past detection position C accurately represents the position of the object in the past captured image even if there is an error in the measurement position P by the positioning device 12.

これによれば、制御部15は、精度が高い過去の検出位置Cに対応する現画像位置Dを候補として設定し、該現画像位置Dについても対象物の位置であるか否かを判断する。このため、仮に測位装置12による推定誤差が生じていたとしても、現周期Tnの撮像画像における検出位置Nを精度よく特定することができる。なお、ここでいう候補とは、撮像画像における対象物の位置についての候補、という意味である。 According to this, the control unit 15 sets the current image position D corresponding to the past detection position C with high accuracy as a candidate, and determines whether the current image position D is also the position of the object. . Therefore, even if the estimated error by the positioning device 12 has occurred, it is possible to accurately identify the detection position N in the captured image of the current period T n. Note that the term “candidate” here means a candidate for the position of the object in the captured image.

例えば、図10は測位装置12による推定誤差が大きすぎて、対象位置Aを画像座標に変換した画像候補位置Mのいずれもが対象物である白線の位置を表していない、といった比較例を示している。   For example, FIG. 10 shows a comparative example in which the estimation error by the positioning device 12 is too large and none of the image candidate positions M obtained by converting the target position A into image coordinates represents the position of the white line as the target. ing.

本実施形態によれば、比較例のように測位装置12による推定誤差が大きい場合においても、前述の図8の点線305で囲まれている範囲内における検出位置Nのように、過去の検出位置Cに基づいて検出位置Nを精度よく特定することができる。   According to the present embodiment, even in the case where the estimation error by the positioning device 12 is large as in the comparative example, the past detection position as in the detection position N within the range surrounded by the dotted line 305 in FIG. Based on C, the detection position N can be specified with high accuracy.

(1c)制御部15は、S145では、S130によって取得された撮像画像において、現画像位置Dに対して複数の画像予備位置Eを設定する。制御部15は、S160では、S135によって特定された画像候補位置Mと、現画像位置Dと、画像予備位置Eと、のそれぞれを画像候補位置Mとして、これらの画像候補位置Mについて判断を行う。画像予備位置Eは、現画像位置Dを含む所定の範囲J内の位置である。   (1c) In S145, the control unit 15 sets a plurality of image preliminary positions E with respect to the current image position D in the captured image acquired in S130. In S160, the control unit 15 determines each of the image candidate positions M by setting each of the image candidate position M, the current image position D, and the image preliminary position E specified in S135 as the image candidate positions M. . The image preliminary position E is a position within a predetermined range J including the current image position D.

これによれば、制御部15は、現画像位置Dに対して該現画像位置Dの周辺に複数の画像予備位置Eを設定し、該画像予備位置Eについても対象物の位置であるか否かを判断する。このため、仮に測位装置12による推定誤差がより大きく生じていたとしても、撮像画像において新たな検出位置Nを特定することが可能となる。   According to this, the control unit 15 sets a plurality of image preliminary positions E around the current image position D with respect to the current image position D, and whether or not the image preliminary position E is also the position of the object. Determine whether. For this reason, even if an estimation error caused by the positioning device 12 is larger, a new detection position N can be specified in the captured image.

(1d)制御部15は、S155では、対象物についての予め定められた輝度分布を表す基準輝度分布を取得する。制御部15は、S160では、画像候補位置Mを含む予め定められた範囲内における画素の輝度分布を取得し、取得した輝度分布と基準輝度分布との一致の度合いに基づいて、画像候補位置Mが対象物の位置を表しているか否かを判断する。   (1d) In S155, the control unit 15 acquires a reference luminance distribution representing a predetermined luminance distribution for the object. In S160, the control unit 15 acquires the luminance distribution of the pixels within a predetermined range including the image candidate position M, and based on the degree of coincidence between the acquired luminance distribution and the reference luminance distribution, the image candidate position M is acquired. It is determined whether or not represents the position of the object.

基準輝度分布との一致の度合いは、パタンマッチング等の画像処理に基づいて行われる。これによれば、制御部15は、基準輝度分布との一致の度合いを画像候補位置Mについてのみ判断するので、画像処理の負荷を低減することができる。   The degree of coincidence with the reference luminance distribution is performed based on image processing such as pattern matching. According to this, since the control unit 15 determines the degree of coincidence with the reference luminance distribution only for the image candidate position M, it is possible to reduce the load of image processing.

(1e)基準輝度分布は対象物の種類毎に設定されている。これによれば、対象物の種類毎に基準輝度分布が設定されているので、検出位置を対象物毎に精度よく特定することができる。   (1e) The reference luminance distribution is set for each type of object. According to this, since the reference luminance distribution is set for each type of object, the detection position can be specified with high accuracy for each object.

(1f)制御部15は、S110では、対象物の種類を特定する。そして、制御部15は、S155では、S110によって特定された対象物の種類に応じた基準輝度分布を取得する。   (1f) The control unit 15 specifies the type of the object in S110. And the control part 15 acquires the reference | standard brightness distribution according to the kind of target object specified by S110 in S155.

これによれば、仮に検出すべき対象物が複数種類あったとしても対象物毎に該対象物に応じた輝度基準分布が取得されるので、撮像画像において複数種類の対象物の検出位置を精度よく特定することが可能となる。   According to this, even if there are a plurality of types of objects to be detected, a luminance reference distribution corresponding to the target is acquired for each target, so that the detection positions of the plurality of types of objects in the captured image are accurately determined. It becomes possible to specify well.

[2.第2実施形態]
[2−1.第1実施形態との相違点]
第2実施形態は、基本的な構成は第1実施形態と同様であるため、相違点について以下に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
[2. Second Embodiment]
[2-1. Difference from the first embodiment]
Since the basic configuration of the second embodiment is the same as that of the first embodiment, differences will be described below. Note that the same reference numerals as those in the first embodiment indicate the same configuration, and the preceding description is referred to.

前述した第1実施形態では、過去の検出位置Cに対して自車両の移動量を反映させることによって現画像位置Dを特定していた。これに対し、第2実施形態では、過去の検出位置Cの並びによって表される線である推定線上の位置を現画像位置Dとして特定する点で、第1実施形態と相違する。   In the first embodiment described above, the current image position D is specified by reflecting the movement amount of the host vehicle with respect to the past detection position C. On the other hand, the second embodiment is different from the first embodiment in that the position on the estimated line that is a line represented by the arrangement of the past detection positions C is specified as the current image position D.

[2−2.処理]
次に、第2実施形態の制御部15が、第1実施形態の図5に示す処理に代えて実行する追加処理について、図11のフローチャートを用いて説明する。なお、図11におけるS210、S230〜S250処理は、図5におけるS210、S230〜S250の処理と同様であるため、説明を一部簡略化している。
[2-2. processing]
Next, an additional process executed by the control unit 15 of the second embodiment instead of the process shown in FIG. 5 of the first embodiment will be described with reference to the flowchart of FIG. Note that the processes in S210 and S230 to S250 in FIG. 11 are the same as the processes in S210 and S230 to S250 in FIG.

制御部15は、S210では、上記実施形態と同様に、メモリ52に記録されている、白線についての過去の検出位置Cを取得する。
制御部15は、S215では、推定線を特定する。推定線とは、過去の検出位置Cの並びによって表される線である。制御部15は、最小自乗法等用いて、図12に示すように、これら複数の過去の検出位置Cのうち最も多くの過去の検出位置Cを通る線を推定線Ln-1として算出する。推定線Ln-1は、直線または曲線で有りうる。
In S210, the control unit 15 acquires the past detection position C for the white line recorded in the memory 52, as in the above embodiment.
In S215, the control unit 15 identifies an estimated line. The estimated line is a line represented by a sequence of past detection positions C. As shown in FIG. 12, the control unit 15 uses the least square method or the like to calculate, as the estimated line L n−1 , a line passing through the most past detection positions C among the plurality of past detection positions C. . The estimated line L n-1 can be a straight line or a curve.

制御部15は、S220では、現画像位置Dを特定する。本実施形態では、制御部15は、S215にて特定した推定線Ln-1に基づいて現画像位置Dを特定する。
具体的には、制御部15は、図12に示すように、現周期Tnの撮像画像において推定線Ln-1に対応する推定線Lnを特定し、推定線Ln上の任意の位置を現画像位置Dとして特定する。制御部15は、推定線Ln上に複数の現画像位置Dを設定する。現画像位置Dは、現周期Tnの撮像画像における画像座標により表される。
In S220, the control unit 15 specifies the current image position D. In the present embodiment, the control unit 15 specifies the current image position D based on the estimated line L n−1 specified in S215.
Specifically, as shown in FIG. 12, the control unit 15 specifies an estimated line L n corresponding to the estimated line L n −1 in the captured image of the current period T n , and performs arbitrary processing on the estimated line L n . The position is specified as the current image position D. Control unit 15 sets a plurality of current image position D on the estimated line L n. Current image position D is represented by image coordinates in the captured image of the current period T n.

制御部15は、S230では、S220にて推定線Lnに基づいて特定された現画像位置Dのそれぞれを、画像追加位置として、メモリ52に記録する。
更に、制御部15は、S240では、現画像位置Dを含む所定の範囲J内の位置を画像予備位置Eとして設定する。
Control unit 15, in S230, each of the current image position D which is specified based on the estimated line L n at S220, as the image addition position, recorded in the memory 52.
Furthermore, the control unit 15 sets a position within a predetermined range J including the current image position D as the image preliminary position E in S240.

制御部15は、S250では、図5におけるS240と同様の処理を実行する。
これにより、本実施形態においては、推定線Lnに基づいて設定された現画像位置Dのそれぞれと、該現画像位置Dに対して設定された画像予備位置Eのそれぞれと、が画像追加位置としてメモリ52に記録される。
In S250, the control unit 15 performs the same process as in S240 in FIG.
Thereby, in the present embodiment, each of the current image position D set based on the estimated line L n and each of the image preliminary position E set for the current image position D are the image addition positions. Is recorded in the memory 52.

[2−3.効果]
以上詳述した第2実施形態によれば、前述した第1実施形態の効果(1a)〜(1f)を奏し、さらに、以下の効果を奏する。
[2-3. effect]
According to 2nd Embodiment explained in full detail above, there exist the effect (1a)-(1f) of 1st Embodiment mentioned above, and also there exist the following effects.

(2a)制御部15は、S215では、過去の検出位置Cの並びによって表される線である推定線Lnを特定する。制御部15は、S220では、現周期Tnの撮像画像における位置であって推定線Ln上の位置を現画像位置Dとして特定する。 (2a) control unit 15, in S215, to identify the estimated line L n is a line represented by a sequence of past detection positions C. Control unit 15, in S220, to identify the position of the putative line L n a position in the captured image of the current period T n as the current image position D.

これによれば、制御部15は、過去の検出位置Cの並びによって表される推定線L上の位置について撮像画像における対象物の位置であるか否かを判断する。このため、仮に測位装置12による推定位置Pに大きな誤差が生じていたとしても、このような誤差の影響を抑制し、現周期Tnの撮像画像において新たな検出位置Nをより精度よく特定することができる。 According to this, the control unit 15 determines whether or not the position on the estimated line L represented by the arrangement of the past detection positions C is the position of the object in the captured image. Therefore, even if a large error in the estimated position P by the positioning device 12 has occurred, suppressing the influence of such errors, identify more accurately the new detection position N in the captured image in the current cycle T n be able to.

特に、対象物が配置されている道路が直線状である場合に、より大きな効果を得ることができる。
[3.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
In particular, a greater effect can be obtained when the road on which the object is placed is straight.
[3. Other Embodiments]
As mentioned above, although embodiment of this indication was described, this indication is not limited to the above-mentioned embodiment, and can carry out various modifications.

(3a)上記実施形態では、白線から横方向右側及び左側に指定横距離Dx離れた範囲内に含まれる位置を近傍位置Bとして設定したが、これに限定されるものではない。
例えば、近傍位置Bは、S120にて取得された複数の対象位置Aの少なくとも一部について、該対象位置Aから指定横距離Dx離れた位置に設定されうる。また、近傍位置Bは、近傍位置Bが設定される対象位置Aに対して、少なくとも1つが設定されうる。
(3a) In the above embodiment, the position included in the range separated from the white line by the designated lateral distance Dx on the right and left sides in the horizontal direction is set as the vicinity position B. However, the present invention is not limited thereto.
For example, the proximity position B can be set to a position that is separated from the target position A by the specified lateral distance Dx for at least some of the plurality of target positions A acquired in S120. Further, at least one neighboring position B can be set with respect to the target position A for which the neighboring position B is set.

また例えば、近傍位置Bは、S120にて取得された複数の対象位置Aの少なくとも一部について、該対象位置Aから指定横距離Dx離れた範囲内の任意の位置に設定されうる。   Further, for example, the vicinity position B can be set to an arbitrary position within a range that is a specified lateral distance Dx away from the target position A for at least some of the plurality of target positions A acquired in S120.

(3b)上記実施形態では、S135にて特定された画像候補位置Mのそれぞれと、現画像位置Dのそれぞれと、画像予備位置Eのそれぞれと、を画像候補位置Mとして用いる例を説明したが、これに限定されるものではない。   (3b) In the above embodiment, an example has been described in which each of the image candidate positions M specified in S135, each of the current image positions D, and each of the image preliminary positions E are used as the image candidate positions M. However, the present invention is not limited to this.

例えば、制御部15は、S135にて特定された画像候補位置Mのみを用いて、画像候補位置Mが対象物の位置を表しているか否かを判断してもよい。この場合、制御部15は、S140〜S150が削除された処理を検出処理として実行するように構成されてもよい。   For example, the control unit 15 may determine whether or not the image candidate position M represents the position of the target object using only the image candidate position M specified in S135. In this case, the control unit 15 may be configured to execute the process in which S140 to S150 are deleted as the detection process.

また例えば、制御部15は、S135にて特定された画像候補位置Mのそれぞれと、現画像位置Dのそれぞれと、を画像候補位置Mとして用いて、画像候補位置Mが対象物の位置を表しているか否かを判断してもよい。この場合、制御部15は、S240〜S250が削除された処理を追加処理として実行するように構成されてもよい。   Further, for example, the control unit 15 uses each of the image candidate positions M specified in S135 and each of the current image positions D as the image candidate positions M, and the image candidate positions M represent the positions of the objects. It may be determined whether or not. In this case, the control unit 15 may be configured to execute the process in which S240 to S250 are deleted as an additional process.

(3c)上記実施形態では、白線のみを対象物として検出する例について説明した。ただし、これに限定されるものではない。
例えば、制御部15は、白線及び黄色線といったように、複数種類の対象物を検出するように構成されてもよい。この場合、白線及び黄色線を検出すべき対象物とすることが予めメモリ52に記録されており、制御部15はS110にて白線及び黄色線を対象物として検出することを特定してもよい。
(3c) In the above embodiment, an example in which only a white line is detected as an object has been described. However, it is not limited to this.
For example, the control unit 15 may be configured to detect a plurality of types of objects such as a white line and a yellow line. In this case, it is recorded in advance in the memory 52 that the white line and the yellow line should be detected, and the control unit 15 may specify that the white line and the yellow line are detected as objects in S110. .

そして、制御部15は、白線を対象物としてS115〜S170を実行して白線の検出位置をメモリ52に記録した後に、黄色線を対象物としてS115〜S170を実行して黄色線の検出位置をメモリ52に記録するように構成されてもよい。   Then, the control unit 15 executes S115 to S170 with the white line as the object and records the white line detection position in the memory 52, and then executes S115 to S170 with the yellow line as the object and sets the detection position of the yellow line. It may be configured to record in the memory 52.

また例えば、制御部15は、白線及び黄色線の他に、縁石やガードレール等を対象物として検出するように構成されてもよい。この場合、画像横方向における検出範囲内の輝度分布に加えて更に、画像縦方向における輝度分布であって所定の範囲内における画素の輝度分布が基準輝度分布として予め設定されてもよい。また、制御部15は、現周期Tnの撮像画像における縦の方向における輝度分布を取得するように構成されてもよい。 Further, for example, the control unit 15 may be configured to detect a curbstone, a guardrail, or the like as an object in addition to the white line and the yellow line. In this case, in addition to the luminance distribution in the detection range in the horizontal direction of the image, the luminance distribution in the vertical direction of the image and the luminance distribution of the pixels in the predetermined range may be preset as the reference luminance distribution. The control unit 15 may be configured to acquire the luminance distribution in the longitudinal direction in the captured image of the current period T n.

そして、制御部15は、取得した横の方向及び縦の方向における輝度分布と基準輝度分布との一致の度合いに基づいて、画像候補位置Mが現周期Tnの撮像画像において対象物の位置を表しているか否かを判断してもよい。 Then, the control unit 15 determines the position of the object in the captured image with the image candidate position M being the current period T n based on the degree of coincidence between the acquired luminance distribution in the horizontal direction and the vertical direction and the reference luminance distribution. It may be determined whether or not it is represented.

(3d)上記実施形態では、制御部15は、過去の検出位置Cの並びに基づいて現周期Tnの撮像画像における推定線Lnを特定したが、これに限定されるものではない。例えば、制御部15は、地図データ141に基づく白線の位置を用いて推定線Lnを特定してもよい。 (3d) In the above embodiment, the control unit 15 specifies the estimated line L n in the captured image of the current period T n based on the sequence of the past detection positions C, but is not limited to this. For example, the control unit 15 may specify the estimated line L n using the position of the white line based on the map data 141.

(3e)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言から特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。   (3e) A plurality of functions of one constituent element in the above embodiment may be realized by a plurality of constituent elements, or a single function of one constituent element may be realized by a plurality of constituent elements. . Further, a plurality of functions possessed by a plurality of constituent elements may be realized by one constituent element, or one function realized by a plurality of constituent elements may be realized by one constituent element. Moreover, you may abbreviate | omit a part of structure of the said embodiment. In addition, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of the other embodiment. In addition, all the aspects included in the technical idea specified from the wording described in the claims are embodiments of the present disclosure.

(3f)上述した車載システム10、制御部15、CPU51の他、制御部15を機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、物体検出方法など、種々の形態で本開示を実現することもできる。   (3f) In addition to the above-described in-vehicle system 10, the control unit 15, and the CPU 51, various programs such as a program for causing the control unit 15 to function, a non-transition actual recording medium such as a semiconductor memory in which the program is recorded, an object detection method, etc. The present disclosure can also be realized in the form of.

[4.実施形態と特許請求の範囲との対応]
制御部15が物体検出装置に相当し、測位装置12が位置推定装置に相当し、地図データ記録部14が地図保存部に相当し、メモリ52が記録部に相当する。また、制御部15が、車両位置部、対象位置部、画像取得部、基本部、予備部、基準設定部、判断部、記録指示部、推定線部、対応特定部に相当する。
[4. Correspondence between Embodiment and Claims]
The control unit 15 corresponds to an object detection device, the positioning device 12 corresponds to a position estimation device, the map data recording unit 14 corresponds to a map storage unit, and the memory 52 corresponds to a recording unit. The control unit 15 corresponds to a vehicle position unit, a target position unit, an image acquisition unit, a basic unit, a reserve unit, a reference setting unit, a determination unit, a recording instruction unit, an estimation line unit, and a correspondence specifying unit.

また、S115が車両位置部としての処理に相当し、S120が対象位置部としての処理に相当し、S130が画像取得部としての処理に相当し、S135が基本部としての処理に相当する。S145が予備部としての処理に相当し、S155が基準取得部としての処理に相当し、S160が判断部としての処理に相当し、S165が記録指示部としての処理に相当する。また、S215が推定線部としての処理に相当し、S220が対応特定部としての処理に相当する。   Further, S115 corresponds to the processing as the vehicle position portion, S120 corresponds to the processing as the target position portion, S130 corresponds to the processing as the image acquisition portion, and S135 corresponds to the processing as the basic portion. S145 corresponds to processing as a spare unit, S155 corresponds to processing as a reference acquisition unit, S160 corresponds to processing as a determination unit, and S165 corresponds to processing as a recording instruction unit. Further, S215 corresponds to the process as the estimated line part, and S220 corresponds to the process as the correspondence specifying part.

1 車両、11 カメラ、12 測位装置、14 地図データ記録部、15 制御部、52 メモリ。   DESCRIPTION OF SYMBOLS 1 Vehicle, 11 Camera, 12 Positioning device, 14 Map data recording part, 15 Control part, 52 Memory.

Claims (6)

車両(1)に搭載される物体検出装置(15)であって、
前記車両の位置を推定する位置推定装置(12)から、前記位置推定装置によって推定された前記車両の位置である推定位置を取得する車両位置部(S115)と、
予め定められた対象物の位置を含む地図データを保存する地図保存部(13)から前記対象物の位置である対象位置を取得する対象位置部(S120)と、
前記車両に搭載されたカメラ(11)によって撮像された撮像画像を取得する画像取得部(S130)と、
前記対象位置に対して少なくとも一つの近傍位置を設定し、且つ、前記推定位置を基準とする前記対象位置の相対的な位置に基づいて、前記撮像画像において前記対象位置及び前記近傍位置のそれぞれに対応する位置を候補位置として特定する基本部(S135)と、
前記候補位置が前記撮像画像における前記対象物の位置を表しているか否かを判断する判断部(S160)と、
前記候補位置が前記撮像画像における対象物の位置を表している場合に、前記候補位置を検出位置として記録部(52)に記録させる記録指示部(S165)と、
を備え、
前記対象物は、前記車両が走行する道路が延びる方向に沿って配置されている物体であり、
前記近傍位置は、前記対象位置を含む所定の範囲内の位置であり、
前記候補位置は、前記撮像画像において前記対象物が存在し得る位置である
物体検出装置。
An object detection device (15) mounted on a vehicle (1),
A vehicle position unit (S115) for acquiring an estimated position, which is the position of the vehicle estimated by the position estimating device, from a position estimating device (12) that estimates the position of the vehicle;
A target position part (S120) for acquiring a target position which is the position of the target object from a map storage part (13) for storing map data including the position of the predetermined target object;
An image acquisition unit (S130) for acquiring a captured image captured by a camera (11) mounted on the vehicle;
At least one neighboring position is set with respect to the target position, and each of the target position and the neighboring position in the captured image is based on a relative position of the target position with reference to the estimated position. A basic part (S135) for identifying a corresponding position as a candidate position;
A determination unit (S160) for determining whether or not the candidate position represents the position of the object in the captured image;
A recording instruction unit (S165) that causes the recording unit (52) to record the candidate position as a detection position when the candidate position represents the position of the object in the captured image;
With
The target object is an object arranged along a direction in which a road on which the vehicle travels extends,
The vicinity position is a position within a predetermined range including the target position,
The candidate position is a position where the object can exist in the captured image.
請求項1に記載の物体検出装置であって、
前記記録指示部は、所定の処理周期で繰り返し前記検出位置を前記記録部に記録させ、
前記画像取得部によって取得された前記撮像画像において前記記録部に記録された過去の前記検出位置に対応する位置、である現画像位置を特定する対応特定部(S220)
を更に備え、
前記判断部は、前記基本部によって特定された前記候補位置と、前記現画像位置と、のそれぞれを前記候補位置として、前記候補位置について判断する
物体検出装置。
The object detection device according to claim 1,
The recording instruction unit repeatedly records the detection position in the recording unit at a predetermined processing cycle,
Correspondence specifying unit (S220) for specifying a current image position that is a position corresponding to the past detection position recorded in the recording unit in the captured image acquired by the image acquisition unit.
Further comprising
The determination unit determines the candidate position using each of the candidate position specified by the basic unit and the current image position as the candidate position.
請求項2に記載の物体検出装置であって、
前記画像取得部によって取得された前記撮像画像において、前記現画像位置に対して少なくとも一つの予備位置を設定する予備部(S145)
を更に備え、
前記判断部は、前記基本部によって特定された前記候補位置と、前記現画像位置と、前記予備位置と、のそれぞれを前記候補位置として、前記候補位置について判断し、
前記予備位置は、前記現画像位置を含む所定の範囲内の位置である、
物体検出装置。
The object detection device according to claim 2,
In the captured image acquired by the image acquisition unit, a preliminary unit that sets at least one preliminary position for the current image position (S145)
Further comprising
The determination unit determines the candidate position with the candidate position specified by the basic unit, the current image position, and the spare position as the candidate position,
The preliminary position is a position within a predetermined range including the current image position.
Object detection device.
請求項2または請求項3に記載の物体検出装置であって
前記過去の検出位置の並びによって表される線である推定線を特定する推定線部(S215)
を更に備え、
前記対応特定部は、前記撮像画像における位置であって前記推定線上の位置を前記現画像位置として特定する
物体検出装置。
It is an object detection apparatus of Claim 2 or Claim 3, Comprising: The estimation line part which specifies the estimation line which is a line represented by the arrangement | sequence of the said past detection position (S215)
Further comprising
The correspondence specifying unit specifies a position on the estimated line as a position in the captured image as the current image position.
請求項1から請求項4のいずれか一項に記載の物体検出装置であって、
前記対象物についての予め定められた輝度分布を表す基準輝度分布を取得する基準取得部(S155)を更に備え、
前記判断部は、前記候補位置を含む予め定められた範囲内における画素の輝度分布を取得し、取得した前記輝度分布と前記基準輝度分布との一致の度合いに基づいて、前記候補位置が前記対象物の位置を表しているか否かを判断する
物体検出装置。
The object detection device according to any one of claims 1 to 4,
A reference acquisition unit (S155) for acquiring a reference luminance distribution representing a predetermined luminance distribution for the object;
The determination unit acquires a luminance distribution of pixels within a predetermined range including the candidate position, and the candidate position is determined based on a degree of coincidence between the acquired luminance distribution and the reference luminance distribution. An object detection device that determines whether or not it represents the position of an object.
請求項5に記載の物体検出装置であって、
前記基準輝度分布は前記対象物の種類毎に設定されている
物体検出装置。
The object detection device according to claim 5,
The reference luminance distribution is set for each type of the object.
JP2017009671A 2017-01-23 2017-01-23 Object detection device Pending JP2018120303A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017009671A JP2018120303A (en) 2017-01-23 2017-01-23 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017009671A JP2018120303A (en) 2017-01-23 2017-01-23 Object detection device

Publications (1)

Publication Number Publication Date
JP2018120303A true JP2018120303A (en) 2018-08-02

Family

ID=63043862

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017009671A Pending JP2018120303A (en) 2017-01-23 2017-01-23 Object detection device

Country Status (1)

Country Link
JP (1) JP2018120303A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020004113A1 (en) 2018-06-25 2020-01-02 株式会社ブリヂストン Pneumatic tire for agricultural vehicles
JP2021068316A (en) * 2019-10-25 2021-04-30 日産自動車株式会社 Object recognition method and object recognition system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10247300A (en) * 1997-03-05 1998-09-14 Toyota Motor Corp Travel line boundary recognition device
JP2005285011A (en) * 2004-03-30 2005-10-13 Sumitomo Electric Ind Ltd Human recognition system and image processing apparatus
JP2007004669A (en) * 2005-06-27 2007-01-11 Honda Motor Co Ltd Vehicle and lane recognizing device
JP2010093569A (en) * 2008-10-08 2010-04-22 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2016143324A (en) * 2015-02-04 2016-08-08 株式会社デンソー Object detection device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10247300A (en) * 1997-03-05 1998-09-14 Toyota Motor Corp Travel line boundary recognition device
JP2005285011A (en) * 2004-03-30 2005-10-13 Sumitomo Electric Ind Ltd Human recognition system and image processing apparatus
JP2007004669A (en) * 2005-06-27 2007-01-11 Honda Motor Co Ltd Vehicle and lane recognizing device
JP2010093569A (en) * 2008-10-08 2010-04-22 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2016143324A (en) * 2015-02-04 2016-08-08 株式会社デンソー Object detection device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020004113A1 (en) 2018-06-25 2020-01-02 株式会社ブリヂストン Pneumatic tire for agricultural vehicles
JP2021068316A (en) * 2019-10-25 2021-04-30 日産自動車株式会社 Object recognition method and object recognition system
JP7325296B2 (en) 2019-10-25 2023-08-14 日産自動車株式会社 Object recognition method and object recognition system

Similar Documents

Publication Publication Date Title
JP5968064B2 (en) Traveling lane recognition device and traveling lane recognition method
JP6520740B2 (en) Object detection method, object detection device, and program
JP4887520B2 (en) Object detection apparatus, object detection method, and object detection program
JP2018036067A (en) Own vehicle position recognition device
JP6759175B2 (en) Information processing equipment and information processing system
JP6552448B2 (en) Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection
JP6758160B2 (en) Vehicle position detection device, vehicle position detection method and computer program for vehicle position detection
JP6776202B2 (en) In-vehicle camera calibration device and method
JP6278791B2 (en) Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system
JP2018048949A (en) Object recognition device
JP2016018371A (en) On-vehicle system, information processing apparatus, and program
US20200193184A1 (en) Image processing device and image processing method
JP2018189463A (en) Vehicle position estimating device and program
JP2018084960A (en) Self-position estimation method and self-position estimation device
JP2018120303A (en) Object detection device
JP2018084492A (en) Self-position estimation method and self-position estimation device
KR101568683B1 (en) Method to estimate the distance between vehicles using image alalysis and apparatus therefor
JP6988873B2 (en) Position estimation device and computer program for position estimation
CN111989541B (en) Stereo camera device
CN116892949A (en) Ground object detection device, ground object detection method, and computer program for ground object detection
US11145041B2 (en) Image processing device and method predicting areas in which to search for parking space delimiting lines
CN112288805B (en) Lane data generating device, position determining device, lane data generating method, and position determining method
JP2006322892A (en) Three-dimensional position measuring device and three-dimensional position measuring program
JP2018036225A (en) State estimation device
JP6955464B2 (en) Vehicle position determination device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200331

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201006