JP7318377B2 - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP7318377B2
JP7318377B2 JP2019128690A JP2019128690A JP7318377B2 JP 7318377 B2 JP7318377 B2 JP 7318377B2 JP 2019128690 A JP2019128690 A JP 2019128690A JP 2019128690 A JP2019128690 A JP 2019128690A JP 7318377 B2 JP7318377 B2 JP 7318377B2
Authority
JP
Japan
Prior art keywords
vehicle
road surface
sonar
information
object detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019128690A
Other languages
Japanese (ja)
Other versions
JP2021015373A (en
Inventor
陽平 鈴木
正悦 大石
周 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2019128690A priority Critical patent/JP7318377B2/en
Publication of JP2021015373A publication Critical patent/JP2021015373A/en
Application granted granted Critical
Publication of JP7318377B2 publication Critical patent/JP7318377B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、自車両に搭載されることで当該自車両の周囲に存在する物体を検知するように構成された、物体検知装置に関する。 The present invention relates to an object detection device that is mounted on a vehicle and configured to detect an object existing around the vehicle.

この種の装置として、例えば、特許文献1に記載されたものが知られている。特許文献1に記載の装置は、高さ算出部と判定部とを備えている。高さ算出部は、車から駐車位置までの間にある障害物を検出して、当該障害物の高さを算出する。具体的には、高さ算出部は、距離画像とあらかじめ記憶している地面距離画像との比較結果を参照して、障害物の検出を行う。判定部は、算出した障害物の高さを参照して、車の加速装置または制動装置のいずれかを制御すべきかを判定する。すなわち、判定部は、算出した障害物の高さが所定の閾値よりも大きいときは、車が停止するように制動装置を制御すべきと判定する。一方、判定部は、高さが閾値よりも小さいときは、車が加速するように、あるいは車の速度が維持されるように、加速装置を制御すべきと判定する。 As a device of this type, for example, one described in Patent Document 1 is known. The device described in Patent Literature 1 includes a height calculation section and a determination section. The height calculator detects an obstacle between the car and the parking position and calculates the height of the obstacle. Specifically, the height calculator detects an obstacle by referring to the comparison result between the distance image and the ground distance image stored in advance. The determination unit refers to the calculated height of the obstacle and determines whether to control either the acceleration device or the braking device of the vehicle. That is, the determination unit determines that the braking device should be controlled to stop the vehicle when the calculated height of the obstacle is greater than a predetermined threshold. On the other hand, when the height is smaller than the threshold value, the determination unit determines that the acceleration device should be controlled so that the vehicle accelerates or the vehicle speed is maintained.

特開2013-244852号公報JP 2013-244852 A

この種の装置を搭載した車両においては、乗員の乗車状態、荷物積載状態、車高調整状態、等に応じて、カメラ等の撮像装置における撮影姿勢が変化する。このため、特許文献1に記載の装置において、あらかじめ記憶している地面距離画像と、検出した障害物に対応する距離画像とで、撮影姿勢が異なり得る。したがって、かかる撮影姿勢の相違に起因して、障害物の高さ情報および距離情報に誤差が生じ得る。 In a vehicle equipped with this type of device, the photographing posture of an imaging device such as a camera changes depending on the passenger's boarding condition, luggage loading condition, vehicle height adjustment condition, and the like. Therefore, in the device described in Patent Document 1, the photographing posture may differ between the ground distance image stored in advance and the distance image corresponding to the detected obstacle. Therefore, an error may occur in height information and distance information of an obstacle due to such a difference in photographing attitude.

具体的には、特許文献1に記載の装置においては、例えば、本来は障害物とは判定されない、乗り越え走行可能な低段差が、低車高状態において、乗り越え走行困難な高さを有する障害物であると誤判定される場合があり得る。反対に、本来は乗り越え走行困難な高さを有する障害物が、高車高状態において、乗り越え走行可能な低段差であると誤判定される場合があり得る。 Specifically, in the device described in Patent Literature 1, for example, a low level difference that is not originally determined as an obstacle and can be run over is an obstacle having a height that makes it difficult to run over in a low vehicle height state. may be erroneously determined to be Conversely, an obstacle having a height that would otherwise make it difficult for the vehicle to travel over may be erroneously determined to be a low step that allows the vehicle to travel over it in the high vehicle height state.

本発明は、上記に例示した事情等に鑑みてなされたものである。すなわち、本発明は、例えば、自車両の周囲に存在する物体の高さを、より精度よく検知することが可能な構成を提供する。 The present invention has been made in view of the circumstances exemplified above. That is, the present invention provides a configuration capable of detecting, for example, the height of an object existing around the own vehicle with higher accuracy.

請求項1に記載の物体検知装置(20)は、自車両(10)に搭載されることで当該自車両の周囲に存在する物体(B)を検知するように構成されている。
この物体検知装置は、
前記物体を含む前記自車両の周囲の撮影画像から、路面に属する特徴点である路面特徴点を抽出する、路面特徴点抽出部(274)と、
視点の異なる複数の前記撮影画像に基づく視差画像を取得する、視差画像取得部(272)と、
前記視差画像と、前記路面特徴点抽出部により抽出された前記路面特徴点とに基づいて、当該路面特徴点に対応する高さ情報を基準高情報に設定する、基準高設定部(275)と、
前記基準高設定部により設定された前記基準高情報に基づいて、前記物体の三次元座標情報を算出する、座標情報算出部(276)と、
を備え、
前記路面特徴点抽出部は、エッジ方向とエピポーラ線との平行度が所定以下となる前記路面特徴点に基づいて、前記基準高情報を設定する。
An object detection device (20) according to claim 1 is configured to detect an object (B) existing around the vehicle (10) by being mounted on the vehicle (10).
This object detection device
a road surface feature point extracting unit (274) for extracting road surface feature points, which are feature points belonging to a road surface, from a photographed image of the surroundings of the own vehicle including the object;
a parallax image acquisition unit (272) for acquiring parallax images based on the plurality of captured images from different viewpoints;
a reference height setting unit (275) for setting, as reference height information, height information corresponding to the road surface characteristic points based on the parallax image and the road surface characteristic points extracted by the road surface characteristic point extraction unit; ,
a coordinate information calculation unit (276) for calculating three-dimensional coordinate information of the object based on the reference height information set by the reference height setting unit;
with
The road surface characteristic point extracting unit sets the reference height information based on the road surface characteristic points at which parallelism between the edge direction and the epipolar line is equal to or less than a predetermined value.

なお、出願書類中の各欄において、各要素に括弧付きの参照符号が付されている場合がある。この場合、参照符号は、単に、同要素と後述する実施形態に記載の具体的構成との対応関係の一例を示すものである。よって、本発明は、参照符号の記載によって、何ら限定されるものではない。 In addition, in each column of the application documents, each element may be given a reference sign with parentheses. In this case, the reference numerals simply indicate an example of the correspondence relationship between the same element and the specific configuration described in the embodiment described later. Therefore, the present invention is not limited in any way by the description of the reference numerals.

実施形態に係る物体検知装置を搭載した車両の概略構成を示す平面図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a top view which shows schematic structure of the vehicle which mounts the object detection apparatus which concerns on embodiment. 図1に示された物体検知装置の一実施形態における概略的な機能構成を示すブロック図である。2 is a block diagram showing a schematic functional configuration in one embodiment of the object detection device shown in FIG. 1; FIG. 図2に示された物体検知装置の動作例を示すフローチャートである。3 is a flow chart showing an operation example of the object detection device shown in FIG. 2; 図3に示された動作例の一変形例を示すフローチャートである。FIG. 4 is a flow chart showing a modification of the operation example shown in FIG. 3; FIG. 図1に示された物体検知装置の一変形例における概略的な機能構成を示すブロック図である。2 is a block diagram showing a schematic functional configuration in a modified example of the object detection device shown in FIG. 1; FIG. 図5に示された物体検知装置の動作例を示すフローチャートである。6 is a flow chart showing an operation example of the object detection device shown in FIG. 5;

(実施形態)
以下、本発明の実施形態を、図面に基づいて説明する。なお、一つの実施形態に対して適用可能な各種の変形例については、当該実施形態に関する一連の説明の途中に挿入されると、当該実施形態の理解が妨げられるおそれがある。このため、変形例については、当該実施形態に関する一連の説明の途中ではなく、その後にまとめて説明する。
(embodiment)
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described based on the drawings. It should be noted that if various modifications applicable to one embodiment are inserted in the middle of a series of explanations related to the embodiment, there is a risk that the understanding of the embodiment will be hindered. Therefore, the modified examples will be collectively described after the series of descriptions regarding the embodiment, not in the middle of the description.

(車両全体構成)
図1を参照すると、車両10は、いわゆる四輪自動車であって、平面視にて略矩形状の車体11を備えている。以下、車両10の車幅方向における中心を通り、且つ車両10における車両全長方向と平行な仮想直線を、車両中心軸線Xと称する。図1において、車幅方向は図中左右方向である。車両全長方向は、車幅方向と直交し且つ車高方向と直交する方向である。車高方向は、車両10の車高を規定する方向であって、車両10を水平面に載置した場合の重力作用方向と平行な方向である。さらに、走行により車両10が移動可能な、車高方向と直交する任意の方向を、車両10の「並進方向」と称することがある。
(Overall vehicle configuration)
Referring to FIG. 1, a vehicle 10 is a so-called four-wheel vehicle and includes a substantially rectangular vehicle body 11 in a plan view. Hereinafter, an imaginary straight line passing through the center of the vehicle 10 in the vehicle width direction and parallel to the vehicle full length direction of the vehicle 10 will be referred to as a vehicle center axis X. As shown in FIG. In FIG. 1, the vehicle width direction is the horizontal direction in the drawing. The vehicle length direction is a direction orthogonal to the vehicle width direction and orthogonal to the vehicle height direction. The vehicle height direction is a direction that defines the vehicle height of the vehicle 10, and is parallel to the direction of gravity when the vehicle 10 is placed on a horizontal plane. Furthermore, an arbitrary direction orthogonal to the vehicle height direction in which the vehicle 10 can move by running is sometimes referred to as the “translational direction” of the vehicle 10 .

説明の便宜上、車両10における「前」「後」「左」「右」を、図1中にて矢印で示された通りに定義する。すなわち、車両全長方向は、前後方向と同義である。また、車幅方向は、左右方向と同義である。なお、車高方向は、車両10の載置条件または走行条件により、重力作用方向と平行とはならない場合があり得る。もっとも、車高方向は多くの場合に重力作用方向に沿った方向となるため、車高方向と直交する「並進方向」は、「水平方向」、「面内方向」、「進入方向」、「進行方向」あるいは「進路方向」とも称され得る。 For convenience of explanation, "front", "rear", "left", and "right" of the vehicle 10 are defined as indicated by arrows in FIG. That is, the vehicle length direction is synonymous with the front-rear direction. Further, the vehicle width direction is synonymous with the left-right direction. Note that the vehicle height direction may not be parallel to the gravity action direction depending on the mounting conditions or running conditions of the vehicle 10 . However, in many cases, the vehicle height direction is along the direction of gravity action, so the "translational direction" orthogonal to the vehicle height direction is "horizontal direction", "in-plane direction", "approach direction", and " It may also be referred to as "heading" or "tracking".

車体11における前側の端部である前面部12には、フロントバンパー13が装着されている。車体11における後側の端部である後面部14には、リアバンパー15が装着されている。車体11における側面部16には、ドアパネル17が装着されている。図1に示す具体例においては、左右にそれぞれ2枚ずつ、合計4枚のドアパネル17が設けられている。前側の左右一対のドアパネル17のそれぞれには、ドアミラー18が装着されている。 A front bumper 13 is attached to a front portion 12 that is a front end portion of the vehicle body 11 . A rear bumper 15 is attached to a rear surface portion 14 that is a rear end portion of the vehicle body 11 . A door panel 17 is attached to a side portion 16 of the vehicle body 11 . In the specific example shown in FIG. 1, a total of four door panels 17 are provided, two on each side. A door mirror 18 is attached to each of the pair of left and right door panels 17 on the front side.

車両10には、物体検知装置20が搭載されている。物体検知装置20は、車両10に搭載されることで、当該車両10の外側且つその周囲に存在する物体Bを検知するように構成されている。以下、物体検知装置20を搭載した車両10を、「自車両」と略称することがある。 An object detection device 20 is mounted on the vehicle 10 . The object detection device 20 is mounted on the vehicle 10 so as to detect an object B existing outside and around the vehicle 10 . Hereinafter, the vehicle 10 equipped with the object detection device 20 may be abbreviated as "own vehicle".

具体的には、物体検知装置20は、撮像部21と、ソナーセンサ22と、レーダーセンサ23と、車速センサ24と、シフトポジションセンサ25と、舵角センサ26と、物体検知ECU27と、表示部28と、音声出力部29とを備えている。ECUはElectronic Control Unitの略である。以下、物体検知装置20を構成する各部の詳細について説明する。なお、図示の簡略化のため、物体検知装置20を構成する各部の間の電気接続関係は、図1においては省略されている。 Specifically, the object detection device 20 includes an imaging unit 21, a sonar sensor 22, a radar sensor 23, a vehicle speed sensor 24, a shift position sensor 25, a steering angle sensor 26, an object detection ECU 27, and a display unit 28. and an audio output unit 29 . ECU is an abbreviation for Electronic Control Unit. The details of each part constituting the object detection device 20 will be described below. For the sake of simplification of illustration, FIG.

撮像部21は、自車両の周囲の画像を撮影して、撮影画像に対応する画像情報を生成および取得するように設けられている。本実施形態においては、撮像部21は、デジタルカメラ装置であって、CCDあるいはCMOS等のイメージセンサを備えている。CCDはCharge Coupled Deviceの略である。CMOSはComplementary MOSの略である。 The imaging unit 21 is provided to capture an image of the surroundings of the own vehicle and generate and acquire image information corresponding to the captured image. In this embodiment, the imaging unit 21 is a digital camera device, and includes an image sensor such as a CCD or CMOS. CCD is an abbreviation for Charge Coupled Device. CMOS is an abbreviation for Complementary MOS.

本実施形態においては、車両10には、複数の撮像部21、すなわち、フロントカメラCF、リアカメラCB、左側カメラCL、および右側カメラCRが搭載されている。フロントカメラCF、リアカメラCB、左側カメラCL、および右側カメラCRのうちの、いずれかであることを特定しない場合に、以下、「撮像部21」という単数形の表現、または「複数の撮像部21」という表現が用いられることがある。 In this embodiment, the vehicle 10 is equipped with a plurality of imaging units 21, that is, a front camera CF, a rear camera CB, a left camera CL, and a right camera CR. When not specifying any of the front camera CF, the rear camera CB, the left camera CL, and the right camera CR, hereinafter, the singular expression “imaging unit 21” or “plural imaging units 21” is sometimes used.

フロントカメラCFは、自車両の前方の画像に対応する画像情報を取得するように設けられている。具体的には、本実施形態においては、フロントカメラCFは、車両10における車室内に配置された不図示のルームミラーに装着されている。 The front camera CF is provided to acquire image information corresponding to an image in front of the vehicle. Specifically, in the present embodiment, the front camera CF is attached to a rearview mirror (not shown) arranged in the vehicle interior of the vehicle 10 .

リアカメラCBは、自車両の後方の画像に対応する画像情報を取得するように、車体11の後面部14に装着されている。左側カメラCLは、自車両の左方の画像に対応する画像情報を取得するように、左側のドアミラー18に装着されている。右側カメラCRは、自車両の右方の画像に対応する画像情報を取得するように、右側のドアミラー18に装着されている。 The rear camera CB is attached to the rear surface portion 14 of the vehicle body 11 so as to obtain image information corresponding to an image behind the own vehicle. The left camera CL is attached to the left side door mirror 18 so as to acquire image information corresponding to the left side image of the vehicle. The right camera CR is attached to the right side door mirror 18 so as to obtain image information corresponding to the right image of the vehicle.

複数の撮像部21の各々は、物体検知ECU27に電気接続されている。すなわち、複数の撮像部21の各々は、物体検知ECU27の制御下で画像情報を取得するとともに、取得した画像情報を物体検知ECU27にて受信可能に出力するようになっている。 Each of the imaging units 21 is electrically connected to the object detection ECU 27 . That is, each of the plurality of imaging units 21 acquires image information under the control of the object detection ECU 27 and outputs the acquired image information so that the object detection ECU 27 can receive the image information.

ソナーセンサ22は、物体Bまでの距離を検出する測距センサであって、車体11に装着されている。本実施形態においては、ソナーセンサ22は、いわゆる超音波センサであって、超音波である探査波を自車両の外側に向けて発信するとともに、超音波を含む受信波を受信可能に構成されている。すなわち、ソナーセンサ22は、探査波の物体Bによる反射波を含む受信波を受信することで、物体B上の測距点との距離の検出結果である測距情報を出力するように設けられている。「測距点」は、物体Bの表面上における、ソナーセンサ22から発信された探査波を反射したと推定される点であって、レーダーセンサ23における「反射点」に対応する点である。 The sonar sensor 22 is a ranging sensor that detects the distance to the object B and is attached to the vehicle body 11 . In the present embodiment, the sonar sensor 22 is a so-called ultrasonic sensor, and is configured to be able to transmit search waves, which are ultrasonic waves, toward the outside of the vehicle and receive received waves including ultrasonic waves. . That is, the sonar sensor 22 is provided so as to output distance measurement information, which is the result of detection of the distance to the distance measurement point on the object B, by receiving the received waves including the reflected waves of the search waves from the object B. there is A “range-finding point” is a point on the surface of the object B that is estimated to have reflected the search wave transmitted from the sonar sensor 22 , and corresponds to the “reflection point” on the radar sensor 23 .

物体検知装置20は、少なくとも一個のソナーセンサ22を備えている。具体的には、本実施形態においては、複数のソナーセンサ22が設けられている。複数のソナーセンサ22は、それぞれ、車両中心軸線Xから車幅方向におけるいずれか一方側にシフトして配置されている。また、複数のソナーセンサ22のうちの少なくとも一部は、車両中心軸線Xと交差する方向に沿って探査波を発信するように設けられている。 The object detection device 20 has at least one sonar sensor 22 . Specifically, in this embodiment, a plurality of sonar sensors 22 are provided. Each of the plurality of sonar sensors 22 is shifted from the vehicle center axis X to one side in the vehicle width direction. Moreover, at least some of the plurality of sonar sensors 22 are provided so as to emit survey waves along the direction intersecting with the vehicle center axis X. As shown in FIG.

具体的には、フロントバンパー13には、ソナーセンサ22としての、第一フロントソナーSF1、第二フロントソナーSF2、第三フロントソナーSF3、および第四フロントソナーSF4が装着されている。同様に、リアバンパー15には、ソナーセンサ22としての、第一リアソナーSR1、第二リアソナーSR2、第三リアソナーSR3、および第四リアソナーSR4が装着されている。また、車体11の側面部16には、ソナーセンサ22としての、第一サイドソナーSS1、第二サイドソナーSS2、第三サイドソナーSS3、および第四サイドソナーSS4が装着されている。 Specifically, the front bumper 13 is equipped with a first front sonar SF1, a second front sonar SF2, a third front sonar SF3, and a fourth front sonar SF4 as sonar sensors 22. FIG. Similarly, the rear bumper 15 is equipped with a first rear sonar SR1, a second rear sonar SR2, a third rear sonar SR3, and a fourth rear sonar SR4 as sonar sensors 22. As shown in FIG. A first side sonar SS1, a second side sonar SS2, a third side sonar SS3, and a fourth side sonar SS4 are mounted as sonar sensors 22 on the side portion 16 of the vehicle body 11 .

第一フロントソナーSF1、第二フロントソナーSF2、第三フロントソナーSF3、第四フロントソナーSF4、第一リアソナーSR1、第二リアソナーSR2、第三リアソナーSR3、第四リアソナーSR4、第一サイドソナーSS1、第二サイドソナーSS2、第三サイドソナーSS3、および第四サイドソナーSS4のうちの、いずれかであることを特定しない場合に、以下、「ソナーセンサ22」という単数形の表現、または「複数のソナーセンサ22」という表現が用いられることがある。 1st front sonar SF1, 2nd front sonar SF2, 3rd front sonar SF3, 4th front sonar SF4, 1st rear sonar SR1, 2nd rear sonar SR2, 3rd rear sonar SR3, 4th rear sonar SR4, 1st side sonar SS1, Hereinafter, when not specifying any of the second side sonar SS2, the third side sonar SS3, and the fourth side sonar SS4, the singular expression "sonar sensor 22" or "plurality of sonar sensors 22” is sometimes used.

或る一個のソナーセンサ22を「第一ソナーセンサ」と称し、別の一個のソナーセンサ22を「第二ソナーセンサ」と称して、「直接波」および「間接波」を、以下のように定義する。第一ソナーセンサに受信される受信波であって、第一ソナーセンサから発信された探査波の物体Bによる反射波に起因する受信波を、「直接波」と称する。すなわち、直接波は、探査波を送信したソナーセンサ22と、当該探査波の物体Bによる反射波を受信波として検知したソナーセンサ22とが、同一である場合の、当該受信波である。これに対し、第二ソナーセンサに受信される受信波であって、第一ソナーセンサから発信された探査波の物体Bによる反射波に起因する受信波を、「間接波」と称する。すなわち、間接波とは、探査波を送信したソナーセンサ22と、当該探査波の物体Bによる反射波を受信波として検知したソナーセンサ22とが、異なる場合の、当該受信波である。 One sonar sensor 22 is called a "first sonar sensor" and another sonar sensor 22 is called a "second sonar sensor", and "direct waves" and "indirect waves" are defined as follows. A received wave that is received by the first sonar sensor and is caused by a reflected wave from the object B of the search wave emitted from the first sonar sensor is referred to as a "direct wave". That is, the direct wave is the received wave when the sonar sensor 22 that transmitted the search wave and the sonar sensor 22 that detected the reflected wave of the search wave from the object B as the received wave are the same. On the other hand, a received wave that is received by the second sonar sensor and is caused by a reflected wave from the object B of the search wave transmitted from the first sonar sensor is referred to as an "indirect wave." That is, the indirect wave is a received wave when the sonar sensor 22 that transmitted the search wave is different from the sonar sensor 22 that detects the reflected wave of the search wave from the object B as the received wave.

第一フロントソナーSF1は、自車両の左前方に探査波を発信するように、フロントバンパー13の前側表面における左端部に設けられている。第二フロントソナーSF2は、自車両の右前方に探査波を発信するように、フロントバンパー13の前側表面における右端部に設けられている。第一フロントソナーSF1と第二フロントソナーSF2とは、車両中心軸線Xを挟んで対称に配置されている。 The first front sonar SF1 is provided at the left end of the front surface of the front bumper 13 so as to emit a survey wave to the left front of the vehicle. The second front sonar SF2 is provided at the right end of the front side surface of the front bumper 13 so as to transmit a survey wave to the right front of the vehicle. The first front sonar SF1 and the second front sonar SF2 are arranged symmetrically with the vehicle center axis X interposed therebetween.

第三フロントソナーSF3と第四フロントソナーSF4とは、フロントバンパー13の前側表面における中央寄りの位置にて、車幅方向に配列されている。第三フロントソナーSF3は、自車両の略前方に探査波を発信するように、車幅方向について第一フロントソナーSF1と車両中心軸線Xとの間に配置されている。第四フロントソナーSF4は、自車両の略前方に探査波を発信するように、車幅方向について第二フロントソナーSF2と車両中心軸線Xとの間に配置されている。第三フロントソナーSF3と第四フロントソナーSF4とは、車両中心軸線Xを挟んで対称に配置されている。 The third front sonar SF3 and the fourth front sonar SF4 are arranged in the width direction of the vehicle at positions near the center of the front surface of the front bumper 13 . The third front sonar SF3 is arranged between the first front sonar SF1 and the vehicle center axis X in the vehicle width direction so as to emit survey waves substantially forward of the vehicle. The fourth front sonar SF4 is arranged between the second front sonar SF2 and the vehicle center axis X in the vehicle width direction so as to emit survey waves substantially forward of the vehicle. The third front sonar SF3 and the fourth front sonar SF4 are arranged symmetrically with the vehicle center axis X interposed therebetween.

上記の通り、車体11の左側に装着された第一フロントソナーSF1および第三フロントソナーSF3は、平面視にて互いに異なる位置に配置されている。また、車幅方向について互いに隣接する第一フロントソナーSF1と第三フロントソナーSF3とは、相互に、一方が発信した探査波の物体Bによる反射波が他方における受信波として受信可能な位置関係に設けられている。 As described above, the first front sonar SF1 and the third front sonar SF3 mounted on the left side of the vehicle body 11 are arranged at different positions in plan view. In addition, the first front sonar SF1 and the third front sonar SF3, which are adjacent to each other in the vehicle width direction, are in a positional relationship such that the reflected waves of the survey waves emitted by one of them by the object B can be received as received waves by the other. is provided.

すなわち、第一フロントソナーSF1は、自己が発信した探査波に対応する直接波と、第三フロントソナーSF3が発信した探査波に対応する間接波との双方を受信可能に配置されている。同様に、第三フロントソナーSF3は、自己が発信した探査波に対応する直接波と、第一フロントソナーSF1が発信した探査波に対応する間接波との双方を受信可能に配置されている。 That is, the first front sonar SF1 is arranged so as to be able to receive both the direct wave corresponding to the search wave emitted by itself and the indirect wave corresponding to the search wave emitted by the third front sonar SF3. Similarly, the third front sonar SF3 is arranged so as to be able to receive both the direct wave corresponding to the search wave emitted by itself and the indirect wave corresponding to the search wave emitted by the first front sonar SF1.

同様に、車体11の車幅方向における中央寄りに装着された第三フロントソナーSF3および第四フロントソナーSF4は、平面視にて互いに異なる位置に配置されている。また、車幅方向について互いに隣接する第三フロントソナーSF3と第四フロントソナーSF4とは、相互に、一方が発信した探査波の物体Bによる反射波が他方における受信波として受信可能な位置関係に設けられている。 Similarly, the third front sonar SF3 and the fourth front sonar SF4 mounted near the center of the vehicle body 11 in the vehicle width direction are arranged at different positions in plan view. Further, the third front sonar SF3 and the fourth front sonar SF4, which are adjacent to each other in the vehicle width direction, are in a positional relationship such that the reflected wave of the survey wave transmitted by one of them by the object B can be received by the other as a received wave. is provided.

同様に、車体11の右側に装着された第二フロントソナーSF2および第四フロントソナーSF4は、平面視にて互いに異なる位置に配置されている。また、車幅方向について互いに隣接する第二フロントソナーSF2と第四フロントソナーSF4とは、相互に、一方が発信した探査波の物体Bによる反射波が他方における受信波として受信可能な位置関係に設けられている。 Similarly, the second front sonar SF2 and the fourth front sonar SF4 mounted on the right side of the vehicle body 11 are arranged at positions different from each other in plan view. Further, the second front sonar SF2 and the fourth front sonar SF4, which are adjacent to each other in the vehicle width direction, are in a positional relationship such that the reflected wave of the survey wave transmitted by one of them by the object B can be received by the other as a received wave. is provided.

第一リアソナーSR1は、自車両の左後方に探査波を発信するように、リアバンパー15の後側表面における左端部に設けられている。第二リアソナーSR2は、自車両の右後方に探査波を発信するように、リアバンパー15の後側表面における右端部に設けられている。第一リアソナーSR1と第二リアソナーSR2とは、車両中心軸線Xを挟んで対称に配置されている。 The first rear sonar SR1 is provided at the left end of the rear surface of the rear bumper 15 so as to transmit a survey wave to the left rear of the vehicle. The second rear sonar SR2 is provided at the right end portion of the rear surface of the rear bumper 15 so as to transmit a survey wave to the right rear of the vehicle. The first rear sonar SR1 and the second rear sonar SR2 are arranged symmetrically with the vehicle center axis X interposed therebetween.

第三リアソナーSR3と第四リアソナーSR4とは、リアバンパー15の後側表面における中央寄りの位置にて、車幅方向に配列されている。第三リアソナーSR3は、自車両の略後方に探査波を発信するように、車幅方向について第一リアソナーSR1と車両中心軸線Xとの間に配置されている。第四リアソナーSR4は、自車両の略後方に探査波を発信するように、車幅方向について第二リアソナーSR2と車両中心軸線Xとの間に配置されている。第三リアソナーSR3と第四リアソナーSR4とは、車両中心軸線Xを挟んで対称に配置されている。 The third rear sonar SR3 and the fourth rear sonar SR4 are arranged in the vehicle width direction at positions near the center of the rear surface of the rear bumper 15 . The third rear sonar SR3 is arranged between the first rear sonar SR1 and the vehicle center axis X in the vehicle width direction so as to transmit a survey wave substantially behind the own vehicle. The fourth rear sonar SR4 is arranged between the second rear sonar SR2 and the vehicle center axis X in the vehicle width direction so as to emit survey waves substantially behind the vehicle. The third rear sonar SR3 and the fourth rear sonar SR4 are arranged symmetrically with the vehicle center axis X interposed therebetween.

上記の通り、車体11の左側に装着された第一リアソナーSR1および第三リアソナーSR3は、平面視にて互いに異なる位置に配置されている。また、車幅方向について互いに隣接する第一リアソナーSR1と第三リアソナーSR3とは、相互に、一方が発信した探査波の物体Bによる反射波が他方における受信波として受信可能な位置関係に設けられている。 As described above, the first rear sonar SR1 and the third rear sonar SR3 mounted on the left side of the vehicle body 11 are arranged at different positions in plan view. Further, the first rear sonar SR1 and the third rear sonar SR3, which are adjacent to each other in the vehicle width direction, are provided in a positional relationship such that the reflected waves of the survey waves emitted by one of them and reflected by the object B can be received as received waves by the other. ing.

すなわち、第一リアソナーSR1は、自己が発信した探査波に対応する直接波と、第三リアソナーSR3が発信した探査波に対応する間接波との双方を受信可能に配置されている。同様に、第三リアソナーSR3は、自己が発信した探査波に対応する直接波と、第一リアソナーSR1が発信した探査波に対応する間接波との双方を受信可能に配置されている。 That is, the first rear sonar SR1 is arranged so as to be able to receive both the direct wave corresponding to the search wave emitted by itself and the indirect wave corresponding to the search wave emitted by the third rear sonar SR3. Similarly, the third rear sonar SR3 is arranged so as to be able to receive both the direct wave corresponding to the search wave emitted by itself and the indirect wave corresponding to the search wave emitted by the first rear sonar SR1.

同様に、車体11の車幅方向における中央寄りに装着された第三リアソナーSR3および第四リアソナーSR4は、平面視にて互いに異なる位置に配置されている。また、車幅方向について互いに隣接する第三リアソナーSR3と第四リアソナーSR4とは、相互に、一方が発信した探査波の物体Bによる反射波が他方における受信波として受信可能な位置関係に設けられている。 Similarly, the third rear sonar SR3 and the fourth rear sonar SR4, which are mounted near the center of the vehicle body 11 in the vehicle width direction, are arranged at different positions in plan view. Further, the third rear sonar SR3 and the fourth rear sonar SR4, which are adjacent to each other in the vehicle width direction, are provided in a positional relationship such that the reflected waves of the survey waves emitted by one of them and reflected by the object B can be received by the other as received waves. ing.

同様に、車体11の右側に装着された第二リアソナーSR2および第四リアソナーSR4は、平面視にて互いに異なる位置に配置されている。また、車幅方向について互いに隣接する第二リアソナーSR2と第四リアソナーSR4とは、相互に、一方が発信した探査波の物体Bによる反射波が他方における受信波として受信可能な位置関係に設けられている。 Similarly, the second rear sonar SR2 and the fourth rear sonar SR4 mounted on the right side of the vehicle body 11 are arranged at different positions in plan view. Further, the second rear sonar SR2 and the fourth rear sonar SR4, which are adjacent to each other in the vehicle width direction, are provided in a positional relationship such that the reflected waves of the survey waves emitted by one of them and reflected by the object B can be received as received waves by the other. ing.

第一サイドソナーSS1、第二サイドソナーSS2、第三サイドソナーSS3、および第四サイドソナーSS4は、側面部16の外側表面である車両側面から探査波を自車両の側方に発信するように設けられている。第一サイドソナーSS1、第二サイドソナーSS2、第三サイドソナーSS3、および第四サイドソナーSS4は、それぞれ、直接波のみを受信可能に設けられている。 The first side sonar SS1, the second side sonar SS2, the third side sonar SS3, and the fourth side sonar SS4 are designed to transmit survey waves to the side of the vehicle from the side of the vehicle, which is the outer surface of the side portion 16. is provided. The first side sonar SS1, the second side sonar SS2, the third side sonar SS3, and the fourth side sonar SS4 are each provided so as to receive only direct waves.

第一サイドソナーSS1は、自車両の左方に探査波を発信するように、前後方向について左側のドアミラー18と第一フロントソナーSF1との間に配置されている。第二サイドソナーSS2は、自車両の右方に探査波を発信するように、前後方向について右側のドアミラー18と第二フロントソナーSF2との間に配置されている。第一サイドソナーSS1と第二サイドソナーSS2とは、車両中心軸線Xを挟んで対称に設けられている。 The first side sonar SS1 is arranged between the left side door mirror 18 and the first front sonar SF1 in the front-rear direction so as to emit a search wave to the left of the vehicle. The second side sonar SS2 is arranged between the right side door mirror 18 and the second front sonar SF2 in the front-rear direction so as to transmit a search wave to the right of the vehicle. The first side sonar SS1 and the second side sonar SS2 are provided symmetrically with the vehicle center axis X interposed therebetween.

第三サイドソナーSS3は、自車両の左方に探査波を発信するように、前後方向について左後側のドアパネル17と第一リアソナーSR1との間に配置されている。第四サイドソナーSS4は、自車両の右方に探査波を発信するように、前後方向について右後側のドアパネル17と第二リアソナーSR2との間に配置されている。第三サイドソナーSS3と第四サイドソナーSS4とは、車両中心軸線Xを挟んで対称に設けられている。 The third side sonar SS3 is arranged between the left rear door panel 17 and the first rear sonar SR1 in the front-rear direction so as to emit a search wave to the left of the vehicle. The fourth side sonar SS4 is arranged between the right rear door panel 17 and the second rear sonar SR2 in the front-rear direction so as to emit a search wave to the right of the vehicle. The third side sonar SS3 and the fourth side sonar SS4 are provided symmetrically with the vehicle center axis X interposed therebetween.

複数のソナーセンサ22の各々は、物体検知ECU27に電気接続されている。複数のソナーセンサ22の各々は、物体検知ECU27の制御下で探査波を発信するとともに、受信波の受信結果に対応する信号を発生して物体検知ECU27にて受信可能に出力するようになっている。受信波の受信結果に対応する信号に含まれる情報を、以下「測距情報」と称する。測距情報には、受信波の受信強度に関連する情報、および、距離情報が含まれる。「距離情報」は、複数のソナーセンサ22の各々と物体Bとの距離に関連する情報である。具体的には、例えば、距離情報には、探査波の発信から受信波の受信までの時間差に関連する情報が含まれる。 Each of the multiple sonar sensors 22 is electrically connected to the object detection ECU 27 . Each of the plurality of sonar sensors 22 transmits a survey wave under the control of the object detection ECU 27, generates a signal corresponding to the reception result of the received wave, and outputs it so as to be receivable by the object detection ECU 27. . Information included in the signal corresponding to the reception result of the received wave is hereinafter referred to as "ranging information". The ranging information includes information related to the reception intensity of received waves and distance information. “Distance information” is information related to the distance between each of the plurality of sonar sensors 22 and the object B. FIG. Specifically, for example, the distance information includes information related to the time difference between the transmission of the search wave and the reception of the received wave.

レーダーセンサ23は、レーダー波を送受信するレーザーレーダーセンサまたはミリ波レーダーセンサであって、車体11の前面部12に装着されている。レーダーセンサ23は、反射点の位置および相対速度に対応する信号を発生して、物体検知ECU27にて受信可能に出力するように構成されている。「反射点」は、物体Bの表面上における、レーダー波を反射したと推定される点である。「相対速度」は、反射点すなわちレーダー波を反射した物体Bの、自車両に対する相対速度である。 The radar sensor 23 is a laser radar sensor or millimeter wave radar sensor that transmits and receives radar waves, and is attached to the front portion 12 of the vehicle body 11 . The radar sensor 23 is configured to generate a signal corresponding to the position and relative velocity of the reflection point and output the signal so that it can be received by the object detection ECU 27 . A “reflection point” is a point on the surface of the object B that is presumed to have reflected the radar wave. "Relative velocity" is the relative velocity of the reflection point, that is, the object B that reflected the radar wave, with respect to the own vehicle.

車速センサ24、シフトポジションセンサ25、および舵角センサ26は、物体検知ECU27に電気接続されている。車速センサ24は、自車両の走行速度に対応する信号を発生して、物体検知ECU27にて受信可能に出力するように設けられている。自車両の走行速度を、以下単に「車速」と称する。シフトポジションセンサ25は、自車両のシフトポジションに対応する信号を発生して、物体検知ECU27にて受信可能に出力するように設けられている。舵角センサ26は、自車両の操舵角に対応する信号を発生して、物体検知ECU27にて受信可能に出力するように設けられている。 Vehicle speed sensor 24 , shift position sensor 25 and steering angle sensor 26 are electrically connected to object detection ECU 27 . The vehicle speed sensor 24 is provided so as to generate a signal corresponding to the running speed of the own vehicle and output the signal so as to be received by the object detection ECU 27 . The running speed of the own vehicle is hereinafter simply referred to as "vehicle speed". The shift position sensor 25 is provided so as to generate a signal corresponding to the shift position of the host vehicle and output the signal so as to be receivable by the object detection ECU 27 . The steering angle sensor 26 is provided so as to generate a signal corresponding to the steering angle of the host vehicle and output the signal so that it can be received by the object detection ECU 27 .

物体検知ECU27は、車体11の内側に配置されている。物体検知ECU27は、いわゆる車載マイクロコンピュータであって、図示しないCPU、ROM、RAM、不揮発性リライタブルメモリ、等を備えている。不揮発性リライタブルメモリは、例えば、EEPROM、フラッシュROM、等である。EEPROMはElectronically Erasable and Program-mable Read Only Memoryの略である。物体検知ECU27のCPU、ROM、RAMおよび不揮発性リライタブルメモリを、以下単に「CPU」、「ROM」、「RAM」および「不揮発性RAM」と略称する。 The object detection ECU 27 is arranged inside the vehicle body 11 . The object detection ECU 27 is a so-called in-vehicle microcomputer, and includes a CPU, ROM, RAM, non-volatile rewritable memory, etc. (not shown). Nonvolatile rewritable memory is, for example, EEPROM, flash ROM, and the like. EEPROM is an abbreviation for Electronically Erasable and Programmable Read Only Memory. The CPU, ROM, RAM and non-volatile rewritable memory of the object detection ECU 27 are hereinafter simply referred to as "CPU", "ROM", "RAM" and "non-volatile RAM".

物体検知ECU27は、CPUがROMまたは不揮発性RAMからプログラムを読み出して実行することで、各種の制御動作を実現可能に構成されている。このプログラムには、後述のルーチンに対応するものが含まれている。また、RAMおよび不揮発性RAMは、CPUがプログラムを実行する際の処理データを一時的に格納可能に構成されている。さらに、ROMおよび/または不揮発性RAMには、プログラムの実行の際に用いられる各種のデータが、あらかじめ格納されている。各種のデータには、例えば、初期値、ルックアップテーブル、マップ、等が含まれている。 The object detection ECU 27 is configured so that various control operations can be realized by the CPU reading and executing programs from the ROM or the nonvolatile RAM. This program includes those corresponding to the routines described below. Also, the RAM and the non-volatile RAM are configured to be able to temporarily store processing data when the CPU executes the program. Further, the ROM and/or the non-volatile RAM pre-store various data used for executing the program. Various data include, for example, initial values, lookup tables, maps, and the like.

物体検知ECU27は、複数の撮像部21の各々、車速センサ24、シフトポジションセンサ25、舵角センサ26、等から受信した信号および情報に基づいて、物体検知動作を実行するように構成されている。また、物体検知ECU27は、表示部28および音声出力部29の動作を制御することで、物体検知状態に伴う報知動作を行うようになっている。 The object detection ECU 27 is configured to execute an object detection operation based on signals and information received from each of the plurality of imaging units 21, the vehicle speed sensor 24, the shift position sensor 25, the steering angle sensor 26, and the like. . In addition, the object detection ECU 27 controls the operations of the display unit 28 and the audio output unit 29 to perform notification operations associated with the object detection state.

本実施形態においては、物体検知ECU27は、駐車支援機能を奏するように構成されている。すなわち、物体検知ECU27は、撮像部21を用いて駐車スペースを検出するとともに、検出した駐車スペースへの自車両の移動を、ソナーセンサ22等による障害物検知結果に基づいて支援するようになっている。「障害物」とは、自車両の周囲に存在する物体Bのうち、高さが所定の閾値よりも高いために乗り越え走行が困難または不可能なものをいう。 In this embodiment, the object detection ECU 27 is configured to have a parking assistance function. That is, the object detection ECU 27 detects a parking space using the imaging unit 21, and assists the movement of the own vehicle to the detected parking space based on the obstacle detection result by the sonar sensor 22 or the like. . "Obstacle" refers to an object B existing around the own vehicle that is difficult or impossible to travel over because its height is higher than a predetermined threshold.

表示部28および音声出力部29は、車両10における車室内に配置されている。また、表示部28および音声出力部29は、物体検知ECU27に電気接続されている。表示部28は、物体検知および駐車支援に伴う報知動作を、表示画面またはインジケータを用いた表示により行うように構成されている。音声出力部29は、物体検知および駐車支援に伴う報知動作を、スピーカを用いた音声出力により行うように構成されている。 The display unit 28 and the audio output unit 29 are arranged in the vehicle interior of the vehicle 10 . Also, the display unit 28 and the audio output unit 29 are electrically connected to the object detection ECU 27 . The display unit 28 is configured to perform a notification operation associated with object detection and parking assistance using a display screen or an indicator. The audio output unit 29 is configured to output a notification operation associated with object detection and parking assistance by audio output using a speaker.

(物体検知ECUの機能構成)
図2を参照すると、物体検知ECU27は、マイクロコンピュータ上にて実現される、以下の機能構成を有している。すなわち、物体検知ECU27は、画像情報取得部270と、特徴点抽出部271と、視差画像取得部272と、駐車スペース取得部273と、路面特徴点抽出部274と、基準高設定部275と、座標情報算出部276と、測距情報取得部277と、障害物検知部278とを有している。以下、本実施形態における、物体検知ECU27の機能構成の詳細について説明する。
(Functional configuration of object detection ECU)
Referring to FIG. 2, the object detection ECU 27 has the following functional configuration implemented on a microcomputer. That is, the object detection ECU 27 includes an image information acquisition unit 270, a feature point extraction unit 271, a parallax image acquisition unit 272, a parking space acquisition unit 273, a road surface feature point extraction unit 274, a reference height setting unit 275, It has a coordinate information calculation unit 276 , a distance measurement information acquisition unit 277 and an obstacle detection unit 278 . Details of the functional configuration of the object detection ECU 27 in this embodiment will be described below.

画像情報取得部270は、自車両の周囲の撮影画像に対応する画像情報を取得するように設けられている。具体的には、画像情報取得部270は、撮像部21により生成された画像情報を撮像部21から受信するとともに、受信した画像情報を時系列で不揮発性RAMに格納するようになっている。 The image information acquisition unit 270 is provided so as to acquire image information corresponding to a photographed image of the surroundings of the own vehicle. Specifically, the image information acquisition section 270 receives image information generated by the imaging section 21 from the imaging section 21 and stores the received image information in time series in the non-volatile RAM.

特徴点抽出部271は、画像情報取得部270にて取得した画像情報に基づいて、撮影画像における特徴点を抽出するように設けられている。特徴点は、撮影画像中の物体Bの形状を特徴付ける点である。換言すれば、特徴点は、撮影画像の画角内における、特徴的な点すなわち画素である。具体的には、例えば、特徴点は、隣接する画素との間での輝度変化が大きな画素である。なお、特徴点およびその抽出手法は、本願の出願時点にて周知である。具体的には、特徴点の検出手法として、周知の手法(例えば、Sobelフィルタ、Laplacianフィルタ、Canny法、等。)を用いることが可能である。したがって、本明細書においては、特徴点抽出部271による特徴点の抽出手法の詳細については、説明を省略する。なお、特徴点の「抽出」は、「検出」とも表現され得る。 The feature point extraction section 271 is provided to extract feature points in the captured image based on the image information acquired by the image information acquisition section 270 . A feature point is a point that characterizes the shape of the object B in the captured image. In other words, the feature point is a characteristic point, ie, a pixel within the angle of view of the captured image. Specifically, for example, a feature point is a pixel that has a large luminance change with an adjacent pixel. Note that feature points and their extraction method are well known at the time of filing of the present application. Specifically, known methods (eg, Sobel filter, Laplacian filter, Canny method, etc.) can be used as feature point detection methods. Therefore, in this specification, the detailed description of the feature point extraction method by the feature point extraction unit 271 will be omitted. Note that "extraction" of feature points can also be expressed as "detection".

視差画像取得部272は、視点の異なる複数の撮影画像に基づく視差画像を取得するように設けられている。具体的には、視差画像取得部272は、同一の撮像部21により異なる時刻に撮像された複数の撮影画像に基づいて、移動ステレオあるいは単眼移動ステレオの手法により視差演算することで、視差画像を算出するようになっている。移動ステレオは、SFMとも称される。SFMはStructure from Motionの略である。なお、移動ステレオあるいはSFMについては、本願の出願時点において、すでに公知あるいは周知となっている。したがって、本明細書においては、移動ステレオについての詳細については、説明を省略する。 The parallax image acquisition unit 272 is provided to acquire parallax images based on a plurality of captured images from different viewpoints. Specifically, the parallax image acquisition unit 272 calculates parallax images by performing parallax calculation using a moving stereo or monocular moving stereo method based on a plurality of captured images captured by the same imaging unit 21 at different times. It is calculated. Motion stereo is also referred to as SFM. SFM is an abbreviation for Structure from Motion. It should be noted that moving stereo or SFM has already been publicly known or known at the time of filing of the present application. Therefore, the details of the moving stereo are omitted in this specification.

駐車スペース取得部273は、駐車支援に用いられる目標駐車スペースの候補となり得る、少なくとも1つ駐車スペースの検出結果を取得するように設けられている。具体的には、本実施形態においては、駐車スペース取得部273は、画像情報取得部270にて取得した画像情報に基づいて、駐車スペースを検出するようになっている。画像情報に基づく駐車スペースの検出手法については、本願の出願時点において、すでに公知あるいは周知となっている。したがって、本明細書においては、画像情報に基づく駐車スペースの検出手法の詳細については、説明を省略する。 The parking space acquisition unit 273 is provided to acquire the detection result of at least one parking space that can be a target parking space candidate for use in parking assistance. Specifically, in this embodiment, the parking space acquisition section 273 detects a parking space based on the image information acquired by the image information acquisition section 270 . A method of detecting a parking space based on image information has already been publicly known or known at the time of filing of this application. Therefore, in this specification, the detailed description of the parking space detection method based on the image information will be omitted.

路面特徴点抽出部274は、物体Bを含む、自車両の周囲の撮影画像から、路面に属する特徴点である路面特徴点を抽出するように設けられている。具体的には、路面特徴点抽出部274は、特徴点抽出部271によって抽出された複数の特徴点のうちから、路面特徴点を、取得した駐車スペースに基づいて抽出するようになっている。すなわち、路面特徴点抽出部274は、駐車スペースおよびその近傍領域に含まれる特徴点を、路面特徴点として抽出するようになっている。なお、駐車スペースの「近傍領域」は、例えば、検出された駐車スペースが白線で挟まれたり囲まれたりしている場合、当該白線およびその外側の所定幅(例えば白線の幅の0.5~2倍の幅)の領域を含む。 The road surface characteristic point extraction unit 274 is provided to extract road surface characteristic points, which are characteristic points belonging to the road surface, from the photographed image of the surroundings of the vehicle including the object B. Specifically, the road surface characteristic point extraction unit 274 extracts road surface characteristic points from among the plurality of characteristic points extracted by the characteristic point extraction unit 271 based on the obtained parking space. That is, the road surface characteristic point extracting section 274 extracts the characteristic points included in the parking space and its neighboring area as the road surface characteristic points. For example, when the detected parking space is sandwiched or surrounded by white lines, the "neighboring area" of the parking space is the white line and a predetermined width (for example, 0.5 to 0.5 of the width of the white line). double width).

基準高設定部275は、視差画像取得部272により取得された視差画像と、路面特徴点抽出部274により抽出された路面特徴点とに基づいて、路面特徴点に対応する高さ情報を基準高情報に設定するように設けられている。具体的には、基準高設定部275は、路面特徴点の近傍に視差が存在する場合に、当該路面特徴点に対応する高さ情報を基準高情報に設定するようになっている。「基準高情報」とは、路面高さに対応する高さ情報、すなわち、路面からの高さが0mである旨の情報である。本実施形態においては、基準高設定部275は、駐車スペースおよびその近傍領域に含まれる特徴点のうちの高さ情報が最小となるものに基づいて、基準高情報を設定するようになっている。 Based on the parallax image acquired by the parallax image acquiring unit 272 and the road surface characteristic points extracted by the road surface characteristic point extracting unit 274, the reference height setting unit 275 sets height information corresponding to the road surface characteristic points to a reference height. Information is provided to be set. Specifically, the reference height setting unit 275 sets height information corresponding to the road surface characteristic point as the reference height information when parallax exists in the vicinity of the road surface characteristic point. "Reference height information" is height information corresponding to the road surface height, that is, information indicating that the height from the road surface is 0 m. In this embodiment, the reference height setting unit 275 sets the reference height information based on the minimum height information among the feature points included in the parking space and its neighboring area. .

座標情報算出部276は、基準高設定部275により設定された基準高情報に基づいて、物体Bの三次元座標情報を算出するように設けられている。具体的には、座標情報算出部276は、路面特徴点に対応する基準高情報と、視差画像とに基づいて、路面特徴点以外の特徴点の三次元位置を決定するようになっている。すなわち、座標情報算出部276は、路面特徴点における路面からの高さ0mを高さの基準としつつ、移動ステレオあるいは単眼移動ステレオの手法を用いて、路面特徴点以外の特徴点の三次元位置を決定するようになっている。 The coordinate information calculation section 276 is provided to calculate three-dimensional coordinate information of the object B based on the reference height information set by the reference height setting section 275 . Specifically, the coordinate information calculator 276 determines the three-dimensional positions of feature points other than the road surface feature points based on the reference height information corresponding to the road surface feature points and the parallax image. That is, the coordinate information calculation unit 276 calculates the three-dimensional positions of feature points other than the road surface feature points using the moving stereo or monocular moving stereo technique, while using the height of 0 m from the road surface at the road surface feature points as a reference for height. is designed to determine

測距情報取得部277は、ソナーセンサ22による距離検出結果である測距情報を取得するように設けられている。また、測距情報取得部277は、複数のソナーセンサ22を用いて取得した測距情報に基づく三角測量により、物体Bの自車両に対する相対位置情報を取得するように設けられている。さらに、測距情報取得部277は、測距情報および相対位置情報の取得結果を、時系列で不揮発性RAMに格納するようになっている。 The ranging information acquisition unit 277 is provided to acquire ranging information, which is the result of distance detection by the sonar sensor 22 . Further, the ranging information acquisition unit 277 is provided so as to acquire relative position information of the object B with respect to the own vehicle by triangulation based on ranging information acquired using a plurality of sonar sensors 22 . Furthermore, the distance measurement information acquisition unit 277 stores the acquisition results of the distance measurement information and the relative position information in time series in the non-volatile RAM.

障害物検知部278は、座標情報算出部276による三次元座標情報の算出結果と、測距情報取得部277にて取得した測距情報および相対位置情報とに基づいて、障害物を検知するように設けられている。すなわち、本実施形態においては、障害物検知部278は、画像認識結果と測距結果とを融合させる、いわゆる「センサフュージョン」技術を用いて、障害物を検知するようになっている。 The obstacle detection unit 278 detects an obstacle based on the calculation result of the three-dimensional coordinate information by the coordinate information calculation unit 276 and the distance measurement information and the relative position information acquired by the distance measurement information acquisition unit 277. is provided in That is, in this embodiment, the obstacle detection unit 278 detects an obstacle using a so-called "sensor fusion" technique that fuses the image recognition result and the distance measurement result.

(作用・効果)
以下、本実施形態に係る、物体検知装置20すなわち物体検知ECU27における動作概要について、本実施形態の構成により奏される効果とともに説明する。
(action/effect)
An overview of the operation of the object detection device 20, that is, the object detection ECU 27, according to the present embodiment will be described below together with the effects achieved by the configuration of the present embodiment.

複数の撮像部21の各々、すなわち、フロントカメラCF、リアカメラCB、左側カメラCL、および右側カメラCRは、自車両の周囲の画像を撮影して、撮影画像に対応する画像情報を生成および取得する。また、複数の撮像部21の各々は、取得した画像情報を、物体検知ECU27にて受信可能に出力する。 Each of the plurality of imaging units 21, that is, the front camera CF, the rear camera CB, the left camera CL, and the right camera CR captures an image of the surroundings of the own vehicle, and generates and acquires image information corresponding to the captured image. do. Further, each of the plurality of imaging units 21 outputs the acquired image information so that the object detection ECU 27 can receive it.

複数のソナーセンサ22の各々は、自車両の外側に向けて発信された探査波の反射波を含む受信波を受信することで、自車両の周囲に存在する物体B上の点との距離を測定する。また、複数のソナーセンサ22の各々は、取得した測距情報を、物体検知ECU27にて受信可能に出力する。 Each of the plurality of sonar sensors 22 measures the distance to a point on an object B existing around the vehicle by receiving received waves including reflected waves of the search waves transmitted toward the outside of the vehicle. do. Further, each of the plurality of sonar sensors 22 outputs the acquired distance measurement information so that the object detection ECU 27 can receive it.

レーダーセンサ23は、物体B上の反射点の位置および相対速度に対応する信号を発生して、物体検知ECU27にて受信可能に出力する。車速センサ24は、車速に対応する信号を発生して、物体検知ECU27にて受信可能に出力する。シフトポジションセンサ25は、自車両のシフトポジションに対応する信号を発生して、物体検知ECU27にて受信可能に出力する。舵角センサ26は、自車両の操舵角に対応する信号を発生して、物体検知ECU27にて受信可能に出力する。 The radar sensor 23 generates a signal corresponding to the position and relative speed of the reflection point on the object B, and outputs the signal so that it can be received by the object detection ECU 27 . The vehicle speed sensor 24 generates a signal corresponding to the vehicle speed and outputs the signal so that it can be received by the object detection ECU 27 . The shift position sensor 25 generates a signal corresponding to the shift position of the host vehicle and outputs the signal so that the object detection ECU 27 can receive the signal. The steering angle sensor 26 generates a signal corresponding to the steering angle of the host vehicle and outputs the signal so that it can be received by the object detection ECU 27 .

物体検知ECU27は、複数の撮像部21の各々から、画像情報を受信する。また、物体検知ECU27は、複数のソナーセンサ22の各々から、測距情報を受信する。また、物体検知ECU27は、レーダーセンサ23、車速センサ24、シフトポジションセンサ25、および舵角センサ26からの出力信号を受信する。物体検知ECU27は、複数のソナーセンサ22の各々、複数の撮像部21の各々、車速センサ24、シフトポジションセンサ25、舵角センサ26、等から受信した信号および情報に基づいて、物体検知動作および駐車支援動作を実行する。 The object detection ECU 27 receives image information from each of the plurality of imaging units 21 . The object detection ECU 27 also receives ranging information from each of the plurality of sonar sensors 22 . The object detection ECU 27 also receives output signals from the radar sensor 23 , vehicle speed sensor 24 , shift position sensor 25 and steering angle sensor 26 . The object detection ECU 27 performs object detection operation and parking based on signals and information received from each of the plurality of sonar sensors 22, each of the plurality of imaging units 21, the vehicle speed sensor 24, the shift position sensor 25, the steering angle sensor 26, and the like. Perform assistive actions.

具体的には、画像情報取得部270は、自車両の周囲の撮影画像に対応する画像情報を、複数の撮像部21の各々から取得する。また、画像情報取得部270は、取得した画像情報を、時系列で不揮発性RAMに格納する。特徴点抽出部271は、画像情報取得部270にて取得した画像情報に基づいて、撮影画像における特徴点を抽出する。 Specifically, the image information acquisition unit 270 acquires image information corresponding to the captured images around the vehicle from each of the plurality of imaging units 21 . In addition, the image information acquisition unit 270 stores the acquired image information in time series in the non-volatile RAM. The feature point extraction section 271 extracts feature points in the captured image based on the image information acquired by the image information acquisition section 270 .

視差画像取得部272は、視点の異なる複数の撮影画像に基づいて、視差画像を取得する。具体的には、視差画像取得部272は、視差画像取得部272は、同一の撮像部21により異なる時刻に撮像された複数の撮影画像に基づいて、移動ステレオあるいは単眼移動ステレオの手法により視差演算することで、視差画像を算出する。 The parallax image acquisition unit 272 acquires parallax images based on a plurality of captured images from different viewpoints. Specifically, the parallax image acquisition unit 272 performs parallax calculation by moving stereo or monocular moving stereo based on a plurality of captured images captured by the same imaging unit 21 at different times. By doing so, a parallax image is calculated.

駐車スペース取得部273は、駐車スペースを取得する。具体的には、駐車スペース取得部273は、画像情報取得部270にて取得した画像情報に基づいて、駐車スペースを検出する。路面特徴点抽出部274は、物体Bを含む、自車両の周囲の撮影画像から、路面に属する特徴点である路面特徴点を抽出する。具体的には、路面特徴点抽出部274は、駐車スペースおよびその近傍領域に含まれる特徴点を、路面特徴点として抽出する。 The parking space acquisition unit 273 acquires a parking space. Specifically, parking space acquisition section 273 detects a parking space based on the image information acquired by image information acquisition section 270 . The road surface characteristic point extraction unit 274 extracts road surface characteristic points, which are characteristic points belonging to the road surface, from the photographed image of the surroundings of the vehicle including the object B. Specifically, the road surface characteristic point extraction unit 274 extracts the characteristic points included in the parking space and its neighboring area as the road surface characteristic points.

基準高設定部275は、視差画像取得部272により取得された視差画像と、路面特徴点抽出部274により抽出された路面特徴点とに基づいて、路面特徴点に対応する高さ情報を基準高情報に設定する。具体的には、基準高設定部275は、路面特徴点の近傍に視差が存在する場合に、当該路面特徴点に対応する高さ情報を基準高情報に設定する。 Based on the parallax image acquired by the parallax image acquiring unit 272 and the road surface characteristic points extracted by the road surface characteristic point extracting unit 274, the reference height setting unit 275 sets height information corresponding to the road surface characteristic points to a reference height. Set to information. Specifically, when parallax exists in the vicinity of a road surface characteristic point, the reference height setting unit 275 sets height information corresponding to the road surface characteristic point as the reference height information.

座標情報算出部276は、基準高設定部275により設定された基準高情報に基づいて、物体Bの三次元座標情報を算出する。具体的には、座標情報算出部276は、路面特徴点に対応する基準高情報と、視差画像とに基づいて、路面特徴点以外の特徴点の三次元位置を決定する。より詳細には、座標情報算出部276は、路面特徴点における路面からの高さ0mを高さの基準としつつ、移動ステレオあるいは単眼移動ステレオの手法を用いて、路面特徴点以外の特徴点の三次元位置を決定する。 The coordinate information calculation section 276 calculates three-dimensional coordinate information of the object B based on the reference height information set by the reference height setting section 275 . Specifically, the coordinate information calculator 276 determines the three-dimensional positions of feature points other than the road surface feature points based on the reference height information corresponding to the road surface feature points and the parallax image. More specifically, the coordinate information calculation unit 276 uses a moving stereo or a monocular moving stereo technique while setting the height of the road surface characteristic point to 0 m from the road surface as a reference for the height of the road surface characteristic point, and calculates the height of the characteristic points other than the road surface characteristic point. Determine the three-dimensional position.

測距情報取得部277は、複数のソナーセンサ22の各々から、物体Bに対応する測距情報を取得する。また、測距情報取得部277は、測距情報に基づいて、物体Bの自車両に対する相対位置情報を取得する。測距情報取得部277は、測距情報および相対位置情報の取得結果を、時系列で不揮発性RAMに格納する。障害物検知部278は、座標情報算出部276による三次元座標情報の算出結果と、測距情報取得部277にて取得した測距情報および相対位置情報とに基づいて、障害物を検知する。 The ranging information acquisition unit 277 acquires ranging information corresponding to the object B from each of the multiple sonar sensors 22 . Also, the ranging information acquisition unit 277 acquires relative position information of the object B with respect to the own vehicle based on the ranging information. The distance measurement information acquisition unit 277 stores the acquisition results of the distance measurement information and the relative position information in time series in the non-volatile RAM. The obstacle detection unit 278 detects obstacles based on the calculation result of the three-dimensional coordinate information by the coordinate information calculation unit 276 and the distance measurement information and relative position information acquired by the distance measurement information acquisition unit 277 .

撮像部21における撮影姿勢は、自車両における、乗員の乗車状態、荷物積載状態、車高調整状態、等に応じて変化する。例えば、自車両が車高調整可能な構成を有していて、車高設定状態が標準状態から低車高状態または高車高状態に変更されている場合があり得る。すると、車高方向における、撮像部21と路面から突出する物体Bとの相対高さが変化する。 The photographing posture of the image pickup unit 21 changes according to the passenger's boarding state, luggage loading state, vehicle height adjustment state, and the like in the own vehicle. For example, there may be a case where the own vehicle has a height adjustable configuration and the vehicle height setting state has been changed from the standard state to the low vehicle height state or the high vehicle height state. Then, the relative height between the imaging unit 21 and the object B projecting from the road surface changes in the vehicle height direction.

具体的には、車高設定状態が低車高状態に変更された場合、撮像部21における視点が低下して路面に近づく。すると、撮像部21から見た物体Bの高さは、見かけ上、上昇する。自車両における車体11の後部の荷室に重量物が積載されることで、車体11の後部が沈み込む場合も同様である。一方、車高設定状態が高車高状態に変更された場合、撮像部21における視点が上昇して路面から遠ざかる。すると、撮像部21から見た物体Bの高さは、見かけ上、低下する。このように、撮像部21における視点が車高方向に変動した場合、撮影画像中の各特徴点における絶対高さ情報、すなわち、三次元座標情報における車高方向成分が変動する。 Specifically, when the vehicle height setting state is changed to the low vehicle height state, the viewpoint in the imaging unit 21 is lowered and approaches the road surface. Then, the height of the object B seen from the imaging unit 21 apparently rises. The same applies to the case where the rear portion of the vehicle body 11 sinks due to a heavy object being loaded in the luggage compartment at the rear portion of the vehicle body 11 of the own vehicle. On the other hand, when the vehicle height setting state is changed to the high vehicle height state, the viewpoint in the imaging unit 21 is raised and moved away from the road surface. Then, the height of the object B seen from the imaging unit 21 is apparently lowered. In this way, when the viewpoint in the imaging unit 21 changes in the vehicle height direction, the absolute height information at each feature point in the captured image, that is, the vehicle height direction component in the three-dimensional coordinate information changes.

しかしながら、本発明の発明者は、撮像部21における視点が車高方向に変動しても、撮影画像中の複数の検出点すなわち特徴点の間で、検出高さの相対的関係がほとんど変動しないことを見出した。すなわち、例えば、路面に設けられた白線と、路面から上方に突出する物体Bとが、同一画角内に存在する場合、白線上の特徴点と物体B上の特徴点との間の相対的な高さ関係は、視点変動にかかわらず、ほぼ不変である。また、物体B上の複数の特徴点間の相対的な高さ関係も、視点変動にかかわらず、ほぼ不変である。 However, the inventors of the present invention found that even if the viewpoint in the imaging unit 21 changes in the vehicle height direction, the relative relationship of the detected heights between a plurality of detection points, that is, feature points in the captured image hardly changes. I found out. That is, for example, when a white line provided on the road surface and an object B projecting upward from the road surface exist within the same angle of view, the relative height relationship is almost unchanged regardless of viewpoint changes. Also, the relative height relationship between the plurality of feature points on the object B is almost unchanged regardless of the viewpoint change.

そこで、物体検知ECU27は、物体Bを含む、自車両の周囲の撮影画像から、路面に属する特徴点である路面特徴点を抽出する。また、物体検知ECU27は、視差画像と抽出された路面特徴点とに基づいて、路面特徴点に対応する高さ情報を、路面からの高さ0mに対応する基準高情報に設定する。そして、物体検知ECU27は、かかる基準高情報に基づいて、物体Bの三次元座標情報を算出する。 Therefore, the object detection ECU 27 extracts road surface characteristic points, which are characteristic points belonging to the road surface, from the photographed image of the surroundings of the own vehicle including the object B. FIG. Further, the object detection ECU 27 sets the height information corresponding to the road surface characteristic points to the reference height information corresponding to a height of 0 m from the road surface based on the parallax image and the extracted road surface characteristic points. Then, the object detection ECU 27 calculates three-dimensional coordinate information of the object B based on the reference height information.

かかる構成によれば、撮像部21における視点変動に伴う、物体Bの三次元座標情報の算出誤差が、可及的に抑制され得る。したがって、自車両の周囲の物体Bの高さの誤判定が良好に回避され、物体Bの高さをより精度よく検知することが可能となる。 According to such a configuration, the calculation error of the three-dimensional coordinate information of the object B due to the viewpoint change in the imaging unit 21 can be suppressed as much as possible. Therefore, erroneous determination of the height of the object B around the own vehicle can be satisfactorily avoided, and the height of the object B can be detected with higher accuracy.

路面特徴点は、駐車スペースおよびその近傍領域にて抽出しやすい。具体的には、例えば、駐車スペースを画定するための路面上の白線、駐車スペースにおけるスペース番号等の路面標示、駐車スペース内に設置された輪留めの根元、等にて、路面特徴点が抽出されやすい。これらの路面特徴点は、駐車スペースの検出の際に利用される。 Road feature points are easy to extract in parking spaces and their neighboring areas. Specifically, for example, road surface feature points are extracted from white lines on the road surface for demarcating parking spaces, road surface markings such as space numbers in parking spaces, bases of wheel chocks installed in parking spaces, and the like. easy to be These road surface feature points are used in detecting parking spaces.

そこで、物体検知ECU27は、駐車スペースおよびその近傍領域に含まれる特徴点を、路面からの高さ0mに対応する基準高情報を設定するための路面特徴点として抽出する。これにより、路面特徴点の抽出処理が良好に行われ、物体Bの三次元座標情報の算出精度が向上する。また、路面特徴点の探索範囲が簡易に画定され、計算負荷が軽減する。 Therefore, the object detection ECU 27 extracts feature points included in the parking space and its vicinity area as road feature points for setting reference height information corresponding to a height of 0 m from the road surface. As a result, the process of extracting the road characteristic points is performed satisfactorily, and the calculation accuracy of the three-dimensional coordinate information of the object B is improved. In addition, the search range for the road surface characteristic points can be easily defined, and the calculation load can be reduced.

例えば、駐車スペース内に輪留めが設置されている場合、輪留めの根元と上端との双方にて特徴点が抽出され得る。このように、駐車スペースおよびその近傍領域にて抽出した複数の特徴点にて、高さに分布が生じることがあり得る。 For example, if a wheel chock is installed in the parking space, feature points can be extracted at both the base and top of the chock. In this way, a distribution of heights may occur at a plurality of feature points extracted from the parking space and its neighboring area.

そこで、物体検知ECU27は、駐車スペースおよびその近傍領域に含まれる特徴点のうちの高さ情報が最小となるものに基づいて、基準高情報を設定する。これにより、路面特徴点の抽出精度が向上する。 Therefore, the object detection ECU 27 sets the reference height information based on the minimum height information among the feature points included in the parking space and its neighboring area. This improves the accuracy of extracting the road surface characteristic points.

(動作例)
以下、本実施形態の構成による、上記の動作概要に対応する具体的な動作例について、図3に示したフローチャートを用いて説明する。なお、図面中において、「ステップ」を単に「S」と略記する。物体検知ECU27のCPUは、所定の起動条件成立中に、図3に示されたルーチンを、所定時間間隔で繰り返し起動する。
(Operation example)
A specific operation example corresponding to the above outline of operation according to the configuration of this embodiment will be described below with reference to the flowchart shown in FIG. In the drawings, "step" is simply abbreviated as "S". The CPU of the object detection ECU 27 repeatedly activates the routine shown in FIG. 3 at predetermined time intervals while a predetermined activation condition is satisfied.

かかるルーチンが起動されると、まず、ステップ311にて、CPUは、画像情報を取得する。ここで取得される画像情報は、例えば、自車両の後退中は、リアカメラCBによって取得された画像情報である。すなわち、自車両が後退中の場合、CPUは、リアカメラCBによる画像情報を取得する。 When this routine is activated, first, in step 311, the CPU acquires image information. The image information acquired here is, for example, image information acquired by the rear camera CB while the host vehicle is moving backward. That is, when the host vehicle is moving backward, the CPU acquires image information from the rear camera CB.

次に、ステップ312にて、CPUは、取得した画像情報に基づいて、特徴点を抽出する。続いて、ステップ313にて、CPUは、視差演算により視差画像を取得すなわち算出する。さらに、ステップ314にて、CPUは、駐車スペースを取得すなわち検出する。その後、CPUは、処理をステップ321に進行させる。 Next, at step 312, the CPU extracts feature points based on the acquired image information. Subsequently, at step 313, the CPU obtains or calculates a parallax image by parallax calculation. Additionally, at step 314, the CPU acquires or detects parking spaces. After that, the CPU advances the process to step 321 .

ステップ321にて、CPUは、ステップ312にて抽出された特徴点のうちから、駐車スペースおよびその近傍領域に含まれる特徴点を路面特徴点として抽出し、そのうちの1つを路面特徴点Pnとして選択する。nはN以下の自然数である。Nは、ステップ312にて抽出された特徴点のうちの、駐車スペースおよびその近傍領域に含まれるものの個数である。 At step 321, the CPU extracts, from the feature points extracted at step 312, the feature points included in the parking space and its neighboring area as road surface feature points, and one of them is set as the road surface feature point Pn. select. n is a natural number equal to or smaller than N; N is the number of feature points extracted in step 312 that are included in the parking space and its neighboring area.

次に、ステップ322にて、CPUは、今回選択した路面特徴点Pnの近傍に視差が存在するか否かを判定する。路面特徴点Pnの近傍に視差が存在する場合(すなわちステップ322=YES)、CPUは、処理をステップ323に進行させる。ステップ323にて、CPUは、今回選択した路面特徴点Pnの高さ情報を視差に基づいて算出するとともに、算出結果を基準高情報に設定する。一方、路面特徴点Pnの近傍に視差が存在しない場合(すなわちステップ322=NO)、CPUは、処理をステップ324に進行させる。ステップ324にて、CPUは、今回選択した路面特徴点Pnの高さ情報を基準高情報から除外する。 Next, at step 322, the CPU determines whether or not parallax exists in the vicinity of the road surface feature point Pn selected this time. If parallax exists in the vicinity of the road surface characteristic point Pn (that is, step 322 =YES), the CPU advances the process to step 323 . At step 323, the CPU calculates the height information of the road characteristic point Pn selected this time based on the parallax, and sets the calculation result as the reference height information. On the other hand, if there is no parallax in the vicinity of the road surface feature point Pn (that is, step 322 =NO), the CPU advances the process to step 324 . At step 324, the CPU excludes the height information of the road characteristic point Pn selected this time from the reference height information.

ステップ323またはステップ324の処理を実行後、CPUは、処理をステップ325に進行させる。ステップ325にて、CPUは、路面特徴点Pnの選択が終了したか否か、すなわち、今回の路面特徴点Pnの選択がN回目であるか否かを判定する。 After executing the process of step 323 or step 324 , the CPU advances the process to step 325 . At step 325, the CPU determines whether or not the selection of the road surface characteristic point Pn has ended, that is, whether or not the current selection of the road surface characteristic point Pn is the Nth time.

路面特徴点Pnの選択が終了した場合(すなわちステップ325=YES)、CPUは、処理をステップ330~ステップ332に進行させる。一方、路面特徴点Pnの選択が終了していない場合(すなわちステップ325=NO)、CPUは、処理をステップ321に戻す。 When the selection of the road surface characteristic point Pn is completed (that is, step 325=YES), the CPU advances the process to steps 330-332. On the other hand, if the selection of road surface characteristic points Pn has not ended (that is, step 325 =NO), the CPU returns the process to step 321 .

CPUは、ステップ330~ステップ332の処理を順に実行した後、本ルーチンを終了する。ステップ330にて、CPUは、最低高特徴点を抽出する。最低高特徴点は、基準高情報に設定した路面特徴点Pnのうちの、高さ情報が最小となるものである。ステップ331にて、CPUは、抽出した最低高特徴点に基づいて、基準高マップを設定する。基準高マップは、視差画像における、路面高さに対応する高さマップである。ステップ332にて、CPUは、基準高マップに基づいて、路面特徴点以外の各特徴点に対応する三次元座標情報を演算する。 The CPU ends this routine after sequentially executing the processing of steps 330 to 332 . At step 330, the CPU extracts the lowest high feature point. The lowest height feature point is the road feature point Pn set in the reference height information that has the lowest height information. At step 331, the CPU sets a reference height map based on the extracted minimum height feature point. The reference height map is a height map corresponding to the road surface height in the parallax image. At step 332, the CPU calculates three-dimensional coordinate information corresponding to each feature point other than the road surface feature point based on the reference height map.

(変形例)
本発明は、上記実施形態に限定されるものではない。故に、上記実施形態に対しては、適宜変更が可能である。以下、代表的な変形例について説明する。以下の変形例の説明においては、上記実施形態との相違点を主として説明する。また、上記実施形態と変形例とにおいて、相互に同一または均等である部分には、同一符号が付されている。したがって、以下の変形例の説明において、上記実施形態と同一の符号を有する構成要素に関しては、技術的矛盾または特段の追加説明なき限り、上記実施形態における説明が適宜援用され得る。
(Modification)
The present invention is not limited to the above embodiments. Therefore, the above embodiment can be modified as appropriate. A representative modified example will be described below. In the following description of the modified example, differences from the above embodiment will be mainly described. Moreover, in the above-described embodiment and modifications, the same or equivalent portions are denoted by the same reference numerals. Therefore, in the description of the modification below, the description in the above embodiment can be used as appropriate for components having the same reference numerals as those in the above embodiment, unless there is a technical contradiction or special additional description.

本発明は、上記実施形態にて示された具体的な装置構成に限定されない。すなわち、例えば、物体検知装置20を搭載する車両10は、四輪自動車に限定されない。具体的には、車両10は、三輪自動車であってもよいし、貨物トラック等の六輪または八輪自動車でもよい。車両10の種類は、内燃機関のみを備えた自動車であってもよいし、内燃機関を備えない電気自動車または燃料電池車であってもよいし、いわゆるハイブリッド自動車であってもよい。車体11の形状および構造も、箱状すなわち平面視における略矩形状に限定されない。ドアパネル17の数も、特段の限定はない。 The present invention is not limited to the specific device configurations shown in the above embodiments. That is, for example, the vehicle 10 equipped with the object detection device 20 is not limited to a four-wheeled vehicle. Specifically, the vehicle 10 may be a three-wheeled vehicle, or a six-wheeled or eight-wheeled vehicle such as a freight truck. The type of vehicle 10 may be an automobile equipped only with an internal combustion engine, an electric vehicle or a fuel cell vehicle without an internal combustion engine, or a so-called hybrid vehicle. The shape and structure of the vehicle body 11 are also not limited to a box shape, that is, a substantially rectangular shape in plan view. The number of door panels 17 is also not particularly limited.

物体検知装置20の適用対象についても、特段の限定はない。すなわち、例えば、物体検知装置20は、駐車支援装置に限定されない。具体的には、例えば、物体検知装置20は、自動運転の定義におけるレベル2~レベル5に相当する、半自動運転あるいは自動運転に対しても、好適に適用可能である。 There is also no particular limitation on the application target of the object detection device 20 . That is, for example, the object detection device 20 is not limited to a parking assistance device. Specifically, for example, the object detection device 20 can be suitably applied to semi-automatic driving or automatic driving corresponding to levels 2 to 5 in the definition of automatic driving.

撮像部21の配置および個数は、上記の例に限定されない。すなわち、例えば、フロントカメラCFは、車室外に配置され得る。具体的には、例えば、フロントカメラCFは、車体11の前面部12に装着され得る。フロントカメラCFは、一個であってもよいし、二個であってもよい。すなわち、物体検知装置20は、複眼ステレオカメラ構成を有していてもよい。例えば、左側カメラCLおよび右側カメラCRは、ドアミラー18とは異なる位置に配置され得る。あるいは、左側カメラCLおよび右側カメラCRは、省略され得る。 The arrangement and number of imaging units 21 are not limited to the above example. That is, for example, the front camera CF can be arranged outside the vehicle compartment. Specifically, for example, the front camera CF can be attached to the front portion 12 of the vehicle body 11 . The number of front cameras CF may be one or two. That is, the object detection device 20 may have a compound-eye stereo camera configuration. For example, the left camera CL and the right camera CR may be arranged at positions different from the door mirror 18 . Alternatively, the left camera CL and right camera CR may be omitted.

ソナーセンサ22の配置および個数は、上記の具体例に限定されない。すなわち、例えば、図1を参照すると、第三フロントソナーSF3が車幅方向における中央位置に配置される場合、第四フロントソナーSF4は省略される。同様に、第三リアソナーSR3が車幅方向における中央位置に配置される場合、第四リアソナーSR4は省略される。第三サイドソナーSS3および第四サイドソナーSS4は、省略され得る。 The arrangement and number of sonar sensors 22 are not limited to the above specific examples. That is, for example, referring to FIG. 1, when the third front sonar SF3 is arranged at the center position in the vehicle width direction, the fourth front sonar SF4 is omitted. Similarly, when the third rear sonar SR3 is arranged at the central position in the vehicle width direction, the fourth rear sonar SR4 is omitted. The third side sonar SS3 and fourth side sonar SS4 may be omitted.

物体検知装置20に用いられる各種センサ類は、車速センサ24、シフトポジションセンサ25、舵角センサ26、等に限定されない。すなわち、例えば、車速センサ24、シフトポジションセンサ25、および舵角センサ26のうちの少なくとも1つは、省略されたり、他のセンサに代替されたりしてもよい。 Various sensors used in the object detection device 20 are not limited to the vehicle speed sensor 24, the shift position sensor 25, the steering angle sensor 26, and the like. That is, for example, at least one of the vehicle speed sensor 24, the shift position sensor 25, and the steering angle sensor 26 may be omitted or replaced with another sensor.

物体検知ECU27は、上記実施形態における物体検知装置20の主要部を構成する。このため、撮像部21、ソナーセンサ22、レーダーセンサ23、車速センサ24、シフトポジションセンサ25、舵角センサ26、表示部28、および音声出力部29は、物体検知装置20の構成要素ではなく、物体検知装置20の付随的要素であるものと把握され得る。あるいは、撮像部21およびソナーセンサ22は、それぞれ、画像情報取得部270および測距情報取得部277を構成するものとして、物体検知装置20の構成要素としても把握され得る。 The object detection ECU 27 constitutes a main part of the object detection device 20 in the above embodiment. Therefore, the imaging unit 21, the sonar sensor 22, the radar sensor 23, the vehicle speed sensor 24, the shift position sensor 25, the steering angle sensor 26, the display unit 28, and the audio output unit 29 are not components of the object detection device 20, but rather It may be understood to be an ancillary element of sensing device 20 . Alternatively, the imaging unit 21 and the sonar sensor 22 may be grasped as constituent elements of the object detection device 20 as constituting the image information acquisition unit 270 and the ranging information acquisition unit 277, respectively.

上記実施形態においては、物体検知ECU27は、CPUがROM等からプログラムを読み出して起動する構成であった。しかしながら、本発明は、かかる構成に限定されない。すなわち、例えば、物体検知ECU27は、上記のような動作を可能に構成されたデジタル回路、例えばASICあるいはFPGAを備えた構成であってもよい。ASICはApplication Specific Integrated Circuitの略である。FPGAはField Programmable Gate Arrayの略である。 In the above-described embodiment, the object detection ECU 27 is configured such that the CPU reads a program from the ROM or the like and starts it. However, the invention is not limited to such a configuration. That is, for example, the object detection ECU 27 may have a configuration including a digital circuit, such as an ASIC or FPGA, configured to enable the above operations. ASIC is an abbreviation for Application Specific Integrated Circuit. FPGA stands for Field Programmable Gate Array.

本発明は、上記実施形態にて示された具体的な機能構成および動作例に限定されない。例えば、駐車スペース取得部273は、ソナーセンサ22等を用いて駐車スペースを検出してもよい。 The present invention is not limited to the specific functional configurations and operation examples shown in the above embodiments. For example, the parking space acquisition unit 273 may detect the parking space using the sonar sensor 22 or the like.

上記の通り、物体検知ECU27は、駐車支援機能を奏する構成に限定されない。すなわち、例えば、物体検知ECU27は、自動運転機能を奏する構成であってもよい。この場合、駐車スペース取得部273は、物体検知ECU27とは異なる駐車支援ECUにより検出した駐車スペースを、駐車支援ECUから取得してもよい。 As described above, the object detection ECU 27 is not limited to the configuration that provides the parking assistance function. That is, for example, the object detection ECU 27 may be configured to have an automatic driving function. In this case, the parking space acquisition unit 273 may acquire the parking space detected by a parking assistance ECU different from the object detection ECU 27 from the parking assistance ECU.

路面特徴点に関して、エピポーラ線に沿って同一パターンのエッジが連続する場合、視差が取得され難い。そこで、路面特徴点抽出部274は、エッジ方向のエピポーラ線との平行度が所定以下である路面特徴点に基づいて、基準高情報を設定してもよい。図4は、かかる変形例に対応するフローチャートの一部を示す。すなわち、図4に示されたステップ421~ステップ427は、図3に示されたステップ321~ステップ325に代替される。 With respect to road surface feature points, it is difficult to obtain parallax when edges of the same pattern are continuous along the epipolar line. Therefore, the road surface characteristic point extracting section 274 may set the reference height information based on the road surface characteristic points whose degree of parallelism with the epipolar line in the edge direction is less than or equal to a predetermined value. FIG. 4 shows part of a flow chart corresponding to such a modification. That is, steps 421 to 427 shown in FIG. 4 are replaced with steps 321 to 325 shown in FIG.

具体的には、図3におけるステップ314の処理を実行後、CPUは、処理をステップ421に進行させる。ステップ421の処理内容は、図3におけるステップ321の処理内容と同一である。すなわち、ステップ421にて、CPUは、路面特徴点Pnを選択する。 Specifically, after executing the process of step 314 in FIG. 3, the CPU advances the process to step 421 . The processing contents of step 421 are the same as the processing contents of step 321 in FIG. That is, at step 421, the CPU selects a road surface characteristic point Pn.

次に、ステップ422にて、CPUは、今回選択した路面特徴点Pnにおけるエッジ方向を検出する。エッジ方向の検出方法については、本願の出願時において、すでに公知あるいは周知となっている。したがって、本明細書においては、エッジ方向の検出方法の詳細については、説明を省略する。 Next, at step 422, the CPU detects the edge direction at the road characteristic point Pn selected this time. A method for detecting the edge direction is already publicly known or known at the time of filing of the present application. Therefore, in this specification, the detailed description of the edge direction detection method is omitted.

続いて、ステップ423にて、CPUは、ステップ422にて検出したエッジ方向の、エピポーラ線との平行度が、所定以下であるか否かを判定する。平行度が所定以下である場合(すなわちステップ423=YES)、CPUは、処理をステップ424に進行させる。ステップ424にて、CPUは、今回選択した路面特徴点Pnの近傍に視差が存在するか否かを判定する。CPUは、ステップ424における判定結果に応じて、ステップ425またはステップ426の処理を実行した後、処理をステップ427に進行させる。すなわち、ステップ424~ステップ427の処理内容は、図3におけるステップ322~ステップ325の処理内容と同一である。 Subsequently, at step 423, the CPU determines whether or not the parallelism of the edge direction detected at step 422 with the epipolar line is equal to or less than a predetermined value. If the parallelism is equal to or less than the predetermined value (that is, step 423 =YES), the CPU advances the process to step 424 . At step 424, the CPU determines whether or not parallax exists in the vicinity of the road surface characteristic point Pn selected this time. The CPU advances the process to step 427 after executing the process of step 425 or step 426 according to the determination result of step 424 . That is, the processing contents of steps 424 to 427 are the same as the processing contents of steps 322 to 325 in FIG.

具体的には、路面特徴点Pnの近傍に視差が存在する場合(すなわちステップ424=YES)、CPUは、処理をステップ425に進行させる。ステップ425にて、CPUは、今回選択した路面特徴点Pnの高さ情報を視差に基づいて算出するとともに、算出結果を基準高情報に設定する。一方、路面特徴点Pnの近傍に視差が存在しない場合(すなわちステップ424=NO)、CPUは、処理をステップ426に進行させる。ステップ426にて、CPUは、今回選択した路面特徴点Pnの高さ情報を基準高情報から除外する。 Specifically, when parallax exists in the vicinity of the road surface characteristic point Pn (that is, step 424 =YES), the CPU advances the process to step 425 . At step 425, the CPU calculates the height information of the road characteristic point Pn selected this time based on the parallax, and sets the calculation result as the reference height information. On the other hand, if there is no parallax in the vicinity of the road surface feature point Pn (that is, step 424 =NO), the CPU advances the process to step 426 . At step 426, the CPU excludes the height information of the road characteristic point Pn selected this time from the reference height information.

平行度が所定以上である場合(すなわちステップ423=NO)、CPUは、処理をステップ426に進行させる。ステップ426にて、CPUは、今回選択した路面特徴点Pnの高さ情報を基準高情報から除外する。 If the degree of parallelism is greater than or equal to the predetermined value (that is, step 423 =NO), the CPU advances the process to step 426 . At step 426, the CPU excludes the height information of the road characteristic point Pn selected this time from the reference height information.

ステップ427にて、CPUは、路面特徴点Pnの選択が終了したか否かを判定する。路面特徴点Pnの選択が終了した場合(すなわちステップ427=YES)、CPUは、処理を図3に示されたステップ330~ステップ332に進行させる。一方、路面特徴点Pnの選択が終了していない場合(すなわちステップ427=NO)、CPUは、処理をステップ421に戻す。 At step 427, the CPU determines whether or not the selection of the road surface characteristic points Pn has been completed. When the selection of road surface characteristic points Pn is completed (ie, step 427=YES), the CPU advances the process to steps 330 to 332 shown in FIG. On the other hand, if the selection of road surface characteristic points Pn has not ended (that is, step 427 =NO), the CPU returns the process to step 421 .

撮像部21における視点変動が、車高設定状態の変更とは異なる原因、すなわち、乗員の乗車状態および/または荷物積載状態により生じる場合があり得る。具体的には、例えば、自車両における車体11の後部の荷室に重量物が積載されることで、車体11の後部が沈み込む。 The viewpoint change in the imaging unit 21 may be caused by a cause other than the change in the vehicle height setting, that is, by the boarding state of the passenger and/or the load state of the luggage. Specifically, for example, the rear portion of the vehicle body 11 sinks when a heavy object is loaded in the luggage compartment at the rear portion of the vehicle body 11 of the host vehicle.

このような場合、撮像部21における視点変動は、単なる視点の上下動のみならず、俯瞰角すなわち撮影角度の変動をも伴う。俯瞰角は、撮像部21から物体Bを見下ろす角度であり、物体Bから撮像部21を見上げる仰角と同一である。すると、視点変動による、物体B上の検出点における三次元座標情報の変動は、車高方向のみならず並進方向についても発生する。 In such a case, the viewpoint change in the imaging unit 21 is accompanied not only by vertical movement of the viewpoint but also by a change in the bird's-eye view angle, that is, the photographing angle. The overhead angle is the angle at which the imaging unit 21 looks down on the object B, and is the same as the elevation angle at which the object B looks up at the imaging unit 21 . Then, the variation of the three-dimensional coordinate information at the detection point on the object B due to the variation of the viewpoint occurs not only in the vehicle height direction but also in the translational direction.

そこで、図5に示されているように、物体検知ECU27は、ソナーセンサ22による検出結果である測距情報に基づいて三次元座標情報を補正する座標情報補正部279をさらに備えている。具体的には、座標情報補正部279は、画像情報に基づいて算出された三次元座標情報に基づいて推定される撮像部21と物体Bとの距離と、ソナーセンサ22により取得されたソナーセンサ22と物体Bとの距離との差が所定値以内である場合、距離情報を用いて三次元座標情報を補正する。これにより、障害物の高さおよび位置を高精度に検出することが可能となる。 Therefore, as shown in FIG. 5 , the object detection ECU 27 further includes a coordinate information correction section 279 that corrects the three-dimensional coordinate information based on the distance measurement information that is the detection result of the sonar sensor 22 . Specifically, the coordinate information correction unit 279 calculates the distance between the imaging unit 21 and the object B estimated based on the three-dimensional coordinate information calculated based on the image information, and the sonar sensor 22 acquired by the sonar sensor 22. If the difference from the distance to the object B is within a predetermined value, the distance information is used to correct the three-dimensional coordinate information. This makes it possible to detect the height and position of the obstacle with high accuracy.

図6は、かかる変形例に対応するフローチャートの一部を示す。すなわち、図6に示されたステップ631~ステップ635は、図3に示されたステップ331~ステップ332に代替される。 FIG. 6 shows part of a flow chart corresponding to such a modification. That is, steps 631 to 635 shown in FIG. 6 are replaced with steps 331 to 332 shown in FIG.

具体的には、図3におけるステップ330の処理を実行後、CPUは、処理をステップ631およびステップ632に進行させる。ステップ631およびステップ632の処理内容は、図3におけるステップ331およびステップ332の処理内容と同一である。 Specifically, after executing the process of step 330 in FIG. 3, the CPU advances the process to steps 631 and 632 . The processing contents of steps 631 and 632 are the same as the processing contents of steps 331 and 332 in FIG.

すなわち、ステップ631にて、CPUは、抽出した最低高特徴点に基づいて、基準高マップを設定する。また、ステップ632にて、CPUは、基準高マップに基づいて、路面特徴点以外の各特徴点に対応する三次元座標情報を演算する。その後、CPUは、ステップ633およびステップ634の処理を実行する。 That is, at step 631, the CPU sets a reference height map based on the extracted minimum height feature point. Also, at step 632, the CPU calculates three-dimensional coordinate information corresponding to each feature point other than the road surface feature point based on the reference height map. After that, the CPU executes the processing of steps 633 and 634 .

ステップ633にて、CPUは、測距情報を取得する。ステップ634にて、CPUは、測距情報に基づく三角測量により相対位置情報が取得された測量点の近傍に、画像情報に基づいて算出された三次元座標が存在するか否かを判定する。 At step 633, the CPU acquires distance measurement information. At step 634, the CPU determines whether or not the three-dimensional coordinates calculated based on the image information exist in the vicinity of the survey point whose relative position information was obtained by triangulation based on the distance measurement information.

測量点の近傍に三次元座標が存在する場合(すなわちステップ634=YES)、CPUは、ステップ635の処理を実行した後、本ルーチンを終了する。ステップ635にて、CPUは、測量点に対応する相対位置情報すなわち測距情報に基づいて、三次元座標情報を補正する。一方、測量点の近傍に三次元座標が存在しない場合(すなわちステップ634=NO)、CPUは、ステップ635の処理をスキップして、本ルーチンを終了する。 If the three-dimensional coordinates exist near the survey point (that is, step 634=YES), the CPU executes the process of step 635 and then terminates this routine. At step 635, the CPU corrects the three-dimensional coordinate information based on the relative position information corresponding to the survey point, that is, the distance measurement information. On the other hand, if the three-dimensional coordinates do not exist near the survey point (that is, step 634=NO), the CPU skips the processing of step 635 and ends this routine.

路面特徴点抽出部274は、特徴点抽出部271における一機能として設けられていてもよい。すなわち、図2および図5に示された機能ブロック構成において、路面特徴点抽出部274は、特徴点抽出部271に統合され得る。 The road surface feature point extraction section 274 may be provided as one function of the feature point extraction section 271 . That is, in the functional block configurations shown in FIGS. 2 and 5 , the road surface feature point extraction section 274 can be integrated with the feature point extraction section 271 .

路面特徴点抽出部274は、駐車スペース以外の所定の抽出条件に基づいて路面特徴点を抽出するようになっていてもよい。所定の抽出条件としては、例えば、画角中の位置情報、テキスチャ情報、視差情報、算出高さ情報、エッジ方向、等が用いられ得る。この場合、駐車スペース取得部273は、省略され得る。 The road surface characteristic point extraction unit 274 may extract road surface characteristic points based on predetermined extraction conditions other than the parking space. As the predetermined extraction condition, for example, position information in the angle of view, texture information, parallax information, calculated height information, edge direction, and the like can be used. In this case, parking space acquisition unit 273 may be omitted.

座標情報算出部276における処理内容は、単眼移動ステレオに限定されない。具体的には、例えば、複眼ステレオ処理、またはSFMと複眼ステレオとの統合処理が用いられ得る。複眼ステレオ処理、またはSFMと複眼ステレオとの統合処理については、本願の出願時において、すでに公知または周知となっている。したがって、本明細書においては、複眼ステレオ処理、および、SFMと複眼ステレオとの統合処理についての詳細については、説明を省略する。 The processing content in the coordinate information calculation unit 276 is not limited to monocular movement stereo. Specifically, for example, compound eye stereo processing or integrated processing of SFM and compound eye stereo may be used. The compound-eye stereo processing or the integration processing of SFM and compound-eye stereo has already been publicly known or known at the time of filing of this application. Therefore, in this specification, detailed descriptions of the compound-eye stereo processing and the integration processing of SFM and compound-eye stereo are omitted.

測距情報取得部277は、ソナーセンサ22の出力に代えて、あるいはこれとともに、レーダーセンサ23の出力に基づいて、測距情報を取得してもよい。すなわち、探査波として、超音波または電磁波が用いられ得る。また、測距点として、レーダーセンサ23により取得された反射点が用いられ得る。この場合、反射点に関する相対位置情報は、ソナーセンサ22により取得された測距点の代替として用いられ得る。あるいは、反射点に関する相対位置情報は、ソナーセンサ22により取得された測距点の補正要素として用いられ得る。 The ranging information acquisition unit 277 may acquire ranging information based on the output of the radar sensor 23 instead of or together with the output of the sonar sensor 22 . That is, ultrasonic waves or electromagnetic waves can be used as probe waves. Also, a reflection point acquired by the radar sensor 23 can be used as the ranging point. In this case, the relative position information about the reflection points can be used as a substitute for the ranging points acquired by the sonar sensor 22 . Alternatively, relative position information about the reflection points can be used as a correction factor for ranging points acquired by sonar sensors 22 .

上記の具体例においては、リアカメラCBによる撮影画像を用いた物体Bの検知動作について説明した。しかしながら、本発明は、かかる態様に限定されない。すなわち、例えば、本発明は、フロントカメラCFによる撮影画像を用いた物体Bの検知動作に対しても、好適に適用され得る。同様に、本発明は、左側カメラCLおよび右側カメラCRによる撮影画像を用いた物体Bの検知動作に対しても、好適に適用され得る。 In the above specific example, the operation of detecting the object B using the image captured by the rear camera CB has been described. However, the invention is not limited to such aspects. That is, for example, the present invention can be suitably applied to the operation of detecting an object B using an image captured by the front camera CF. Similarly, the present invention can also be suitably applied to the operation of detecting an object B using images captured by the left camera CL and the right camera CR.

「取得」という表現と、「推定」「検出」「検知」「算出」等の類似の表現とは、技術的に矛盾しない範囲内において、適宜置換可能である。「検出」と「抽出」とも、技術的に矛盾しない範囲内において、適宜置換可能である。各判定処理における不等号は、等号付きであってもよいし、等号無しであってもよい。すなわち、例えば、「所定値未満」と「所定値以下」とは、技術的に矛盾しない範囲内において、互いに置換され得る。 The expression "acquire" and similar expressions such as "estimation", "detection", "detection", and "calculation" can be appropriately replaced within a technically consistent range. Both "detection" and "extraction" can be interchanged as long as they are not technically inconsistent. The inequality sign in each determination process may or may not have an equal sign. That is, for example, "less than a predetermined value" and "not more than a predetermined value" can be interchanged within a technically consistent range.

上記実施形態を構成する要素は、特に必須であると明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。また、構成要素の個数、数値、量、範囲等の数値が言及されている場合、特に必須であると明示した場合および原理的に明らかに特定の数に限定される場合等を除き、その特定の数に本発明が限定されることはない。同様に、構成要素等の形状、方向、位置関係等が言及されている場合、特に必須であると明示した場合および原理的に特定の形状、方向、位置関係等に限定される場合等を除き、その形状、方向、位置関係等に本発明が限定されることはない。 Needless to say, the elements constituting the above-described embodiments are not necessarily essential, unless explicitly stated as essential or clearly considered essential in principle. In addition, when numerical values such as the number, numerical value, amount, range, etc. of a constituent element are mentioned, unless it is explicitly stated that it is particularly essential or when it is clearly limited to a specific number in principle, The present invention is not limited to the number of . Similarly, when the shape, direction, positional relationship, etc. of the constituent elements, etc. are mentioned, unless it is explicitly stated that it is particularly essential, or when it is limited to a specific shape, direction, positional relationship, etc. in principle , the shape, direction, positional relationship, etc., of which the present invention is not limited.

上記の各機能構成および方法は、コンピュータプログラムにより具体化された一つあるいは複数の機能を実行するようにプログラムされたプロセッサおよびメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、上記の各機能構成および方法は、一つ以上の専用ハードウエア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、上記の各機能構成および方法は、一つあるいは複数の機能を実行するようにプログラムされたプロセッサおよびメモリと一つ以上のハードウエア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移的実体的記憶媒体に記憶されていてもよい。すなわち、本発明に係る装置あるいは方法は、上記の各機能あるいは方法を実現するための手順を含むコンピュータプログラム、あるいは、当該プログラムを記憶した非遷移的実体的記憶媒体としても表現可能である。 Each functional arrangement and method described above may be implemented by a dedicated computer provided by configuring a processor and memory programmed to perform one or more functions embodied by a computer program. . Alternatively, each functional configuration and method described above may be implemented by a dedicated computer provided by configuring a processor with one or more dedicated hardware logic circuits. Alternatively, each of the functional configurations and methods described above is one configured by a combination of a processor and memory programmed to perform one or more functions and a processor configured by one or more hardware logic circuits. It may be implemented by one or more dedicated computers. The computer program may also be stored in a computer-readable non-transitional tangible storage medium as instructions executed by a computer. That is, the device or method according to the present invention can be expressed as a computer program including procedures for realizing each function or method described above, or as a non-transitional material storage medium storing the program.

変形例も、上記の例示に限定されない。また、複数の変形例が、互いに組み合わされ得る。さらに、上記実施形態の全部または一部と、変形例の全部または一部とが、互いに組み合わされ得る。 Modifications are also not limited to the above examples. Also, multiple variants can be combined with each other. Furthermore, all or part of the above embodiments and all or part of the modifications may be combined with each other.

10 車両
20 物体検知装置
22 ソナーセンサ
272 視差画像取得部
273 駐車スペース取得部
274 路面特徴点抽出部
275 基準高設定部
276 座標情報算出部
278 測距情報取得部
279 座標情報補正部
10 vehicle 20 object detection device 22 sonar sensor 272 parallax image acquisition unit 273 parking space acquisition unit 274 road surface characteristic point extraction unit 275 reference height setting unit 276 coordinate information calculation unit 278 ranging information acquisition unit 279 coordinate information correction unit

Claims (4)

自車両(10)に搭載されることで当該自車両の周囲に存在する物体(B)を検知するように構成された、物体検知装置(20)であって、
前記物体を含む前記自車両の周囲の撮影画像から、路面に属する特徴点である路面特徴点を抽出する、路面特徴点抽出部(274)と、
視点の異なる複数の前記撮影画像に基づく視差画像を取得する、視差画像取得部(272)と、
前記視差画像と、前記路面特徴点抽出部により抽出された前記路面特徴点とに基づいて、当該路面特徴点に対応する高さ情報を基準高情報に設定する、基準高設定部(275)と、
前記基準高設定部により設定された前記基準高情報に基づいて、前記物体の三次元座標情報を算出する、座標情報算出部(276)と、
を備え、
前記路面特徴点抽出部は、エッジ方向とエピポーラ線との平行度が所定以下となる前記路面特徴点に基づいて、前記基準高情報を設定する、
物体検知装置。
An object detection device (20) configured to detect an object (B) existing around the own vehicle (10) by being mounted on the own vehicle (10),
a road surface feature point extracting unit (274) for extracting road surface feature points, which are feature points belonging to a road surface, from a photographed image of the surroundings of the own vehicle including the object;
a parallax image acquisition unit (272) for acquiring parallax images based on the plurality of captured images from different viewpoints;
a reference height setting unit (275) for setting, as reference height information, height information corresponding to the road surface characteristic points based on the parallax image and the road surface characteristic points extracted by the road surface characteristic point extraction unit; ,
a coordinate information calculation unit (276) for calculating three-dimensional coordinate information of the object based on the reference height information set by the reference height setting unit;
with
The road surface feature point extraction unit sets the reference height information based on the road surface feature points at which parallelism between the edge direction and the epipolar line is a predetermined value or less.
Object detection device.
前記物体までの距離を検出する測距センサ(22)による検出結果である測距情報を取得する、測距情報取得部(277)と、
前記測距情報に基づいて前記三次元座標情報を補正する、座標情報補正部(279)と、
をさらに備えた、
請求項1に記載の物体検知装置。
a ranging information acquisition unit (277) that acquires ranging information that is a result of detection by a ranging sensor (22) that detects the distance to the object;
a coordinate information correction unit (279) that corrects the three-dimensional coordinate information based on the ranging information;
further comprising
The object detection device according to claim 1 .
駐車支援に用いられる駐車スペースの検出結果を取得する、駐車スペース取得部(273)をさらに備え、
前記路面特徴点抽出部は、前記駐車スペースに基づいて、前記路面特徴点を抽出する、
請求項1または2に記載の物体検知装置。
further comprising a parking space acquisition unit (273) that acquires the detection result of the parking space used for parking assistance,
The road surface feature point extraction unit extracts the road surface feature points based on the parking space.
The object detection device according to claim 1 or 2 .
前記基準高設定部は、前記駐車スペースおよびその近傍領域に含まれる前記特徴点のうちの前記高さ情報が最小となるものに基づいて、前記基準高情報を設定する、
請求項3に記載の物体検知装置。
The reference height setting unit sets the reference height information based on the characteristic point having the minimum height information among the feature points included in the parking space and its neighboring area.
The object detection device according to claim 3 .
JP2019128690A 2019-07-10 2019-07-10 Object detection device Active JP7318377B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019128690A JP7318377B2 (en) 2019-07-10 2019-07-10 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019128690A JP7318377B2 (en) 2019-07-10 2019-07-10 Object detection device

Publications (2)

Publication Number Publication Date
JP2021015373A JP2021015373A (en) 2021-02-12
JP7318377B2 true JP7318377B2 (en) 2023-08-01

Family

ID=74531436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019128690A Active JP7318377B2 (en) 2019-07-10 2019-07-10 Object detection device

Country Status (1)

Country Link
JP (1) JP7318377B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009041972A (en) 2007-08-07 2009-02-26 Toshiba Corp Image processing device and method therefor
JP2010232723A (en) 2009-03-25 2010-10-14 Nippon Soken Inc Vehicle periphery display device
JP2014029604A (en) 2012-07-31 2014-02-13 Denso It Laboratory Inc Moving object recognition system, moving object recognition program, and moving object recognition method
JP2016061687A (en) 2014-09-18 2016-04-25 ファナック株式会社 Contour line measurement device and robot system
JP2019089476A (en) 2017-11-15 2019-06-13 アイシン・エィ・ダブリュ株式会社 Parking support device and computer program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10143659A (en) * 1996-11-06 1998-05-29 Komatsu Ltd Object detector

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009041972A (en) 2007-08-07 2009-02-26 Toshiba Corp Image processing device and method therefor
JP2010232723A (en) 2009-03-25 2010-10-14 Nippon Soken Inc Vehicle periphery display device
JP2014029604A (en) 2012-07-31 2014-02-13 Denso It Laboratory Inc Moving object recognition system, moving object recognition program, and moving object recognition method
JP2016061687A (en) 2014-09-18 2016-04-25 ファナック株式会社 Contour line measurement device and robot system
JP2019089476A (en) 2017-11-15 2019-06-13 アイシン・エィ・ダブリュ株式会社 Parking support device and computer program

Also Published As

Publication number Publication date
JP2021015373A (en) 2021-02-12

Similar Documents

Publication Publication Date Title
CN110573905B (en) Obstacle detection device
US9151626B1 (en) Vehicle position estimation system
WO2015098344A1 (en) Mining work machine
EP3082068A1 (en) Traveling road surface detection device and traveling road surface detection method
US20210097858A1 (en) Off road route selection and presentation in a drive assistance system equipped vehicle
US20160307026A1 (en) Stereoscopic object detection device and stereoscopic object detection method
JP2011065219A (en) Device for estimation of road curvature
EP3633619B1 (en) Position detection apparatus and position detection method
JP6778620B2 (en) Road marking device, road marking system, and road marking method
CN110807347B (en) Obstacle detection method, obstacle detection device and terminal
KR101190789B1 (en) Apparatus and method for measurementing distance of vehicle
JP2009186301A (en) Object detection device for vehicle
KR101734726B1 (en) Method of tracking parking space and apparatus performing the same
US20230109473A1 (en) Vehicle, electronic apparatus, and control method thereof
JP7318377B2 (en) Object detection device
JP7135579B2 (en) Object detection device
KR102003387B1 (en) Method for detecting and locating traffic participants using bird's-eye view image, computer-readerble recording medium storing traffic participants detecting and locating program
WO2019151156A1 (en) Object detection device and parking assistance device
CN110462706B (en) Obstacle detection device
JP4768499B2 (en) In-vehicle peripheral other vehicle detection device
JP6958485B2 (en) Object detection device
JP6824759B2 (en) Bound line detection device, lane marking system, and lane marking method
JP7409240B2 (en) Obstacle detection device and obstacle detection method
JP7334572B2 (en) Object detection device and object detection program
JP7236556B2 (en) Object detection device and object detection program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230321

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230703

R150 Certificate of patent or registration of utility model

Ref document number: 7318377

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150