JP7318377B2 - Object detection device - Google Patents
Object detection device Download PDFInfo
- Publication number
- JP7318377B2 JP7318377B2 JP2019128690A JP2019128690A JP7318377B2 JP 7318377 B2 JP7318377 B2 JP 7318377B2 JP 2019128690 A JP2019128690 A JP 2019128690A JP 2019128690 A JP2019128690 A JP 2019128690A JP 7318377 B2 JP7318377 B2 JP 7318377B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- road surface
- sonar
- information
- object detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、自車両に搭載されることで当該自車両の周囲に存在する物体を検知するように構成された、物体検知装置に関する。 The present invention relates to an object detection device that is mounted on a vehicle and configured to detect an object existing around the vehicle.
この種の装置として、例えば、特許文献1に記載されたものが知られている。特許文献1に記載の装置は、高さ算出部と判定部とを備えている。高さ算出部は、車から駐車位置までの間にある障害物を検出して、当該障害物の高さを算出する。具体的には、高さ算出部は、距離画像とあらかじめ記憶している地面距離画像との比較結果を参照して、障害物の検出を行う。判定部は、算出した障害物の高さを参照して、車の加速装置または制動装置のいずれかを制御すべきかを判定する。すなわち、判定部は、算出した障害物の高さが所定の閾値よりも大きいときは、車が停止するように制動装置を制御すべきと判定する。一方、判定部は、高さが閾値よりも小さいときは、車が加速するように、あるいは車の速度が維持されるように、加速装置を制御すべきと判定する。 As a device of this type, for example, one described in Patent Document 1 is known. The device described in Patent Literature 1 includes a height calculation section and a determination section. The height calculator detects an obstacle between the car and the parking position and calculates the height of the obstacle. Specifically, the height calculator detects an obstacle by referring to the comparison result between the distance image and the ground distance image stored in advance. The determination unit refers to the calculated height of the obstacle and determines whether to control either the acceleration device or the braking device of the vehicle. That is, the determination unit determines that the braking device should be controlled to stop the vehicle when the calculated height of the obstacle is greater than a predetermined threshold. On the other hand, when the height is smaller than the threshold value, the determination unit determines that the acceleration device should be controlled so that the vehicle accelerates or the vehicle speed is maintained.
この種の装置を搭載した車両においては、乗員の乗車状態、荷物積載状態、車高調整状態、等に応じて、カメラ等の撮像装置における撮影姿勢が変化する。このため、特許文献1に記載の装置において、あらかじめ記憶している地面距離画像と、検出した障害物に対応する距離画像とで、撮影姿勢が異なり得る。したがって、かかる撮影姿勢の相違に起因して、障害物の高さ情報および距離情報に誤差が生じ得る。 In a vehicle equipped with this type of device, the photographing posture of an imaging device such as a camera changes depending on the passenger's boarding condition, luggage loading condition, vehicle height adjustment condition, and the like. Therefore, in the device described in Patent Document 1, the photographing posture may differ between the ground distance image stored in advance and the distance image corresponding to the detected obstacle. Therefore, an error may occur in height information and distance information of an obstacle due to such a difference in photographing attitude.
具体的には、特許文献1に記載の装置においては、例えば、本来は障害物とは判定されない、乗り越え走行可能な低段差が、低車高状態において、乗り越え走行困難な高さを有する障害物であると誤判定される場合があり得る。反対に、本来は乗り越え走行困難な高さを有する障害物が、高車高状態において、乗り越え走行可能な低段差であると誤判定される場合があり得る。 Specifically, in the device described in Patent Literature 1, for example, a low level difference that is not originally determined as an obstacle and can be run over is an obstacle having a height that makes it difficult to run over in a low vehicle height state. may be erroneously determined to be Conversely, an obstacle having a height that would otherwise make it difficult for the vehicle to travel over may be erroneously determined to be a low step that allows the vehicle to travel over it in the high vehicle height state.
本発明は、上記に例示した事情等に鑑みてなされたものである。すなわち、本発明は、例えば、自車両の周囲に存在する物体の高さを、より精度よく検知することが可能な構成を提供する。 The present invention has been made in view of the circumstances exemplified above. That is, the present invention provides a configuration capable of detecting, for example, the height of an object existing around the own vehicle with higher accuracy.
請求項1に記載の物体検知装置(20)は、自車両(10)に搭載されることで当該自車両の周囲に存在する物体(B)を検知するように構成されている。
この物体検知装置は、
前記物体を含む前記自車両の周囲の撮影画像から、路面に属する特徴点である路面特徴点を抽出する、路面特徴点抽出部(274)と、
視点の異なる複数の前記撮影画像に基づく視差画像を取得する、視差画像取得部(272)と、
前記視差画像と、前記路面特徴点抽出部により抽出された前記路面特徴点とに基づいて、当該路面特徴点に対応する高さ情報を基準高情報に設定する、基準高設定部(275)と、
前記基準高設定部により設定された前記基準高情報に基づいて、前記物体の三次元座標情報を算出する、座標情報算出部(276)と、
を備え、
前記路面特徴点抽出部は、エッジ方向とエピポーラ線との平行度が所定以下となる前記路面特徴点に基づいて、前記基準高情報を設定する。
An object detection device (20) according to claim 1 is configured to detect an object (B) existing around the vehicle (10) by being mounted on the vehicle (10).
This object detection device
a road surface feature point extracting unit (274) for extracting road surface feature points, which are feature points belonging to a road surface, from a photographed image of the surroundings of the own vehicle including the object;
a parallax image acquisition unit (272) for acquiring parallax images based on the plurality of captured images from different viewpoints;
a reference height setting unit (275) for setting, as reference height information, height information corresponding to the road surface characteristic points based on the parallax image and the road surface characteristic points extracted by the road surface characteristic point extraction unit; ,
a coordinate information calculation unit (276) for calculating three-dimensional coordinate information of the object based on the reference height information set by the reference height setting unit;
with
The road surface characteristic point extracting unit sets the reference height information based on the road surface characteristic points at which parallelism between the edge direction and the epipolar line is equal to or less than a predetermined value.
なお、出願書類中の各欄において、各要素に括弧付きの参照符号が付されている場合がある。この場合、参照符号は、単に、同要素と後述する実施形態に記載の具体的構成との対応関係の一例を示すものである。よって、本発明は、参照符号の記載によって、何ら限定されるものではない。 In addition, in each column of the application documents, each element may be given a reference sign with parentheses. In this case, the reference numerals simply indicate an example of the correspondence relationship between the same element and the specific configuration described in the embodiment described later. Therefore, the present invention is not limited in any way by the description of the reference numerals.
(実施形態)
以下、本発明の実施形態を、図面に基づいて説明する。なお、一つの実施形態に対して適用可能な各種の変形例については、当該実施形態に関する一連の説明の途中に挿入されると、当該実施形態の理解が妨げられるおそれがある。このため、変形例については、当該実施形態に関する一連の説明の途中ではなく、その後にまとめて説明する。
(embodiment)
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described based on the drawings. It should be noted that if various modifications applicable to one embodiment are inserted in the middle of a series of explanations related to the embodiment, there is a risk that the understanding of the embodiment will be hindered. Therefore, the modified examples will be collectively described after the series of descriptions regarding the embodiment, not in the middle of the description.
(車両全体構成)
図1を参照すると、車両10は、いわゆる四輪自動車であって、平面視にて略矩形状の車体11を備えている。以下、車両10の車幅方向における中心を通り、且つ車両10における車両全長方向と平行な仮想直線を、車両中心軸線Xと称する。図1において、車幅方向は図中左右方向である。車両全長方向は、車幅方向と直交し且つ車高方向と直交する方向である。車高方向は、車両10の車高を規定する方向であって、車両10を水平面に載置した場合の重力作用方向と平行な方向である。さらに、走行により車両10が移動可能な、車高方向と直交する任意の方向を、車両10の「並進方向」と称することがある。
(Overall vehicle configuration)
Referring to FIG. 1, a
説明の便宜上、車両10における「前」「後」「左」「右」を、図1中にて矢印で示された通りに定義する。すなわち、車両全長方向は、前後方向と同義である。また、車幅方向は、左右方向と同義である。なお、車高方向は、車両10の載置条件または走行条件により、重力作用方向と平行とはならない場合があり得る。もっとも、車高方向は多くの場合に重力作用方向に沿った方向となるため、車高方向と直交する「並進方向」は、「水平方向」、「面内方向」、「進入方向」、「進行方向」あるいは「進路方向」とも称され得る。
For convenience of explanation, "front", "rear", "left", and "right" of the
車体11における前側の端部である前面部12には、フロントバンパー13が装着されている。車体11における後側の端部である後面部14には、リアバンパー15が装着されている。車体11における側面部16には、ドアパネル17が装着されている。図1に示す具体例においては、左右にそれぞれ2枚ずつ、合計4枚のドアパネル17が設けられている。前側の左右一対のドアパネル17のそれぞれには、ドアミラー18が装着されている。
A
車両10には、物体検知装置20が搭載されている。物体検知装置20は、車両10に搭載されることで、当該車両10の外側且つその周囲に存在する物体Bを検知するように構成されている。以下、物体検知装置20を搭載した車両10を、「自車両」と略称することがある。
An
具体的には、物体検知装置20は、撮像部21と、ソナーセンサ22と、レーダーセンサ23と、車速センサ24と、シフトポジションセンサ25と、舵角センサ26と、物体検知ECU27と、表示部28と、音声出力部29とを備えている。ECUはElectronic Control Unitの略である。以下、物体検知装置20を構成する各部の詳細について説明する。なお、図示の簡略化のため、物体検知装置20を構成する各部の間の電気接続関係は、図1においては省略されている。
Specifically, the
撮像部21は、自車両の周囲の画像を撮影して、撮影画像に対応する画像情報を生成および取得するように設けられている。本実施形態においては、撮像部21は、デジタルカメラ装置であって、CCDあるいはCMOS等のイメージセンサを備えている。CCDはCharge Coupled Deviceの略である。CMOSはComplementary MOSの略である。
The
本実施形態においては、車両10には、複数の撮像部21、すなわち、フロントカメラCF、リアカメラCB、左側カメラCL、および右側カメラCRが搭載されている。フロントカメラCF、リアカメラCB、左側カメラCL、および右側カメラCRのうちの、いずれかであることを特定しない場合に、以下、「撮像部21」という単数形の表現、または「複数の撮像部21」という表現が用いられることがある。
In this embodiment, the
フロントカメラCFは、自車両の前方の画像に対応する画像情報を取得するように設けられている。具体的には、本実施形態においては、フロントカメラCFは、車両10における車室内に配置された不図示のルームミラーに装着されている。
The front camera CF is provided to acquire image information corresponding to an image in front of the vehicle. Specifically, in the present embodiment, the front camera CF is attached to a rearview mirror (not shown) arranged in the vehicle interior of the
リアカメラCBは、自車両の後方の画像に対応する画像情報を取得するように、車体11の後面部14に装着されている。左側カメラCLは、自車両の左方の画像に対応する画像情報を取得するように、左側のドアミラー18に装着されている。右側カメラCRは、自車両の右方の画像に対応する画像情報を取得するように、右側のドアミラー18に装着されている。
The rear camera CB is attached to the
複数の撮像部21の各々は、物体検知ECU27に電気接続されている。すなわち、複数の撮像部21の各々は、物体検知ECU27の制御下で画像情報を取得するとともに、取得した画像情報を物体検知ECU27にて受信可能に出力するようになっている。
Each of the
ソナーセンサ22は、物体Bまでの距離を検出する測距センサであって、車体11に装着されている。本実施形態においては、ソナーセンサ22は、いわゆる超音波センサであって、超音波である探査波を自車両の外側に向けて発信するとともに、超音波を含む受信波を受信可能に構成されている。すなわち、ソナーセンサ22は、探査波の物体Bによる反射波を含む受信波を受信することで、物体B上の測距点との距離の検出結果である測距情報を出力するように設けられている。「測距点」は、物体Bの表面上における、ソナーセンサ22から発信された探査波を反射したと推定される点であって、レーダーセンサ23における「反射点」に対応する点である。
The
物体検知装置20は、少なくとも一個のソナーセンサ22を備えている。具体的には、本実施形態においては、複数のソナーセンサ22が設けられている。複数のソナーセンサ22は、それぞれ、車両中心軸線Xから車幅方向におけるいずれか一方側にシフトして配置されている。また、複数のソナーセンサ22のうちの少なくとも一部は、車両中心軸線Xと交差する方向に沿って探査波を発信するように設けられている。
The
具体的には、フロントバンパー13には、ソナーセンサ22としての、第一フロントソナーSF1、第二フロントソナーSF2、第三フロントソナーSF3、および第四フロントソナーSF4が装着されている。同様に、リアバンパー15には、ソナーセンサ22としての、第一リアソナーSR1、第二リアソナーSR2、第三リアソナーSR3、および第四リアソナーSR4が装着されている。また、車体11の側面部16には、ソナーセンサ22としての、第一サイドソナーSS1、第二サイドソナーSS2、第三サイドソナーSS3、および第四サイドソナーSS4が装着されている。
Specifically, the
第一フロントソナーSF1、第二フロントソナーSF2、第三フロントソナーSF3、第四フロントソナーSF4、第一リアソナーSR1、第二リアソナーSR2、第三リアソナーSR3、第四リアソナーSR4、第一サイドソナーSS1、第二サイドソナーSS2、第三サイドソナーSS3、および第四サイドソナーSS4のうちの、いずれかであることを特定しない場合に、以下、「ソナーセンサ22」という単数形の表現、または「複数のソナーセンサ22」という表現が用いられることがある。
1st front sonar SF1, 2nd front sonar SF2, 3rd front sonar SF3, 4th front sonar SF4, 1st rear sonar SR1, 2nd rear sonar SR2, 3rd rear sonar SR3, 4th rear sonar SR4, 1st side sonar SS1, Hereinafter, when not specifying any of the second side sonar SS2, the third side sonar SS3, and the fourth side sonar SS4, the singular expression "
或る一個のソナーセンサ22を「第一ソナーセンサ」と称し、別の一個のソナーセンサ22を「第二ソナーセンサ」と称して、「直接波」および「間接波」を、以下のように定義する。第一ソナーセンサに受信される受信波であって、第一ソナーセンサから発信された探査波の物体Bによる反射波に起因する受信波を、「直接波」と称する。すなわち、直接波は、探査波を送信したソナーセンサ22と、当該探査波の物体Bによる反射波を受信波として検知したソナーセンサ22とが、同一である場合の、当該受信波である。これに対し、第二ソナーセンサに受信される受信波であって、第一ソナーセンサから発信された探査波の物体Bによる反射波に起因する受信波を、「間接波」と称する。すなわち、間接波とは、探査波を送信したソナーセンサ22と、当該探査波の物体Bによる反射波を受信波として検知したソナーセンサ22とが、異なる場合の、当該受信波である。
One
第一フロントソナーSF1は、自車両の左前方に探査波を発信するように、フロントバンパー13の前側表面における左端部に設けられている。第二フロントソナーSF2は、自車両の右前方に探査波を発信するように、フロントバンパー13の前側表面における右端部に設けられている。第一フロントソナーSF1と第二フロントソナーSF2とは、車両中心軸線Xを挟んで対称に配置されている。
The first front sonar SF1 is provided at the left end of the front surface of the
第三フロントソナーSF3と第四フロントソナーSF4とは、フロントバンパー13の前側表面における中央寄りの位置にて、車幅方向に配列されている。第三フロントソナーSF3は、自車両の略前方に探査波を発信するように、車幅方向について第一フロントソナーSF1と車両中心軸線Xとの間に配置されている。第四フロントソナーSF4は、自車両の略前方に探査波を発信するように、車幅方向について第二フロントソナーSF2と車両中心軸線Xとの間に配置されている。第三フロントソナーSF3と第四フロントソナーSF4とは、車両中心軸線Xを挟んで対称に配置されている。
The third front sonar SF3 and the fourth front sonar SF4 are arranged in the width direction of the vehicle at positions near the center of the front surface of the
上記の通り、車体11の左側に装着された第一フロントソナーSF1および第三フロントソナーSF3は、平面視にて互いに異なる位置に配置されている。また、車幅方向について互いに隣接する第一フロントソナーSF1と第三フロントソナーSF3とは、相互に、一方が発信した探査波の物体Bによる反射波が他方における受信波として受信可能な位置関係に設けられている。
As described above, the first front sonar SF1 and the third front sonar SF3 mounted on the left side of the
すなわち、第一フロントソナーSF1は、自己が発信した探査波に対応する直接波と、第三フロントソナーSF3が発信した探査波に対応する間接波との双方を受信可能に配置されている。同様に、第三フロントソナーSF3は、自己が発信した探査波に対応する直接波と、第一フロントソナーSF1が発信した探査波に対応する間接波との双方を受信可能に配置されている。 That is, the first front sonar SF1 is arranged so as to be able to receive both the direct wave corresponding to the search wave emitted by itself and the indirect wave corresponding to the search wave emitted by the third front sonar SF3. Similarly, the third front sonar SF3 is arranged so as to be able to receive both the direct wave corresponding to the search wave emitted by itself and the indirect wave corresponding to the search wave emitted by the first front sonar SF1.
同様に、車体11の車幅方向における中央寄りに装着された第三フロントソナーSF3および第四フロントソナーSF4は、平面視にて互いに異なる位置に配置されている。また、車幅方向について互いに隣接する第三フロントソナーSF3と第四フロントソナーSF4とは、相互に、一方が発信した探査波の物体Bによる反射波が他方における受信波として受信可能な位置関係に設けられている。
Similarly, the third front sonar SF3 and the fourth front sonar SF4 mounted near the center of the
同様に、車体11の右側に装着された第二フロントソナーSF2および第四フロントソナーSF4は、平面視にて互いに異なる位置に配置されている。また、車幅方向について互いに隣接する第二フロントソナーSF2と第四フロントソナーSF4とは、相互に、一方が発信した探査波の物体Bによる反射波が他方における受信波として受信可能な位置関係に設けられている。
Similarly, the second front sonar SF2 and the fourth front sonar SF4 mounted on the right side of the
第一リアソナーSR1は、自車両の左後方に探査波を発信するように、リアバンパー15の後側表面における左端部に設けられている。第二リアソナーSR2は、自車両の右後方に探査波を発信するように、リアバンパー15の後側表面における右端部に設けられている。第一リアソナーSR1と第二リアソナーSR2とは、車両中心軸線Xを挟んで対称に配置されている。
The first rear sonar SR1 is provided at the left end of the rear surface of the
第三リアソナーSR3と第四リアソナーSR4とは、リアバンパー15の後側表面における中央寄りの位置にて、車幅方向に配列されている。第三リアソナーSR3は、自車両の略後方に探査波を発信するように、車幅方向について第一リアソナーSR1と車両中心軸線Xとの間に配置されている。第四リアソナーSR4は、自車両の略後方に探査波を発信するように、車幅方向について第二リアソナーSR2と車両中心軸線Xとの間に配置されている。第三リアソナーSR3と第四リアソナーSR4とは、車両中心軸線Xを挟んで対称に配置されている。
The third rear sonar SR3 and the fourth rear sonar SR4 are arranged in the vehicle width direction at positions near the center of the rear surface of the
上記の通り、車体11の左側に装着された第一リアソナーSR1および第三リアソナーSR3は、平面視にて互いに異なる位置に配置されている。また、車幅方向について互いに隣接する第一リアソナーSR1と第三リアソナーSR3とは、相互に、一方が発信した探査波の物体Bによる反射波が他方における受信波として受信可能な位置関係に設けられている。
As described above, the first rear sonar SR1 and the third rear sonar SR3 mounted on the left side of the
すなわち、第一リアソナーSR1は、自己が発信した探査波に対応する直接波と、第三リアソナーSR3が発信した探査波に対応する間接波との双方を受信可能に配置されている。同様に、第三リアソナーSR3は、自己が発信した探査波に対応する直接波と、第一リアソナーSR1が発信した探査波に対応する間接波との双方を受信可能に配置されている。 That is, the first rear sonar SR1 is arranged so as to be able to receive both the direct wave corresponding to the search wave emitted by itself and the indirect wave corresponding to the search wave emitted by the third rear sonar SR3. Similarly, the third rear sonar SR3 is arranged so as to be able to receive both the direct wave corresponding to the search wave emitted by itself and the indirect wave corresponding to the search wave emitted by the first rear sonar SR1.
同様に、車体11の車幅方向における中央寄りに装着された第三リアソナーSR3および第四リアソナーSR4は、平面視にて互いに異なる位置に配置されている。また、車幅方向について互いに隣接する第三リアソナーSR3と第四リアソナーSR4とは、相互に、一方が発信した探査波の物体Bによる反射波が他方における受信波として受信可能な位置関係に設けられている。
Similarly, the third rear sonar SR3 and the fourth rear sonar SR4, which are mounted near the center of the
同様に、車体11の右側に装着された第二リアソナーSR2および第四リアソナーSR4は、平面視にて互いに異なる位置に配置されている。また、車幅方向について互いに隣接する第二リアソナーSR2と第四リアソナーSR4とは、相互に、一方が発信した探査波の物体Bによる反射波が他方における受信波として受信可能な位置関係に設けられている。
Similarly, the second rear sonar SR2 and the fourth rear sonar SR4 mounted on the right side of the
第一サイドソナーSS1、第二サイドソナーSS2、第三サイドソナーSS3、および第四サイドソナーSS4は、側面部16の外側表面である車両側面から探査波を自車両の側方に発信するように設けられている。第一サイドソナーSS1、第二サイドソナーSS2、第三サイドソナーSS3、および第四サイドソナーSS4は、それぞれ、直接波のみを受信可能に設けられている。
The first side sonar SS1, the second side sonar SS2, the third side sonar SS3, and the fourth side sonar SS4 are designed to transmit survey waves to the side of the vehicle from the side of the vehicle, which is the outer surface of the
第一サイドソナーSS1は、自車両の左方に探査波を発信するように、前後方向について左側のドアミラー18と第一フロントソナーSF1との間に配置されている。第二サイドソナーSS2は、自車両の右方に探査波を発信するように、前後方向について右側のドアミラー18と第二フロントソナーSF2との間に配置されている。第一サイドソナーSS1と第二サイドソナーSS2とは、車両中心軸線Xを挟んで対称に設けられている。
The first side sonar SS1 is arranged between the left
第三サイドソナーSS3は、自車両の左方に探査波を発信するように、前後方向について左後側のドアパネル17と第一リアソナーSR1との間に配置されている。第四サイドソナーSS4は、自車両の右方に探査波を発信するように、前後方向について右後側のドアパネル17と第二リアソナーSR2との間に配置されている。第三サイドソナーSS3と第四サイドソナーSS4とは、車両中心軸線Xを挟んで対称に設けられている。
The third side sonar SS3 is arranged between the left
複数のソナーセンサ22の各々は、物体検知ECU27に電気接続されている。複数のソナーセンサ22の各々は、物体検知ECU27の制御下で探査波を発信するとともに、受信波の受信結果に対応する信号を発生して物体検知ECU27にて受信可能に出力するようになっている。受信波の受信結果に対応する信号に含まれる情報を、以下「測距情報」と称する。測距情報には、受信波の受信強度に関連する情報、および、距離情報が含まれる。「距離情報」は、複数のソナーセンサ22の各々と物体Bとの距離に関連する情報である。具体的には、例えば、距離情報には、探査波の発信から受信波の受信までの時間差に関連する情報が含まれる。
Each of the
レーダーセンサ23は、レーダー波を送受信するレーザーレーダーセンサまたはミリ波レーダーセンサであって、車体11の前面部12に装着されている。レーダーセンサ23は、反射点の位置および相対速度に対応する信号を発生して、物体検知ECU27にて受信可能に出力するように構成されている。「反射点」は、物体Bの表面上における、レーダー波を反射したと推定される点である。「相対速度」は、反射点すなわちレーダー波を反射した物体Bの、自車両に対する相対速度である。
The
車速センサ24、シフトポジションセンサ25、および舵角センサ26は、物体検知ECU27に電気接続されている。車速センサ24は、自車両の走行速度に対応する信号を発生して、物体検知ECU27にて受信可能に出力するように設けられている。自車両の走行速度を、以下単に「車速」と称する。シフトポジションセンサ25は、自車両のシフトポジションに対応する信号を発生して、物体検知ECU27にて受信可能に出力するように設けられている。舵角センサ26は、自車両の操舵角に対応する信号を発生して、物体検知ECU27にて受信可能に出力するように設けられている。
物体検知ECU27は、車体11の内側に配置されている。物体検知ECU27は、いわゆる車載マイクロコンピュータであって、図示しないCPU、ROM、RAM、不揮発性リライタブルメモリ、等を備えている。不揮発性リライタブルメモリは、例えば、EEPROM、フラッシュROM、等である。EEPROMはElectronically Erasable and Program-mable Read Only Memoryの略である。物体検知ECU27のCPU、ROM、RAMおよび不揮発性リライタブルメモリを、以下単に「CPU」、「ROM」、「RAM」および「不揮発性RAM」と略称する。
The
物体検知ECU27は、CPUがROMまたは不揮発性RAMからプログラムを読み出して実行することで、各種の制御動作を実現可能に構成されている。このプログラムには、後述のルーチンに対応するものが含まれている。また、RAMおよび不揮発性RAMは、CPUがプログラムを実行する際の処理データを一時的に格納可能に構成されている。さらに、ROMおよび/または不揮発性RAMには、プログラムの実行の際に用いられる各種のデータが、あらかじめ格納されている。各種のデータには、例えば、初期値、ルックアップテーブル、マップ、等が含まれている。
The
物体検知ECU27は、複数の撮像部21の各々、車速センサ24、シフトポジションセンサ25、舵角センサ26、等から受信した信号および情報に基づいて、物体検知動作を実行するように構成されている。また、物体検知ECU27は、表示部28および音声出力部29の動作を制御することで、物体検知状態に伴う報知動作を行うようになっている。
The
本実施形態においては、物体検知ECU27は、駐車支援機能を奏するように構成されている。すなわち、物体検知ECU27は、撮像部21を用いて駐車スペースを検出するとともに、検出した駐車スペースへの自車両の移動を、ソナーセンサ22等による障害物検知結果に基づいて支援するようになっている。「障害物」とは、自車両の周囲に存在する物体Bのうち、高さが所定の閾値よりも高いために乗り越え走行が困難または不可能なものをいう。
In this embodiment, the
表示部28および音声出力部29は、車両10における車室内に配置されている。また、表示部28および音声出力部29は、物体検知ECU27に電気接続されている。表示部28は、物体検知および駐車支援に伴う報知動作を、表示画面またはインジケータを用いた表示により行うように構成されている。音声出力部29は、物体検知および駐車支援に伴う報知動作を、スピーカを用いた音声出力により行うように構成されている。
The
(物体検知ECUの機能構成)
図2を参照すると、物体検知ECU27は、マイクロコンピュータ上にて実現される、以下の機能構成を有している。すなわち、物体検知ECU27は、画像情報取得部270と、特徴点抽出部271と、視差画像取得部272と、駐車スペース取得部273と、路面特徴点抽出部274と、基準高設定部275と、座標情報算出部276と、測距情報取得部277と、障害物検知部278とを有している。以下、本実施形態における、物体検知ECU27の機能構成の詳細について説明する。
(Functional configuration of object detection ECU)
Referring to FIG. 2, the
画像情報取得部270は、自車両の周囲の撮影画像に対応する画像情報を取得するように設けられている。具体的には、画像情報取得部270は、撮像部21により生成された画像情報を撮像部21から受信するとともに、受信した画像情報を時系列で不揮発性RAMに格納するようになっている。
The image
特徴点抽出部271は、画像情報取得部270にて取得した画像情報に基づいて、撮影画像における特徴点を抽出するように設けられている。特徴点は、撮影画像中の物体Bの形状を特徴付ける点である。換言すれば、特徴点は、撮影画像の画角内における、特徴的な点すなわち画素である。具体的には、例えば、特徴点は、隣接する画素との間での輝度変化が大きな画素である。なお、特徴点およびその抽出手法は、本願の出願時点にて周知である。具体的には、特徴点の検出手法として、周知の手法(例えば、Sobelフィルタ、Laplacianフィルタ、Canny法、等。)を用いることが可能である。したがって、本明細書においては、特徴点抽出部271による特徴点の抽出手法の詳細については、説明を省略する。なお、特徴点の「抽出」は、「検出」とも表現され得る。
The feature
視差画像取得部272は、視点の異なる複数の撮影画像に基づく視差画像を取得するように設けられている。具体的には、視差画像取得部272は、同一の撮像部21により異なる時刻に撮像された複数の撮影画像に基づいて、移動ステレオあるいは単眼移動ステレオの手法により視差演算することで、視差画像を算出するようになっている。移動ステレオは、SFMとも称される。SFMはStructure from Motionの略である。なお、移動ステレオあるいはSFMについては、本願の出願時点において、すでに公知あるいは周知となっている。したがって、本明細書においては、移動ステレオについての詳細については、説明を省略する。
The parallax
駐車スペース取得部273は、駐車支援に用いられる目標駐車スペースの候補となり得る、少なくとも1つ駐車スペースの検出結果を取得するように設けられている。具体的には、本実施形態においては、駐車スペース取得部273は、画像情報取得部270にて取得した画像情報に基づいて、駐車スペースを検出するようになっている。画像情報に基づく駐車スペースの検出手法については、本願の出願時点において、すでに公知あるいは周知となっている。したがって、本明細書においては、画像情報に基づく駐車スペースの検出手法の詳細については、説明を省略する。
The parking
路面特徴点抽出部274は、物体Bを含む、自車両の周囲の撮影画像から、路面に属する特徴点である路面特徴点を抽出するように設けられている。具体的には、路面特徴点抽出部274は、特徴点抽出部271によって抽出された複数の特徴点のうちから、路面特徴点を、取得した駐車スペースに基づいて抽出するようになっている。すなわち、路面特徴点抽出部274は、駐車スペースおよびその近傍領域に含まれる特徴点を、路面特徴点として抽出するようになっている。なお、駐車スペースの「近傍領域」は、例えば、検出された駐車スペースが白線で挟まれたり囲まれたりしている場合、当該白線およびその外側の所定幅(例えば白線の幅の0.5~2倍の幅)の領域を含む。
The road surface characteristic
基準高設定部275は、視差画像取得部272により取得された視差画像と、路面特徴点抽出部274により抽出された路面特徴点とに基づいて、路面特徴点に対応する高さ情報を基準高情報に設定するように設けられている。具体的には、基準高設定部275は、路面特徴点の近傍に視差が存在する場合に、当該路面特徴点に対応する高さ情報を基準高情報に設定するようになっている。「基準高情報」とは、路面高さに対応する高さ情報、すなわち、路面からの高さが0mである旨の情報である。本実施形態においては、基準高設定部275は、駐車スペースおよびその近傍領域に含まれる特徴点のうちの高さ情報が最小となるものに基づいて、基準高情報を設定するようになっている。
Based on the parallax image acquired by the parallax
座標情報算出部276は、基準高設定部275により設定された基準高情報に基づいて、物体Bの三次元座標情報を算出するように設けられている。具体的には、座標情報算出部276は、路面特徴点に対応する基準高情報と、視差画像とに基づいて、路面特徴点以外の特徴点の三次元位置を決定するようになっている。すなわち、座標情報算出部276は、路面特徴点における路面からの高さ0mを高さの基準としつつ、移動ステレオあるいは単眼移動ステレオの手法を用いて、路面特徴点以外の特徴点の三次元位置を決定するようになっている。
The coordinate
測距情報取得部277は、ソナーセンサ22による距離検出結果である測距情報を取得するように設けられている。また、測距情報取得部277は、複数のソナーセンサ22を用いて取得した測距情報に基づく三角測量により、物体Bの自車両に対する相対位置情報を取得するように設けられている。さらに、測距情報取得部277は、測距情報および相対位置情報の取得結果を、時系列で不揮発性RAMに格納するようになっている。
The ranging
障害物検知部278は、座標情報算出部276による三次元座標情報の算出結果と、測距情報取得部277にて取得した測距情報および相対位置情報とに基づいて、障害物を検知するように設けられている。すなわち、本実施形態においては、障害物検知部278は、画像認識結果と測距結果とを融合させる、いわゆる「センサフュージョン」技術を用いて、障害物を検知するようになっている。
The
(作用・効果)
以下、本実施形態に係る、物体検知装置20すなわち物体検知ECU27における動作概要について、本実施形態の構成により奏される効果とともに説明する。
(action/effect)
An overview of the operation of the
複数の撮像部21の各々、すなわち、フロントカメラCF、リアカメラCB、左側カメラCL、および右側カメラCRは、自車両の周囲の画像を撮影して、撮影画像に対応する画像情報を生成および取得する。また、複数の撮像部21の各々は、取得した画像情報を、物体検知ECU27にて受信可能に出力する。
Each of the plurality of
複数のソナーセンサ22の各々は、自車両の外側に向けて発信された探査波の反射波を含む受信波を受信することで、自車両の周囲に存在する物体B上の点との距離を測定する。また、複数のソナーセンサ22の各々は、取得した測距情報を、物体検知ECU27にて受信可能に出力する。
Each of the plurality of
レーダーセンサ23は、物体B上の反射点の位置および相対速度に対応する信号を発生して、物体検知ECU27にて受信可能に出力する。車速センサ24は、車速に対応する信号を発生して、物体検知ECU27にて受信可能に出力する。シフトポジションセンサ25は、自車両のシフトポジションに対応する信号を発生して、物体検知ECU27にて受信可能に出力する。舵角センサ26は、自車両の操舵角に対応する信号を発生して、物体検知ECU27にて受信可能に出力する。
The
物体検知ECU27は、複数の撮像部21の各々から、画像情報を受信する。また、物体検知ECU27は、複数のソナーセンサ22の各々から、測距情報を受信する。また、物体検知ECU27は、レーダーセンサ23、車速センサ24、シフトポジションセンサ25、および舵角センサ26からの出力信号を受信する。物体検知ECU27は、複数のソナーセンサ22の各々、複数の撮像部21の各々、車速センサ24、シフトポジションセンサ25、舵角センサ26、等から受信した信号および情報に基づいて、物体検知動作および駐車支援動作を実行する。
The
具体的には、画像情報取得部270は、自車両の周囲の撮影画像に対応する画像情報を、複数の撮像部21の各々から取得する。また、画像情報取得部270は、取得した画像情報を、時系列で不揮発性RAMに格納する。特徴点抽出部271は、画像情報取得部270にて取得した画像情報に基づいて、撮影画像における特徴点を抽出する。
Specifically, the image
視差画像取得部272は、視点の異なる複数の撮影画像に基づいて、視差画像を取得する。具体的には、視差画像取得部272は、視差画像取得部272は、同一の撮像部21により異なる時刻に撮像された複数の撮影画像に基づいて、移動ステレオあるいは単眼移動ステレオの手法により視差演算することで、視差画像を算出する。
The parallax
駐車スペース取得部273は、駐車スペースを取得する。具体的には、駐車スペース取得部273は、画像情報取得部270にて取得した画像情報に基づいて、駐車スペースを検出する。路面特徴点抽出部274は、物体Bを含む、自車両の周囲の撮影画像から、路面に属する特徴点である路面特徴点を抽出する。具体的には、路面特徴点抽出部274は、駐車スペースおよびその近傍領域に含まれる特徴点を、路面特徴点として抽出する。
The parking
基準高設定部275は、視差画像取得部272により取得された視差画像と、路面特徴点抽出部274により抽出された路面特徴点とに基づいて、路面特徴点に対応する高さ情報を基準高情報に設定する。具体的には、基準高設定部275は、路面特徴点の近傍に視差が存在する場合に、当該路面特徴点に対応する高さ情報を基準高情報に設定する。
Based on the parallax image acquired by the parallax
座標情報算出部276は、基準高設定部275により設定された基準高情報に基づいて、物体Bの三次元座標情報を算出する。具体的には、座標情報算出部276は、路面特徴点に対応する基準高情報と、視差画像とに基づいて、路面特徴点以外の特徴点の三次元位置を決定する。より詳細には、座標情報算出部276は、路面特徴点における路面からの高さ0mを高さの基準としつつ、移動ステレオあるいは単眼移動ステレオの手法を用いて、路面特徴点以外の特徴点の三次元位置を決定する。
The coordinate
測距情報取得部277は、複数のソナーセンサ22の各々から、物体Bに対応する測距情報を取得する。また、測距情報取得部277は、測距情報に基づいて、物体Bの自車両に対する相対位置情報を取得する。測距情報取得部277は、測距情報および相対位置情報の取得結果を、時系列で不揮発性RAMに格納する。障害物検知部278は、座標情報算出部276による三次元座標情報の算出結果と、測距情報取得部277にて取得した測距情報および相対位置情報とに基づいて、障害物を検知する。
The ranging
撮像部21における撮影姿勢は、自車両における、乗員の乗車状態、荷物積載状態、車高調整状態、等に応じて変化する。例えば、自車両が車高調整可能な構成を有していて、車高設定状態が標準状態から低車高状態または高車高状態に変更されている場合があり得る。すると、車高方向における、撮像部21と路面から突出する物体Bとの相対高さが変化する。
The photographing posture of the
具体的には、車高設定状態が低車高状態に変更された場合、撮像部21における視点が低下して路面に近づく。すると、撮像部21から見た物体Bの高さは、見かけ上、上昇する。自車両における車体11の後部の荷室に重量物が積載されることで、車体11の後部が沈み込む場合も同様である。一方、車高設定状態が高車高状態に変更された場合、撮像部21における視点が上昇して路面から遠ざかる。すると、撮像部21から見た物体Bの高さは、見かけ上、低下する。このように、撮像部21における視点が車高方向に変動した場合、撮影画像中の各特徴点における絶対高さ情報、すなわち、三次元座標情報における車高方向成分が変動する。
Specifically, when the vehicle height setting state is changed to the low vehicle height state, the viewpoint in the
しかしながら、本発明の発明者は、撮像部21における視点が車高方向に変動しても、撮影画像中の複数の検出点すなわち特徴点の間で、検出高さの相対的関係がほとんど変動しないことを見出した。すなわち、例えば、路面に設けられた白線と、路面から上方に突出する物体Bとが、同一画角内に存在する場合、白線上の特徴点と物体B上の特徴点との間の相対的な高さ関係は、視点変動にかかわらず、ほぼ不変である。また、物体B上の複数の特徴点間の相対的な高さ関係も、視点変動にかかわらず、ほぼ不変である。
However, the inventors of the present invention found that even if the viewpoint in the
そこで、物体検知ECU27は、物体Bを含む、自車両の周囲の撮影画像から、路面に属する特徴点である路面特徴点を抽出する。また、物体検知ECU27は、視差画像と抽出された路面特徴点とに基づいて、路面特徴点に対応する高さ情報を、路面からの高さ0mに対応する基準高情報に設定する。そして、物体検知ECU27は、かかる基準高情報に基づいて、物体Bの三次元座標情報を算出する。
Therefore, the
かかる構成によれば、撮像部21における視点変動に伴う、物体Bの三次元座標情報の算出誤差が、可及的に抑制され得る。したがって、自車両の周囲の物体Bの高さの誤判定が良好に回避され、物体Bの高さをより精度よく検知することが可能となる。
According to such a configuration, the calculation error of the three-dimensional coordinate information of the object B due to the viewpoint change in the
路面特徴点は、駐車スペースおよびその近傍領域にて抽出しやすい。具体的には、例えば、駐車スペースを画定するための路面上の白線、駐車スペースにおけるスペース番号等の路面標示、駐車スペース内に設置された輪留めの根元、等にて、路面特徴点が抽出されやすい。これらの路面特徴点は、駐車スペースの検出の際に利用される。 Road feature points are easy to extract in parking spaces and their neighboring areas. Specifically, for example, road surface feature points are extracted from white lines on the road surface for demarcating parking spaces, road surface markings such as space numbers in parking spaces, bases of wheel chocks installed in parking spaces, and the like. easy to be These road surface feature points are used in detecting parking spaces.
そこで、物体検知ECU27は、駐車スペースおよびその近傍領域に含まれる特徴点を、路面からの高さ0mに対応する基準高情報を設定するための路面特徴点として抽出する。これにより、路面特徴点の抽出処理が良好に行われ、物体Bの三次元座標情報の算出精度が向上する。また、路面特徴点の探索範囲が簡易に画定され、計算負荷が軽減する。
Therefore, the
例えば、駐車スペース内に輪留めが設置されている場合、輪留めの根元と上端との双方にて特徴点が抽出され得る。このように、駐車スペースおよびその近傍領域にて抽出した複数の特徴点にて、高さに分布が生じることがあり得る。 For example, if a wheel chock is installed in the parking space, feature points can be extracted at both the base and top of the chock. In this way, a distribution of heights may occur at a plurality of feature points extracted from the parking space and its neighboring area.
そこで、物体検知ECU27は、駐車スペースおよびその近傍領域に含まれる特徴点のうちの高さ情報が最小となるものに基づいて、基準高情報を設定する。これにより、路面特徴点の抽出精度が向上する。
Therefore, the
(動作例)
以下、本実施形態の構成による、上記の動作概要に対応する具体的な動作例について、図3に示したフローチャートを用いて説明する。なお、図面中において、「ステップ」を単に「S」と略記する。物体検知ECU27のCPUは、所定の起動条件成立中に、図3に示されたルーチンを、所定時間間隔で繰り返し起動する。
(Operation example)
A specific operation example corresponding to the above outline of operation according to the configuration of this embodiment will be described below with reference to the flowchart shown in FIG. In the drawings, "step" is simply abbreviated as "S". The CPU of the
かかるルーチンが起動されると、まず、ステップ311にて、CPUは、画像情報を取得する。ここで取得される画像情報は、例えば、自車両の後退中は、リアカメラCBによって取得された画像情報である。すなわち、自車両が後退中の場合、CPUは、リアカメラCBによる画像情報を取得する。 When this routine is activated, first, in step 311, the CPU acquires image information. The image information acquired here is, for example, image information acquired by the rear camera CB while the host vehicle is moving backward. That is, when the host vehicle is moving backward, the CPU acquires image information from the rear camera CB.
次に、ステップ312にて、CPUは、取得した画像情報に基づいて、特徴点を抽出する。続いて、ステップ313にて、CPUは、視差演算により視差画像を取得すなわち算出する。さらに、ステップ314にて、CPUは、駐車スペースを取得すなわち検出する。その後、CPUは、処理をステップ321に進行させる。 Next, at step 312, the CPU extracts feature points based on the acquired image information. Subsequently, at step 313, the CPU obtains or calculates a parallax image by parallax calculation. Additionally, at step 314, the CPU acquires or detects parking spaces. After that, the CPU advances the process to step 321 .
ステップ321にて、CPUは、ステップ312にて抽出された特徴点のうちから、駐車スペースおよびその近傍領域に含まれる特徴点を路面特徴点として抽出し、そのうちの1つを路面特徴点Pnとして選択する。nはN以下の自然数である。Nは、ステップ312にて抽出された特徴点のうちの、駐車スペースおよびその近傍領域に含まれるものの個数である。 At step 321, the CPU extracts, from the feature points extracted at step 312, the feature points included in the parking space and its neighboring area as road surface feature points, and one of them is set as the road surface feature point Pn. select. n is a natural number equal to or smaller than N; N is the number of feature points extracted in step 312 that are included in the parking space and its neighboring area.
次に、ステップ322にて、CPUは、今回選択した路面特徴点Pnの近傍に視差が存在するか否かを判定する。路面特徴点Pnの近傍に視差が存在する場合(すなわちステップ322=YES)、CPUは、処理をステップ323に進行させる。ステップ323にて、CPUは、今回選択した路面特徴点Pnの高さ情報を視差に基づいて算出するとともに、算出結果を基準高情報に設定する。一方、路面特徴点Pnの近傍に視差が存在しない場合(すなわちステップ322=NO)、CPUは、処理をステップ324に進行させる。ステップ324にて、CPUは、今回選択した路面特徴点Pnの高さ情報を基準高情報から除外する。 Next, at step 322, the CPU determines whether or not parallax exists in the vicinity of the road surface feature point Pn selected this time. If parallax exists in the vicinity of the road surface characteristic point Pn (that is, step 322 =YES), the CPU advances the process to step 323 . At step 323, the CPU calculates the height information of the road characteristic point Pn selected this time based on the parallax, and sets the calculation result as the reference height information. On the other hand, if there is no parallax in the vicinity of the road surface feature point Pn (that is, step 322 =NO), the CPU advances the process to step 324 . At step 324, the CPU excludes the height information of the road characteristic point Pn selected this time from the reference height information.
ステップ323またはステップ324の処理を実行後、CPUは、処理をステップ325に進行させる。ステップ325にて、CPUは、路面特徴点Pnの選択が終了したか否か、すなわち、今回の路面特徴点Pnの選択がN回目であるか否かを判定する。 After executing the process of step 323 or step 324 , the CPU advances the process to step 325 . At step 325, the CPU determines whether or not the selection of the road surface characteristic point Pn has ended, that is, whether or not the current selection of the road surface characteristic point Pn is the Nth time.
路面特徴点Pnの選択が終了した場合(すなわちステップ325=YES)、CPUは、処理をステップ330~ステップ332に進行させる。一方、路面特徴点Pnの選択が終了していない場合(すなわちステップ325=NO)、CPUは、処理をステップ321に戻す。 When the selection of the road surface characteristic point Pn is completed (that is, step 325=YES), the CPU advances the process to steps 330-332. On the other hand, if the selection of road surface characteristic points Pn has not ended (that is, step 325 =NO), the CPU returns the process to step 321 .
CPUは、ステップ330~ステップ332の処理を順に実行した後、本ルーチンを終了する。ステップ330にて、CPUは、最低高特徴点を抽出する。最低高特徴点は、基準高情報に設定した路面特徴点Pnのうちの、高さ情報が最小となるものである。ステップ331にて、CPUは、抽出した最低高特徴点に基づいて、基準高マップを設定する。基準高マップは、視差画像における、路面高さに対応する高さマップである。ステップ332にて、CPUは、基準高マップに基づいて、路面特徴点以外の各特徴点に対応する三次元座標情報を演算する。 The CPU ends this routine after sequentially executing the processing of steps 330 to 332 . At step 330, the CPU extracts the lowest high feature point. The lowest height feature point is the road feature point Pn set in the reference height information that has the lowest height information. At step 331, the CPU sets a reference height map based on the extracted minimum height feature point. The reference height map is a height map corresponding to the road surface height in the parallax image. At step 332, the CPU calculates three-dimensional coordinate information corresponding to each feature point other than the road surface feature point based on the reference height map.
(変形例)
本発明は、上記実施形態に限定されるものではない。故に、上記実施形態に対しては、適宜変更が可能である。以下、代表的な変形例について説明する。以下の変形例の説明においては、上記実施形態との相違点を主として説明する。また、上記実施形態と変形例とにおいて、相互に同一または均等である部分には、同一符号が付されている。したがって、以下の変形例の説明において、上記実施形態と同一の符号を有する構成要素に関しては、技術的矛盾または特段の追加説明なき限り、上記実施形態における説明が適宜援用され得る。
(Modification)
The present invention is not limited to the above embodiments. Therefore, the above embodiment can be modified as appropriate. A representative modified example will be described below. In the following description of the modified example, differences from the above embodiment will be mainly described. Moreover, in the above-described embodiment and modifications, the same or equivalent portions are denoted by the same reference numerals. Therefore, in the description of the modification below, the description in the above embodiment can be used as appropriate for components having the same reference numerals as those in the above embodiment, unless there is a technical contradiction or special additional description.
本発明は、上記実施形態にて示された具体的な装置構成に限定されない。すなわち、例えば、物体検知装置20を搭載する車両10は、四輪自動車に限定されない。具体的には、車両10は、三輪自動車であってもよいし、貨物トラック等の六輪または八輪自動車でもよい。車両10の種類は、内燃機関のみを備えた自動車であってもよいし、内燃機関を備えない電気自動車または燃料電池車であってもよいし、いわゆるハイブリッド自動車であってもよい。車体11の形状および構造も、箱状すなわち平面視における略矩形状に限定されない。ドアパネル17の数も、特段の限定はない。
The present invention is not limited to the specific device configurations shown in the above embodiments. That is, for example, the
物体検知装置20の適用対象についても、特段の限定はない。すなわち、例えば、物体検知装置20は、駐車支援装置に限定されない。具体的には、例えば、物体検知装置20は、自動運転の定義におけるレベル2~レベル5に相当する、半自動運転あるいは自動運転に対しても、好適に適用可能である。
There is also no particular limitation on the application target of the
撮像部21の配置および個数は、上記の例に限定されない。すなわち、例えば、フロントカメラCFは、車室外に配置され得る。具体的には、例えば、フロントカメラCFは、車体11の前面部12に装着され得る。フロントカメラCFは、一個であってもよいし、二個であってもよい。すなわち、物体検知装置20は、複眼ステレオカメラ構成を有していてもよい。例えば、左側カメラCLおよび右側カメラCRは、ドアミラー18とは異なる位置に配置され得る。あるいは、左側カメラCLおよび右側カメラCRは、省略され得る。
The arrangement and number of
ソナーセンサ22の配置および個数は、上記の具体例に限定されない。すなわち、例えば、図1を参照すると、第三フロントソナーSF3が車幅方向における中央位置に配置される場合、第四フロントソナーSF4は省略される。同様に、第三リアソナーSR3が車幅方向における中央位置に配置される場合、第四リアソナーSR4は省略される。第三サイドソナーSS3および第四サイドソナーSS4は、省略され得る。
The arrangement and number of
物体検知装置20に用いられる各種センサ類は、車速センサ24、シフトポジションセンサ25、舵角センサ26、等に限定されない。すなわち、例えば、車速センサ24、シフトポジションセンサ25、および舵角センサ26のうちの少なくとも1つは、省略されたり、他のセンサに代替されたりしてもよい。
Various sensors used in the
物体検知ECU27は、上記実施形態における物体検知装置20の主要部を構成する。このため、撮像部21、ソナーセンサ22、レーダーセンサ23、車速センサ24、シフトポジションセンサ25、舵角センサ26、表示部28、および音声出力部29は、物体検知装置20の構成要素ではなく、物体検知装置20の付随的要素であるものと把握され得る。あるいは、撮像部21およびソナーセンサ22は、それぞれ、画像情報取得部270および測距情報取得部277を構成するものとして、物体検知装置20の構成要素としても把握され得る。
The
上記実施形態においては、物体検知ECU27は、CPUがROM等からプログラムを読み出して起動する構成であった。しかしながら、本発明は、かかる構成に限定されない。すなわち、例えば、物体検知ECU27は、上記のような動作を可能に構成されたデジタル回路、例えばASICあるいはFPGAを備えた構成であってもよい。ASICはApplication Specific Integrated Circuitの略である。FPGAはField Programmable Gate Arrayの略である。
In the above-described embodiment, the
本発明は、上記実施形態にて示された具体的な機能構成および動作例に限定されない。例えば、駐車スペース取得部273は、ソナーセンサ22等を用いて駐車スペースを検出してもよい。
The present invention is not limited to the specific functional configurations and operation examples shown in the above embodiments. For example, the parking
上記の通り、物体検知ECU27は、駐車支援機能を奏する構成に限定されない。すなわち、例えば、物体検知ECU27は、自動運転機能を奏する構成であってもよい。この場合、駐車スペース取得部273は、物体検知ECU27とは異なる駐車支援ECUにより検出した駐車スペースを、駐車支援ECUから取得してもよい。
As described above, the
路面特徴点に関して、エピポーラ線に沿って同一パターンのエッジが連続する場合、視差が取得され難い。そこで、路面特徴点抽出部274は、エッジ方向のエピポーラ線との平行度が所定以下である路面特徴点に基づいて、基準高情報を設定してもよい。図4は、かかる変形例に対応するフローチャートの一部を示す。すなわち、図4に示されたステップ421~ステップ427は、図3に示されたステップ321~ステップ325に代替される。
With respect to road surface feature points, it is difficult to obtain parallax when edges of the same pattern are continuous along the epipolar line. Therefore, the road surface characteristic
具体的には、図3におけるステップ314の処理を実行後、CPUは、処理をステップ421に進行させる。ステップ421の処理内容は、図3におけるステップ321の処理内容と同一である。すなわち、ステップ421にて、CPUは、路面特徴点Pnを選択する。 Specifically, after executing the process of step 314 in FIG. 3, the CPU advances the process to step 421 . The processing contents of step 421 are the same as the processing contents of step 321 in FIG. That is, at step 421, the CPU selects a road surface characteristic point Pn.
次に、ステップ422にて、CPUは、今回選択した路面特徴点Pnにおけるエッジ方向を検出する。エッジ方向の検出方法については、本願の出願時において、すでに公知あるいは周知となっている。したがって、本明細書においては、エッジ方向の検出方法の詳細については、説明を省略する。 Next, at step 422, the CPU detects the edge direction at the road characteristic point Pn selected this time. A method for detecting the edge direction is already publicly known or known at the time of filing of the present application. Therefore, in this specification, the detailed description of the edge direction detection method is omitted.
続いて、ステップ423にて、CPUは、ステップ422にて検出したエッジ方向の、エピポーラ線との平行度が、所定以下であるか否かを判定する。平行度が所定以下である場合(すなわちステップ423=YES)、CPUは、処理をステップ424に進行させる。ステップ424にて、CPUは、今回選択した路面特徴点Pnの近傍に視差が存在するか否かを判定する。CPUは、ステップ424における判定結果に応じて、ステップ425またはステップ426の処理を実行した後、処理をステップ427に進行させる。すなわち、ステップ424~ステップ427の処理内容は、図3におけるステップ322~ステップ325の処理内容と同一である。 Subsequently, at step 423, the CPU determines whether or not the parallelism of the edge direction detected at step 422 with the epipolar line is equal to or less than a predetermined value. If the parallelism is equal to or less than the predetermined value (that is, step 423 =YES), the CPU advances the process to step 424 . At step 424, the CPU determines whether or not parallax exists in the vicinity of the road surface characteristic point Pn selected this time. The CPU advances the process to step 427 after executing the process of step 425 or step 426 according to the determination result of step 424 . That is, the processing contents of steps 424 to 427 are the same as the processing contents of steps 322 to 325 in FIG.
具体的には、路面特徴点Pnの近傍に視差が存在する場合(すなわちステップ424=YES)、CPUは、処理をステップ425に進行させる。ステップ425にて、CPUは、今回選択した路面特徴点Pnの高さ情報を視差に基づいて算出するとともに、算出結果を基準高情報に設定する。一方、路面特徴点Pnの近傍に視差が存在しない場合(すなわちステップ424=NO)、CPUは、処理をステップ426に進行させる。ステップ426にて、CPUは、今回選択した路面特徴点Pnの高さ情報を基準高情報から除外する。 Specifically, when parallax exists in the vicinity of the road surface characteristic point Pn (that is, step 424 =YES), the CPU advances the process to step 425 . At step 425, the CPU calculates the height information of the road characteristic point Pn selected this time based on the parallax, and sets the calculation result as the reference height information. On the other hand, if there is no parallax in the vicinity of the road surface feature point Pn (that is, step 424 =NO), the CPU advances the process to step 426 . At step 426, the CPU excludes the height information of the road characteristic point Pn selected this time from the reference height information.
平行度が所定以上である場合(すなわちステップ423=NO)、CPUは、処理をステップ426に進行させる。ステップ426にて、CPUは、今回選択した路面特徴点Pnの高さ情報を基準高情報から除外する。 If the degree of parallelism is greater than or equal to the predetermined value (that is, step 423 =NO), the CPU advances the process to step 426 . At step 426, the CPU excludes the height information of the road characteristic point Pn selected this time from the reference height information.
ステップ427にて、CPUは、路面特徴点Pnの選択が終了したか否かを判定する。路面特徴点Pnの選択が終了した場合(すなわちステップ427=YES)、CPUは、処理を図3に示されたステップ330~ステップ332に進行させる。一方、路面特徴点Pnの選択が終了していない場合(すなわちステップ427=NO)、CPUは、処理をステップ421に戻す。 At step 427, the CPU determines whether or not the selection of the road surface characteristic points Pn has been completed. When the selection of road surface characteristic points Pn is completed (ie, step 427=YES), the CPU advances the process to steps 330 to 332 shown in FIG. On the other hand, if the selection of road surface characteristic points Pn has not ended (that is, step 427 =NO), the CPU returns the process to step 421 .
撮像部21における視点変動が、車高設定状態の変更とは異なる原因、すなわち、乗員の乗車状態および/または荷物積載状態により生じる場合があり得る。具体的には、例えば、自車両における車体11の後部の荷室に重量物が積載されることで、車体11の後部が沈み込む。
The viewpoint change in the
このような場合、撮像部21における視点変動は、単なる視点の上下動のみならず、俯瞰角すなわち撮影角度の変動をも伴う。俯瞰角は、撮像部21から物体Bを見下ろす角度であり、物体Bから撮像部21を見上げる仰角と同一である。すると、視点変動による、物体B上の検出点における三次元座標情報の変動は、車高方向のみならず並進方向についても発生する。
In such a case, the viewpoint change in the
そこで、図5に示されているように、物体検知ECU27は、ソナーセンサ22による検出結果である測距情報に基づいて三次元座標情報を補正する座標情報補正部279をさらに備えている。具体的には、座標情報補正部279は、画像情報に基づいて算出された三次元座標情報に基づいて推定される撮像部21と物体Bとの距離と、ソナーセンサ22により取得されたソナーセンサ22と物体Bとの距離との差が所定値以内である場合、距離情報を用いて三次元座標情報を補正する。これにより、障害物の高さおよび位置を高精度に検出することが可能となる。
Therefore, as shown in FIG. 5 , the
図6は、かかる変形例に対応するフローチャートの一部を示す。すなわち、図6に示されたステップ631~ステップ635は、図3に示されたステップ331~ステップ332に代替される。 FIG. 6 shows part of a flow chart corresponding to such a modification. That is, steps 631 to 635 shown in FIG. 6 are replaced with steps 331 to 332 shown in FIG.
具体的には、図3におけるステップ330の処理を実行後、CPUは、処理をステップ631およびステップ632に進行させる。ステップ631およびステップ632の処理内容は、図3におけるステップ331およびステップ332の処理内容と同一である。 Specifically, after executing the process of step 330 in FIG. 3, the CPU advances the process to steps 631 and 632 . The processing contents of steps 631 and 632 are the same as the processing contents of steps 331 and 332 in FIG.
すなわち、ステップ631にて、CPUは、抽出した最低高特徴点に基づいて、基準高マップを設定する。また、ステップ632にて、CPUは、基準高マップに基づいて、路面特徴点以外の各特徴点に対応する三次元座標情報を演算する。その後、CPUは、ステップ633およびステップ634の処理を実行する。 That is, at step 631, the CPU sets a reference height map based on the extracted minimum height feature point. Also, at step 632, the CPU calculates three-dimensional coordinate information corresponding to each feature point other than the road surface feature point based on the reference height map. After that, the CPU executes the processing of steps 633 and 634 .
ステップ633にて、CPUは、測距情報を取得する。ステップ634にて、CPUは、測距情報に基づく三角測量により相対位置情報が取得された測量点の近傍に、画像情報に基づいて算出された三次元座標が存在するか否かを判定する。 At step 633, the CPU acquires distance measurement information. At step 634, the CPU determines whether or not the three-dimensional coordinates calculated based on the image information exist in the vicinity of the survey point whose relative position information was obtained by triangulation based on the distance measurement information.
測量点の近傍に三次元座標が存在する場合(すなわちステップ634=YES)、CPUは、ステップ635の処理を実行した後、本ルーチンを終了する。ステップ635にて、CPUは、測量点に対応する相対位置情報すなわち測距情報に基づいて、三次元座標情報を補正する。一方、測量点の近傍に三次元座標が存在しない場合(すなわちステップ634=NO)、CPUは、ステップ635の処理をスキップして、本ルーチンを終了する。 If the three-dimensional coordinates exist near the survey point (that is, step 634=YES), the CPU executes the process of step 635 and then terminates this routine. At step 635, the CPU corrects the three-dimensional coordinate information based on the relative position information corresponding to the survey point, that is, the distance measurement information. On the other hand, if the three-dimensional coordinates do not exist near the survey point (that is, step 634=NO), the CPU skips the processing of step 635 and ends this routine.
路面特徴点抽出部274は、特徴点抽出部271における一機能として設けられていてもよい。すなわち、図2および図5に示された機能ブロック構成において、路面特徴点抽出部274は、特徴点抽出部271に統合され得る。
The road surface feature
路面特徴点抽出部274は、駐車スペース以外の所定の抽出条件に基づいて路面特徴点を抽出するようになっていてもよい。所定の抽出条件としては、例えば、画角中の位置情報、テキスチャ情報、視差情報、算出高さ情報、エッジ方向、等が用いられ得る。この場合、駐車スペース取得部273は、省略され得る。
The road surface characteristic
座標情報算出部276における処理内容は、単眼移動ステレオに限定されない。具体的には、例えば、複眼ステレオ処理、またはSFMと複眼ステレオとの統合処理が用いられ得る。複眼ステレオ処理、またはSFMと複眼ステレオとの統合処理については、本願の出願時において、すでに公知または周知となっている。したがって、本明細書においては、複眼ステレオ処理、および、SFMと複眼ステレオとの統合処理についての詳細については、説明を省略する。
The processing content in the coordinate
測距情報取得部277は、ソナーセンサ22の出力に代えて、あるいはこれとともに、レーダーセンサ23の出力に基づいて、測距情報を取得してもよい。すなわち、探査波として、超音波または電磁波が用いられ得る。また、測距点として、レーダーセンサ23により取得された反射点が用いられ得る。この場合、反射点に関する相対位置情報は、ソナーセンサ22により取得された測距点の代替として用いられ得る。あるいは、反射点に関する相対位置情報は、ソナーセンサ22により取得された測距点の補正要素として用いられ得る。
The ranging
上記の具体例においては、リアカメラCBによる撮影画像を用いた物体Bの検知動作について説明した。しかしながら、本発明は、かかる態様に限定されない。すなわち、例えば、本発明は、フロントカメラCFによる撮影画像を用いた物体Bの検知動作に対しても、好適に適用され得る。同様に、本発明は、左側カメラCLおよび右側カメラCRによる撮影画像を用いた物体Bの検知動作に対しても、好適に適用され得る。 In the above specific example, the operation of detecting the object B using the image captured by the rear camera CB has been described. However, the invention is not limited to such aspects. That is, for example, the present invention can be suitably applied to the operation of detecting an object B using an image captured by the front camera CF. Similarly, the present invention can also be suitably applied to the operation of detecting an object B using images captured by the left camera CL and the right camera CR.
「取得」という表現と、「推定」「検出」「検知」「算出」等の類似の表現とは、技術的に矛盾しない範囲内において、適宜置換可能である。「検出」と「抽出」とも、技術的に矛盾しない範囲内において、適宜置換可能である。各判定処理における不等号は、等号付きであってもよいし、等号無しであってもよい。すなわち、例えば、「所定値未満」と「所定値以下」とは、技術的に矛盾しない範囲内において、互いに置換され得る。 The expression "acquire" and similar expressions such as "estimation", "detection", "detection", and "calculation" can be appropriately replaced within a technically consistent range. Both "detection" and "extraction" can be interchanged as long as they are not technically inconsistent. The inequality sign in each determination process may or may not have an equal sign. That is, for example, "less than a predetermined value" and "not more than a predetermined value" can be interchanged within a technically consistent range.
上記実施形態を構成する要素は、特に必須であると明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。また、構成要素の個数、数値、量、範囲等の数値が言及されている場合、特に必須であると明示した場合および原理的に明らかに特定の数に限定される場合等を除き、その特定の数に本発明が限定されることはない。同様に、構成要素等の形状、方向、位置関係等が言及されている場合、特に必須であると明示した場合および原理的に特定の形状、方向、位置関係等に限定される場合等を除き、その形状、方向、位置関係等に本発明が限定されることはない。 Needless to say, the elements constituting the above-described embodiments are not necessarily essential, unless explicitly stated as essential or clearly considered essential in principle. In addition, when numerical values such as the number, numerical value, amount, range, etc. of a constituent element are mentioned, unless it is explicitly stated that it is particularly essential or when it is clearly limited to a specific number in principle, The present invention is not limited to the number of . Similarly, when the shape, direction, positional relationship, etc. of the constituent elements, etc. are mentioned, unless it is explicitly stated that it is particularly essential, or when it is limited to a specific shape, direction, positional relationship, etc. in principle , the shape, direction, positional relationship, etc., of which the present invention is not limited.
上記の各機能構成および方法は、コンピュータプログラムにより具体化された一つあるいは複数の機能を実行するようにプログラムされたプロセッサおよびメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、上記の各機能構成および方法は、一つ以上の専用ハードウエア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、上記の各機能構成および方法は、一つあるいは複数の機能を実行するようにプログラムされたプロセッサおよびメモリと一つ以上のハードウエア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移的実体的記憶媒体に記憶されていてもよい。すなわち、本発明に係る装置あるいは方法は、上記の各機能あるいは方法を実現するための手順を含むコンピュータプログラム、あるいは、当該プログラムを記憶した非遷移的実体的記憶媒体としても表現可能である。 Each functional arrangement and method described above may be implemented by a dedicated computer provided by configuring a processor and memory programmed to perform one or more functions embodied by a computer program. . Alternatively, each functional configuration and method described above may be implemented by a dedicated computer provided by configuring a processor with one or more dedicated hardware logic circuits. Alternatively, each of the functional configurations and methods described above is one configured by a combination of a processor and memory programmed to perform one or more functions and a processor configured by one or more hardware logic circuits. It may be implemented by one or more dedicated computers. The computer program may also be stored in a computer-readable non-transitional tangible storage medium as instructions executed by a computer. That is, the device or method according to the present invention can be expressed as a computer program including procedures for realizing each function or method described above, or as a non-transitional material storage medium storing the program.
変形例も、上記の例示に限定されない。また、複数の変形例が、互いに組み合わされ得る。さらに、上記実施形態の全部または一部と、変形例の全部または一部とが、互いに組み合わされ得る。 Modifications are also not limited to the above examples. Also, multiple variants can be combined with each other. Furthermore, all or part of the above embodiments and all or part of the modifications may be combined with each other.
10 車両
20 物体検知装置
22 ソナーセンサ
272 視差画像取得部
273 駐車スペース取得部
274 路面特徴点抽出部
275 基準高設定部
276 座標情報算出部
278 測距情報取得部
279 座標情報補正部
10
Claims (4)
前記物体を含む前記自車両の周囲の撮影画像から、路面に属する特徴点である路面特徴点を抽出する、路面特徴点抽出部(274)と、
視点の異なる複数の前記撮影画像に基づく視差画像を取得する、視差画像取得部(272)と、
前記視差画像と、前記路面特徴点抽出部により抽出された前記路面特徴点とに基づいて、当該路面特徴点に対応する高さ情報を基準高情報に設定する、基準高設定部(275)と、
前記基準高設定部により設定された前記基準高情報に基づいて、前記物体の三次元座標情報を算出する、座標情報算出部(276)と、
を備え、
前記路面特徴点抽出部は、エッジ方向とエピポーラ線との平行度が所定以下となる前記路面特徴点に基づいて、前記基準高情報を設定する、
物体検知装置。 An object detection device (20) configured to detect an object (B) existing around the own vehicle (10) by being mounted on the own vehicle (10),
a road surface feature point extracting unit (274) for extracting road surface feature points, which are feature points belonging to a road surface, from a photographed image of the surroundings of the own vehicle including the object;
a parallax image acquisition unit (272) for acquiring parallax images based on the plurality of captured images from different viewpoints;
a reference height setting unit (275) for setting, as reference height information, height information corresponding to the road surface characteristic points based on the parallax image and the road surface characteristic points extracted by the road surface characteristic point extraction unit; ,
a coordinate information calculation unit (276) for calculating three-dimensional coordinate information of the object based on the reference height information set by the reference height setting unit;
with
The road surface feature point extraction unit sets the reference height information based on the road surface feature points at which parallelism between the edge direction and the epipolar line is a predetermined value or less.
Object detection device.
前記測距情報に基づいて前記三次元座標情報を補正する、座標情報補正部(279)と、
をさらに備えた、
請求項1に記載の物体検知装置。 a ranging information acquisition unit (277) that acquires ranging information that is a result of detection by a ranging sensor (22) that detects the distance to the object;
a coordinate information correction unit (279) that corrects the three-dimensional coordinate information based on the ranging information;
further comprising
The object detection device according to claim 1 .
前記路面特徴点抽出部は、前記駐車スペースに基づいて、前記路面特徴点を抽出する、
請求項1または2に記載の物体検知装置。 further comprising a parking space acquisition unit (273) that acquires the detection result of the parking space used for parking assistance,
The road surface feature point extraction unit extracts the road surface feature points based on the parking space.
The object detection device according to claim 1 or 2 .
請求項3に記載の物体検知装置。 The reference height setting unit sets the reference height information based on the characteristic point having the minimum height information among the feature points included in the parking space and its neighboring area.
The object detection device according to claim 3 .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019128690A JP7318377B2 (en) | 2019-07-10 | 2019-07-10 | Object detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019128690A JP7318377B2 (en) | 2019-07-10 | 2019-07-10 | Object detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021015373A JP2021015373A (en) | 2021-02-12 |
JP7318377B2 true JP7318377B2 (en) | 2023-08-01 |
Family
ID=74531436
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019128690A Active JP7318377B2 (en) | 2019-07-10 | 2019-07-10 | Object detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7318377B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009041972A (en) | 2007-08-07 | 2009-02-26 | Toshiba Corp | Image processing device and method therefor |
JP2010232723A (en) | 2009-03-25 | 2010-10-14 | Nippon Soken Inc | Vehicle periphery display device |
JP2014029604A (en) | 2012-07-31 | 2014-02-13 | Denso It Laboratory Inc | Moving object recognition system, moving object recognition program, and moving object recognition method |
JP2016061687A (en) | 2014-09-18 | 2016-04-25 | ファナック株式会社 | Contour line measurement device and robot system |
JP2019089476A (en) | 2017-11-15 | 2019-06-13 | アイシン・エィ・ダブリュ株式会社 | Parking support device and computer program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10143659A (en) * | 1996-11-06 | 1998-05-29 | Komatsu Ltd | Object detector |
-
2019
- 2019-07-10 JP JP2019128690A patent/JP7318377B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009041972A (en) | 2007-08-07 | 2009-02-26 | Toshiba Corp | Image processing device and method therefor |
JP2010232723A (en) | 2009-03-25 | 2010-10-14 | Nippon Soken Inc | Vehicle periphery display device |
JP2014029604A (en) | 2012-07-31 | 2014-02-13 | Denso It Laboratory Inc | Moving object recognition system, moving object recognition program, and moving object recognition method |
JP2016061687A (en) | 2014-09-18 | 2016-04-25 | ファナック株式会社 | Contour line measurement device and robot system |
JP2019089476A (en) | 2017-11-15 | 2019-06-13 | アイシン・エィ・ダブリュ株式会社 | Parking support device and computer program |
Also Published As
Publication number | Publication date |
---|---|
JP2021015373A (en) | 2021-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110573905B (en) | Obstacle detection device | |
US9151626B1 (en) | Vehicle position estimation system | |
WO2015098344A1 (en) | Mining work machine | |
EP3082068A1 (en) | Traveling road surface detection device and traveling road surface detection method | |
US20210097858A1 (en) | Off road route selection and presentation in a drive assistance system equipped vehicle | |
US20160307026A1 (en) | Stereoscopic object detection device and stereoscopic object detection method | |
JP2011065219A (en) | Device for estimation of road curvature | |
EP3633619B1 (en) | Position detection apparatus and position detection method | |
JP6778620B2 (en) | Road marking device, road marking system, and road marking method | |
CN110807347B (en) | Obstacle detection method, obstacle detection device and terminal | |
KR101190789B1 (en) | Apparatus and method for measurementing distance of vehicle | |
JP2009186301A (en) | Object detection device for vehicle | |
KR101734726B1 (en) | Method of tracking parking space and apparatus performing the same | |
US20230109473A1 (en) | Vehicle, electronic apparatus, and control method thereof | |
JP7318377B2 (en) | Object detection device | |
JP7135579B2 (en) | Object detection device | |
KR102003387B1 (en) | Method for detecting and locating traffic participants using bird's-eye view image, computer-readerble recording medium storing traffic participants detecting and locating program | |
WO2019151156A1 (en) | Object detection device and parking assistance device | |
CN110462706B (en) | Obstacle detection device | |
JP4768499B2 (en) | In-vehicle peripheral other vehicle detection device | |
JP6958485B2 (en) | Object detection device | |
JP6824759B2 (en) | Bound line detection device, lane marking system, and lane marking method | |
JP7409240B2 (en) | Obstacle detection device and obstacle detection method | |
JP7334572B2 (en) | Object detection device and object detection program | |
JP7236556B2 (en) | Object detection device and object detection program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211215 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230321 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230620 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230703 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7318377 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |