JP6967846B2 - Object detection method and object detection device - Google Patents
Object detection method and object detection device Download PDFInfo
- Publication number
- JP6967846B2 JP6967846B2 JP2016189263A JP2016189263A JP6967846B2 JP 6967846 B2 JP6967846 B2 JP 6967846B2 JP 2016189263 A JP2016189263 A JP 2016189263A JP 2016189263 A JP2016189263 A JP 2016189263A JP 6967846 B2 JP6967846 B2 JP 6967846B2
- Authority
- JP
- Japan
- Prior art keywords
- light receiving
- sensor
- detection
- light
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
Description
本発明は、物体の検出方法、物体検出装置に関する。 The present invention relates to an object detection method and an object detection device.
パルス状のレーザ光を所定頻度で発光し、受光素子の受光信号をサンプリングし、所定の検出期間内にサンプリングされた受光信号の積算値に基づいて物体を検出する技術が知られている(特許文献1)。 A technique is known in which a pulsed laser beam is emitted at a predetermined frequency, a light receiving signal of a light receiving element is sampled, and an object is detected based on an integrated value of the light receiving signals sampled within a predetermined detection period (patented). Document 1).
従来の技術では、広角レンズを介して受光する、複数のセンサの測定結果を用いて物体を検出する場合の検出精度について検討がされていない。 In the conventional technique, the detection accuracy in the case of detecting an object by using the measurement results of a plurality of sensors that receive light through a wide-angle lens has not been studied.
本発明が解決しようとする課題は、広角レンズを介して受光する、複数のセンサの測定結果を用いて物体を検出する場合の検出精度を向上させることである。 An object to be solved by the present invention is to improve the detection accuracy when an object is detected by using the measurement results of a plurality of sensors that receive light through a wide-angle lens.
本発明は、第1センサに設定された第1検出領域に存在する物体からの反射光を、第1広角レンズを介して、第1検出領域に対する画角の中央に設定された第1基準軸に対して垂直に交わる第1受光面にアレイ状に設けられた第1受光素子を用いて受光し、第1受光面に平行な第1座標に基づく第1受光素子のアドレス情報が付された第1受光信号を第1センサから検出結果として取得し、第1基準軸に対して仰俯角及び/又は方位角が小さいほど大きい正の値が第1座標に対応づけられた第1評価係数を算出し、前記算出された前記第1評価係数を参照し、検出結果として取得した、第1受光信号の第1座標を、第1検出領域の第1座標に対応づけられた第1評価係数に基づいて変換し、第2センサに設定された第2検出領域に存在する物体からの反射光を、第2広角レンズを介して、第2検出領域に対する画角の中央に設定された第2基準軸に対して垂直に交わる第2受光面にアレイ状に設けられた第2受光素子を用いて受光し、第2受光面に平行な第2座標に基づく第2受光素子のアドレス情報が付された第2受光信号を第2センサから検出結果として取得し、第2基準軸に対して仰俯角及び/又は方位角が小さいほど大きい正の値が第2座標に対応づけられた第2評価係数を算出し、前記算出された前記第2評価係数を参照し、検出結果として取得した、第2受光信号の第2座標を、第2検出領域の第2座標に対応づけられた第2評価係数に基づいて変換し、変換された第1座標と変換された第2座標とを合成し、最終的な検出結果である物体の座標を検出することにより、上記課題を解決する。 In the present invention, the reflected light from an object existing in the first detection region set in the first sensor is set to the center of the azimuth with respect to the first detection region via the first wide-angle lens. Light is received by using the first light receiving element provided in an array on the first light receiving surface that intersects perpendicularly to the first light receiving surface, and the address information of the first light receiving element based on the first coordinate parallel to the first light receiving surface is attached. The first light receiving signal is acquired from the first sensor as a detection result, and the first evaluation coefficient in which the larger positive value is associated with the first coordinate as the elevation / depression angle and / or the azimuth is smaller with respect to the first reference axis is obtained. The first coordinate of the first light receiving signal calculated and obtained with reference to the calculated first evaluation coefficient as a detection result is used as the first evaluation coefficient associated with the first coordinate of the first detection region. Based on the above, the reflected light from the object existing in the second detection region set in the second sensor is set to the center of the azimuth with respect to the second detection region via the second wide-angle lens. Light is received using a second light receiving element provided in an array on the second light receiving surface that intersects perpendicularly to the axis, and the address information of the second light receiving element based on the second coordinates parallel to the second light receiving surface is attached. The second light receiving signal is acquired from the second sensor as a detection result, and the smaller the elevation / depression angle and / or the azimuth with respect to the second reference axis, the larger the positive value is associated with the second coordinate. Is calculated, the calculated second evaluation coefficient is referred to, and the second coordinate of the second light receiving signal acquired as the detection result is associated with the second coordinate of the second detection region. The above problem is solved by converting based on the above, synthesizing the converted first coordinate and the converted second coordinate, and detecting the coordinate of the object which is the final detection result.
本発明によれば、広角レンズを介して受光する、複数のセンサを用いた場合の物体検出の精度を向上させることができる。 According to the present invention, it is possible to improve the accuracy of object detection when a plurality of sensors that receive light through a wide-angle lens are used.
以下、本発明の実施形態を図面に基づいて説明する。本実施形態では、本発明に係る物体検出装置を、車両に搭載された運転支援システムに適用した場合を例にして説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the present embodiment, the case where the object detection device according to the present invention is applied to a driving support system mounted on a vehicle will be described as an example.
図1は、運転支援システム1のブロック構成を示す図である。本実施形態の運転支援システム1は、物体検出装置100と車載装置200を備える。物体検出装置100の実施の形態は限定されず、車両に搭載して車載装置200と一体として構成してもよいし、これらと情報の授受が可能な可搬の端末装置として独立の機器として構成してもよい。端末装置は、スマートフォン、PDAなどの機器を含む。運転支援システム1、物体検出装置100、車載装置200及びこれらが備える各装置は、CPUなどの演算処理装置を備え、演算処理を実行するコンピュータである。
FIG. 1 is a diagram showing a block configuration of the driving support system 1. The driving support system 1 of the present embodiment includes an
本実施形態の物体検出装置100について説明する。
物体検出装置100は、所定の検出領域に存在する物体からの反射光を、広角レンズを介して受光する。物体検出装置100は、複数のセンサ10(10a,10b…)を備える。説明を簡潔にするために、図1には、二つのセンサ10a,10bを備える物体検出装置100を例示した。複数のセンサに含まれる一つのセンサを第1センサ10aとし、第1センサ10a以外のセンサを第2センサ10bとする。第1センサ10aは、第1広角レンズ11aと、第1受光部12aと、第1通信部13aを備える。同様に、第2センサ10bは、第2広角レンズ11bと、第2受光部12bと、第2通信部13bとを備える。
The
The
図2は、車両V1の搭載された第1センサ10a、第2センサ10b、第3センサ10c、第4センサ10d、第5センサ10eの配置例を示す。第1センサ10aは、車両V1の進行方向前方の検出領域SP1に存在する物体を検出する。第2センサ10bは、車両V1の進行方向左側の検出領域SP2に存在する物体を検出する。第3センサ10cは、車両V1の進行方向とは逆の後方の検出領域SP3に存在する物体を検出する。第4センサ10dは、車両V1の進行方向右側の検出領域SP4に存在する物体を検出する。また、必要に応じて車両V1のルーフ近傍に第5センサ10eを設けてもよい。同じ方向を異なる高さのセンサ10により監視できる。また、本例では車両V1の左右側方に第2センサ10b、第4センサ10dを一つずつ設ける例を示したが、車両V1の右側/左側に複数のセンサ10を設けてもよい。検出精度を向上させる観点から、各検出領域SP1〜SP4(SPn)は、隣り合う検出領域の一部が重複するように設定することが好ましい。
FIG. 2 shows an arrangement example of the
図2に示すように、複数のセンサ10は、それらの検出領域が一部重複するように配置される。車両の周囲を万遍なく監視し、車両の周囲の物体を検出するためである。このため、検出領域の重複部分に物体が存在する場合には、複数のセンサ10が同一の物体を検出することがある。 As shown in FIG. 2, the plurality of sensors 10 are arranged so that their detection regions partially overlap. This is to monitor the surroundings of the vehicle evenly and detect objects around the vehicle. Therefore, when an object exists in the overlapping portion of the detection area, a plurality of sensors 10 may detect the same object.
図示はしないが、物体検出装置100は、所定の検出領域に測定光を発光する発光部を備えてもよい。発光部は、所定周期で断続的な測定光を発光してもよいし、水平方向又は鉛直方向に移動させながらパルス状の測定光(レーザパルス)を継続的に発光してもよい。発光部としては、本願出願時に知られているレーザレーダ装置の発光機構を採用できる。発光部は、駆動回路、発光素子、及び、発光光学系を含むように構成できる。駆動回路は、センサ10の所定の制御の下に、発光素子の発光強度及び発光タイミングを制御する。発光素子は、例えば、レーザダイオードを用いる。駆動回路の制御の下に、測定光(レーザパルス)の発光を実行する。発光素子から発光された測定光は、レンズ等により構成される発光光学系を介して検出領域に向けて照射される。
Although not shown, the
受光部12は、広角レンズ11を介して物体からの反射光を受光する。受光部12は、水平方向のそれぞれ異なる方向から入射する反射光の強度(明るさ)を検出する。受光部12は、各方向の反射光の強度に応じた電気信号である複数の受光信号を出力する。受光部12は、広角レンズ11を含む受光光学系と、複数の受光素子120を含む。
広角レンズ11は、受光素子120と検出領域との間に配置される。検出領域に存在する物体の表面で反射された反射光は広角レンズ11に入射し、広角レンズ11を介して受光素子120に入射する。センサ10が備える受光素子120は、例えば、入射した光電荷をその光量に応じた電流値の受光信号に光電変換するフォトダイオードである。受光素子120は、広角レンズ11に入射した反射光が集光する位置において、その光軸に対して垂直に交わる受光面にアレイ状に設けられる。各受光素子120は、その配置位置に応じて、受光面の位置(座標)に基づくアドレスが付される。受光素子120が、出力する受光信号には、受光した受光素子120のアドレス情報が付される。
広角レンズ11を含む受光光学系に入射した反射光は、広角レンズ11への入射角度に応じて、各受光素子120に入射する。受光素子120は、受光した反射光をその受光量(強度)に応じた電流値の受光信号に光電変換する。センサ10、10a,10bは、受光素子120から取得した受光信号とアドレス情報を、通信部13,13a,13bを介して制御装置20に送出する。
The
The wide-
The reflected light incident on the light receiving optical system including the wide-
制御装置20は、受光信号に基づく情報処理を行い、物体の存在、物体の位置を検出する。まず、受光素子120の得た受光信号を、デジタルの受光信号に変換する。
制御装置20は、センサ10と一体として構成してもよいし、情報の授受が可能なように別体として構成してもよい。
特に限定されないが、制御装置20は、情報選択部、電流電圧変換部、増幅部、及びサンプリング部を備える。情報選択部は、複数のマルチプレクサ(MUX)を含む。電流電圧変換部は、複数のトランス・インピーダンス・アンプ(TIA)を含む。増幅部は、複数のプログラマブル・ゲイン・アンプ(PGA)含む。サンプリング部は、複数のA/Dコンバータ(ADC)含む。制御装置20の基本的構成及び処理手順は、本願出願時に知られた受光型のセンサの処理手順を適宜に採用できる。
The
The
Although not particularly limited, the
マルチプレクサは、制御装置20の制御に従い、受光素子120から取得した受光信号のうち1つ以上の受光信号を選択して、トランス・インピーダンス・アンプに供給する。取得した受光信号が複数である場合には、マルチプレクサはこれら受光信号を加算してトランス・インピーダンス・アンプに出力する。特に限定されないが、マルチプレクサは、デコーダ、複数の入力端子、複数のスイッチ及び出力端子を備える。スイッチは、複数の入力端子と一の出力端子との間に配置される。デコーダは、制御装置20から供給される選択信号をデコードし、デコードした選択信号の内容に従って、各スイッチのオン/オフを個別に切り替える。そして、オンになっているスイッチに接続されている入力端子に入力される受光信号が選択され、出力端子から出力される。なお、複数のスイッチがオンである場合には、選択された複数の受光信号が加算されて出力端子から出力される。
The multiplexer selects one or more light-receiving signals among the light-receiving signals acquired from the light-receiving element 120 under the control of the
トランス・インピーダンス・アンプは、制御装置20の制御に従い、マルチプレクサから供給された受光信号の電流−電圧変換を行う。すなわち、各トランス・インピーダンス・アンプは、入力された電流としての受光信号を、電圧としての受光信号に変換するとともに、制御装置20が設定したゲインで受光信号の電圧を増幅し、後段のプログラマブル・ゲイン・アンプに出力する。
プログラマブル・ゲイン・アンプは、各トランス・インピーダンス・アンプから取得した受光信号の電圧を、制御装置20が設定したゲインで増幅し、後段のA/Dコンバータに出力する。A/Dコンバータは、受光信号のA/D変換を行う。A/Dコンバータは、制御装置20の制御の下に、プログラマブル・ゲイン・アンプから供給されるアナログの受光信号のサンプリングを行うことにより受光値の測定を行う。そして、A/Dコンバータは、受光値のサンプリング結果(測定結果)を示すデジタルの受光信号を出力する。制御装置20は、取得した受光信号に基づいて、物体の検出処理を行う。
The transimpedance amplifier performs current-voltage conversion of the received light signal supplied from the multiplexer according to the control of the
The programmable gain amplifier amplifies the voltage of the received light signal acquired from each transimpedance amplifier with the gain set by the
図3Aは、外界の検出領域と、広角レンズ11と、受光部12との位置関係を示す図である。外界における実際の検出領域は三次元の空間であるが、本例の座標系(XY)は、受光部12の受光面に対して平行な面を定義する。座標系(XY)に対して垂直なZ軸方向は、検出領域の奥行に対応し、本例では車両V1の進行方向に対応する。
図3Bに示すように、反射光は、広角レンズ11を介して、二次元のアレイ状に配置された受光素子に入射する。受光素子は、反射光に対応する受光信号を、制御装置20に出力する。受光信号は検出領域の二次元の面を定義する座標系(XY)に対応づけられる。受光素子は、受光信号に、検出領域の座標系に対応する受光素子のアドレスを付して出力する。この座標値(XY)により物体の位置を特定し、受光信号の強度により物体までの距離(座標値(Z)を特定できるので、三次元空間における物体の存在位置(座標XYZ)を検出できる。
FIG. 3A is a diagram showing the positional relationship between the detection region in the outside world, the wide-
As shown in FIG. 3B, the reflected light is incident on the light receiving elements arranged in a two-dimensional array via the wide-
本例では、より広い検出領域を監視するために、広角レンズ11が採用されている。このため、検出領域のXY座標における像は左右端部において拡大される(引き伸ばされる)。図3Aに示すように、検出領域の端部、特に左右端部の像に応じた反射光(受光信号)のXY座標を基準とした密度は低くなる。一例であるが、図3Cに受光信号に対応する像を示す。図3Cに示すように、画像の中央部分(図中破線楕円CTで示す)は反射光(受光信号)の強度が高く、明瞭であるが、画像の端部(図中破線楕円CTの外側、図中に示す座標系の+/−X軸方向、+/−Y軸方向)、特に左右端部(図中に示す座標系の+/−X軸方向)は反射光(受光信号)の強度・密度が低く、暗い画像となり、不明瞭である。
In this example, the wide-
このように、広角レンズ11を用いると、検出領域を拡大することができるものの、検出領域の中央部分の検出結果に比べて、検出領域の縁辺部の検出結果の精度が劣るという事態が生じる。これは、検出領域の周辺(端部)の反射光の強度の低下、広角レンズ11の歪みよる分解能の低下、入射光の受光部12に対する入射角度が大きくなることが原因として考えられる。
As described above, although the detection area can be expanded by using the wide-
制御装置20は、センサ10の受光部12が出力する反射光の受光信号に基づいて、受光値の測定を行う。本実施形態の制御装置20は、車両周囲全体を監視するために、複数のセンサ10a〜10dの検出結果に基づいて物体を検出する。
本実施形態の制御装置20は、座標変換部21と、合成部22と、測定部23とを有する。座標変換部21は、各センサ10の受光信号の座標を変換する。各センサ10の受光信号の座標が一致しない場合には、各センサ10の受光信号の精度に応じた重みづけを付与する処理を行う。合成部22は、重みづけをした受光信号を合成する処理を行う。測定部23は、合成後の受光信号に基づいて、物体の存在を検出し、物体の位置を測定する処理を行う。
The
The
制御装置20は、検出領域の拡大の観点から、複数のセンサ10の検出結果を合成する。しかし、複数のセンサ10a、10bの検出結果を合成しようとするとき、検出結果が異なる場合がある。図4に示す例では、同じ物体に属する点P1について、第1センサ10aの点P1の位置についての検出結果は座標P1aであり、第2センサ10bの点P1の位置についての検出結果は座標P1bである。このように、同一の物体の存在位置であるP1について、センサ10a、10bは異なる検出結果を示すことがある。
The
図3A乃至図3Cを用いて説明したように、センサ10の検出結果のうち、検出領域の中央部における検出精度(確度)は、検出領域の周囲部(端部)における検出精度(確度)よりも高い。つまり、複数のセンサ10の検出結果を用いる場合には、検出領域の中央部における検出結果を用いることが好ましい。 As described with reference to FIGS. 3A to 3C, among the detection results of the sensor 10, the detection accuracy (accuracy) in the central portion of the detection region is higher than the detection accuracy (accuracy) in the peripheral portion (edge portion) of the detection region. Is also expensive. That is, when using the detection results of a plurality of sensors 10, it is preferable to use the detection results in the central portion of the detection region.
ちなみに、検出領域は、画角で表現することができる。画角とは、検出領域の範囲を角度で表すものである。これに倣い、物体の存在位置が検出領域の中央部であるのか、検出領域の周囲部(端部)であるのかを、検出領域の中央に設定した基準軸に対する角度で判断する。基準軸は、受光部12の受光面に対して略垂直方向であり、検出領域側(図3Aに示すZ軸方向)に延びるように設定する。検出領域、検出領域の座標、基準軸は、センサごとに設定する。第1センサ10aには、第1検出領域と、第1検出領域の第1座標、第1基準軸が設定され、第2センサ10bには、第2検出領域と、第2検出領域の第2座標、第2基準軸が設定される。第3センサ10c、第4センサ10dについても同様である。基準軸に対する角度は、基準軸に対する仰俯角及び/又は方位角により表現する。基準軸に対する仰俯角により、検出領域の上端側(天空側)の位置と下端側(地面側)の位置を定義することができる。基準軸に対する方位角により、検出領域の右端側の位置と左端側の位置を定義することができる。
By the way, the detection area can be expressed by the angle of view. The angle of view represents the range of the detection area by an angle. Following this, it is determined whether the existing position of the object is the central part of the detection area or the peripheral part (edge part) of the detection area by the angle with respect to the reference axis set in the center of the detection area. The reference axis is set so as to be substantially perpendicular to the light receiving surface of the
ここで、二つのセンサの検出結果を用いた物体の検出手法を説明する。
例えば、図5A(a)に示すように、センサ10aが同一の物体Pについての存在位置P1aを検出し、センサ10bが物体Pの存在位置P1bを検出したとき、その検出位置が異なる場合がある。複数のセンサ10の受光信号を利用する場合において問題になるのは、同一の物体の同一の存在位置であるはずなのに、別の検出結果(存在位置)を出力することである。制御装置20は、複数の各センサ10の受光信号に基づいて、物体を検出し、その物体が同一である場合に、二つのセンサの検出結果を用いた、本実施形態の物体の検出手法を採用する。
Here, an object detection method using the detection results of the two sensors will be described.
For example, as shown in FIG. 5A (a), when the
図5A(b)に示すように、センサ10aは、物体Pの存在位置P1aを検出領域の中央に設定した基準軸Zaから角度αaの位置に検出し、センサ10bは、物体Pの存在位置P1bを検出領域の中央に設定した基準軸Zbから角度αbの位置に検出することがある。同図に示すように、角度αa<角度αbである。センサ10aの検出した物体Pの存在位置P1aは、検出領域の基準軸Zaから角度αaの範囲、つまり検出領域の中央に近い領域である、他方、センサ10bの検出した物体Pの存在位置P1bは、検出領域の基準軸Zbから角度αbの範囲、つまり中央から離れた端部の領域である。中央側のほうが、センサ10の検出精度は高いので、センサ10aの検出結果のほうが、信頼度が高いと考えられる。
この考え方に基づいて、図5A(c)に示すように、センサ10bの検出した、中央から離れた存在位置P1bという検出結果は採用せずに、センサ10aの検出した物体Pの存在位置P1aを検出結果として採用するという手法も考えられる。
しかし、精度が相対的に低い一方の検出結果を消去して、他方の検出結果を採用するという手法によると、図5Bに示すように、センサ10aの検出する物体Pの存在位置P1aの履歴(移動軌跡)と、センサ10bの検出する物体Pの存在位置P1bの履歴(移動軌跡)とが不連続になる可能性があるという問題がある。
As shown in FIG. 5A (b), the
Based on this idea, as shown in FIG. 5A (c), the existence position P1a of the object P detected by the
However, according to the method of erasing one of the detection results having relatively low accuracy and adopting the other detection result, as shown in FIG. 5B, the history of the existence position P1a of the object P detected by the
このような不都合を解消するべく、本実施形態の物体検出装置/物体検出方法では、検出された物体の存在位置に応じた重みづけ情報に基づいて、その検出結果の信頼度を評価する。
二つのセンサ10a,10bから得られた受光信号に基づく検出位置を、図6Aに示す。図6Aの点P1は、センサ10aにより検出された物体Pの位置であり、同図6Aの点P2は、センサ10bにより検出された物体Pの位置である。センサ10aの検出領域SP1とセンサ10bの検出領域SP2とは異なるので、座標変換をして、その検出位置を比較する。物体Pは同一の物体である。ちなみに、物体Pの同一性は、検出された物体のエッジの位置、連続性のあるエッジの位置、形状、大きさ、受光信号の強さなどから判断できる。物体Pの同一性の判断手法は特に限定されない。図6Aに示すように、点P1は基準軸Zaに対して角度αaの画角内に存在し、点P2は基準軸Zbに対して角度αbの画角内に存在する。角度αa<角度αbである。
In order to eliminate such inconvenience, in the object detection device / object detection method of the present embodiment, the reliability of the detection result is evaluated based on the weighting information according to the existence position of the detected object.
The detection position based on the received light signal obtained from the two
図6Bに示すように、本実施形態の制御装置20は、第1センサ10aの第1検出領域SP1の第1座標Xa−Za/Za−Yaを定義し、第2センサ10bの第2検出領域SP2の第2座標Xb−Zb/Zb−Ybを定義する。Ya軸、Yb軸は、X軸及びZ軸に垂直な高さ/鉛直方向に沿う軸である。制御装置20は、第1座標Xa−Za/Za−Yaの座標値(アドレス)に応じた第1重みづけ情報を定義し、第2座標Xb−Zb/Zb−Ybの座標値(アドレス)に応じた第2重みづけ情報を定義する。
第1座標Xa−Za、第2座標Xb−Zbは、車両の幅方向(水平方向・左右方向)の検出結果の評価するための座標であり、第1座標Za−Ya、第2座標Zb−Ybは、車両の高さ方向(鉛直方向・上下方向)の検出結果の評価するための座標である。
As shown in FIG. 6B, the
The first coordinate Xa-Za and the second coordinate Xb-Zb are coordinates for evaluating the detection result in the width direction (horizontal direction / left-right direction) of the vehicle, and are the first coordinate Za-Ya and the second coordinate Zb-. Yb is a coordinate for evaluating the detection result in the height direction (vertical direction / vertical direction) of the vehicle.
第1重みづけ情報、第2重みづけ情報は、検出結果の精度の評価の高低を示す指標としての評価係数を含む。評価係数は、正の値である。評価係数が大きい値であるほど、検出結果の精度は高いと評価され、評価係数が小さい値であるほど、検出結果の精度は低いと評価される。 The first weighting information and the second weighting information include an evaluation coefficient as an index indicating the level of evaluation of the accuracy of the detection result. The evaluation coefficient is a positive value. The larger the evaluation coefficient is, the higher the accuracy of the detection result is evaluated, and the smaller the evaluation coefficient is, the lower the accuracy of the detection result is evaluated.
第1重みづけ情報において、評価係数は、第1検出領域SP1に対する画角の中央に設定した第1基準軸Zaに対して第1座標Xa−Zaの方位角が小さいほど大きい正の値が設定される。第1座標Xa−Zaに対する方位角ごとに評価係数が設定された第1重みづけ情報によれば、第1検出領域SP1の中央部分の検出結果の精度が高く評価され、車両の幅方向(水平方向・左右方向)に中央から離隔するほどに(端部に近づくほどに)検出結果の精度が低く評価される。 In the first weighting information, the evaluation coefficient is set to a positive value as the azimuth angle of the first coordinates Xa-Za becomes smaller with respect to the first reference axis Za set in the center of the angle of view with respect to the first detection area SP1. Will be done. According to the first weighting information in which the evaluation coefficient is set for each azimuth angle with respect to the first coordinate Xa-Za, the accuracy of the detection result of the central portion of the first detection area SP1 is highly evaluated, and the width direction (horizontal) of the vehicle is evaluated. The accuracy of the detection result is evaluated lower as the distance from the center (in the direction / left-right direction) increases (as it approaches the end).
同じく第1重みづけ情報において、第1検出領域SP1に対する画角の中央に設定した第1基準軸Zaに対して第1座標Za−Yaの仰俯角が小さいほど大きい正の値の評価係数が設定される。第1座標Za−Yaに対する仰俯角ごとに評価係数が設定された第1重みづけ情報によれば、第1検出領域SP1の中央部分の検出結果の精度が高く評価され、車両高さ方向(鉛直方向・上下方向)に中央から離隔するほどに(端部に近づくほどに)検出結果の精度が低く評価される。 Similarly, in the first weighting information, a positive evaluation coefficient is set as the elevation / depression angle of the first coordinate Za-Ya is smaller with respect to the first reference axis Za set at the center of the angle of view with respect to the first detection area SP1. Will be done. According to the first weighting information in which the evaluation coefficient is set for each elevation / depression angle with respect to the first coordinate Za-Ya, the accuracy of the detection result of the central portion of the first detection area SP1 is highly evaluated, and the vehicle height direction (vertical) is evaluated. The accuracy of the detection result is evaluated lower as the distance from the center (in the direction / up / down direction) increases (as it approaches the end).
同様に、第2重みづけ情報において、第2検出領域SP2に対する画角の中央に設定した第2基準軸Zbに対して第2座標Za−Yaの仰俯角及び/又は第2座標Xa−Zaの方位角が小さいほど大きい正の値の評価係数が設定される。第3センサ10cの第3検出領域SP3、第4センサ10dの第4検出領域SP4、においても、同様に重みづけ情報が定義される。
Similarly, in the second weighting information, the elevation / depression angle of the second coordinate Za-Ya and / or the second coordinate Xa-Za with respect to the second reference axis Zb set at the center of the angle of view with respect to the second detection region SP2. The smaller the azimuth, the larger the positive evaluation coefficient is set. Weighting information is similarly defined in the third detection region SP3 of the
これにより、検出領域の中央部における精度の高い検出結果の評価を高く算出し、検出領域の端部における精度の低い検出結果の評価を低く算出することにより、複数のセンサ10から得た受光信号から精度の高い一の検出結果を得ることができる。 As a result, the evaluation of the highly accurate detection result in the central portion of the detection region is calculated high, and the evaluation of the low accuracy detection result in the end portion of the detection region is calculated low, so that the received light signals obtained from the plurality of sensors 10 are obtained. A highly accurate detection result can be obtained from.
制御装置20は、受光信号の強度が高いほど、評価が高くなるように重みづけ情報を設定できる。制御装置20は、重みづけ情報に関し、第1センサ10aから得た第1受光信号の強度の代表値と、第2センサ10bから得た第2受光信号の強度の代表値とを比較する。第1受光信号の強度の代表値が第2受光信号の強度の代表値よりも大きい場合には、第1重みづけ情報の評価係数が、第2重みづけ情報の評価係数よりも大きい正の値となるように、第1、第2重みづけ情報を設定する。第2受光信号の強度の代表値が第1受光信号の強度の代表値よりも大きい場合には、第2重みづけ情報の評価係数が、第2重みづけ情報の重みづけの値よりも大きい正の値となるように、第1、第2重みづけ情報を設定する。
The
第1受光信号の強度の代表値とは、第1センサ10aが出力した第1受光信号の全体の平均、最大値、中央値、最頻値などである。第1受光信号の強度の代表値として、第1受光信号のうち同一物体から反射された受信信号であると判断された一群の受光信号、言い換えると、抽出された同一物体の像に属する画素の受信信号の平均、最大値、中央値、最頻値としてもよい。
The representative value of the intensity of the first light receiving signal is the average, maximum value, median value, mode value, etc. of the entire first light receiving signal output by the
これにより、受光信号の強度が高いほど、受光信号の信頼度を高く評価するので、物体の検出精度を向上させることができる。受光信号の強度が低いと、検出精度が低くなる傾向があるため、強度の高い受光信号の信頼を高くすることにより、物体の検出精度を向上させることができる。 As a result, the higher the intensity of the received light signal, the higher the reliability of the received light signal is evaluated, so that the detection accuracy of the object can be improved. When the intensity of the received light signal is low, the detection accuracy tends to be low. Therefore, by increasing the reliability of the received light signal having high intensity, the detection accuracy of the object can be improved.
制御装置20は、第1センサ10aが出力した、第1検出領域SP1の第1座標Xa−Za/Za−Yaに対応づけられた第1受光信号を、第1検出領域SP1の第1座標Xa−Za/Za−Yaに対応づけられた第1重みづけ情報に基づいて第1変換受光信号に変換する。
同様に、制御装置20は、第2センサ10bが出力した、第2検出領域SP2の第2座標Xb−Zb/Zb−Ybに対応づけられた第2受光信号を、第2検出領域SP2の第2座標Xb−Zb/Zb−Ybに対応づけられた第2重みづけ情報に基づいて第2変換受光信号に変換する。
The
Similarly, the
制御装置20は、第1変換受光信号と第2変換受光信号とを合成した合成受光信号を得る。下記式(1)に示すように、第1センサ10aの受光信号に基づく検出結果(XA,YA,ZA)に第1重みづけ情報の評価係数に対応する重みづけ関数WAを付し、第2センサ10bの受光信号に基づく検出結果(XB,YB,ZB)に第2重みづけ情報の評価係数に対応する重みづけ関数WBを付し、これらを加算して、合成受光信号に対応する、最終的な検出結果(X,Y,Z)を得る。検出結果(X,Y,Z)は、第1センサ10aの受光信号と第2センサ10bの受光信号に基づき、各センサの信頼性(信頼度)を考慮した検出結果である。
The
広角レンズ11を備えるセンサ10を複数備える場合に、複数のセンサ10の検出結果を単に合成すると、精度の低い検出結果によって最終的な物体の位置検出精度が低くなる。また、精度の高い検出結果を選択して物体の位置を検出すると、物体の検出結果が不連続となり、最終的な物体の位置検出精度が低くなる。
これに対し、本実施形態の物体検出装置100は、第1,第2検出領域SP1,SP2に対する画角の中央に設定した第1、第2基準軸Za,Zbに対して第1、第2座標Za−Ya(Zb−Yb)の仰俯角及び/又は第1,第2座標Xa−Za(Xb−Zb)の方位角が小さいほど大きい正の値の評価係数が設定された第1、第2重みづけ情報を定義する。そして、制御装置20は、第1センサ10aが出力した、第1検出領域の第1座標に対応づけられた第1受光信号を、第1検出領域の第1座標に対応づけられた第1重みづけ情報に基づいて第1変換受光信号に変換し、第2センサ10bが出力した、第2検出領域の第2座標に対応づけられた第2受光信号を、第2検出領域の第2座標に対応づけられた第2重みづけ情報に基づいて第2変換受光信号に変換し、これら第1変換受光信号と第2変換受光信号とを合成した合成受光信号に基づいて、物体を検出する。
When a plurality of sensors 10 including the wide-
On the other hand, the
図6Cは、第1センサ10aの受光信号に応じた物体Pの存在位置P1と、第2センサ10bの受光信号に応じた物体Pの存在位置P2を示す。図6Cに示すP3は、第1センサ10aの受光信号に重みづけを付した第1変換受光信号と、第2センサ10bの受光信号に重みづけを付した第2変換受光信号とを合成した合成受光信号に応じた存在位置P3である。存在位置P3は、第1センサ10aの受光信号に応じたP1、第2センサ10bの受光信号に応じたP2とも異なる、検出結果となる。存在位置P3は、第1センサ10aの受光信号に応じた検出結果(存在位置P1)の信頼度と、第2センサ10bの受光信号に応じた検出結果(存在位置P2)の信頼度とを考慮した、検出結果(存在位置P3)である。本例では、二つの検出結果である存在位置P1,P2を例に一つの検出結果(存在位置P3を求める手法を説明したが、三つ以上の検出結果であっても同様に、重みづけ情報の評価係数を用いて三つ以上の変換受光信号を合成し、一つの検出結果を得ることができる。
FIG. 6C shows the existence position P1 of the object P corresponding to the light receiving signal of the
これにより、広い検出範囲を確保しつつ、物体の検出精度を向上させることができる。まだ、相対的に移動する物体の移動軌跡が不連続となることも防止できる。 This makes it possible to improve the detection accuracy of the object while ensuring a wide detection range. It is still possible to prevent the movement trajectories of relatively moving objects from becoming discontinuous.
図7のフローチャートに基づいて、本実施形態の物体検出の制御処理について説明する。
ステップS1において、制御装置20は、センサ10a,10b・・・10dから受光信号を取得する。ステップS2において、制御装置20は、各センサ10の受光信号を同じ座標系に変換して、比較・評価をする。ステップS3において、制御装置20は、各センサ10が同一の物体を検出しているか否かを判断する。同一の物体であるか否かは、その受光信号の強度に基づいて抽出されたエッジの位置、エッジの連続性を求め、同一物体であると推測されるグループ化された像の大きさ、形状、距離などに基づいて判断できる。
The object detection control process of the present embodiment will be described with reference to the flowchart of FIG. 7.
In step S1, the
同一物体であると判断された場合には、ステップS4に進む。ステップS4において、制御装置20は、同一物体についての各センサの検出結果が共通するか否かを判断する。同一物体についての各センサの検出結果が共通する場合には、いずれの検出結果を用いても物体を正確に検出できるので、ステップS7に進み、複数のセンサ10の受光信号を合成し、結果をステップS8で出力する。制御装置20は、車載装置200の車両コントローラ210に検出結果を出力する。
If it is determined that they are the same object, the process proceeds to step S4. In step S4, the
ステップS4において、各センサの検出結果が共通しない場合には、ステップS5に進む。ステップS5において、制御装置20は、検出領域の座標に対応づけられた重みづけ情報の評価係数を算出する。制御装置20は、第1受光信号の強度の代表値が第2受光信号の強度の代表値よりも大きい場合には、第2重みづけ情報の評価係数よりも大きい正の値を第1重みづけ情報の評価係数として算出する。第2受光信号の強度の代表値が第1受光信号の強度の代表値よりも大きい場合には、第1重みづけ情報の重みづけの値よりも大きい正の値の第2重みづけ情報の評価係数を算出する。
If the detection results of the sensors are not common in step S4, the process proceeds to step S5. In step S5, the
ステップS6において、制御装置20は、算出した評価係数に基づいて、各センサ10の受光信号を評価係数に基づいて、変換受光信号に変換する。ステップS7において、制御装置20は、複数の変換受光信号を合成した合成受光信号を得る。制御装置20は、合成受光信号に基づいて、物体を検出する。検出結果をステップS8で出力する。制御装置20は、車載装置200の車両コントローラ210に検出結果を出力する。
In step S6, the
本実施形態では、物体検出装置100の検出結果を、車両の走行制御に利用する。このため、物体検出装置100は、車載装置200の車両コントローラに検出結果を送出する。
以下、車載装置200の各構成について説明する。
本実施形態の車載装置200は、車両コントローラ210、ナビゲーション装置220、障害物検出装置230、車線逸脱防止装置240、及び出力装置250を備える。車載装置200を構成する各装置は、相互に情報の授受を行うためにCAN(Controller Area Network)その他の車載LANによって接続されている。車載装置200は、車載LAN又は無線通信回線を介して物体検出装置100と情報の授受を行うことができる。車載装置が備える車両コントローラ210は、検出装置260、駆動装置270、操舵装置280と連携して動作する。
In the present embodiment, the detection result of the
Hereinafter, each configuration of the in-vehicle device 200 will be described.
The vehicle-mounted device 200 of the present embodiment includes a vehicle controller 210, a navigation device 220, an obstacle detection device 230, a lane departure prevention device 240, and an output device 250. Each device constituting the in-vehicle device 200 is connected by a CAN (Controller Area Network) or other in-vehicle LAN in order to exchange information with each other. The in-vehicle device 200 can exchange information with the
本実施形態の車両コントローラ210は、エンジンコントロールユニット(Engine Control Unit, ECU)などの車載コンピュータであり、検出された物体との接近を避けた経路上を車両が走行できるように、その運転を電子的に制御する。 The vehicle controller 210 of the present embodiment is an in-vehicle computer such as an engine control unit (ECU), and its operation is electronic so that the vehicle can travel on a route avoiding approach to a detected object. Control.
検出装置260は、舵転舵、操舵量、操舵速度、操舵加速度などの情報を検出する舵角センサ、車両の速度及び/又は加速度を検出する車速センサを含み、検出結果を車両コントローラ210に出力する。 The detection device 260 includes a steering angle sensor that detects information such as steering, steering amount, steering speed, and steering acceleration, and a vehicle speed sensor that detects vehicle speed and / or acceleration, and outputs the detection result to the vehicle controller 210. do.
本実施形態の駆動装置270は、自車両V1の駆動機構を備える。駆動機構には、上述した駆動源である電動モータ及び/又は内燃機関、これら駆動源からの出力を駆動輪に伝達するドライブシャフトや自動変速機を含む動力伝達装置、及び車輪を制動する制動装置が含まれる。駆動装置270は、アクセル操作及びブレーキ操作による入力信号、車両コントローラ210から取得した制御信号に基づいてこれら駆動機構の各制御信号を生成し、車両の加減速を含む運転制御を実行する。駆動装置270に制御情報を送出することにより、車両の加減速を含む運転制御を自動的に行うことができる。なお、ハイブリッド自動車の場合には、車両の運転状態(走行状態)に応じた電動モータと内燃機関とのそれぞれに出力するトルク配分も駆動装置270に送出される。 The drive device 270 of the present embodiment includes a drive mechanism of the own vehicle V1. The drive mechanism includes an electric motor and / or an internal combustion engine which are the above-mentioned drive sources, a power transmission device including a drive shaft and an automatic transmission for transmitting the output from these drive sources to the drive wheels, and a braking device for braking the wheels. Is included. The drive device 270 generates each control signal of these drive mechanisms based on the input signal by the accelerator operation and the brake operation and the control signal acquired from the vehicle controller 210, and executes the operation control including the acceleration / deceleration of the vehicle. By transmitting control information to the drive device 270, driving control including acceleration / deceleration of the vehicle can be automatically performed. In the case of a hybrid vehicle, torque distribution to be output to each of the electric motor and the internal combustion engine according to the driving state (driving state) of the vehicle is also sent to the drive device 270.
本実施形態の操舵装置280は、ステアリングアクチュエータを備える。ステアリングアクチュエータは、ステアリングのコラムシャフトに取り付けられるモータ等を含む。操舵装置280は、車両コントローラ210から取得した制御信号、舵角センサ261から取得したステアリング操作量に基づいて車両の移動方向の変更制御を実行する。車両コントローラ210は、操舵量を含む制御情報を操舵装置280に送出することにより、移動方向の変更制御を実行する。また、運転支援システム1は、車両の各輪の制動量をコントロールすることにより車両の移動方向の変更制御を実行してもよい。この場合、車両コントローラ210は、各輪の制動量を含む制御情報を制動装置271へ送出することにより、車両の移動方向の変更制御を実行する。なお、駆動装置270の制御、操舵装置280の制御は、完全に自動で行われてもよいし、ドライバの駆動操作(進行操作)を支援する態様で行われてもよい。駆動装置270の制御及び操舵装置280の制御は、ドライバの介入操作により中断/中止させることができる。車両コントローラ210は、所定の運転計画に従って自車両の運転を制御する。 The steering device 280 of the present embodiment includes a steering actuator. The steering actuator includes a motor or the like attached to the column shaft of the steering. The steering device 280 executes change control of the moving direction of the vehicle based on the control signal acquired from the vehicle controller 210 and the steering operation amount acquired from the steering angle sensor 261. The vehicle controller 210 executes control for changing the moving direction by transmitting control information including the steering amount to the steering device 280. Further, the driving support system 1 may execute the change control of the moving direction of the vehicle by controlling the braking amount of each wheel of the vehicle. In this case, the vehicle controller 210 executes control for changing the moving direction of the vehicle by transmitting control information including the braking amount of each wheel to the braking device 271. The control of the drive device 270 and the control of the steering device 280 may be performed completely automatically, or may be performed in a mode of supporting the drive operation (progress operation) of the driver. The control of the drive device 270 and the control of the steering device 280 can be interrupted / stopped by the intervention operation of the driver. The vehicle controller 210 controls the operation of the own vehicle according to a predetermined operation plan.
本実施形態の車載装置200は、ナビゲーション装置220を備える。ナビゲーション装置220は、位置検出装置221を備える。本実施形態の位置検出装置221は、グローバル・ポジショニング・システム(Global Positioning System, GPS)を備え、走行中の車両の走行位置(緯度・経度)を検出する。算出した経路は、自車両の運転支援に用いるために、車両コントローラ210へ送出される。 The vehicle-mounted device 200 of the present embodiment includes a navigation device 220. The navigation device 220 includes a position detecting device 221. The position detection device 221 of the present embodiment includes a Global Positioning System (GPS) and detects a traveling position (latitude / longitude) of a traveling vehicle. The calculated route is sent to the vehicle controller 210 for use in driving support of the own vehicle.
障害物検出装置230は、自車両の周囲の状況を検出する。自車両の障害物検出装置230は、自車両の周囲に存在する障害物を含む障害物の存在及びその存在位置を物体検出装置100の検出結果を用いて検出する。併せて、車載カメラによる検出結果を利用してもよい。障害物検出装置230は、パターンマッチング技術などを用いて、検出結果に含まれる障害物が、車両、歩行者などの移動体であるか、標識などの静止物であるか否かを識別する。
The obstacle detection device 230 detects the situation around the own vehicle. The obstacle detection device 230 of the own vehicle detects the existence of obstacles including obstacles existing around the own vehicle and the position of the obstacles by using the detection result of the
車線逸脱防止装置240は、カメラの撮像画像から自車両が走行する経路を検出する。車線逸脱防止装置240は、物体検出装置100が検出した物体との接近を避けつつ、経路の車線のレーンマーカの位置と自車両の位置とが所定の関係を維持するように、自車両の動きを制御する車線逸脱防止機能(レーンキープサポート機能)を備える。本実施形態の運転支援システム1は車線の中央を自車両が走行するように、自車両の動きを制御する。
The lane departure prevention device 240 detects the route on which the own vehicle travels from the image captured by the camera. The lane departure prevention device 240 moves the own vehicle so that the position of the lane marker in the lane of the route and the position of the own vehicle maintain a predetermined relationship while avoiding the approach to the object detected by the
出力装置250は、ディスプレイ、スピーカを備える。出力装置250は、物体検出の結果、運転支援の内容、その運転支援に基づく運転制御に関する情報を出力する。 The output device 250 includes a display and a speaker. As a result of object detection, the output device 250 outputs information on the content of driving support and driving control based on the driving support.
本発明の実施形態の運転支援システム1は、以上のように構成され動作するので、以下の効果を奏する。 Since the driving support system 1 of the embodiment of the present invention is configured and operates as described above, it has the following effects.
[1]本実施形態の物体検出方法は、第1センサ10aが出力した、第1検出領域SP1の第1座標に対応づけられた第1受光信号を、第1検出領域SP1の第1座標に対応づけられた第1重みづけ情報に基づいて第1変換受光信号に変換し、第2センサ10bが出力した、第2検出領域SP2の第2座標に対応づけられた第2受光信号を、第2検出領域の第2座標に対応づけられた第2重みづけ情報に基づいて第2変換受光信号に変換し、第1変換受光信号と第2変換受光信号とを合成した合成受光信号に基づいて、物体を検出する。 これにより、広い検出範囲を確保しつつ、物体の検出精度を向上させることができる。まだ、相対的に移動する物体の移動軌跡が不連続となることも防止できる。
[1] In the object detection method of the present embodiment, the first light receiving signal associated with the first coordinate of the first detection area SP1 output by the
[2]本実施形態の物体検出方法では、第1重みづけ情報の評価係数を、第1検出領域に対する画角の中央を第1基準軸とし、第1基準軸に対して仰俯角及び/又は方位角が小さいほど大きい正の値を設定し、第2重みづけ情報の評価係数は、第2検出領域に対する画角の中央を第2基準軸とし、第2基準軸に対して仰俯角及び/又は方位角が小さいほど大きい正の値を設定する。
これにより、検出領域の中央部における精度の高い検出結果の評価を高く算出し、検出領域の端部における精度の低い検出結果の評価を低く算出することにより、複数のセンサ10から得た受光信号から精度の高い一の検出結果を得ることができる。
[2] In the object detection method of the present embodiment, the evaluation coefficient of the first weighting information is set to the center of the angle of view with respect to the first detection region as the first reference axis, and the elevation / depression angle and / or with respect to the first reference axis. The smaller the azimuth, the larger the positive value is set, and the evaluation coefficient of the second weighting information is the elevation / depression angle and / with respect to the second reference axis, with the center of the angle of view with respect to the second detection area as the second reference axis. Or, the smaller the azimuth, the larger the positive value is set.
As a result, the evaluation of the highly accurate detection result in the central portion of the detection region is calculated high, and the evaluation of the low accuracy detection result in the end portion of the detection region is calculated low, so that the received light signals obtained from the plurality of sensors 10 are obtained. A highly accurate detection result can be obtained from.
[3]本実施形態の物体検出方法では、第1受光信号の強度の代表値が第2受光信号の強度の代表値よりも大きい場合には、第1重みづけ情報の評価係数が、第2重みづけ情報の評価係数よりも大きい正の値を設定し、第2受光信号の強度の代表値が第1受光信号の強度の代表値よりも大きい場合には、第2重みづけ情報の評価係数が、第1重みづけ情報の重みづけの値よりも大きい正の値を設定する。
これにより、受光信号の強度が高いほど、受光信号の信頼度を高く評価するので、物体の検出精度を向上させることができる。受光信号の強度が低いと、検出精度が低くなる傾向があるため、強度の高い受光信号の信頼を高くすることにより、物体の検出精度を向上させることができる。
[3] In the object detection method of the present embodiment, when the representative value of the intensity of the first light receiving signal is larger than the representative value of the intensity of the second light receiving signal, the evaluation coefficient of the first weighting information is the second. If a positive value larger than the evaluation coefficient of the weighting information is set and the representative value of the intensity of the second light receiving signal is larger than the representative value of the intensity of the first light receiving signal, the evaluation coefficient of the second light receiving information is set. However, a positive value larger than the weighting value of the first weighting information is set.
As a result, the higher the intensity of the received light signal, the higher the reliability of the received light signal is evaluated, so that the detection accuracy of the object can be improved. When the intensity of the received light signal is low, the detection accuracy tends to be low. Therefore, by increasing the reliability of the received light signal having high intensity, the detection accuracy of the object can be improved.
[4]本実施形態の物体検出装置によれば、上記の作用効果を得ることができる。 [4] According to the object detection device of the present embodiment, the above-mentioned effects can be obtained.
なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。 It should be noted that the embodiments described above are described for facilitating the understanding of the present invention, and are not described for limiting the present invention. Therefore, each element disclosed in the above-described embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.
1…運転支援システム
100…物体検出装置
10(10a,10b,10c,10d,10eを含む)…センサ
11(11a,11b…を含む)…広角レンズ
12(12a,12b…を含む)…受光部
13(13a,13b…を含む)…通信部
10a…第1センサ
11a…第1広角レンズ
12a…第1受光部
13a…第1通信部
10b…第2センサ
11b…第2広角レンズ
12b…第2受光部
13b…第2通信部
20…制御装置
21…座標変換部
22…合成部
23…測定部
200…車載装置
210…車両コントローラ
220…ナビゲーション装置
230…障害物検出装置
240…車線逸脱防止装置
250…出力装置
260…検出装置
270…駆動装置
280…操舵装置
1 ... Driving
Claims (3)
第1センサに設定された第1検出領域に存在する物体からの反射光を、第1広角レンズを介して、前記第1検出領域に対する画角の中央に設定された第1基準軸に対して垂直に交わる第1受光面にアレイ状に設けられた第1受光素子を用いて受光し、
前記第1受光面に平行な第1座標に基づく前記第1受光素子のアドレス情報が付された第1受光信号を前記第1センサから検出結果として取得し、
前記第1基準軸に対して仰俯角及び/又は方位角が小さいほど大きい正の値が前記第1座標に対応づけられた第1評価係数を算出し、
前記算出された第1評価係数を参照し、
前記検出結果として取得した、前記第1受光信号の前記第1座標を、前記第1検出領域の前記第1座標に対応づけられた前記第1評価係数に基づいて変換し、
第2センサに設定された第2検出領域に存在する物体からの反射光を、第2広角レンズを介して、前記第2検出領域に対する画角の中央に設定された第2基準軸に対して垂直に交わる第2受光面にアレイ状に設けられた第2受光素子を用いて受光し、
前記第2受光面に平行な第2座標に基づく前記第2受光素子のアドレス情報が付された第2受光信号を前記第2センサから検出結果として取得し、
前記第2基準軸に対して仰俯角及び/又は方位角が小さいほど大きい正の値が前記第2座標に対応づけられた第2評価係数を算出し、
前記算出された第2評価係数を参照し、
前記検出結果として取得した、前記第2受光信号の前記第2座標を、前記第2検出領域の前記第2座標に対応づけられた前記第2評価係数に基づいて変換し、
前記変換された第1座標と前記変換された第2座標とを合成し、最終的な検出結果である前記物体の座標を検出する、物体検出方法。 It is an object detection method that detects an object based on a light receiving signal corresponding to the reflected light output by a plurality of sensors that receive the reflected light from an object existing in a predetermined detection area through a wide-angle lens. hand,
The reflected light from the object existing in the first detection region set in the first sensor is transmitted through the first wide-angle lens to the first reference axis set in the center of the angle of view with respect to the first detection region. Light is received by using the first light receiving elements provided in an array on the first light receiving surfaces that intersect vertically .
A first light receiving signal to which the address information of the first light receiving element based on the first coordinates parallel to the first light receiving surface is attached is acquired from the first sensor as a detection result.
The smaller the elevation / depression angle and / or the azimuth with respect to the first reference axis, the larger the positive value is associated with the first coordinate.
With reference to the calculated first evaluation coefficient,
The acquired as a detection result, the first coordinates of the first light receiving signal, and conversion based on the first evaluation coefficient associated with the said first coordinate of said first detection area,
The reflected light from the object existing in the second detection region set in the second sensor is transmitted through the second wide-angle lens to the second reference axis set in the center of the angle of view with respect to the second detection region. Light is received by using a second light receiving element provided in an array on the second light receiving surface that intersects vertically.
A second light receiving signal to which the address information of the second light receiving element based on the second coordinates parallel to the second light receiving surface is attached is acquired from the second sensor as a detection result.
The smaller the elevation / depression angle and / or the azimuth with respect to the second reference axis, the larger the positive value, and the second evaluation coefficient associated with the second coordinate was calculated.
With reference to the calculated second evaluation coefficient,
The second coordinate of the second light receiving signal acquired as the detection result is converted based on the second evaluation coefficient associated with the second coordinate of the second detection region.
An object detection method for synthesizing the converted first coordinate and the converted second coordinate to detect the coordinates of the object, which is the final detection result.
前記第1評価係数の算出処理において、
前記第1受光信号の強度の代表値が前記第2受光信号の強度の代表値よりも大きい場合には、前記第1評価係数が前記第2評価係数よりも大きい正の値となるように算出し、
前記第2評価係数の算出処理において、
前記第2受光信号の強度の代表値が前記第1受光信号の強度の代表値よりも大きい場合には、前記第2評価係数が前記第1評価係数よりも大きい正の値となるように算出する、請求項1に記載の物体検出方法。 The representative value of the intensity of the first light receiving signal acquired from the first sensor is compared with the representative value of the intensity of the second received light signal acquired from the second sensor.
In the calculation process of the first evaluation coefficient,
When the representative value of the strength of the first light receiving signal is larger than the representative value of the strength of the second light receiving signal, the first evaluation coefficient is calculated to be a positive value larger than the second evaluation coefficient. And
In the calculation process of the second evaluation coefficient,
When the representative value of the strength of the second light receiving signal is larger than the representative value of the strength of the first light receiving signal, the second evaluation coefficient is calculated to be a positive value larger than the first evaluation coefficient. to, the object detection method according to claim 1.
複数の前記センサが出力する、前記反射光に応じた受光信号に基づいて、前記物体を検出する制御装置と、を備える物体検出装置であって、
前記センサは、第1センサと第2センサを有し、
前記第1センサは、前記第1センサに設定された第1検出領域に存在する物体からの前記反射光を、第1広角レンズを介して、前記第1検出領域に対する画角の中央に設定された第1基準軸に対して垂直に交わる第1受光面にアレイ状に設けられた第1受光素子を用いて受光し、
前記第2センサは、前記第2センサに設定された第2検出領域に存在する物体からの前記反射光を、第2広角レンズを介して、前記第2検出領域に対する画角の中央に設定された第2基準軸に対して垂直に交わる第2受光面にアレイ状に設けられた第2受光素子を用いて受光し、
前記制御装置は、
前記第1センサから出力された、前記第1受光面に平行な第1座標に基づく前記第1受光素子のアドレス情報が付された第1受光信号を、前記第1センサから検出結果として取得し、
前記第1基準軸に対して仰俯角及び/又は方位角が小さいほど大きい正の値が、前記第1座標に対応づけられた第1評価係数を算出し、
前記算出された前記第1評価係数を参照し、
前記検出結果として取得した、前記第1受光信号の前記第1座標を、前記第1検出領域の前記第1座標に対応づけられた前記第1評価係数に基づいて変換し、
前記第2センサから出力された、前記第2受光面に平行な第2座標に基づく前記第2受光素子のアドレス情報が付された第2受光信号を前記第2センサから検出結果として取得し、
前記第2基準軸に対して仰俯角及び/又は方位角が小さいほど大きい正の値が、前記第2座標に対応づけられた第2評価係数を算出し、
前記算出された前記第2評価係数を参照し、
前記検出結果として取得した、前記第2受光信号の前記第2座標を、前記第2検出領域の前記第2座標に対応づけられた前記第2評価係数に基づいて変換し、
前記変換された第1座標と前記変換された第2座標とを合成し、最終的な検出結果である前記物体の座標を検出する、物体検出装置。 A sensor that receives reflected light from an object existing in a predetermined detection area through a wide-angle lens, and a sensor.
An object detection device including a control device for detecting the object based on a light receiving signal corresponding to the reflected light output by the plurality of sensors.
The sensor has a first sensor and a second sensor.
Wherein the first sensor, the reflected light from the object present in the first detection area set on the first sensor, via a first wide-angle lens, is set at the center of the field angle with respect to the first detection area The light is received by using the first light receiving element provided in an array on the first light receiving surface that intersects the first reference axis perpendicularly.
The second sensor, the light reflected from an object present in the second detection area set on the second sensor via a second wide-angle lens, is set at the center of the field angle with respect to the second detection area The light is received by using the second light receiving element provided in an array on the second light receiving surface that intersects the second reference axis perpendicularly.
The control device is
The first light receiving signal to which the address information of the first light receiving element based on the first coordinates parallel to the first light receiving surface , which is output from the first sensor, is attached is acquired from the first sensor as a detection result. ,
The smaller the elevation / depression angle and / or the azimuth with respect to the first reference axis, the larger the positive value, and the first evaluation coefficient associated with the first coordinate is calculated.
With reference to the calculated first evaluation coefficient,
The acquired as a detection result, the first coordinates of the first light receiving signal, and conversion based on the first evaluation coefficient associated with the said first coordinate of said first detection area,
A second light receiving signal to which the address information of the second light receiving element based on the second coordinates parallel to the second light receiving surface , which is output from the second sensor, is attached is acquired from the second sensor as a detection result.
The smaller the elevation / depression angle and / or the azimuth with respect to the second reference axis, the larger the positive value, and the second evaluation coefficient associated with the second coordinate is calculated.
With reference to the calculated second evaluation coefficient,
The second coordinate of the second light receiving signal acquired as the detection result is converted based on the second evaluation coefficient associated with the second coordinate of the second detection region.
An object detection device that synthesizes the converted first coordinates and the converted second coordinates and detects the coordinates of the object, which is the final detection result.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016189263A JP6967846B2 (en) | 2016-09-28 | 2016-09-28 | Object detection method and object detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016189263A JP6967846B2 (en) | 2016-09-28 | 2016-09-28 | Object detection method and object detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018054405A JP2018054405A (en) | 2018-04-05 |
JP6967846B2 true JP6967846B2 (en) | 2021-11-17 |
Family
ID=61835684
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016189263A Active JP6967846B2 (en) | 2016-09-28 | 2016-09-28 | Object detection method and object detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6967846B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7379021B2 (en) | 2019-08-29 | 2023-11-14 | 株式会社東芝 | Distance measuring device, distance measuring method, and speed measuring device |
JP7277412B2 (en) * | 2020-04-10 | 2023-05-18 | 株式会社Soken | Target tracker |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6771208B2 (en) * | 2002-04-24 | 2004-08-03 | Medius, Inc. | Multi-sensor system |
JP2006090957A (en) * | 2004-09-27 | 2006-04-06 | Nissan Motor Co Ltd | Surrounding object detecting device for moving body, and surrounding object detection method for moving body |
JP6424801B2 (en) * | 2014-11-19 | 2018-11-21 | 株式会社豊田中央研究所 | Laser radar device and light receiving method of laser radar device |
-
2016
- 2016-09-28 JP JP2016189263A patent/JP6967846B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018054405A (en) | 2018-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210165097A1 (en) | Power Modulation for a Rotary Light Detection and Ranging (LIDAR) Device | |
US11333489B2 (en) | Driving control system and driving control method | |
CN113415270B (en) | System, method and apparatus for sensor region of interest selection based on multi-sensor data | |
JP2018185342A (en) | Ranging imaging system | |
CN111157977B (en) | LIDAR peak detection for autonomous vehicles using time-to-digital converters and multi-pixel photon counters | |
WO2016059905A1 (en) | Moving body | |
CN110293973B (en) | Driving support system | |
CN111366910B (en) | Light detection and ranging device for an autonomous vehicle | |
JP2022141664A (en) | Adjustable vertical field of view | |
WO2020022137A1 (en) | Photodetector and distance measurement apparatus | |
CN113227836A (en) | Distance measuring device and distance measuring method | |
JP2021128084A (en) | Ranging device and ranging method | |
JP6967846B2 (en) | Object detection method and object detection device | |
US20220283311A1 (en) | Enhancement of lidar road detection | |
JP2019145021A (en) | Information processing device, imaging device, and imaging system | |
WO2021161858A1 (en) | Rangefinder and rangefinding method | |
WO2022187060A2 (en) | Enhancement of lidar road detection | |
WO2023233809A1 (en) | Information processing device and information processing method | |
WO2023281824A1 (en) | Light receiving device, distance measurment device, and light receiving device control method | |
WO2023162734A1 (en) | Distance measurement device | |
US20230184910A1 (en) | Lower Power Linearization of Lidar Signals | |
US11624806B2 (en) | Systems and apparatuses for mitigating LiDAR noise, vibration, and harshness | |
WO2023281825A1 (en) | Light source device, distance measurement device, and distance measurement method | |
US20230204734A1 (en) | Configurable Non-Linear Gain Amplifier and Lidar Analog Front End | |
US20220163675A1 (en) | Methods of Using Background Images from a Light Detection and Ranging (LIDAR) Device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190328 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200312 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200324 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200518 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200929 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201223 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20201223 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20210107 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20210112 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20210212 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20210216 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20210525 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20210608 |
|
C30 | Protocol of an oral hearing |
Free format text: JAPANESE INTERMEDIATE CODE: C30 Effective date: 20210701 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20210706 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210825 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20210928 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20211026 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20211026 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211026 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6967846 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |