JP2013218467A - Object detection device, object detection method, object detection program, and operation control system - Google Patents

Object detection device, object detection method, object detection program, and operation control system Download PDF

Info

Publication number
JP2013218467A
JP2013218467A JP2012087328A JP2012087328A JP2013218467A JP 2013218467 A JP2013218467 A JP 2013218467A JP 2012087328 A JP2012087328 A JP 2012087328A JP 2012087328 A JP2012087328 A JP 2012087328A JP 2013218467 A JP2013218467 A JP 2013218467A
Authority
JP
Japan
Prior art keywords
target
unit
combination
object detection
targets
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012087328A
Other languages
Japanese (ja)
Other versions
JP2013218467A5 (en
Inventor
Takeshi Kobe
猛 神戸
Itaru Izumi
到 和泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidec Elesys Corp
Original Assignee
Nidec Elesys Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidec Elesys Corp filed Critical Nidec Elesys Corp
Priority to JP2012087328A priority Critical patent/JP2013218467A/en
Publication of JP2013218467A publication Critical patent/JP2013218467A/en
Publication of JP2013218467A5 publication Critical patent/JP2013218467A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an object detection device, an object detection method, an object detection program, and an operation control system which can detect a curved road even when a preceding vehicle is not detected.SOLUTION: With respect to a target indicating a stationary object, a grouping unit calculates, for each combination comprising at least three targets, the characteristic values of a circle that passes through positions of all targets included in the combination, and performs grouping regarding the combinations on the basis of the calculated characteristic values of a circle. A curved road determination unit determines a target indicating a curved road side object on the basis of groups grouped by the grouping unit.

Description

本発明は、物体検知装置、物体検知方法、物体検知プログラム、及び動作制御システムに関する。   The present invention relates to an object detection device, an object detection method, an object detection program, and an operation control system.

従来から、レーダ装置を用いて物体を検知し、検知した物体の位置情報を用いて車両の運転を支援する技術、例えば、車間距離警報システムや追突被害軽減ブレーキシステムが提案されている。進行方向が変化する曲線路(カーブ)では、直線路とは異なり進行方向の正面に、壁面やガードレールなど、路面を他の領域と区分する構造物が障害物として検知されることがある。そこで、車両の進行方向における路面が曲線路であるか否かを検知することが提案されてきた。
例えば、特許文献1に記載の車両用道路曲率推定装置では、車幅方向の所定角度範囲内に送信波を照射し、その反射波に基づいて先行車両を検出し、検出した先行車両の横位置の変化率に基づいて車両前方の道路の曲率を算出する。
Conventionally, techniques for detecting an object using a radar device and assisting driving of the vehicle using position information of the detected object, for example, an inter-vehicle distance warning system and a rear-end collision damage reducing brake system have been proposed. In a curved road (curve) in which the traveling direction changes, unlike a straight road, a structure that separates the road surface from other regions, such as a wall surface or a guard rail, may be detected as an obstacle in front of the traveling direction. Therefore, it has been proposed to detect whether or not the road surface in the traveling direction of the vehicle is a curved road.
For example, in the vehicle road curvature estimation apparatus described in Patent Document 1, a transmission wave is irradiated within a predetermined angle range in the vehicle width direction, a preceding vehicle is detected based on the reflected wave, and the lateral position of the detected preceding vehicle is detected. The curvature of the road ahead of the vehicle is calculated based on the rate of change of the vehicle.

特開2001−319299号公報JP 2001-319299 A

しかしながら、特許文献1に記載の車両用道路曲率推定装置では、進行方向の前方に先行車両を検出できない場合には、その横位置が得られないため、曲線路であることを検知することができない。   However, in the vehicular road curvature estimation device described in Patent Document 1, when the preceding vehicle cannot be detected ahead in the traveling direction, the lateral position cannot be obtained, and therefore it cannot be detected that the vehicle is a curved road. .

本発明は上記の点に鑑みてなされたものであり、先行車両が検出されなくとも曲線路を検知できる物体検知装置、物体検知方法、物体検知プログラム、及び動作制御システムを提供する。   The present invention has been made in view of the above points, and provides an object detection device, an object detection method, an object detection program, and an operation control system that can detect a curved road even if a preceding vehicle is not detected.

(1)本発明は上記の課題を解決するためになされたものであり、本発明の一態様は、静止物を表す物標について、少なくとも3個の物標からなる組み合わせ毎に当該組み合わせに含まれる全ての物標の位置を通る円の特性値を算出し、前記算出した円の特性値に基づいて、前記組み合わせに関してグループの分類を行うグルーピング部と、前記グルーピング部が分類したグループに基づいて曲線路側物を表す物標を判定する曲線路判定部と、を備えることを特徴とする物体検知装置である。 (1) The present invention has been made to solve the above problems, and one aspect of the present invention includes a target representing a stationary object in each combination of at least three targets. Calculating a characteristic value of a circle that passes through the positions of all the targets to be determined, and based on the calculated characteristic value of the circle, a grouping unit that classifies the group with respect to the combination, and a group that the grouping unit classifies. An object detection apparatus comprising: a curved road determination unit that determines a target representing a curved roadside object.

(2)本発明の他の態様は、上述の物体検知装置であって、前記グルーピング部は、少なくとも1個の物標が共通する組み合わせを同一のグループに分類することを特徴とする。 (2) Another aspect of the present invention is the object detection device described above, wherein the grouping unit classifies combinations having at least one target in common into the same group.

(3)本発明の他の態様は、上述の物体検知装置であって、前記グルーピング部は、前記円の特性値として半径及び中心位置の方位を用いることを特徴とする。 (3) Another aspect of the present invention is the object detection device described above, wherein the grouping unit uses a radius and an orientation of a center position as the characteristic value of the circle.

(4)本発明の他の態様は、上述の物体検知装置であって、前記グルーピング部は、前記組み合わせに係る円の円周から予め定めた範囲にある位置の物標を当該組み合わせと同一のグループに分類することを特徴とする。 (4) Another aspect of the present invention is the above-described object detection device, wherein the grouping unit is configured so that a target at a position within a predetermined range from the circumference of the circle related to the combination is the same as the combination. It is characterized by classifying into groups.

(5)本発明の他の態様は、上述の物体検知装置であって、前記グルーピング部は、前記少なくとも3個の物標を、前記静止物を表す物標からランダムに選択することを特徴とする。 (5) Another aspect of the present invention is the above-described object detection device, wherein the grouping unit randomly selects the at least three targets from targets representing the stationary object. To do.

(6)本発明の他の態様は、上述の物体検知装置であって、前記物標が分類されるグループの数に基づいて曲線路側物を表すか否かを判断することを特徴とする。 (6) Another aspect of the present invention is the above-described object detection device, characterized in that it is determined whether or not a curved roadside object is represented based on the number of groups into which the target is classified.

(7)本発明の他の態様は、上述の物体検知装置であって、前記曲線路判定部は、物標の数が最も多いグループに分類される物標が曲線路側物を表す物標と判断することを特徴とする。 (7) Another aspect of the present invention is the object detection apparatus described above, wherein the curved road determination unit includes a target in which a target classified into a group having the largest number of targets represents a curved roadside object. It is characterized by judging.

(8)本発明の他の態様は、物体検知装置における物体検知方法であって、前記物体検知装置が、静止物を表す物標について、少なくとも3個の物標からなる組み合わせ毎に当該組み合わせに含まれる全ての物標の位置を通る円の特性値を算出し、前記算出した円の特性値に基づいて、前記組み合わせに関してグループの分類を行う第1の過程と、前記物体検知装置が、前記分類したグループに基づいて曲線路側物を表す物標を判定する第2の過程と、を有することを特徴とする物体検知方法である。 (8) Another aspect of the present invention is an object detection method in an object detection device, wherein the object detection device includes a combination of at least three targets for a target representing a stationary object. A first step of calculating characteristic values of circles passing through the positions of all the included targets, and classifying groups with respect to the combinations based on the calculated characteristic values of the circles, and the object detection device includes: And a second step of determining a target representing a curved roadside object based on the classified group.

(9)本発明の他の態様は、物体検知装置のコンピュータに、静止物を表す物標について、少なくとも3個の物標からなる組み合わせ毎に当該組み合わせに含まれる全ての物標の位置を通る円の特性値を算出し、前記算出した円の特性値に基づいて、前記組み合わせに関してグループの分類を行う手順、前記分類したグループに基づいて曲線路側物を表す物標を判定する手順、を実行させるための物体検知プログラムである。 (9) According to another aspect of the present invention, for a target representing a stationary object, the computer of the object detection apparatus passes through the positions of all the targets included in the combination for each combination of at least three targets. A characteristic value of a circle is calculated, and a procedure for classifying the group with respect to the combination based on the calculated characteristic value of the circle, and a procedure for determining a target representing a curved roadside object based on the classified group are executed. It is an object detection program for making it happen.

(10)本発明の他の態様は、物体検知装置と、前記物体検知装置から入力された物標の位置又は速度に基づいて車両に関する動作を制御する動作制御部を備える動作制御システムであって、前記物体検知装置は、静止物を表す物標について、少なくとも3個の物標からなる組み合わせ毎に当該組み合わせに含まれる全ての物標の位置を通る円の特性値を算出し、前記算出した円の特性値に基づいて、前記組み合わせに関してグループの分類を行うグルーピング部と、前記分類したグループに基づいて曲線路側物を表す物標を判定する曲線路判定部と、を備え、前記動作制御部において、前記曲線路判定部が曲線路側物を表すと判断した物標について、曲線路側物を表すと判断されなかった物標とは、前記車両に関する動作に対して制御の有無もしくは態様が異なることを特徴とする動作制御システムである。 (10) Another aspect of the present invention is an operation control system including an object detection device and an operation control unit that controls an operation related to a vehicle based on a position or speed of a target input from the object detection device. The object detection device calculates a characteristic value of a circle that passes through the positions of all targets included in the combination for each combination including at least three targets for the target representing the stationary object, and calculates the calculated value. A grouping unit that classifies groups with respect to the combination based on a characteristic value of a circle; and a curved road determination unit that determines a target that represents a curved roadside object based on the classified group, the operation control unit The target that is determined not to represent a curved roadside object with respect to the target that is determined to represent the curved roadside object by the curved road determination unit is control over the operation related to the vehicle. Or aspect is the operation control system according to claim different.

(11)本発明の他の態様は、上述の動作制御システムであって、前記動作制御部は、曲線路側物を表すと判断されなかった物標について、曲線路側物を表すと判断された物標に係る円の外部に存在するか、当該円の内部に存在するかに応じて、前記制御を行うか否かを判断することを特徴とする。 (11) Another aspect of the present invention is the motion control system described above, wherein the motion control unit is determined to represent a curved roadside object for a target that has not been determined to represent a curved roadside object. Whether or not to perform the control is determined according to whether the mark exists outside or inside the circle related to the mark.

本発明によれば、先行車両が検出されなくとも曲線路を検知できる。   According to the present invention, a curved road can be detected without detecting a preceding vehicle.

本発明の第1の実施形態に係る動作制御システムの構成を表す概略図である。It is the schematic showing the structure of the operation control system which concerns on the 1st Embodiment of this invention. 本実施形態に係る物体検知装置の構成を表す概略図である。It is the schematic showing the structure of the object detection apparatus which concerns on this embodiment. 本実施形態に係る送信信号と受信信号の一例を表す図である。It is a figure showing an example of the transmission signal and reception signal which concern on this embodiment. IF信号のレベル周波数特性の一例を表す図である。It is a figure showing an example of the level frequency characteristic of IF signal. 本実施形態に係る受信アンテナの配置を表す概念図である。It is a conceptual diagram showing arrangement | positioning of the receiving antenna which concerns on this embodiment. 本実施形態に係る物体検知処理を表すフローチャートである。It is a flowchart showing the object detection process which concerns on this embodiment. 本実施形態に係るカーブ判別処理部の構成を表す概略図である。It is the schematic showing the structure of the curve discrimination | determination process part which concerns on this embodiment. 物標毎の位置情報の一例を表す概念図である。It is a conceptual diagram showing an example of the positional information for every target. 物標の組み合わせに係る円の特性値の一例を示す概念図である。It is a conceptual diagram which shows an example of the characteristic value of the circle which concerns on the combination of a target. 物標の組み合わせのグループの一例を示す概念図である。It is a conceptual diagram which shows an example of the group of the combination of a target. 本実施形態に係るカーブ判別処理を表すフローチャートである。It is a flowchart showing the curve discrimination | determination process which concerns on this embodiment. 本発明の第2の実施形態に係るカーブ判別処理部の構成を表す概略図である。It is the schematic showing the structure of the curve discrimination | determination process part which concerns on the 2nd Embodiment of this invention. グルーピング部が分類した物標のグループの一例を表す概念図である。It is a conceptual diagram showing an example of the group of the target classified by the grouping part. 本実施形態に係るカーブ判別処理を表すフローチャートである。It is a flowchart showing the curve discrimination | determination process which concerns on this embodiment. 自車両と路面の一例を示す概念図である。It is a conceptual diagram which shows an example of the own vehicle and a road surface. 自車両と路面の他の例を示す概念図である。It is a conceptual diagram which shows the other example of the own vehicle and a road surface.

(第1の実施形態)
以下、図面を参照しながら本発明の実施形態について説明する。
図1は、本実施形態に係る動作制御システム1の構成を表す概略図である。
動作制御システム1は、n個(nは1よりも大きい整数)の受信アンテナ101−1〜101−n、送信アンテナ102、物体検知装置11、制御指示部(動作制御部)13、運転支援制御部14及び速度計測部15を含んで構成される。動作制御システム1は、例えば、車両の動作機構や当該車両を運転する運転者への情報の提示を制御する。
(First embodiment)
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a schematic diagram illustrating a configuration of an operation control system 1 according to the present embodiment.
The motion control system 1 includes n (n is an integer greater than 1) receiving antennas 101-1 to 101-n, a transmitting antenna 102, an object detection device 11, a control instruction unit (motion control unit) 13, and driving support control. The unit 14 and the speed measurement unit 15 are included. The operation control system 1 controls, for example, presentation of information to an operation mechanism of a vehicle and a driver driving the vehicle.

物体検知装置11は、信号送受信部110及び位置情報生成部120を含んで構成される。
信号送受信部110は、送信信号を生成し、生成した送信信号を電波で放射する送信アンテナ102に出力する。信号送受信部110は、物体が反射した電波を受信信号として受信する受信アンテナ101−1〜101−nから入力された受信信号と前述の送信信号に基づいて中間周波数(IF;Intermediate Frequency)信号を生成する。信号送受信部110は、入力された受信信号と生成したIF信号を位置情報生成部120に出力する。信号送受信部110の構成については後述する。
The object detection device 11 includes a signal transmission / reception unit 110 and a position information generation unit 120.
The signal transmission / reception unit 110 generates a transmission signal and outputs the generated transmission signal to the transmission antenna 102 that radiates by radio waves. The signal transmission / reception unit 110 receives an intermediate frequency (IF) signal based on the reception signal input from the reception antennas 101-1 to 101-n that receives the radio wave reflected by the object as a reception signal and the transmission signal described above. Generate. The signal transmission / reception unit 110 outputs the input reception signal and the generated IF signal to the position information generation unit 120. The configuration of the signal transmitting / receiving unit 110 will be described later.

位置情報生成部120は、信号送受信部110から入力されたIF信号に基づいて物標(target)毎の距離、方位及び相対速度を算出する。物標とは、検出した物体を表す情報である。位置情報生成部120は、物標毎に、算出した距離、方位及び相対速度を表す位置情報を生成する。   The position information generation unit 120 calculates the distance, direction, and relative speed for each target based on the IF signal input from the signal transmission / reception unit 110. A target is information representing a detected object. The position information generation unit 120 generates position information representing the calculated distance, direction, and relative speed for each target.

位置情報生成部120は、生成した位置情報が静止物の位置を表す物標に係る位置情報であるか否かを、速度計測部15から入力された速度情報に基づいて判断する。
位置情報生成部120は、物標毎の静止物を表す物標であって、少なくとも3個の物標からなる組み合わせ毎に各物標の位置を通る円の特性値を算出し、前記算出した円の特性値に基づいて、前記組み合わせを分類するグループを判断する。位置情報生成部120は、判断したグループに基づいて各物標が曲線路側物を表すか否かを判断し、当該物標が曲線路側物を表すと判断された物標に対して、その旨を表す曲線路情報を生成する。位置情報生成部120は、生成した曲線路情報を位置情報に付加し、曲線路情報を付加した位置情報を制御指示部13に出力する。位置情報生成部120の構成については後述する。
The position information generation unit 120 determines whether the generated position information is position information related to a target representing the position of a stationary object based on the speed information input from the speed measurement unit 15.
The position information generation unit 120 is a target representing a stationary object for each target, calculates a characteristic value of a circle passing through the position of each target for each combination of at least three targets, and calculates the calculated value. Based on the characteristic value of the circle, a group for classifying the combination is determined. The position information generation unit 120 determines whether or not each target represents a curved roadside object based on the determined group, and for the target determined to represent the curved roadside object, that fact Curve path information representing is generated. The position information generation unit 120 adds the generated curved road information to the position information, and outputs the position information to which the curved road information is added to the control instruction unit 13. The configuration of the position information generation unit 120 will be described later.

制御指示部13は、位置情報生成部120から入力された物標毎の位置情報に基づいて制御信号を生成する。この制御信号は、運転支援制御部14が行う車両に係る複数の動作のうちの少なくとも一部、例えば、ブレーキ制御、アクセル制御、警告音の再生の要否を指示するための信号である。制御指示部13は、例えば、入力された位置情報が表す距離が予め定めた第1の閾値よりも小さい物標が含まれる場合に制御信号を生成する。制御指示部13は、その物標の位置情報が表す相対速度が予め定められた速度の閾値よりも小さく、かつその位置情報が表す距離が予め定めた第2の閾値よりも小さい場合に制御信号を生成してもよい。第2の閾値は、第1の閾値よりも小さい値とする。制御指示部13は、生成した制御信号を運転支援制御部14に出力する。
位置情報に曲線路情報が付加されている物標については、制御指示部13は、前述の位置情報に曲線路情報が付加されていない物標とは、制御信号の生成の有無もしくは態様が異なるようにする。例えば、制御指示部13は、位置情報に曲線路情報が付加されている物標については、入力された位置情報が表す距離が予め定めた第1の閾値よりも小さい物標が含まれる場合でも制御信号を生成しなくともよい。制御指示部13は、この場合において、制御信号を生成し、生成した制御信号を予め定めた時間(例えば、0.5秒)経過した後に運転支援制御部14に出力してもよい。
The control instruction unit 13 generates a control signal based on the position information for each target input from the position information generation unit 120. This control signal is a signal for instructing whether or not it is necessary to reproduce at least a part of a plurality of operations related to the vehicle performed by the driving support control unit 14, for example, brake control, accelerator control, and warning sound. For example, the control instruction unit 13 generates a control signal when a target whose distance represented by the input position information is smaller than a predetermined first threshold is included. The control instruction unit 13 controls the control signal when the relative speed represented by the position information of the target is smaller than a predetermined speed threshold and the distance represented by the position information is smaller than a second predetermined threshold. May be generated. The second threshold value is smaller than the first threshold value. The control instruction unit 13 outputs the generated control signal to the driving support control unit 14.
For a target in which curved road information is added to position information, the control instruction unit 13 is different from the above-described target in which curved road information is not added to the position information in whether or not a control signal is generated. Like that. For example, the control instruction unit 13 may include a target in which curved road information is added to the position information, even if the distance represented by the input position information is smaller than a predetermined first threshold. It is not necessary to generate the control signal. In this case, the control instruction unit 13 may generate a control signal and output the generated control signal to the driving support control unit 14 after a predetermined time (for example, 0.5 seconds) has elapsed.

運転支援制御部14は、制御指示部13から入力された制御信号に基づいて車両の運転を支援する機能を制御する。運転支援制御部14は、例えば、警報音制御部141、ブレーキ制御部142及びアクセル制御部143を含んで構成される。警報音制御部141は、制御信号が入力されたとき、物体が接近したことを運転者に警告する警告音を提示する。ブレーキ制御部142は、制御信号が入力され、かつブレーキ動作が行われていないとき、ブレーキ動作を開始させて車両を減速させる。アクセル制御部143は、制御信号が入力され、かつアクセル動作が行われているときアクセル動作を停止させて車両の加速を停止させる。
速度計測部15は、車両の速度を検出し、検出した速度を表す速度信号を位置情報生成部120に出力する。速度計測部15は、例えば速度計(スピードメータ)である。
The driving support control unit 14 controls a function for supporting driving of the vehicle based on the control signal input from the control instruction unit 13. The driving support control unit 14 includes, for example, an alarm sound control unit 141, a brake control unit 142, and an accelerator control unit 143. When the control signal is input, the warning sound control unit 141 presents a warning sound that warns the driver that the object has approached. When the control signal is input and the brake operation is not performed, the brake control unit 142 starts the brake operation and decelerates the vehicle. The accelerator control unit 143 stops the acceleration operation of the vehicle by stopping the accelerator operation when the control signal is input and the accelerator operation is being performed.
The speed measurement unit 15 detects the speed of the vehicle and outputs a speed signal representing the detected speed to the position information generation unit 120. The speed measurement unit 15 is, for example, a speedometer (speedometer).

次に、信号送受信部110の構成について説明する。
図2は、本実施形態に係る物体検知装置11の構成を表す概略図である。
信号送受信部110は、VCO(Voltage Controlled Oscillator、電圧制御発振器)111、n個のミキサ112−1〜112−n、分配器114、n個のフィルタ115−1〜115−n、SW(スイッチ)116、ADC(A/D[Analog−to−Digital、アナログディジタル]コンバータ、受信波取得部)117、制御部118、及び三角波生成部119を備える。
Next, the configuration of the signal transmission / reception unit 110 will be described.
FIG. 2 is a schematic diagram illustrating the configuration of the object detection device 11 according to the present embodiment.
The signal transmission / reception unit 110 includes a VCO (Voltage Controlled Oscillator) 111, n mixers 112-1 to 112-n, a distributor 114, n filters 115-1 to 115-n, and SW (switch). 116, ADC (A / D [Analog-to-Digital, analog-digital] converter, received wave acquisition unit) 117, control unit 118, and triangular wave generation unit 119.

VCO111は、予め定めた周波数の信号を発生させ、発生させた信号を三角波生成部119から入力された三角波信号に基づいて周波数変調して送信信号を生成する。VCO111は、生成した送信信号を分配器114に出力する。
ミキサ112−1〜112−nは、受信アンテナ101−1〜101−nから入力された受信信号を、分配器114から入力された送信信号とそれぞれ混合して、IF信号を生成する。IF信号は、ビート信号と呼ばれることがある。受信アンテナ101−1〜101−nにそれぞれ対応するチャネルをCH−1〜CH−nと呼ぶことがある。IF信号の周波数は、対応する受信信号の周波数と送信信号の周波数の差(ビート周波数)である。ミキサ112−1〜112−nは、生成したCH−1〜CH−nのIF信号をそれぞれフィルタ115−1〜115−nに出力する。
分配器114は、VCO111から入力された送信信号を送信アンテナ102及びミキサ112−1〜112−nに出力する。
The VCO 111 generates a signal having a predetermined frequency, and generates a transmission signal by frequency-modulating the generated signal based on the triangular wave signal input from the triangular wave generation unit 119. The VCO 111 outputs the generated transmission signal to the distributor 114.
The mixers 112-1 to 112-n mix the reception signals input from the reception antennas 101-1 to 101-n with the transmission signals input from the distributor 114 to generate IF signals. The IF signal is sometimes called a beat signal. Channels corresponding to the receiving antennas 101-1 to 101-n may be referred to as CH-1 to CH-n, respectively. The frequency of the IF signal is the difference (beat frequency) between the frequency of the corresponding received signal and the frequency of the transmitted signal. The mixers 112-1 to 112-n output the generated IF signals of CH-1 to CH-n to the filters 115-1 to 115-n, respectively.
The distributor 114 outputs the transmission signal input from the VCO 111 to the transmission antenna 102 and the mixers 112-1 to 112-n.

フィルタ115−1〜115−nは、ミキサ112−1〜112−nから入力されたCH−1〜CH−nのIF信号をそれぞれ帯域制限して、帯域制限したIF信号をSW116に出力する。
SW116は、フィルタ115−1〜115−nから入力されたCH−1〜CH−nのIF信号を、制御部118から入力されたサンプリング信号に同期してチャネルを順次切り替えてADC117に出力する。
ADC117は、SW116から入力されたチャネルが順次切り替えられたアナログのIF信号を、予め定めたサンプリング周波数でA/D変換してディジタルのIF信号に変換し、変換したIF信号を位置情報生成部120の記憶部121に順次記憶させる。
Filters 115-1 to 115-n band-limit the CH-1 to CH-n IF signals input from mixers 112-1 to 112-n and output the band-limited IF signals to SW 116.
The SW 116 sequentially switches the channels of the CH-1 to CH-n IF signals input from the filters 115-1 to 115 -n in synchronization with the sampling signal input from the control unit 118 and outputs the IF signals to the ADC 117.
The ADC 117 performs A / D conversion on the analog IF signal, in which the channel is sequentially switched, input from the SW 116, is converted into a digital IF signal at a predetermined sampling frequency, and the converted IF signal is converted into the position information generation unit 120. Are sequentially stored in the storage unit 121.

制御部118は、物体検知装置11の各部の動作を制御する。制御部118は、例えば、CPU(Central Processing Unit、中央演算装置)である。制御部118は、予め定めたサンプリング周期のサンプリング信号を生成し、生成したサンプリング信号をSW116、ADC117及び三角波生成部119に出力する。
三角波生成部119は、予め定めた変調周波数(もしくは変調周期)の三角波信号を生成し、生成した三角波信号をVCO111に出力する。
三角波は、振幅が予め定めた最小値から最大値まで線形に増加し、振幅が最大値に達した後、最大値から最小値まで線形に減少することを、予め定めた周期Tで繰り返す波形である。これによりVCO111は、予め定めた中心周波数fを中心に変調周期T、周波数変調幅Δfで周波数変調する送信信号を生成する。送信信号には、時間経過に伴って周波数が高くなる上昇部分、周波数が低くなる下降部分がある。
The control unit 118 controls the operation of each unit of the object detection device 11. The control unit 118 is, for example, a CPU (Central Processing Unit). The control unit 118 generates a sampling signal having a predetermined sampling period, and outputs the generated sampling signal to the SW 116, the ADC 117, and the triangular wave generation unit 119.
The triangular wave generation unit 119 generates a triangular wave signal having a predetermined modulation frequency (or modulation period), and outputs the generated triangular wave signal to the VCO 111.
The triangular wave is a waveform in which the amplitude increases linearly from a predetermined minimum value to the maximum value, and decreases linearly from the maximum value to the minimum value after reaching the maximum value at a predetermined period T. is there. As a result, the VCO 111 generates a transmission signal that is frequency-modulated with a modulation period T and a frequency modulation width Δf around a predetermined center frequency f 0 . The transmission signal has a rising portion where the frequency increases with time and a falling portion where the frequency decreases.

次に、位置情報生成部120の構成について説明する。
位置情報生成部120は、記憶部121、受信強度算出部122、DBF(Digital Beam Forming、ディジタルビームフォーミング)処理部123、距離検出部124、速度検出部125、方位検出部126、物標引継ぎ処理部127、カーブ判別処理部128及び物標出力処理部129を含んで構成される。
Next, the configuration of the position information generation unit 120 will be described.
The position information generation unit 120 includes a storage unit 121, a reception intensity calculation unit 122, a DBF (Digital Beam Forming) processing unit 123, a distance detection unit 124, a speed detection unit 125, an azimuth detection unit 126, and a target takeover process. A unit 127, a curve discrimination processing unit 128, and a target output processing unit 129.

受信強度算出部122は、記憶部121からチャネル毎のIF信号を読み出し、読み出したIF信号を、例えばフーリエ変換して周波数領域の複素数データを算出する。受信強度算出部122は、算出したチャネル毎の複素数データをDBF処理部123に出力する。
受信強度算出部122は、全チャネルの複素数データを加算した加算値に基づいてスペクトルを算出する。なお、受信強度算出部122は、いずれかのチャネルの複素数データに基づいてスペクトルを算出してもよいが、加算値に基づいてスペクトルを算出することでノイズ成分が平均化されてS/N(Signal to Noise)比が向上する。
受信強度算出部122は、算出したスペクトルから、予め定めたレベルの閾値を越え、レベルが極大になる部分を、上述の上昇部分及び下降部分それぞれについて信号レベルのピークとして検出する。受信強度算出部122は、検出したピークの周波数を表すピーク周波数情報を生成し、生成したピーク周波数情報を距離検出部124及び速度検出部125に出力する。
受信強度算出部122は、ピークを検出できなかった場合には、物標が検出できなかったことを表す位置情報を生成し、生成した位置情報を物標出力処理部129に出力する。
The reception intensity calculation unit 122 reads the IF signal for each channel from the storage unit 121, and calculates the complex number data in the frequency domain by, for example, Fourier transforming the read IF signal. The reception intensity calculation unit 122 outputs the calculated complex number data for each channel to the DBF processing unit 123.
The reception intensity calculation unit 122 calculates a spectrum based on an addition value obtained by adding complex number data of all channels. The reception intensity calculation unit 122 may calculate the spectrum based on the complex number data of one of the channels, but the noise component is averaged by calculating the spectrum based on the added value, and the S / N ( (Signal to Noise) ratio is improved.
The reception intensity calculation unit 122 detects, from the calculated spectrum, a portion that exceeds a predetermined level threshold and has a maximum level as a signal level peak for each of the above-described rising portion and falling portion. The reception intensity calculation unit 122 generates peak frequency information representing the detected peak frequency, and outputs the generated peak frequency information to the distance detection unit 124 and the speed detection unit 125.
When the peak cannot be detected, the reception intensity calculation unit 122 generates position information indicating that the target has not been detected, and outputs the generated position information to the target output processing unit 129.

DBF処理部123は、受信強度算出部122から入力されたチャネル毎の複素数データをアンテナの配列方向(チャネル方向)にさらにフーリエ変換(空間軸フーリエ変換)して空間周波数領域の複素数データを生成する。DBF処理部123は、生成した複素数データから、予め定めた角度分解能の角度チャネル毎にスペクトルの強度である受信強度を算出し、算出した受信強度を示す受信強度情報を生成する。DBF処理部123は、生成した受信強度情報を方位検出部126に出力する。   The DBF processing unit 123 further performs Fourier transform (spatial axis Fourier transform) on the complex number data for each channel input from the reception intensity calculation unit 122 in the antenna arrangement direction (channel direction) to generate complex number data in the spatial frequency domain. . The DBF processing unit 123 calculates a reception intensity that is a spectrum intensity for each angle channel with a predetermined angular resolution from the generated complex number data, and generates reception intensity information indicating the calculated reception intensity. The DBF processing unit 123 outputs the generated reception intensity information to the direction detection unit 126.

距離検出部124は、受信強度算出部122から入力されたピーク周波数が表す上昇部分の周波数fと下降部分の周波数fに基づいて物標毎に当該物標が表す物体までの距離Rを、例えば、式(1)を用いて算出する。 The distance detection unit 124 calculates the distance R to the object represented by the target for each target based on the ascending portion frequency f u and the descending portion frequency f d represented by the peak frequency input from the reception intensity calculating unit 122. For example, it calculates using Formula (1).

Figure 2013218467
Figure 2013218467

式(1)において、cは光速度、Tは変調周期をそれぞれ表す。即ち、式(1)は、上昇部分又は下降部分の経過時間T/2内に光が進行する距離c・T/2を、上昇部分の周波数fと下降部分の周波数fを物標毎に平均した平均値の変調周波数Δfに対する比を乗じて距離Rが与えられることを示す。距離検出部124は、算出した物標毎の距離Rを表す距離情報を物標引継ぎ処理部127に出力する。 In equation (1), c represents the speed of light and T represents the modulation period. In other words, the expression (1) shows the distance c · T / 2 where the light travels within the elapsed time T / 2 of the rising portion or the falling portion, the frequency f u of the rising portion and the frequency f d of the falling portion for each target. Is multiplied by the ratio of the averaged average value to the modulation frequency Δf to give the distance R. The distance detection unit 124 outputs distance information representing the calculated distance R for each target to the target takeover processing unit 127.

速度検出部125は、受信強度算出部122から入力されたピーク周波数が表す上昇部分の周波数fと下降部分の周波数fに基づいて物体の相対速度Vを、例えば、式(2)を用いて算出する。 The speed detection unit 125 uses the relative speed V of the object based on the frequency f u of the rising portion and the frequency f d of the falling portion represented by the peak frequency input from the reception intensity calculation unit 122, for example, using Equation (2). To calculate.

Figure 2013218467
Figure 2013218467

即ち、式(2)は、光速度cを、上昇部分の周波数fと下降部分の周波数fの差分との中心周波数fに対する比を乗じて相対速度Vが与えられることを示す。速度検出部125は、算出した物体毎の相対速度Vを表す速度情報を物標引継ぎ処理部127に出力する。 That is, Equation (2) indicates that the relative velocity V is given by multiplying the light velocity c by the ratio of the difference between the frequency f u of the rising portion and the frequency f d of the falling portion to the center frequency f 0 . The speed detection unit 125 outputs speed information representing the calculated relative speed V for each object to the target takeover processing unit 127.

方位検出部126は、DBF処理部123から入力された受信強度情報が示す受信強度が最大となる角度φを物標が表す物体の方位として検出し、検出した方位を表す方位情報を生成する。方位検出部126は、生成した方位情報を物標引継ぎ処理部127に出力する。   The azimuth detecting unit 126 detects the angle φ at which the reception intensity indicated by the reception intensity information input from the DBF processing unit 123 is maximum as the azimuth of the object represented by the target, and generates azimuth information representing the detected azimuth. The bearing detection unit 126 outputs the generated bearing information to the target takeover processing unit 127.

物標引継ぎ処理部127は、距離検出部124から距離情報が、速度検出部125から速度情報が、方位検出部126から方位情報がそれぞれ入力される。物標引継ぎ処理部127は、記憶部121から前回の変調周期に係る距離情報、速度情報及び方位情報を読み出す。物標引継ぎ処理部127は、現在の変調周期で算出した距離、相対距離、方位が、前回の変調周期で算出した距離、相対距離、方位とのそれぞれの差分値が、それぞれの差分値毎に予め定められた閾値よりも小さいか否か判断する。それぞれの差分値毎に予め定められた閾値よりも小さいと判断された場合、物標引継ぎ処理部127は、現在の変調周期に係る物標と前回の変調周期に係る物標が同一であると判定する。その場合、物標引継ぎ処理部127は、その物標の物標引継ぎ回数を1だけ増加させ、その物標と現在の変調周期に係る距離情報、速度情報及び方位情報を対応付けて記憶部121に記憶する。また、物標引継ぎ処理部127は、その物標と現在の変調周期に係る距離情報、速度情報及び方位情報を対応付けてカーブ判別処理部128に出力する。   The target takeover processing unit 127 receives distance information from the distance detection unit 124, speed information from the speed detection unit 125, and direction information from the direction detection unit 126. The target takeover processing unit 127 reads distance information, speed information, and direction information related to the previous modulation cycle from the storage unit 121. The target takeover processing unit 127 calculates the difference value between the distance, the relative distance, and the azimuth calculated in the current modulation cycle and the distance, the relative distance, and the azimuth calculated in the previous modulation cycle for each difference value. It is determined whether or not it is smaller than a predetermined threshold value. When it is determined that each difference value is smaller than a predetermined threshold value, the target handover processing unit 127 determines that the target related to the current modulation period and the target related to the previous modulation period are the same. judge. In that case, the target takeover processing unit 127 increases the target takeover frequency of the target by 1, and associates the target with the distance information, speed information, and azimuth information related to the current modulation period, and stores the storage unit 121. To remember. Further, the target takeover processing unit 127 associates the target with the distance information, speed information, and azimuth information related to the current modulation period, and outputs them to the curve determination processing unit 128.

現在の変調周期に係る物標と前回の変調周期に係る物標が同一でないと判定された場合、物標引継ぎ処理部127は、新たな物体を検知したと判定する。物標引継ぎ処理部127は、新たな物体を表す物標を生成し、生成した物標と今回の変調周期に係る距離情報、速度情報及び方位情報を対応付けて記憶部121に記憶する。また、物標引継ぎ処理部127は、その物標と現在の変調周期に係る距離情報、速度情報及び方位情報を対応付けてカーブ判別処理部128に出力する。以下、距離情報、速度情報及び方位情報を位置情報と総称することがある。   When it is determined that the target related to the current modulation cycle and the target related to the previous modulation cycle are not the same, the target handover processing unit 127 determines that a new object has been detected. The target takeover processing unit 127 generates a target representing a new object, and stores the generated target in association with the distance information, speed information, and direction information related to the current modulation cycle in the storage unit 121. Further, the target takeover processing unit 127 associates the target with the distance information, speed information, and azimuth information related to the current modulation period, and outputs them to the curve determination processing unit 128. Hereinafter, distance information, speed information, and direction information may be collectively referred to as position information.

カーブ判別処理部128は、物標引継ぎ処理部127から物標と対応付けて位置情報が入力される。カーブ判別処理部128は、物標引継ぎ処理部127から入力された位置情報の速度情報が表す相対速度と、速度計測部15から入力された速度情報が表す速度が相殺する場合に、入力された位置情報が静止物の位置を表す位置情報であると判断する。
カーブ判別処理部128は、少なくとも3個の物標からなる組み合わせ毎に各物標を通る円の特性値を算出し、算出した円の特性値に基づいて、組み合わせが属するグループを判断する。カーブ判別処理部128は、判断したグループに基づいて各物標が曲線路側物を表すか否かを判断し、曲線路側物を表すと判断された物標に対して、その旨を表す曲線路情報を生成する。カーブ判別処理部128は、生成した曲線路情報を位置情報に付加し、曲線路情報を付加した位置情報を物標と対応付けて物標出力処理部129に出力する。カーブ判別処理部128の構成については後述する。
The curve determination processing unit 128 receives position information from the target takeover processing unit 127 in association with the target. The curve determination processing unit 128 is input when the relative speed represented by the speed information of the position information input from the target takeover processing unit 127 and the speed represented by the speed information input from the speed measurement unit 15 cancel each other. It is determined that the position information is position information representing the position of a stationary object.
The curve determination processing unit 128 calculates a characteristic value of a circle passing through each target for each combination of at least three targets, and determines a group to which the combination belongs based on the calculated characteristic value of the circle. The curve determination processing unit 128 determines whether or not each target represents a curved roadside object based on the determined group, and for a target determined to represent a curved roadside object, a curved road indicating that fact. Generate information. The curve discrimination processing unit 128 adds the generated curved road information to the position information, and outputs the positional information to which the curved road information is added to the target output processing unit 129 in association with the target. The configuration of the curve discrimination processing unit 128 will be described later.

物標出力処理部129は、受信強度算出部122又はカーブ判別処理部128から入力された位置情報を制御指示部13に出力する。   The target output processing unit 129 outputs the position information input from the reception intensity calculation unit 122 or the curve discrimination processing unit 128 to the control instruction unit 13.

(距離、相対速度の検出)
次に、位置情報生成部120が距離及び相対速度を検出する原理について説明する。
図3は、本実施形態に係る送信信号と受信信号の一例を表す図である。
図3において、横軸は時刻を表し、縦軸は周波数を表す。
図3の上段は、送信信号の周波数を太い実線で表し、受信信号の周波数を太い破線で表す。送信信号は、中心周波数fを中心に変調幅Δfで周波数変調している。図3に示す例では、受信信号は、ΔTだけ遅延しδfだけ周波数が偏移する。遅延は、送信信号が送信されてから、物体がその送信信号を反射して生じた受信信号を受信するまでに経過するまでの時間である。周波数の偏移は、物体までの相対速度Vが生じることによるドップラー効果によるものである。従って、物標が表す物体までの距離Rが大きくなるほど、遅延時間ΔTが大きくなり、その物体の相対速度が大きくなるほど周波数偏移δfが大きくなる。
(Detection of distance and relative speed)
Next, the principle that the position information generation unit 120 detects the distance and the relative speed will be described.
FIG. 3 is a diagram illustrating an example of a transmission signal and a reception signal according to the present embodiment.
In FIG. 3, the horizontal axis represents time, and the vertical axis represents frequency.
In the upper part of FIG. 3, the frequency of the transmission signal is represented by a thick solid line, and the frequency of the reception signal is represented by a thick broken line. The transmission signal is frequency-modulated with a modulation width Δf around the center frequency f 0 . In the example shown in FIG. 3, the received signal is delayed by ΔT and shifted in frequency by δf. The delay is the time from when the transmission signal is transmitted until the reception signal received by the object reflecting the transmission signal is elapsed. The frequency shift is due to the Doppler effect caused by the relative velocity V to the object. Therefore, the delay time ΔT increases as the distance R to the object represented by the target increases, and the frequency shift δf increases as the relative speed of the object increases.

図3の下段は、IF信号の周波数を実線で表す。IF信号の周波数は、受信信号の周波数と送信信号の周波数との差分についての絶対値である。図3の下段に示すIF信号の周波数は、受信強度算出部122が検出するピークの周波数である。上昇部分では、IF信号の周波数はfである。上昇部分とは、送信信号、受信信号ともに周波数が時間経過とともに高くなる区間である。図3では時刻ΔTからT/2である。下降部分では、IF信号の周波数はfである。下降部分とは、送信信号、受信信号ともに周波数が時間経過とともに低くなる区間である。図3では時刻T/2+ΔTからΔTである。上述の変調幅Δf、周波数偏移δfは、上昇部分の周波数f及び下降部分の周波数fによって定められる。従って、本実施形態では、受信強度算出部122が検出した上昇部分の周波数f及び下降部分の周波数fに基づいて距離R、相対速度Vを算出することができる。 The lower part of FIG. 3 represents the frequency of the IF signal with a solid line. The frequency of the IF signal is an absolute value for the difference between the frequency of the reception signal and the frequency of the transmission signal. The frequency of the IF signal shown in the lower part of FIG. 3 is a peak frequency detected by the reception intensity calculation unit 122. The rising portion, the frequency of the IF signal is f u. The rising portion is a section in which the frequency of both the transmission signal and the reception signal increases with time. In FIG. 3, it is T / 2 from time ΔT. The descending portion, the frequency of the IF signal is f d. The descending portion is a section in which the frequency of both the transmission signal and the reception signal decreases with time. In FIG. 3, it is ΔT from time T / 2 + ΔT. The above-described modulation width Δf and frequency deviation δf are determined by the frequency f u of the rising portion and the frequency f d of the falling portion. Accordingly, in the present embodiment, the distance R and the relative speed V can be calculated based on the ascending portion frequency f u and the descending portion frequency f d detected by the reception intensity calculating unit 122.

図4は、IF信号のレベル周波数特性の一例を表す図である。
図4において、横軸は周波数を表し、縦軸はレベルを表す。
図4の上段は、上昇部分におけるIF信号のレベルを表す。IF信号のレベルは、上昇部分において周波数fにおいてピークを有する。図4の下段は、下降部分におけるIF信号のレベルを表す。IF信号のレベルは、下降部分において周波数fにおいてピークを有する。
受信強度算出部122は、複数の物標にそれぞれ対応したピークの周波数を検出することがある。その場合には、受信強度算出部122は、上昇部分、下降部分それぞれについて、周波数が小さい順に共通の識別番号と対応付けてピーク周波数情報を生成し、生成したピーク周波数情報を距離検出部124、速度検出部125に出力する。
FIG. 4 is a diagram illustrating an example of the level frequency characteristic of the IF signal.
In FIG. 4, the horizontal axis represents frequency and the vertical axis represents level.
The upper part of FIG. 4 represents the level of the IF signal in the rising portion. The level of the IF signal has a peak at the frequency fu in the rising part. The lower part of FIG. 4 represents the level of the IF signal in the descending part. Level of the IF signal has a peak at frequency f d at the falling portion.
The reception intensity calculation unit 122 may detect peak frequencies respectively corresponding to a plurality of targets. In that case, the reception strength calculation unit 122 generates peak frequency information in association with common identification numbers in ascending order of frequency for each of the rising portion and the falling portion, and the generated peak frequency information is used as the distance detection unit 124, Output to the speed detector 125.

(方位の検出)
次に、方位検出部126が、物標が表す物体の方位を検出する原理について説明する。
図5は、本実施形態に係る受信アンテナ101−1〜101−nの配置を表す概念図である。
受信アンテナ101−2〜101−nは、基準となる受信アンテナ、例えば受信アンテナ101−1から、それぞれ間隔d〜dn−1だけ離れた位置に配列されている。受信アンテナ101−1〜101−nの配列面に対して方位φから物体からの受信信号が到来すると、受信アンテナ間で位相差が生じる。方位φは、配列面に垂直な軸を基準にした角度である。例えば、受信アンテナ101−1と101−nの間の位相差は、2πf(dn−1・sinφ/C)である。
DBF処理部123は、上述の処理により、チャネル毎の受信信号に対して各方位φに対する位相差が補償されるように、各方位に対応した角度チャネル毎のスペクトル強度である受信強度を算出する。従って、方位検出部126では、DBF処理部123が算出した受信強度が最大になる方位φを、物標が表す物体の方位と推定することができる。
(Direction detection)
Next, the principle by which the direction detection unit 126 detects the direction of the object represented by the target will be described.
FIG. 5 is a conceptual diagram showing the arrangement of the receiving antennas 101-1 to 101-n according to this embodiment.
Receiving antennas 101-2 through 101-n is, a primary reception antenna, from, for instance, a receive antenna 101-1 are arranged at a position separated by the distance d 1 ~d n-1, respectively. When a reception signal from an object arrives from the azimuth φ with respect to the arrangement plane of the reception antennas 101-1 to 101-n, a phase difference occurs between the reception antennas. The direction φ is an angle with respect to an axis perpendicular to the arrangement surface. For example, the phase difference between the receiving antennas 101-1 and 101-n is 2πf (dn −1 · sin φ / C).
The DBF processing unit 123 calculates a reception intensity that is a spectrum intensity for each angle channel corresponding to each azimuth so that the phase difference with respect to each azimuth φ is compensated for the reception signal for each channel by the above-described processing. . Therefore, the azimuth detecting unit 126 can estimate the azimuth φ at which the reception intensity calculated by the DBF processing unit 123 is maximum as the azimuth of the object represented by the target.

(物体検知処理)
次に本実施形態に係る物体検知処理について説明する。
図6は、本実施形態に係る物体検知処理を表すフローチャートである。
(ステップS101)ADC117は、受信信号と送信信号をミキシングして生成されたアナログIF信号を、ディジタルのIF信号に変換し、変換したIF信号を位置情報生成部120の記憶部121に順次記憶させる(データ格納)。その後、ステップS102に進む。
(ステップS102)受信強度算出部122は、記憶部121からチャネル毎のIF信号を、フーリエ変換して周波数領域の複素数データを算出する。受信強度算出部122は、算出したチャネル毎の複素数データをDBF処理部123に出力する。その後、ステップS103に進む。
(ステップS103)DBF処理部123は、受信強度算出部122から入力されたチャネル毎の複素数データをアンテナの配列方向にさらにフーリエ変換して空間周波数領域の複素数データを生成する。DBF処理部123は、生成した複素数データに基づいて、予め定めた角度チャネル毎に受信強度を算出し、算出した受信強度を示す受信強度情報を生成する。DBF処理部123は、生成した受信強度情報を方位検出部126に出力する。その後、ステップS104に進む。
(Object detection processing)
Next, the object detection process according to the present embodiment will be described.
FIG. 6 is a flowchart showing object detection processing according to the present embodiment.
(Step S101) The ADC 117 converts the analog IF signal generated by mixing the reception signal and the transmission signal into a digital IF signal, and sequentially stores the converted IF signal in the storage unit 121 of the position information generation unit 120. (Data storage). Thereafter, the process proceeds to step S102.
(Step S <b> 102) The reception intensity calculation unit 122 performs Fourier transform on the IF signal for each channel from the storage unit 121 and calculates complex number data in the frequency domain. The reception intensity calculation unit 122 outputs the calculated complex number data for each channel to the DBF processing unit 123. Thereafter, the process proceeds to step S103.
(Step S <b> 103) The DBF processing unit 123 further performs Fourier transform on the complex number data for each channel input from the reception intensity calculation unit 122 in the antenna arrangement direction to generate complex number data in the spatial frequency domain. The DBF processing unit 123 calculates reception strength for each predetermined angle channel based on the generated complex number data, and generates reception strength information indicating the calculated reception strength. The DBF processing unit 123 outputs the generated reception intensity information to the direction detection unit 126. Thereafter, the process proceeds to step S104.

(ステップS104)受信強度算出部122は、全チャネルの複素数データを加算した加算値に基づいてスペクトルを算出する。受信強度算出部122は、算出したスペクトルから、予め定めたレベルの閾値を越え、レベルが極大になる部分を、上述の上昇部分及び下降部分それぞれについて信号レベルのピークとして検出する。受信強度算出部122は、検出したピークの周波数を表すピーク周波数情報を生成し、生成したピーク周波数情報を距離検出部124及び速度検出部125に出力する。その後、ステップS105に進む。 (Step S104) The reception intensity calculation unit 122 calculates a spectrum based on an addition value obtained by adding complex number data of all channels. The reception intensity calculation unit 122 detects, from the calculated spectrum, a portion that exceeds a predetermined level threshold and has a maximum level as a signal level peak for each of the above-described rising portion and falling portion. The reception intensity calculation unit 122 generates peak frequency information representing the detected peak frequency, and outputs the generated peak frequency information to the distance detection unit 124 and the speed detection unit 125. Thereafter, the process proceeds to step S105.

(ステップS105)距離検出部124は、受信強度算出部122から入力されたピーク周波数が表す上昇部分の周波数fと下降部分の周波数fに基づいて物標が表す物体までの距離Rを、例えば、式(1)を用いて算出する。距離検出部124は、算出した物標毎の距離Rを表す距離情報を物標引継ぎ処理部127に出力する。
速度検出部125は、受信強度算出部122から入力されたピーク周波数が表す上昇部分の周波数fと下降部分の周波数fに基づいて物標が表す物体の相対速度Vを、例えば、式(2)を用いて算出する。速度検出部125は、算出した物標毎の相対速度Vを表す速度情報を物標引継ぎ処理部127に出力する。その後、ステップS106に進む。
(Step S105) The distance detection unit 124 calculates the distance R to the object represented by the target based on the frequency f u of the rising portion represented by the peak frequency input from the reception intensity calculation unit 122 and the frequency f d of the falling portion. For example, the calculation is performed using Expression (1). The distance detection unit 124 outputs distance information representing the calculated distance R for each target to the target takeover processing unit 127.
The speed detection unit 125 calculates the relative velocity V of the object represented by the target based on the frequency f u of the rising portion and the frequency f d of the falling portion represented by the peak frequency input from the reception intensity calculation unit 122, for example, 2). The speed detection unit 125 outputs speed information indicating the calculated relative speed V for each target to the target takeover processing unit 127. Thereafter, the process proceeds to step S106.

(ステップS106)方位検出部126は、DBF処理部123から入力された受信強度情報が示す受信強度が最大となる角度φを、物標が表す物体の方位として検出し、検出した方位を表す方位情報を生成する。方位検出部126は、生成した方位情報を物標引継ぎ処理部127に出力する。その後、ステップS107に進む。 (Step S106) The direction detection unit 126 detects the angle φ at which the reception intensity indicated by the reception intensity information input from the DBF processing unit 123 is maximum as the direction of the object represented by the target, and represents the detected direction. Generate information. The bearing detection unit 126 outputs the generated bearing information to the target takeover processing unit 127. Thereafter, the process proceeds to step S107.

(ステップS107)物標引継ぎ処理部127は、位置情報として、距離検出部124から距離情報が、速度検出部125から速度情報が、方位検出部126から方位情報がそれぞれ入力される。物標引継ぎ処理部127は、記憶部121から前回の変調周期に係る位置情報を読み出す。現在の変調周期で算出した位置情報と、前回の変調周期で算出した位置情報との差分値が、予め定められた閾値よりも小さい場合、物標引継ぎ処理部127は、現在の変調周期に係る物標と前回の変調周期に係る物標が同一であると判定する。その場合、物標引継ぎ処理部127は、その物標と現在の変調周期に係る位置情報を対応付けて記憶部121に記憶し、カーブ判別処理部128に出力する。
現在の変調周期に係る物体と前回の変調周期に係る物標が同一でないと判定した場合、物標引継ぎ処理部127は、新たな物標(識別番号)を生成し、生成した物標と現在の変調周期に係る位置情報を対応付けて記憶部121に記憶し、カーブ判別処理部128に出力する。その後、ステップS108に進む。
(Step S107) The target takeover processing unit 127 receives position information from the distance detection unit 124, speed information from the speed detection unit 125, and direction information from the direction detection unit 126 as position information. The target takeover processing unit 127 reads position information related to the previous modulation cycle from the storage unit 121. When the difference value between the position information calculated in the current modulation cycle and the position information calculated in the previous modulation cycle is smaller than a predetermined threshold, the target takeover processing unit 127 relates to the current modulation cycle. It is determined that the target and the target related to the previous modulation cycle are the same. In that case, the target takeover processing unit 127 associates the target with the position information related to the current modulation period, stores them in the storage unit 121, and outputs them to the curve determination processing unit 128.
When it is determined that the object related to the current modulation cycle and the target related to the previous modulation cycle are not the same, the target handover processing unit 127 generates a new target (identification number), and the generated target and the current target Are stored in the storage unit 121 in association with each other and output to the curve discrimination processing unit 128. Thereafter, the process proceeds to step S108.

(ステップS108)カーブ判別処理部128は、物標引継ぎ処理部127から物標と対応付けて位置情報が入力される。カーブ判別処理部128は、速度計測部15から入力された速度情報に基づいて、入力された位置情報は静止物の位置を表す位置情報であるか否か判断する。
カーブ判別処理部128は、少なくとも3個の静止した物体を表す物標の組み合わせ毎に各物標の位置を通る円の特性値を算出し、算出した円の特性値に基づいて、組み合わせが属するグループを判断する。カーブ判別処理部128は、判断したグループに基づいて各物標が曲線路側物を表すか否かを判断し、曲線路側物を表すと判断された物標に対して、その旨を表す曲線路情報を生成する。カーブ判別処理部128は、生成した曲線路情報を位置情報に付加し、曲線路情報を付加した位置情報を物標と対応付けて物標出力処理部129に出力する。その後、ステップS109に進む。
(ステップS109)物標出力処理部129は、受信強度算出部122又はカーブ判別処理部128から入力された位置情報を制御指示部13に出力する。その後、処理を終了する。
(Step S <b> 108) The curve determination processing unit 128 receives position information associated with the target from the target takeover processing unit 127. Based on the speed information input from the speed measurement unit 15, the curve determination processing unit 128 determines whether the input position information is position information representing the position of a stationary object.
The curve determination processing unit 128 calculates a characteristic value of a circle passing through the position of each target for each combination of targets representing at least three stationary objects, and the combination belongs based on the calculated characteristic value of the circle. Determine the group. The curve determination processing unit 128 determines whether or not each target represents a curved roadside object based on the determined group, and for a target determined to represent a curved roadside object, a curved road indicating that fact. Generate information. The curve discrimination processing unit 128 adds the generated curved road information to the position information, and outputs the positional information to which the curved road information is added to the target output processing unit 129 in association with the target. Thereafter, the process proceeds to step S109.
(Step S109) The target output processing unit 129 outputs the position information input from the reception intensity calculation unit 122 or the curve discrimination processing unit 128 to the control instruction unit 13. Thereafter, the process ends.

(カーブ判別処理部)
次に、カーブ判別処理部128の構成について説明する。
図7は、本実施形態に係るカーブ判別処理部128の構成を表す概略図である。
カーブ判別処理部128は、静止物判定部1281、グルーピング部1282及びカーブ判定部1283を含んで構成される。
(Curve discrimination processing part)
Next, the configuration of the curve discrimination processing unit 128 will be described.
FIG. 7 is a schematic diagram illustrating the configuration of the curve determination processing unit 128 according to the present embodiment.
The curve determination processing unit 128 includes a stationary object determination unit 1281, a grouping unit 1282, and a curve determination unit 1283.

静止物判定部1281には、物標引継ぎ処理部127から物標と対応付けて位置情報が入力される。静止物判定部1281は、物標引継ぎ処理部127から入力された位置情報に含まれる速度情報が表す相対速度と、速度計測部15から入力された速度情報が表す速度が相殺する場合、入力された位置情報が静止物の位置を表す位置情報であると判断する。ここで、静止物判定部1281は、物標引継ぎ処理部127から入力された位置情報の速度情報が表す相対速度と、速度計測部15から入力された速度情報が表す速度との差分についての絶対値が予め定めた閾値よりも小さい場合に、両者が相殺すると判断する。静止物判定部1281は、物標と、静止物の位置を表すと判断された位置情報とを対応付けてグルーピング部1282に出力する。静止物判定部1281は、物標と、静止物の位置を表すと判断されなかった位置情報とを対応付けて物標出力処理部129に出力する。   Position information is input to the stationary object determination unit 1281 in association with the target from the target takeover processing unit 127. The stationary object determination unit 1281 is input when the relative speed represented by the speed information included in the position information input from the target takeover processing unit 127 and the speed represented by the speed information input from the speed measurement unit 15 cancel each other. It is determined that the received position information is position information representing the position of the stationary object. Here, the stationary object determination unit 1281 calculates the absolute difference between the relative speed represented by the speed information of the position information input from the target takeover processing unit 127 and the speed represented by the speed information input from the speed measurement unit 15. When the value is smaller than a predetermined threshold value, it is determined that both cancel each other. The stationary object determination unit 1281 associates the target with the position information determined to represent the position of the stationary object, and outputs it to the grouping unit 1282. The stationary object determination unit 1281 associates the target with position information that has not been determined to represent the position of the stationary object, and outputs it to the target output processing unit 129.

グルーピング部1282には、静止物判定部1281から物標と位置情報が対応付けられて入力される。グルーピング部1282は、入力された3個の物標からなる組み合わせ毎に、その組み合わせに属する3個の物標の位置情報が表す位置をそれぞれ通る円の特性値として半径及び中心位置を算出する。グルーピング部1282は、例えば、式(3)に示す関係をいずれも満足する半径r及び中心座標(c,c)を算出する。 The target and position information are input to the grouping unit 1282 in association with each other from the stationary object determination unit 1281. The grouping unit 1282 calculates a radius and a center position as characteristic values of circles passing through the positions represented by the position information of the three targets belonging to the combination for each combination of the three input targets. For example, the grouping unit 1282 calculates a radius r and center coordinates (c x , c y ) that satisfy all of the relationships shown in Expression (3).

Figure 2013218467
Figure 2013218467

式(3)において、各座標値は、受信アンテナ101−1〜101−nの各位置の重心を原点とする2次元の直交座標で表されている。x方向は、受信アンテナ101−1〜101−nの配列方向であって水平面に平行な方向である。y方向は、受信アンテナ101−1〜101−nの配列方向に直交する方向であって水平面に平行な方向である。(x,y)、(x,y)、(x,y)は、3個の物標に係る座標をそれぞれ示す。
従って、入力された位置情報の個数がNである場合、グルーピング部1282は、K(=)個の組み合わせのうち全部又は一部(L個、Lは2より大きくKより小さい予め定められた整数)について、組み合わせ毎に半径r及び中心座標(c,c)を算出する。ここで、は、N・(N−1)・(N−2)/(3・2・1)である。グルーピング部1282は、L個の組み合わせを選択する場合、N個の物標から3個の物標をランダムに選択する処理をL回繰り返す。
なお、物標をランダムに選択する代わりに、グルーピング部1282は、その他の順序で物標を選択する処理を繰り返してもよい。グルーピング部1282は、例えば、各物標に対応した位置情報が表す距離の昇順、その降順、等を用いてもよい。
In equation (3), each coordinate value is represented by two-dimensional orthogonal coordinates with the center of gravity of each position of the receiving antennas 101-1 to 101-n as the origin. The x direction is an arrangement direction of the receiving antennas 101-1 to 101-n and is parallel to the horizontal plane. The y direction is a direction orthogonal to the arrangement direction of the receiving antennas 101-1 to 101-n and parallel to the horizontal plane. (X 0 , y 0 ), (x 1 , y 1 ), and (x 2 , y 2 ) indicate the coordinates relating to the three targets, respectively.
Therefore, when the number of pieces of input position information is N, the grouping unit 1282 determines in advance all or a part of the K (= N C 3 ) combinations (L, L is greater than 2 and smaller than K). The radius r and the center coordinates (c x , c y ) are calculated for each combination. Here, N C 3 is N · (N−1) · (N−2) / (3 · 2 · 1). When selecting the L combinations, the grouping unit 1282 repeats the process of randomly selecting three targets from N targets L times.
Instead of randomly selecting the target, the grouping unit 1282 may repeat the process of selecting the target in another order. The grouping unit 1282 may use, for example, the ascending order of the distance represented by the position information corresponding to each target, the descending order thereof, or the like.

グルーピング部1282は、K個(又はL個のうち)各1つの組み合わせと他の1つの組み合わせが、後述のグルーピング条件を満たすか否かを判断する。そのグルーピング条件を満たすと判断された場合に、グルーピング部1282は、その1つの組み合わせと他の1つの組み合わせを同一のグループに分類する。グルーピング部1282は、同一のグループに分類した組み合わせに属する各物標に対してグルーピング情報を生成する。グルーピング情報は、当該グループに分類されたことを表す情報、例えば、各グループを識別するグルーピングフラグである。   The grouping unit 1282 determines whether one combination of K pieces (or L pieces) and the other combination satisfy a grouping condition described later. When it is determined that the grouping condition is satisfied, the grouping unit 1282 classifies the one combination and the other combination into the same group. The grouping unit 1282 generates grouping information for each target belonging to the combinations classified into the same group. The grouping information is information indicating that the group has been classified, for example, a grouping flag for identifying each group.

上述のグルーピング条件は、例えば、次の(1)−(3)のいずれも満足することである。
(1)1つの組み合わせに属する3個の物標と他の1つの組み合わせに属する3個の物標のうち、2個の物標が共通。
(2)1つの組み合わせに係る円の半径rと他の1つの組み合わせに係る円の半径r’との差Δrの絶対値が、予め定めた半径の閾値よりも小さい。
(3)1つの組み合わせに係る円の中心位置と他の1つの組み合わせに係る円の中心位置のx方向の方位が同一方向。グルーピング部1282は、例えば、x座標値の正負が同一である場合に、x方向の方位が同一方向であると判断する。
これらの条件は、各組み合わせに属する物標が表す物体の位置が、同一の円の円周で近似されることを表す。
グルーピング部1282は、各物標と対応付けて入力された位置情報と生成したグルーピング情報をカーブ判定部1283に出力する。
The above-described grouping condition is, for example, that all of the following (1) to (3) are satisfied.
(1) Two targets are common among three targets belonging to one combination and three targets belonging to one other combination.
(2) The absolute value of the difference Δr between the radius r of the circle related to one combination and the radius r ′ of the circle related to the other combination is smaller than a predetermined radius threshold.
(3) The azimuth in the x direction of the center position of the circle related to one combination and the center position of the circle related to the other combination are the same direction. For example, the grouping unit 1282 determines that the azimuth in the x direction is the same direction when the positive and negative x coordinate values are the same.
These conditions represent that the position of the object represented by the target belonging to each combination is approximated by the circumference of the same circle.
The grouping unit 1282 outputs the position information input in association with each target and the generated grouping information to the curve determination unit 1283.

カーブ判定部1283には、グルーピング部1282から各物標と対応付けて位置情報とグルーピング情報が入力される。カーブ判定部1283は、入力されたグルーピング情報に基づいて、物標毎に分類されたグループの数をカーブカウンタ値として計数する。カーブ判定部1283は、計数したカーブカウンタ値が予め定めたカーブカウンタ値よりも大きい物標が表す物体をカーブ路側物(曲線路側物)と判定する。カーブ判定部1283は、物標毎にカーブ路側物であることを表すカーブ情報(曲線路情報)を生成する。カーブ判定部1283は、物標毎に生成したカーブ情報を入力された位置情報に付加し、カーブ情報を付加した位置情報を各物標と対応付けて物標出力処理部129に出力する。   Position information and grouping information are input to the curve determination unit 1283 from the grouping unit 1282 in association with each target. The curve determination unit 1283 counts the number of groups classified for each target as a curve counter value based on the input grouping information. The curve determination unit 1283 determines that an object represented by a target whose counted curve counter value is larger than a predetermined curve counter value is a curved roadside object (curved roadside object). The curve determination unit 1283 generates curve information (curved road information) indicating that it is a curved roadside object for each target. The curve determination unit 1283 adds the curve information generated for each target to the input position information, and outputs the position information added with the curve information to the target output processing unit 129 in association with each target.

なお、本実施形態では、カーブ判定部1283は、物標毎のグループの数を計数する代わりに、グループ毎に分類された物標の数を計数してもよい。ここで、カーブ判定部1283は、計数された物標の数が最も多いグループに分類された物標についてカーブ情報を生成する。   In the present embodiment, the curve determination unit 1283 may count the number of targets classified for each group instead of counting the number of groups for each target. Here, the curve determination unit 1283 generates curve information for the targets classified into the group having the largest number of counted targets.

次に、物標毎の位置情報の一例を示す。
図8は、物標毎の位置情報の一例を表す概念図である。
図8において、横軸はx軸、縦軸はy軸を表す。図8では、原点は、受信アンテナ101−1〜101−nの各点の重心に位置し、受信アンテナ101−1〜101−nは車両2の前面にx軸方向に配列されている。車両2の前方の四角形で囲まれたa〜mは、それぞれ各物標の位置情報が表す位置を示す。a〜mは、視野31の範囲内で分布している。
Next, an example of position information for each target is shown.
FIG. 8 is a conceptual diagram illustrating an example of position information for each target.
In FIG. 8, the horizontal axis represents the x axis and the vertical axis represents the y axis. In FIG. 8, the origin is located at the center of gravity of each point of the receiving antennas 101-1 to 101-n, and the receiving antennas 101-1 to 101-n are arranged on the front surface of the vehicle 2 in the x-axis direction. A to m surrounded by a square in front of the vehicle 2 indicate positions represented by position information of the respective targets. a to m are distributed within the range of the visual field 31.

次に、物標の組み合わせに係る円の特性値の一例を示す。
図9は、物標の組み合わせに係る円の特性値の一例を示す概念図である。
図9の縦軸、横軸、及び原点は、図8の縦軸、横軸、及び原点とそれぞれ同様である。円周32は、物体a、b、cそれぞれのxy平面上の位置を通る円の一部である。中心33は、その円の中心を示す。半径rは、その円の半径である。
Next, an example of a characteristic value of a circle related to a combination of targets will be shown.
FIG. 9 is a conceptual diagram illustrating an example of a characteristic value of a circle related to a combination of targets.
The vertical axis, horizontal axis, and origin in FIG. 9 are the same as the vertical axis, horizontal axis, and origin in FIG. A circumference 32 is a part of a circle that passes through positions on the xy plane of the objects a, b, and c. The center 33 indicates the center of the circle. The radius r is the radius of the circle.

次に、物標の組み合わせのグループの一例を示す。
図10は、物標の組み合わせのグループの一例を示す概念図である。
図10の縦軸、横軸、及び原点は、図8の縦軸、横軸、及び原点とそれぞれ同様である。図10において、楕円は、それぞれ物標の組み合わせを表す。網掛けの四角形は同一のグループに分類された組み合わせに属する各物標のxy平面上の位置を示す。図10において、物標の組み合わせ(h、f、a)、(f、a、b)、(a、b、c)、(b、c、i)、(c、i、g)、(i、g、j)が、そのグループに分類されていることを示す。これらの組み合わせは、上述のグルーピング条件を満足する。即ち、図10に示されるように、物標h、f、a、b、c、i、g、jの分布は、円周32を近似する。本実施形態では、このような物標h、f、a、b、c、i、g、jが曲線路側物と判断される
Next, an example of a group of target combinations is shown.
FIG. 10 is a conceptual diagram illustrating an example of a group of target combinations.
The vertical axis, horizontal axis, and origin of FIG. 10 are the same as the vertical axis, horizontal axis, and origin of FIG. In FIG. 10, each ellipse represents a combination of targets. The shaded rectangles indicate the positions on the xy plane of the targets belonging to the combinations classified into the same group. In FIG. 10, combinations of targets (h, f, a), (f, a, b), (a, b, c), (b, c, i), (c, i, g), (i , G, j) indicate that they are classified into the group. These combinations satisfy the grouping conditions described above. That is, as shown in FIG. 10, the distribution of the targets h, f, a, b, c, i, g, and j approximates the circumference 32. In this embodiment, such targets h, f, a, b, c, i, g, j are determined to be curved roadside objects.

次に、本実施形態に係るカーブ判別処理について説明する。
図11は、本実施形態に係るカーブ判別処理を表すフローチャートである。
(ステップS201)静止物判定部1281には、物標引継ぎ処理部127から物標と対応付けて位置情報が入力される。静止物判定部1281は、入力された位置情報に含まれる速度情報が表す相対速度が、速度計測部15から入力された速度情報が表す速度が相殺する場合、入力された位置情報は静止物の位置を表す位置情報であると判断する。静止物判定部1281は、静止物の位置を表す位置情報と判断された位置情報を物標と対応付けてグルーピング部1282に出力する。その後、ステップS202に進む。
Next, the curve determination process according to the present embodiment will be described.
FIG. 11 is a flowchart showing a curve determination process according to the present embodiment.
(Step S201) The stationary object determination unit 1281 receives position information associated with the target from the target handover processing unit 127. When the relative speed represented by the speed information included in the input position information cancels out the speed represented by the speed information input from the speed measurement unit 15, the stationary object determination unit 1281 displays the input position information as a stationary object. It is determined that the position information represents a position. The stationary object determination unit 1281 outputs the positional information determined as the positional information representing the position of the stationary object to the grouping unit 1282 in association with the target. Thereafter, the process proceeds to step S202.

(ステップS202)グルーピング部1282には、静止物判定部1281から物標と対応付けて位置情報が入力される。グルーピング部1282は、3個の物標からなる組み合わせ毎に、ステップS203−S207の処理を反復する。
(ステップS203)グルーピング部1282は、各組み合わせに属する3個の物標の位置情報が表す位置を通る円の特性値として半径及び中心位置を、例えば式(3)を用いて算出する。その後、ステップS204に進む。
(ステップS204)グルーピング部1282は、当該組み合わせ以外の他の組み合わせ毎に、ステップS205、S206の処理を反復する。
(ステップS205)グルーピング部1282は、当該組み合わせに係る円の特性値が、他の組み合わせに係る円の特性値との間で上述のグルーピング条件を満たすか否か判断する。上述のグルーピング条件を満たすと判断された場合(ステップS205 Y)、ステップS206に進む。上述のグルーピング条件を満たさないと判断された場合(ステップS205 N)、ステップS207に進む。
(ステップS206)グルーピング部1282は、当該組み合わせと他の組み合わせが、同一のグループに分類されたことを示すグルーピング情報を生成する。その後、ステップS207に進む。
(ステップS207)処理対象の他の組み合わせを、更に他の未処理の組み合わせに変更してステップS204に進む。更に他の未処理の組み合わせがなくなった場合には、ステップS208に進む。
(ステップS208)処理対象の当該組み合わせを、更に他の未処理の組み合わせに変更してステップS202に進む。更に他の未処理の組み合わせがなくなった場合には、グルーピング部1282は、各物標と対応付けて入力された位置情報と生成したグルーピング情報をカーブ判定部1283に出力する。その後、ステップS209に進む。
(Step S202) Position information is input to the grouping unit 1282 in association with a target from the stationary object determination unit 1281. The grouping unit 1282 repeats the processing of steps S203 to S207 for each combination of three targets.
(Step S203) The grouping unit 1282 calculates the radius and the center position as a characteristic value of a circle passing through the position represented by the position information of the three targets belonging to each combination, for example, using Expression (3). Thereafter, the process proceeds to step S204.
(Step S204) The grouping unit 1282 repeats the processes of steps S205 and S206 for each combination other than the combination.
(Step S205) The grouping unit 1282 determines whether or not the characteristic value of the circle related to the combination satisfies the above grouping condition with the characteristic value of the circle related to another combination. If it is determined that the above grouping condition is satisfied (step S205 Y), the process proceeds to step S206. If it is determined that the above grouping conditions are not satisfied (step S205 N), the process proceeds to step S207.
(Step S206) The grouping unit 1282 generates grouping information indicating that the combination and other combinations are classified into the same group. Thereafter, the process proceeds to step S207.
(Step S207) Another combination to be processed is changed to another unprocessed combination, and the process proceeds to Step S204. If there are no more unprocessed combinations, the process proceeds to step S208.
(Step S208) The combination to be processed is further changed to another unprocessed combination, and the process proceeds to Step S202. When there are no more unprocessed combinations, the grouping unit 1282 outputs the position information input in association with each target and the generated grouping information to the curve determination unit 1283. Thereafter, the process proceeds to step S209.

(ステップS209)カーブ判定部1283は、グルーピング部1282から各物標と対応付けて位置情報とグルーピング情報が入力される。カーブ判定部1283は、物標毎に、ステップS210−S213の処理を反復する。
(ステップS210)カーブ判定部1283は、入力されたグルーピング情報に基づいて、物標毎に分類されたグループの数を計数する。その後、ステップS211に進む。
(ステップS211)カーブ判定部1283は、計数したグループの数が、予め定めた数よりも大きいか否か判断する。予め定めた数よりも大きいと判断された場合(ステップS211 Y)、ステップS212に進む。予め定めた数と等しい、又は、その数よりも小さいと判断された場合(ステップS211 N)、ステップS213に進む。
(ステップS212)カーブ判定部1283は、当該物標が表す物体をカーブ路側物(曲線路側物)と判定する。カーブ判定部1283は、物標毎にカーブ路側物であることを表すカーブ情報を生成する。カーブ判定部1283は、物標毎に生成したカーブ情報を入力された位置情報に付加する。その後、ステップS213に進む。
(ステップS213)処理対象の物標を他の未処理の物標に変更して、ステップS209に進む。他の未処理の物標がない場合には、カーブ判定部1283は、カーブ情報を付加した位置情報を各物標と対応付けて物標出力処理部129に出力する。その後、処理を終了する。
(Step S209) The curve determination unit 1283 receives position information and grouping information from the grouping unit 1282 in association with each target. The curve determination unit 1283 repeats the processes of steps S210 to S213 for each target.
(Step S210) The curve determination unit 1283 counts the number of groups classified for each target based on the input grouping information. Then, it progresses to step S211.
(Step S211) The curve determination unit 1283 determines whether or not the counted number of groups is larger than a predetermined number. When it is determined that the number is larger than the predetermined number (step S211 Y), the process proceeds to step S212. When it is determined that the number is equal to or smaller than the predetermined number (step S211 N), the process proceeds to step S213.
(Step S212) The curve determination unit 1283 determines that the object represented by the target is a curved roadside object (curved roadside object). The curve determination unit 1283 generates curve information indicating that the target is a curved roadside object for each target. The curve determination unit 1283 adds the curve information generated for each target to the input position information. Thereafter, the process proceeds to step S213.
(Step S213) The target to be processed is changed to another unprocessed target, and the process proceeds to step S209. When there is no other unprocessed target, the curve determination unit 1283 outputs the position information to which the curve information is added to the target output processing unit 129 in association with each target. Thereafter, the process ends.

上述したように、本実施形態では、静止物を表す物標であって、少なくとも3個の物標からなる組み合わせ毎に各物標の位置を通る円の特性値を算出し、算出した円の特性値に基づいて、その組み合わせが属するグループを判断する。また、本実施形態では、判断したグループに基づいて各物標が曲線路側物を表すか否かを判断する。そのため、本実施形態では、先行車両が検出されなくとも曲線路を検知することができる。   As described above, in the present embodiment, a target representing a stationary object, and a characteristic value of a circle passing through the position of each target is calculated for each combination of at least three targets. Based on the characteristic value, the group to which the combination belongs is determined. Moreover, in this embodiment, it is determined whether each target represents a curved roadside object based on the determined group. Therefore, in this embodiment, a curved road can be detected without detecting a preceding vehicle.

(第2の実施形態)
次に本発明の第2の実施形態について説明する。
本実施形態に係る動作制御システムの構成は、動作制御システム1(図1)と同様である。但し、位置情報生成部120(図1)は、カーブ判別処理部128の代わりにカーブ判別処理部228を備える。以下、第1の実施形態と同一の構成、処理については、同一の符号を付し、主に第1の実施形態との差異点について説明する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described.
The configuration of the operation control system according to the present embodiment is the same as that of the operation control system 1 (FIG. 1). However, the position information generation unit 120 (FIG. 1) includes a curve discrimination processing unit 228 instead of the curve discrimination processing unit 128. Hereinafter, the same configurations and processes as those in the first embodiment are denoted by the same reference numerals, and differences from the first embodiment will be mainly described.

図12は、本実施形態に係るカーブ判別処理部228の構成を表す概略図である。
カーブ判別処理部228は、静止物判定部1281、グルーピング部2282、及びカーブ判定部2283を含んで構成される。
FIG. 12 is a schematic diagram illustrating the configuration of the curve determination processing unit 228 according to the present embodiment.
The curve determination processing unit 228 includes a stationary object determination unit 1281, a grouping unit 2282, and a curve determination unit 2283.

グルーピング部2282は、静止物判定部1281から物標と対応付けて位置情報が入力される。グルーピング部2282は、入力された3個の物標からなる組み合わせ毎に、例えば式(3)を用いて、その組み合わせに属する3個の物標の位置情報が表す位置を通る円の特性値として半径r及び中心位置(c,c)を算出する。 The grouping unit 2282 receives position information associated with the target from the stationary object determination unit 1281. The grouping unit 2282 uses, for example, Equation (3) for each combination of three input targets as a characteristic value of a circle passing through the position represented by the position information of the three targets belonging to the combination. The radius r and the center position (c x , c y ) are calculated.

グルーピング部2282は、組み合わせ毎に、適合物標の数を計数する。適合物標とは、当該組み合わせに属しない他の物標の位置情報であって、当該組み合わせに係る円の円周から予め定めた誤差範囲内に含まれる物標の座標を表す位置情報である。また、適合物標の数を適合物標数と呼ぶ。グルーピング部2282は、当該組み合わせと同一のグループに、適合物標を分類する。グルーピング部2282は、同一のグループに分類した各物標に対して同一のグループであることを示すグルーピング情報を生成する。
グルーピング部2282は、さらに組み合わせ毎に、その組み合わせと同一のグループに分類された適合物標がそれぞれ示す座標と、当該組み合わせに係る円周との距離(誤差)の二乗値(ノルム)の総和であるノルム総和を算出してもよい。
The grouping unit 2282 counts the number of matching targets for each combination. The conforming target is position information of another target that does not belong to the combination, and is position information that represents the coordinates of the target included within a predetermined error range from the circumference of the circle related to the combination. . In addition, the number of conforming targets is referred to as a conforming target number. The grouping unit 2282 classifies the compatible targets into the same group as the combination. The grouping unit 2282 generates grouping information indicating the same group for each target classified into the same group.
The grouping unit 2282 further calculates, for each combination, the sum of the square values (norms) of the distances (errors) between the coordinates indicated by the matching targets classified into the same group as the combination and the circumference of the combination. A certain norm sum may be calculated.

グルーピング部2282は、適合物標の数が最も多いグループを選択する。選択されたグループの数が複数である場合に、グルーピング部2282は、ノルム総和が最小となる1つのグループを選択してもよい。グルーピング部2282は、選択したグループを表す選択グループ情報を生成する。
グルーピング部2282は、各物標と対応付けて入力された位置情報、生成したグルーピング情報、及び選択グループ情報をカーブ判定部2283に出力する。
The grouping unit 2282 selects a group having the largest number of matching targets. When the number of selected groups is plural, the grouping unit 2282 may select one group having the minimum norm sum. The grouping unit 2282 generates selected group information representing the selected group.
The grouping unit 2282 outputs the position information input in association with each target, the generated grouping information, and the selected group information to the curve determination unit 2283.

カーブ判定部2283は、グルーピング部2282から各物標と対応付けて位置情報、グルーピング情報、及び選択グループ情報が入力される。カーブ判定部2283は、選択グループ情報が表すグループに分類された物標毎に、分類されたグループの数をカーブカウンタ値として計数する。ここで、カーブ判定部2283は、物標毎に分類されたグループを、グルーピング情報を用いて識別する。
カーブ判定部2283は、計数したカーブカウンタ値が予め定めたカーブカウンタ値より大きい物標が表す物体をカーブ路側物(曲線路側物)と判定する。カーブ判定部2283は、物標毎にカーブ路側物であることを表すカーブ情報(曲線路情報)を生成する。カーブ判定部2283は、物標毎に生成したカーブ情報を入力された位置情報に付加し、カーブ情報を付加した位置情報を各物標と対応付けて物標出力処理部129に出力する。
なお、カーブ判定部2283は、物標毎にカウンタ値を計数する処理を省略し、選択グループ情報が表すグループに分類された物標が表す物体をカーブ路側物と判断してもよい。
The curve determination unit 2283 receives position information, grouping information, and selection group information from the grouping unit 2282 in association with each target. The curve determination unit 2283 counts the number of classified groups as a curve counter value for each target classified into the group represented by the selected group information. Here, the curve determination unit 2283 identifies the group classified for each target using the grouping information.
The curve determination unit 2283 determines that an object represented by a target whose counted curve counter value is larger than a predetermined curve counter value is a curved roadside object (curved roadside object). The curve determination unit 2283 generates curve information (curved road information) indicating that the target is a curved roadside object for each target. The curve determination unit 2283 adds the curve information generated for each target to the input position information and outputs the position information with the curve information associated with each target to the target output processing unit 129.
The curve determination unit 2283 may omit the process of counting the counter value for each target, and may determine that the object represented by the target classified into the group represented by the selected group information is a curved roadside object.

次に、グルーピング部2282が分類した物標のグループの一例を示す。
図13は、グルーピング部2282が分類した物標のグループの一例を表す概念図である。
図13の縦軸、横軸、及び原点は、図8の縦軸、横軸、及び原点とそれぞれ同様である。図13において、四角形は各物体のxy平面上の位置を表し、楕円は物標の組み合わせを表す。円周41は、組み合わせ(a、b、c)の位置を通る円の円周である。円周41を挟む2本の破線は、円周41から予め定めた誤差の範囲、誤差範囲42を表す。円周43は、組み合わせ(e、d、b)の位置を通る円の円周である。円周43を挟む2本の破線は、円周43から予め定めた誤差の範囲、誤差範囲44を表す。
誤差範囲42は、対応する物標a、b、cの位置の他に、物標h、f、i、g、jの位置を含む。図13では、これらの物標の位置を、網掛けの四角形で示す。即ち、組み合わせ(a、b、c)に対応するグループには、物標h、f、i、g、jが含まれる。
誤差範囲44には、対応する物標e、d、b以外に、その位置を含む物標がない。即ち、組み合わせ(e、d、b)に対応するグループには、他の物標は含まれない。
Next, an example of the target group classified by the grouping unit 2282 is shown.
FIG. 13 is a conceptual diagram illustrating an example of a target group classified by the grouping unit 2282.
The vertical axis, horizontal axis, and origin of FIG. 13 are the same as the vertical axis, horizontal axis, and origin of FIG. In FIG. 13, a square represents the position of each object on the xy plane, and an ellipse represents a combination of targets. A circumference 41 is a circumference of a circle passing through the position of the combination (a, b, c). Two broken lines sandwiching the circumference 41 represent a predetermined error range and error range 42 from the circumference 41. A circumference 43 is a circumference of a circle passing through the position of the combination (e, d, b). Two broken lines sandwiching the circumference 43 represent a predetermined error range and error range 44 from the circumference 43.
The error range 42 includes the positions of the targets h, f, i, g, and j in addition to the positions of the corresponding targets a, b, and c. In FIG. 13, the positions of these targets are indicated by shaded squares. That is, the group corresponding to the combination (a, b, c) includes targets h, f, i, g, j.
In the error range 44, there is no target including the position other than the corresponding targets e, d, and b. That is, the other target is not included in the group corresponding to the combination (e, d, b).

本実施形態では、誤差範囲に含まれる物標の数が最も多い物標のグループを、カーブ路側物のグループと判定する。カーブ路側物は、主にカーブを表す円周の周囲に分布することが通例であるため、検出された物標が表す物体がカーブ路側物であるか否かを正確に判断することができる。   In the present embodiment, a group of targets having the largest number of targets included in the error range is determined as a group of curved roadside objects. Since curved roadside objects are usually distributed around the circumference representing the curve, it is possible to accurately determine whether or not the object represented by the detected target is a curved roadside object.

次に、本実施形態に係るカーブ判別処理について説明する。
図14は、本実施形態に係るカーブ判別処理を表すフローチャートである。
図14に示すカーブ判別処理は、ステップS201−203、208、210−212を有する点で、図11に示すカーブ判別処理と共通する。但し、図14に示すカーブ判別処理では、ステップS203の後で、ステップS304を実行し、ステップS208の後で、ステップS309を実行する。
Next, the curve determination process according to the present embodiment will be described.
FIG. 14 is a flowchart showing a curve determination process according to the present embodiment.
The curve determination process shown in FIG. 14 is common to the curve determination process shown in FIG. 11 in that steps S201-203, 208, and 210-212 are included. However, in the curve determination process shown in FIG. 14, step S304 is executed after step S203, and step S309 is executed after step S208.

(ステップS304)グルーピング部2282は、当該組み合わせに属しない他の物標の位置情報毎に、ステップS305−307を反復する。
(ステップS305)グルーピング部2282は、当該他の物標の位置情報が示す位置は、ステップS203で算出した円の円周から予め定めた誤差範囲内に含まれるか否かを判断する。予め定めた誤差範囲内に含まれると判断された場合(ステップS305 Y)、グルーピング部2282は、ステップS306に進む。予め定めた誤差範囲内に含まれなかったと判断された場合(ステップS305 N)、ステップS308に進む。
(ステップS306)グルーピング部2282は、当該物標の組み合わせに対応するグループに分類された物標の数に1を加算してその数を適合物標数として計数する。その後、ステップS307に進む。
(ステップS307)グルーピング部2282は、当該組み合わせに対応するグループに分類された物標の座標と、当該組み合わせに係る円周との距離(誤差)の二乗値(ノルム)を累積する。その後、ステップS308に進む。
(ステップS308)グルーピング部2282は、処理対象として当該組み合わせに属しない他の物標から、さらに他の未処理の物標に変更してステップS304に進む。当該組み合わせに属しない他の物標であって、未処理の物標がない場合には、ステップS208に進む。
(Step S304) The grouping unit 2282 repeats steps S305-307 for each piece of position information of other targets that do not belong to the combination.
(Step S305) The grouping unit 2282 determines whether or not the position indicated by the position information of the other target is included within a predetermined error range from the circumference of the circle calculated in Step S203. When it is determined that it falls within the predetermined error range (Y in step S305), the grouping unit 2282 proceeds to step S306. When it is determined that it is not included in the predetermined error range (step S305 N), the process proceeds to step S308.
(Step S306) The grouping unit 2282 adds 1 to the number of targets classified into the group corresponding to the target combination, and counts the number as a compatible target number. Thereafter, the process proceeds to step S307.
(Step S307) The grouping unit 2282 accumulates the square value (norm) of the distance (error) between the coordinates of the target classified into the group corresponding to the combination and the circumference related to the combination. Thereafter, the process proceeds to step S308.
(Step S308) The grouping unit 2282 changes another target that does not belong to the combination as a processing target to another unprocessed target, and proceeds to step S304. If there are other targets that do not belong to the combination and there is no unprocessed target, the process proceeds to step S208.

(ステップS309)グルーピング部2282は、適合物標の数が最も多いグループを選択する。選択されたグループの数が複数である場合に、グルーピング部2282は、ノルム総和が最小のグループである1つのグループを選択してもよい。グルーピング部2282は、選択したグループを表す選択グループ情報を生成する。
グルーピング部2282は、各物標と対応付けて入力された位置情報、生成したグルーピング情報、及び選択グループ情報をカーブ判定部2283に出力する。その後、ステップS310に進む。
(Step S309) The grouping unit 2282 selects a group having the largest number of matching targets. When the number of selected groups is plural, the grouping unit 2282 may select one group that is the group with the smallest norm sum. The grouping unit 2282 generates selected group information representing the selected group.
The grouping unit 2282 outputs the position information input in association with each target, the generated grouping information, and the selected group information to the curve determination unit 2283. Thereafter, the process proceeds to step S310.

(ステップS310)カーブ判定部2283は、グルーピング部2282から各物標と対応付けて位置情報、グルーピング情報、及び選択グループ情報が入力される。カーブ判定部2283は、選択グループ情報が示すグループに分類された物標毎にステップS210−212を実行し、ステップS313に進む。
(ステップS313)処理対象の物標を、他の未処理の選択グループ情報が示すグループに分類された物標に変更する。その後、ステップS310に進む。他の未処理の選択グループ情報が示すグループに分類された物標がない場合には、処理を終了する。
(Step S310) The curve determination unit 2283 receives position information, grouping information, and selection group information from the grouping unit 2282 in association with each target. The curve determination unit 2283 executes steps S210 to 212 for each target classified into the group indicated by the selected group information, and proceeds to step S313.
(Step S313) The target to be processed is changed to a target classified into a group indicated by other unprocessed selected group information. Thereafter, the process proceeds to step S310. If there is no target classified in the group indicated by the other unprocessed selected group information, the process is terminated.

本実施形態においても、グルーピング部2282は、検出されたN個の物標のうち3個の物標からなる全部(K個)又は一部(L個)の組み合わせ、それぞれについて適合物標数の計数、ノルム総和の算出を行うようにしてもよい(図14、ステップS202−S208)。グルーピング部2282は、グルーピング部1282と同様に、N個の物標から3個の物標をランダムに選択する処理をL回繰り返す。ここで、繰り返し回数Lが式(4)を満足するように定めておいてもよい。   Also in the present embodiment, the grouping unit 2282 includes all (K) or part (L) combinations of three targets among the detected N targets, and the target numbers for each of the combinations. Counting and norm summation may be calculated (FIG. 14, steps S202 to S208). Similar to the grouping unit 1282, the grouping unit 2282 repeats the process of randomly selecting three targets from N targets L times. Here, the number of repetitions L may be determined so as to satisfy Expression (4).

Figure 2013218467
Figure 2013218467

式(4)において、Mは、期待路側物標の数である。期待路側物標とは、検出された物標のうちカーブ路側物と期待される物標である。即ち、式(4)の左辺は、N個のうちランダムに選択した3個のいずれか又は全てがカーブ路側物標ではない組み合わせがL回繰り返される確率である。pは、目標確率である。つまり、式(4)は、ランダムに選択した3個の少なくともいずれかがカーブ路側物標(曲線路側物標)ではない組み合わせが繰り返される確率が、目標確率pよりも低くなるように繰り返し回数Lを定めることを示す。
例えば、図10に示すように13個の物標a〜mのうち、過半数である7個が期待路側物標であると仮定する。このとき、1つの組み合わせにおいて選択した3個の少なくともいずれかがカーブ路側物標ではない確率は、251/286(=1−(7・6・5)/(13・12・11))である。ここで、目標確率pを1%とすると、(251/286)36<0.01となるため、繰り返し回数Lは少なくとも36又は36よりも大きくすればよい。目標確率pを0.1%とすると、(251/286)53<0.001となるため、繰り返し回数Lは少なくとも53又は53よりも大きくすればよい。なお、算出した36、53は、いずれも全ての組み合わせ個数N(=286)よりも少なくなる。このようにして、目標確率に応じて適合物標数の計数、ノルム総和の算出に係る物標の組み合わせの数を減少することによって処理量を軽減することができる。
In Expression (4), M is the number of expected roadside targets. The expected roadside target is a target that is expected to be a curved roadside target among the detected targets. That is, the left side of Equation (4) is a probability that a combination in which any or all of the N randomly selected ones are not curved roadside targets will be repeated L times. p is the target probability. That is, the expression (4) indicates that the probability that the combination in which at least one of the three randomly selected is not a curved roadside target (curved roadside target) is repeated is lower than the target probability p. Indicates that
For example, as shown in FIG. 10, it is assumed that 7 out of 13 targets a to m are expected roadside targets. At this time, the probability that at least one of the three selected in one combination is not a curved roadside target is 251/286 (= 1− (7 · 6 · 5) / (13 · 12 · 11)). . Here, if the target probability p is 1%, (251/286) 36 <0.01, so the number of repetitions L may be at least 36 or 36. When the target probability p is 0.1%, (251/286) 53 <0.001, and therefore the number of repetitions L may be at least 53 or 53. The calculated 36 and 53 are both smaller than the total number of combinations N (= 286). In this way, the processing amount can be reduced by reducing the number of target combinations related to the calculation of the target count and the norm summation according to the target probability.

上述したように、本実施形態では、組み合わせに係る円の円周から予め定めた範囲にある位置の物標を当該組み合わせと同一のグループに分類する。共通の円周の周囲に分布する物標がグループとして分類されるので、物標のグルーピングが効率的に行われるようになる。従って、本実施形態では、かかる物標が曲線路側物を表すか否かを効率的に判断することができる。   As described above, in the present embodiment, targets at positions in a predetermined range from the circumference of a circle related to the combination are classified into the same group as the combination. Since the targets distributed around the common circumference are classified as a group, the target grouping is performed efficiently. Therefore, in this embodiment, it can be determined efficiently whether such a target represents a curved roadside object.

上述した実施形態に対して、従来、車両の速度、舵角、ヨーレート等に基づいて進行しようとする経路を予測し、検知した物体に接近すると動作を制御する動作制御システムが提案されていた。動作とは、例えば、運転者に対して警告音を提示すること、車両の速度を減速することである。
図15に示すように、自車両(車両2)の現在位置において直進しているが、自車両の進行方向に曲線を有する路面51では、路面51に沿った経路を予測することができなかった。現在位置においては、図16に示す直線路(路面52)を走行する場合と同様に、舵角、ヨーレートともにゼロに近似する値をとるためである。そのため、従来の動作制御システムでは、先行する曲線路の周囲にあり自車両2の直進方向にある物体を、障害物53と検知し、不要に動作を実行することがあった。
これに対して、上述した実施形態では、曲線路を進行する前に、検出した物体を曲線路側物と判断するため、不要な動作を防止することができる。
Conventionally, an operation control system has been proposed that predicts a route to travel based on the vehicle speed, steering angle, yaw rate, and the like, and controls the operation when approaching a detected object. An operation | movement is presenting a warning sound with respect to a driver | operator, for example, decelerating the speed of a vehicle.
As shown in FIG. 15, the vehicle is traveling straight at the current position of the host vehicle (vehicle 2), but the route along the road surface 51 cannot be predicted on the road surface 51 having a curve in the traveling direction of the host vehicle. . This is because, at the current position, both the steering angle and the yaw rate take values that approximate zero, as in the case of traveling on the straight road (road surface 52) shown in FIG. Therefore, in the conventional motion control system, an object around the preceding curved road and in the straight direction of the host vehicle 2 may be detected as an obstacle 53 and an operation may be executed unnecessarily.
On the other hand, in the above-described embodiment, since the detected object is determined to be a curved roadside object before proceeding on the curved road, unnecessary operations can be prevented.

上述した実施形態では、カーブ判定部1283、2283は、曲線路側物と判断されなかった物体を表す物標について、曲線路側物と判断した物体を表す物標に係る円周の内部に存在するか、その円周の外部に存在するかを判断するようにしてもよい。
ここで、カーブ判定部1283は、グルーピング情報に基づいて曲線路側物と判断された物体を表す物標に係る組み合わせのいずれかを選択する。その物標に係る組み合わせに対応する円が複数個存在する可能性があるが、上述のように、これらの円の円周が占める領域は互いに近似する。カーブ判定部2283では、上述のグルーピング部2282から入力された選択グループ情報を用いてグループに係る物標の組み合わせを選択する。
In the above-described embodiment, the curve determination units 1283 and 2283 have a target that represents an object that has not been determined to be a curved roadside object, and exists within the circumference of the target that represents the object that has been determined to be a curved roadside object. It may be determined whether it exists outside the circumference.
Here, the curve determination unit 1283 selects one of the combinations related to the target representing the object determined to be a curved roadside object based on the grouping information. There may be a plurality of circles corresponding to the combination related to the target, but as described above, the areas occupied by the circumferences of these circles are approximate to each other. The curve determination unit 2283 selects a combination of targets related to the group using the selected group information input from the grouping unit 2282 described above.

カーブ判定部1283、2283は、選択した組み合わせに係る3個の物標を通る円の半径及び中心位置を自ら算出するか、グルーピング部1282、2282からそれぞれ取得する。そして、カーブ判定部1283、2283は、曲線路側物と判断されなかった物体を表す物標の位置から当該円の中心位置までの距離を算出する。カーブ判定部1283、2283は、例えば、算出した距離が当該円の半径よりも小さい場合に当該円周の内部に存在すると判断し、当該円の半径よりも大きい場合に当該円周の外部に存在すると判断する。カーブ判定部1283、2283は、物標毎に当該円周の内部に存在するか否かを表す内外判断情報を生成し、上述の位置情報及び各物標と対応付けて物標出力処理部129を通じて制御指示部13に出力する。   The curve determination units 1283 and 2283 calculate the radius and the center position of a circle passing through the three targets related to the selected combination by themselves, or acquire them from the grouping units 1282 and 2282, respectively. Then, the curve determination units 1283 and 2283 calculate the distance from the position of the target representing the object that has not been determined to be a curved roadside object to the center position of the circle. For example, when the calculated distance is smaller than the radius of the circle, the curve determination units 1283 and 2283 determine that the calculated distance exists inside the circumference. If the calculated distance is larger than the radius of the circle, the curve determination units 1283 and 2283 exist outside the circumference. Judge that. The curve determination units 1283 and 2283 generate inside / outside determination information indicating whether or not each target is present within the circumference, and the target output processing unit 129 is associated with the above-described position information and each target. To the control instruction unit 13.

制御指示部13は、各物標と対応付けて入力された内外判断情報に基づいて、物標が表す物体に対して円周の外部に存在するか内部に存在するかに応じて、上述の制御信号を生成するか否かを判断する。例えば、制御指示部13は、曲線路側物と判断されなかった物体を表す物標が円周の内部に存在する場合に、その物体に対して制御信号を生成する。また、制御指示部13は、曲線路側物と判断されなかった物体を表す物標が円周の外部に存在する場合に、その物体に対して制御信号を生成しない。これにより、本実施形態では、曲線路側物と判断されなかった物体に対して、円周として近似された曲線路の外周の内外の何れかに存在するかによって制御の有無を決定することができる。例えば、曲線路の内部に検知された物標が表す物体には、車両が曲線路に沿って進行すると当該物標に異常に接近又は接触する可能性が高いのに対して、曲線路の外部に検知された物標が表す物体に対しては、かかる可能性が低い。ここで、運転支援制御部14は、曲線路の内部に検知された物標が表す物体について、所定の動作(例えば、ブレーキ動作、アクセル停止、警報音の再生、等)を実行し、曲線路の外部に検知された物標が表す物体に対して、その動作を実行しない。従って、曲線路側物と判断されなかった物体に対する無用な制御を回避することができる。   Based on the inside / outside determination information input in association with each target, the control instruction unit 13 determines whether the object represented by the target is located outside or inside the circumference. It is determined whether to generate a control signal. For example, when a target representing an object that has not been determined to be a curved roadside object exists inside the circumference, the control instruction unit 13 generates a control signal for the object. In addition, when a target representing an object that has not been determined to be a curved roadside object exists outside the circumference, the control instruction unit 13 does not generate a control signal for the object. Thereby, in this embodiment, the presence or absence of control can be determined depending on whether the object that has not been determined to be a curved roadside object is present inside or outside the curved road approximated as a circumference. . For example, an object represented by a target detected inside a curved road has a high possibility of abnormally approaching or contacting the target when the vehicle travels along the curved road. This is unlikely to occur for an object represented by a target detected in. Here, the driving support control unit 14 performs a predetermined operation (for example, brake operation, accelerator stop, alarm sound reproduction, etc.) on the object represented by the target detected inside the curved road, and the curved road The operation is not performed on the object represented by the target detected outside the object. Therefore, useless control for an object that is not determined to be a curved roadside object can be avoided.

上述では、3個の物標の位置からなる組み合わせ毎に円の特性値を算出する例について説明したが、本実施形態では、3個よりも多い個数(例えば、4個)の物標の位置からなる組み合わせ毎に円の特性値を算出してもよい。
上述のグルーピング条件(1)において、1つの組み合わせに属する3個の物標と他の1つの組み合わせに属する3個の物標のうち2個の物標が共通である場合を例にとって説明したが、これには限られない。他の例として、グルーピング条件(1)が、1つの組み合わせに属する複数の物標と他の1つの組み合わせに属する複数の物標のうち1個の物標が共通、であってもよい。
In the above description, the example in which the characteristic value of the circle is calculated for each combination including the positions of the three targets has been described. However, in this embodiment, the positions of more than three (for example, four) target positions. The characteristic value of the circle may be calculated for each combination consisting of
In the grouping condition (1) described above, the case where two targets among the three targets belonging to one combination and the three targets belonging to the other combination are common has been described as an example. This is not a limitation. As another example, the grouping condition (1) may be that one target among a plurality of targets belonging to one combination and a plurality of targets belonging to one other combination is common.

なお、上述した実施形態における物体検知装置11の一部、例えば、制御部118、受信強度算出部122、DBF処理部123、距離検出部124、速度検出部125、方位検出部126、物標引継ぎ処理部127、カーブ判別処理部128、及び物標出力処理部129をコンピュータで実現するようにしても良い。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、物体検知装置11に内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
また、上述した実施形態における物体検知装置11の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現しても良い。物体検知装置11の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化しても良い。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いても良い。
In addition, a part of the object detection apparatus 11 in the above-described embodiment, for example, the control unit 118, the reception intensity calculation unit 122, the DBF processing unit 123, the distance detection unit 124, the speed detection unit 125, the direction detection unit 126, the target takeover. The processing unit 127, the curve determination processing unit 128, and the target output processing unit 129 may be realized by a computer. In that case, the program for realizing the control function may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by a computer system and executed. The “computer system” here is a computer system built in the object detection apparatus 11 and includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” is a medium that dynamically holds a program for a short time, such as a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line, In such a case, a volatile memory inside a computer system serving as a server or a client may be included and a program that holds a program for a certain period of time. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
Moreover, you may implement | achieve part or all of the object detection apparatus 11 in embodiment mentioned above as integrated circuits, such as LSI (Large Scale Integration). Each functional block of the object detection device 11 may be individually made into a processor, or a part or all of them may be integrated into a processor. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. Further, in the case where an integrated circuit technology that replaces LSI appears due to progress in semiconductor technology, an integrated circuit based on the technology may be used.

以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。   As described above, the embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to the above, and various design changes and the like can be made without departing from the scope of the present invention. It is possible to

1…動作制御システム、101(101−1〜101−n)…受信アンテナ、
102…送信アンテナ、
11…物体検知装置、110…信号送受信部、111…VCO、
112(112−1〜112−n)…ミキサ、114…分配器、
115(115−1〜115−n)…フィルタ、116…SW、117…ADC、
118…制御部、119…三角波生成部、
120…位置情報生成部、121…記憶部、122…受信強度算出部、
123…DBF処理部、124…距離検出部、125…速度検出部、126…方位検出部、
127…物標引継ぎ処理部、
128、228…カーブ判別処理部、1281…静止物判定部、
1282、2282…グルーピング部、1283、2283…カーブ判定部、
129…物標出力処理部、
13…制御指示部、14…運転支援制御部、141…警報音制御部、
142…ブレーキ制御部、143…アクセル制御部、15…速度計測部
DESCRIPTION OF SYMBOLS 1 ... Operation control system, 101 (101-1 to 101-n) ... Reception antenna,
102: Transmitting antenna,
DESCRIPTION OF SYMBOLS 11 ... Object detection apparatus, 110 ... Signal transmission / reception part, 111 ... VCO,
112 (112-1 to 112-n) ... mixer, 114 ... distributor
115 (115-1 to 115-n) ... filter, 116 ... SW, 117 ... ADC,
118 ... control unit, 119 ... triangular wave generation unit,
120 ... position information generation unit, 121 ... storage unit, 122 ... reception intensity calculation unit,
123 ... DBF processing unit, 124 ... distance detection unit, 125 ... speed detection unit, 126 ... azimuth detection unit,
127 ... Target takeover processing section,
128, 228 ... curve discrimination processing unit, 1281 ... stationary object judgment unit,
1282, 2282 ... grouping unit, 1283, 2283 ... curve determination unit,
129 ... Target output processing unit,
13 ... Control instruction unit, 14 ... Driving support control unit, 141 ... Alarm sound control unit,
142 ... Brake control unit, 143 ... Accelerator control unit, 15 ... Speed measurement unit

Claims (11)

静止物を表す物標について、少なくとも3個の物標からなる組み合わせ毎に当該組み合わせに含まれる全ての物標の位置を通る円の特性値を算出し、前記算出した円の特性値に基づいて、前記組み合わせに関してグループの分類を行うグルーピング部と、
前記グルーピング部が分類したグループに基づいて曲線路側物を表す物標を判定する曲線路判定部と、
を備えることを特徴とする物体検知装置。
For a target representing a stationary object, calculate a characteristic value of a circle that passes through the positions of all the targets included in the combination for each combination of at least three targets, and based on the calculated characteristic value of the circle A grouping unit for classifying groups with respect to the combination;
A curved road determination unit for determining a target representing a curved roadside object based on the group classified by the grouping unit;
An object detection apparatus comprising:
前記グルーピング部は、少なくとも1個の物標が共通する組み合わせを同一のグループに分類することを特徴とする請求項1に記載の物体検知装置。   The object detection apparatus according to claim 1, wherein the grouping unit classifies combinations having at least one target in common into the same group. 前記グルーピング部は、前記円の特性値として半径及び中心位置の方位を用いることを特徴とする請求項1又は2に記載の物体検知装置。   The object detection apparatus according to claim 1, wherein the grouping unit uses a radius and an orientation of a center position as the characteristic value of the circle. 前記グルーピング部は、前記組み合わせに係る円の円周から予め定めた範囲にある位置の物標を当該組み合わせと同一のグループに分類することを特徴とする請求項1に記載の物体検知装置。   The object detection apparatus according to claim 1, wherein the grouping unit classifies targets at positions within a predetermined range from a circumference of a circle related to the combination into the same group as the combination. 前記グルーピング部は、前記少なくとも3個の物標を、前記静止物を表す物標からランダムに選択することを特徴とする請求項1ないし4のいずれかに記載の物体検知装置。   5. The object detection device according to claim 1, wherein the grouping unit randomly selects the at least three targets from targets representing the stationary object. 6. 前記曲線路判定部は、前記物標が分類されるグループの数に基づいて曲線路側物を表すか否かを判断することを特徴とする請求項1ないし4のいずれかに記載の物体検知装置。   5. The object detection device according to claim 1, wherein the curved road determination unit determines whether to represent a curved roadside object based on a number of groups into which the target is classified. . 前記曲線路判定部は、物標の数が最も多いグループに分類される物標が曲線路側物を表す物標と判断することを特徴とする請求項4に記載の物体検知装置。   The object detection apparatus according to claim 4, wherein the curved road determination unit determines that a target classified into a group having the largest number of targets is a target representing a curved road side object. 物体検知装置における物体検知方法であって、
前記物体検知装置が、静止物を表す物標について、少なくとも3個の物標からなる組み合わせ毎に当該組み合わせに含まれる全ての物標の位置を通る円の特性値を算出し、前記算出した円の特性値に基づいて、前記組み合わせに関してグループの分類を行う第1の過程と、
前記物体検知装置が、前記分類したグループに基づいて曲線路側物を表す物標を判定する第2の過程と、
を有することを特徴とする物体検知方法。
An object detection method in an object detection device,
The object detection device calculates a characteristic value of a circle passing through the positions of all the targets included in the combination for each combination of at least three targets for the target representing the stationary object, and the calculated circle A first step of classifying groups with respect to the combination based on the characteristic values of
A second process in which the object detection device determines a target representing a curved roadside object based on the classified group;
An object detection method characterized by comprising:
物体検知装置のコンピュータに、
静止物を表す物標について、少なくとも3個の物標からなる組み合わせ毎に当該組み合わせに含まれる全ての物標の位置を通る円の特性値を算出し、前記算出した円の特性値に基づいて、前記組み合わせに関してグループの分類を行う手順、
前記分類したグループに基づいて曲線路側物を表す物標を判定する手順、
を実行させるための物体検知プログラム。
In the computer of the object detection device,
For a target representing a stationary object, calculate a characteristic value of a circle that passes through the positions of all the targets included in the combination for each combination of at least three targets, and based on the calculated characteristic value of the circle , A procedure for classifying groups with respect to the combination,
A procedure for determining a target representing a curved roadside object based on the classified group,
Object detection program to execute.
物体検知装置と、前記物体検知装置から入力された物標の位置又は速度に基づいて車両に関する動作を制御する動作制御部を備える動作制御システムであって、
前記物体検知装置は、
静止物を表す物標について、少なくとも3個の物標からなる組み合わせ毎に当該組み合わせに含まれる全ての物標の位置を通る円の特性値を算出し、前記算出した円の特性値に基づいて、前記組み合わせに関してグループの分類を行うグルーピング部と、
前記分類したグループに基づいて曲線路側物を表す物標を判定する曲線路判定部と、を備え、
前記動作制御部において、前記曲線路判定部が曲線路側物を表すと判断した物標について、曲線路側物を表すと判断されなかった物標とは、前記車両に関する動作に対して制御の有無もしくは態様が異なることを特徴とする動作制御システム。
An operation control system comprising an object detection device and an operation control unit that controls an operation related to a vehicle based on a position or speed of a target input from the object detection device,
The object detection device includes:
For a target representing a stationary object, calculate a characteristic value of a circle that passes through the positions of all the targets included in the combination for each combination of at least three targets, and based on the calculated characteristic value of the circle A grouping unit for classifying groups with respect to the combination;
A curved road determination unit for determining a target representing a curved roadside object based on the classified group,
In the operation control unit, for a target that the curved road determination unit determines to represent a curved roadside object, a target that has not been determined to represent a curved roadside object is the presence or absence of control over the operation related to the vehicle or An operation control system having different aspects.
前記動作制御部は、曲線路側物を表すと判断されなかった物標について、曲線路側物を表すと判断された物標に係る円の外部に存在するか、当該円の内部に存在するかに応じて、前記制御を行うか否かを判断することを特徴とする請求項10に記載の動作制御システム。   The motion control unit, for a target that is not determined to represent a curved roadside object, exists outside the circle related to the target that is determined to represent a curved roadside object or whether it exists within the circle The operation control system according to claim 10, wherein whether or not to perform the control is determined in response.
JP2012087328A 2012-04-06 2012-04-06 Object detection device, object detection method, object detection program, and operation control system Pending JP2013218467A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012087328A JP2013218467A (en) 2012-04-06 2012-04-06 Object detection device, object detection method, object detection program, and operation control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012087328A JP2013218467A (en) 2012-04-06 2012-04-06 Object detection device, object detection method, object detection program, and operation control system

Publications (2)

Publication Number Publication Date
JP2013218467A true JP2013218467A (en) 2013-10-24
JP2013218467A5 JP2013218467A5 (en) 2015-08-27

Family

ID=49590502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012087328A Pending JP2013218467A (en) 2012-04-06 2012-04-06 Object detection device, object detection method, object detection program, and operation control system

Country Status (1)

Country Link
JP (1) JP2013218467A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001256600A (en) * 2000-03-09 2001-09-21 Denso Corp Method and device for recognizing road condition for vehicle and recording medium
US20030135308A1 (en) * 2000-02-05 2003-07-17 Richardson Michael Julian Motor vehicle trajectory measurement

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030135308A1 (en) * 2000-02-05 2003-07-17 Richardson Michael Julian Motor vehicle trajectory measurement
JP2001256600A (en) * 2000-03-09 2001-09-21 Denso Corp Method and device for recognizing road condition for vehicle and recording medium

Similar Documents

Publication Publication Date Title
JP2015141109A (en) Radar device and signal processing method
US9354299B2 (en) Radar apparatus and signal processing method
JP6294594B2 (en) Radar apparatus and signal processing method
US9372260B2 (en) Object detecting device, object detecting method, object detecting program, and motion control system
JP2011117896A (en) Electronic scanning type radar device and computer program
JP2013213761A (en) Radar device, on-vehicle radar system, and program
JP2010038705A (en) Signal processing apparatus, radar device, vehicle control device, and signal processing method
JP6048083B2 (en) Object detection apparatus and program
JP6993136B2 (en) Radar device and target detection method
CN109196374B (en) Target detection device
JP2009092410A (en) Radar system and target detecting method
JP2012002637A (en) Radar apparatus
JP2017223635A (en) Radar device and target determination method
JP3664671B2 (en) Millimeter wave radar equipment
JP2015028440A (en) Radar device and signal processing method
JP2009264968A (en) Radar device, method of processing signal for radar device, and vehicle control system
US20130268173A1 (en) Object detecting device, object detecting method, object detecting program, and motion control system
JP5697904B2 (en) Radar apparatus and detection method
JP7244220B2 (en) Radar device and target data output method
JP2018081007A (en) Radar device and target detection method
JP2011191195A (en) Radar apparatus and computer program
JP2017223634A (en) Radar device and peak processing method
JP2018080938A (en) Radar device and target detection method
JP2009128016A (en) Radar system, its control method, and radar control apparatus
JP2013218467A (en) Object detection device, object detection method, object detection program, and operation control system

Legal Events

Date Code Title Description
A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20150403

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160126

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160628