JP2024034358A - vehicle - Google Patents

vehicle Download PDF

Info

Publication number
JP2024034358A
JP2024034358A JP2022138546A JP2022138546A JP2024034358A JP 2024034358 A JP2024034358 A JP 2024034358A JP 2022138546 A JP2022138546 A JP 2022138546A JP 2022138546 A JP2022138546 A JP 2022138546A JP 2024034358 A JP2024034358 A JP 2024034358A
Authority
JP
Japan
Prior art keywords
sensor
virtual
average value
control device
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022138546A
Other languages
Japanese (ja)
Inventor
優太 坂元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Industries Corp
Original Assignee
Toyota Industries Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Industries Corp filed Critical Toyota Industries Corp
Priority to JP2022138546A priority Critical patent/JP2024034358A/en
Publication of JP2024034358A publication Critical patent/JP2024034358A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)

Abstract

【課題】表現角が狭くなることを抑制すること。【解決手段】車両は、第1センサと、第2センサと、制御装置と、を備える。第1センサは、物体の表面の一部を表す第1検出点の二次元の座標系での位置を検出する。第2センサは、物体の表面の一部を表す第2検出点の二次元の座標系での位置を検出する。制御装置は、第1センサの検出結果と第2センサの検出結果とに基づいて、仮想センサを原点とする二次元の座標系での仮想検出点の位置を導出する。制御装置は、第1センサの検出結果と第2センサの検出結果とに基づいて、仮想センサを基準位置から物体に近付くように移動させる。【選択図】図5[Problem] To suppress narrowing of the expression angle. A vehicle includes a first sensor, a second sensor, and a control device. The first sensor detects the position of a first detection point representing a part of the surface of the object in a two-dimensional coordinate system. The second sensor detects the position of a second detection point representing a part of the surface of the object in a two-dimensional coordinate system. The control device derives the position of the virtual detection point in a two-dimensional coordinate system with the virtual sensor as the origin based on the detection result of the first sensor and the detection result of the second sensor. The control device moves the virtual sensor from the reference position to approach the object based on the detection result of the first sensor and the detection result of the second sensor. [Selection diagram] Figure 5

Description

本開示は、車両に関する。 TECHNICAL FIELD This disclosure relates to vehicles.

特許文献1に開示の車両は、複数のセンサと、制御装置と、を備える。制御装置は、複数のセンサの検出結果を組み合わせることで新たな情報を得る。これにより、制御装置は、外部状況を認識する。 The vehicle disclosed in Patent Document 1 includes a plurality of sensors and a control device. The control device obtains new information by combining detection results from multiple sensors. This allows the control device to recognize the external situation.

特開2022-24493号公報JP2022-24493A

車両は、検出点の二次元の座標系での位置を検出するセンサを複数備える場合がある。このセンサの検出結果を組み合わせることで新たな情報を得る場合、制御装置は、複数のセンサの検出結果から、仮想センサを原点とする二次元の座標系での仮想検出点の位置を導出する。この場合、センサの位置と仮想センサの位置との差に起因して、センサを原点として物体を表現する表現角よりも仮想センサを原点として物体を表現する表現角が狭くなるおそれがある。 A vehicle may include a plurality of sensors that detect the position of a detection point in a two-dimensional coordinate system. When obtaining new information by combining the detection results of the sensors, the control device derives the position of the virtual detection point in a two-dimensional coordinate system with the virtual sensor as the origin from the detection results of the plurality of sensors. In this case, due to the difference between the position of the sensor and the position of the virtual sensor, there is a possibility that the expression angle that expresses the object with the virtual sensor as the origin becomes narrower than the expression angle that expresses the object with the sensor as the origin.

上記課題を解決する車両は、物体の表面の一部を表す第1検出点の二次元の座標系での位置を検出する第1センサと、前記物体の表面の一部を表す第2検出点の二次元の座標系での位置を検出する第2センサと、制御装置と、を備え、前記制御装置は、前記第1センサの検出結果と前記第2センサの検出結果とに基づいて、仮想センサを原点とする二次元の座標系での仮想検出点の位置を導出し、前記第1センサの検出結果と前記第2センサの検出結果とに基づいて、基準位置から前記物体に近付くように前記仮想センサを移動させる。 A vehicle that solves the above problems includes a first sensor that detects the position in a two-dimensional coordinate system of a first detection point representing a part of the surface of an object, and a second detection point representing a part of the surface of the object. a second sensor that detects a position in a two-dimensional coordinate system of Deriving the position of a virtual detection point in a two-dimensional coordinate system with the sensor as the origin, and approaching the object from the reference position based on the detection result of the first sensor and the detection result of the second sensor. The virtual sensor is moved.

制御装置は、物体に近付くように仮想センサの位置を移動させる。仮想センサの位置を一定にする場合、物体と仮想センサとの位置関係によっては、仮想センサを原点として物体を表現する表現角が狭くなるおそれがある。物体に近付くように仮想センサの位置を移動させることで、表現角が狭くなることを抑制できる。 The control device moves the position of the virtual sensor so as to approach the object. When the position of the virtual sensor is kept constant, depending on the positional relationship between the object and the virtual sensor, there is a possibility that the expression angle for expressing the object using the virtual sensor as the origin may become narrower. By moving the position of the virtual sensor so as to approach the object, narrowing of the expression angle can be suppressed.

上記車両について、前記制御装置は、前記第1センサと前記第2センサを結ぶ仮想的な線分上で前記仮想センサを移動させてもよい。
上記車両について、前記制御装置は、前記第1センサが1周期で検出する複数の前記第1検出点までの距離の平均値である第1平均値を算出し、前記第2センサが1周期で検出する複数の前記第2検出点までの距離の平均値である第2平均値を算出し、前記第1センサから前記仮想センサまでの距離と前記第2センサから前記仮想センサまでの距離との比が、前記第1平均値と前記第2平均値との比に一致するように前記仮想センサを移動させてもよい。
Regarding the vehicle, the control device may move the virtual sensor on a virtual line segment connecting the first sensor and the second sensor.
Regarding the vehicle, the control device calculates a first average value that is an average value of distances to the plurality of first detection points detected by the first sensor in one cycle, and calculates a first average value that is an average value of distances to the plurality of first detection points detected by the first sensor in one cycle, and A second average value that is an average value of the distances to the plurality of second detection points to be detected is calculated, and the distance from the first sensor to the virtual sensor and the distance from the second sensor to the virtual sensor are calculated. The virtual sensor may be moved such that the ratio matches the ratio between the first average value and the second average value.

本発明によれば、表現角が狭くなることを抑制できる。 According to the present invention, narrowing of the expression angle can be suppressed.

車両の概略構成図である。FIG. 1 is a schematic configuration diagram of a vehicle. 図1の車両が備えるセンサの視野角、及び角度分解能を示す図である。2 is a diagram showing the viewing angle and angular resolution of a sensor included in the vehicle of FIG. 1. FIG. 図1の車両が備えるセンサの位置を示す図である。2 is a diagram showing the positions of sensors included in the vehicle of FIG. 1. FIG. 図1の制御装置によって生成される仮想センサを模式的に示す図である。2 is a diagram schematically showing a virtual sensor generated by the control device of FIG. 1. FIG. 図1の制御装置が行う制御を示すフローチャートである。2 is a flowchart showing control performed by the control device of FIG. 1. FIG. 図5のフローチャートで制御装置が仮想生成点の位置を算出する際の制御について説明するための図である。6 is a diagram for explaining control when the control device calculates the position of a virtual generation point in the flowchart of FIG. 5. FIG. 車両の移動に伴う仮想センサの位置の遷移を示す図である。FIG. 3 is a diagram showing a transition in the position of a virtual sensor as the vehicle moves. 表現角について説明するための図である。FIG. 3 is a diagram for explaining expression angles.

車両の一実施形態について説明する。
<車両>
図1に示すように、車両10は、車体11と、第1センサ12と、第2センサ13と、制御装置14と、を備える。本実施形態の車両10は、自律移動を行うように構成されている。車両10は、生成した経路に沿って移動するものであってもよい。車両10は、予め定められた追尾対象を追尾するものであってもよい。車両10は、例えば、産業車両、搬送車、又は乗用車である。産業車両は、フォークリフト及びトーイングトラクタを含む。
An embodiment of a vehicle will be described.
<Vehicle>
As shown in FIG. 1, the vehicle 10 includes a vehicle body 11, a first sensor 12, a second sensor 13, and a control device 14. The vehicle 10 of this embodiment is configured to autonomously move. The vehicle 10 may move along the generated route. The vehicle 10 may track a predetermined tracking target. Vehicle 10 is, for example, an industrial vehicle, a transport vehicle, or a passenger car. Industrial vehicles include forklifts and towing tractors.

本実施形態において、第1センサ12及び第2センサ13は、互いに同一のものである。センサ12,13は、物体の二次元の位置を検出できる。本実施形態では、センサ12,13として、LIDAR(Laser Imaging Detection and Ranging)を用いている。センサ12,13は、レーザーを周辺に照射し、レーザーが当たった部分である検出点によって反射された反射光を受光する距離計である。レーザーは、物体の表面で反射する。検出点は、物体の表面の一部を表している。 In this embodiment, the first sensor 12 and the second sensor 13 are the same. Sensors 12 and 13 can detect the two-dimensional position of an object. In this embodiment, LIDAR (Laser Imaging Detection and Ranging) is used as the sensors 12 and 13. The sensors 12 and 13 are distance meters that irradiate the surrounding area with a laser and receive reflected light reflected by a detection point that is a portion hit by the laser. Lasers reflect off the surface of objects. The detection point represents a part of the surface of the object.

図2に示すように、センサ12,13は、視野角θ1の範囲内で角度分解能θ2に応じた角度でレーザーを照射する。センサ12,13の視野角θ1は、360°未満である。センサ12,13の視野角θ1は、例えば、270°である。角度分解能θ2は、例えば、30°である。センサ12,13は、水平方向への照射角度を変更しながらレーザーを照射するように配置されている。センサ12,13は、センサ12,13を中心とする視野角θ1の範囲で照射角度を変更しながらレーザーを照射する。視野角θ1及びレーザーの到達可能距離で規定される範囲がセンサ12,13の検出可能範囲である。 As shown in FIG. 2, the sensors 12 and 13 emit laser light at an angle corresponding to the angular resolution θ2 within the range of the viewing angle θ1. The viewing angle θ1 of the sensors 12 and 13 is less than 360°. The viewing angle θ1 of the sensors 12 and 13 is, for example, 270°. The angular resolution θ2 is, for example, 30°. The sensors 12 and 13 are arranged so as to irradiate laser beams while changing the irradiation angle in the horizontal direction. The sensors 12 and 13 irradiate laser beams while changing the irradiation angle within a viewing angle θ1 centered on the sensors 12 and 13. The range defined by the viewing angle θ1 and the reachable distance of the laser is the detectable range of the sensors 12 and 13.

センサ12,13が視野角θ1の範囲を1回走査することを1周期とする。センサ12,13の検出結果は、距離データ群として表すことができる。距離データ群は、1周期の間にセンサ12,13が検出した複数の距離データを含む。本実施形態のセンサ12,13であれば、1周期の間に、角度分解能θ2に応じた10個の距離データを得ることができる。距離データ群は、例えば{1.0、1.5、0、1.2、1.8、1.9、0、0.8、1.5、1.0}のように、10個の数値の配列である。10個の数値のそれぞれは、検出点までの距離を示す距離データである。レーザーを照射しても反射光を受光できなかった場合、距離データは0になる。距離データ群に含まれる距離データの順序は、基準角からの角度を表す。基準角は、予め定められている。角度分解能θ2が30°であれば、1番目の距離データは0°、2番目の距離データは30°、3番目の距離データは60°である。このように、距離データ群に含まれる距離データの順序が遅くなるほど、基準角からの角度は大きくなる。距離データ群は、距離データと角度とを対応付けたデータであるため、センサ12,13を原点とする検出点の位置を二次元の極座標系で表したデータの集合といえる。センサ12,13は、物体の表面の一部を表す検知点の二次元の座標系での位置を検出するといえる。第1センサ12の検出結果である距離データ群を第1距離データ群とする。第1距離データ群に含まれる距離データを第1距離データとする。第2センサ13の検出結果である距離データ群を第2距離データ群とする。第2距離データ群に含まれる距離データを第2距離データとする。 One period is defined as one scan of the range of viewing angle θ1 by the sensors 12 and 13. The detection results of the sensors 12 and 13 can be expressed as a distance data group. The distance data group includes a plurality of distance data detected by the sensors 12 and 13 during one cycle. With the sensors 12 and 13 of this embodiment, ten distance data corresponding to the angular resolution θ2 can be obtained during one cycle. The distance data group consists of 10 pieces, for example {1.0, 1.5, 0, 1.2, 1.8, 1.9, 0, 0.8, 1.5, 1.0}. It is an array of numbers. Each of the ten numerical values is distance data indicating the distance to the detection point. If no reflected light is received even after irradiating a laser, the distance data becomes 0. The order of the distance data included in the distance data group represents the angle from the reference angle. The reference angle is predetermined. If the angular resolution θ2 is 30°, the first distance data is 0°, the second distance data is 30°, and the third distance data is 60°. In this way, the later the distance data included in the distance data group is, the larger the angle from the reference angle becomes. Since the distance data group is data that associates distance data with angles, it can be said to be a set of data that represents the positions of detection points with the sensors 12 and 13 as the origin in a two-dimensional polar coordinate system. It can be said that the sensors 12 and 13 detect the position of a detection point representing a part of the surface of an object in a two-dimensional coordinate system. The distance data group that is the detection result of the first sensor 12 is referred to as a first distance data group. Let distance data included in the first distance data group be first distance data. The distance data group that is the detection result of the second sensor 13 is referred to as a second distance data group. Let distance data included in the second distance data group be second distance data.

図3に示すように、第1センサ12と第2センサ13とは、互いに離れて配置されている。第1センサ12は、第2センサ13よりも車両10の前方向に配置されている。第1センサ12は、視野角θ1が車両10の左右方向に均等になるように配置されている。第1センサ12の視野角θ1は、車両10の左右のそれぞれに対して135°ずつの拡がりを有する。第1センサ12の死角は、車両10の後方向である。第2センサ13は、視野角θ1が車両10の左右方向に均等になるように配置されている。第2センサ13の視野角θ1は、車両10の左右のそれぞれに対して135°ずつの拡がりを有する。第2センサ13の死角は、車両10の前方向である。第1センサ12と第2センサ13とは、互いの死角が向かい合うように配置されている。第1センサ12による検出点P1を第1検出点P1とする。第2センサ13による検出点P2を第2検出点P2とする。 As shown in FIG. 3, the first sensor 12 and the second sensor 13 are arranged apart from each other. The first sensor 12 is arranged further forward of the vehicle 10 than the second sensor 13 is. The first sensor 12 is arranged so that the viewing angle θ1 is equal in the left-right direction of the vehicle 10. The viewing angle θ1 of the first sensor 12 extends by 135° on each of the left and right sides of the vehicle 10. The blind spot of the first sensor 12 is the rear direction of the vehicle 10. The second sensor 13 is arranged so that the viewing angle θ1 is equal in the left-right direction of the vehicle 10. The viewing angle θ1 of the second sensor 13 extends by 135° on each of the left and right sides of the vehicle 10. The blind spot of the second sensor 13 is in the front direction of the vehicle 10. The first sensor 12 and the second sensor 13 are arranged so that their blind spots face each other. The detection point P1 by the first sensor 12 is defined as the first detection point P1. The detection point P2 by the second sensor 13 is defined as a second detection point P2.

図1に示すように、制御装置14は、プロセッサ15と、記憶部16と、を備える。記憶部16は、RAM(Random Access Memory)、及びROM(Read Only Memory)を含む。記憶部16は、処理をプロセッサ15に実行させるように構成されたプログラムコードまたは指令を格納している。記憶部16、即ち、コンピュータ可読媒体は、汎用または専用のコンピュータでアクセスできるあらゆる利用可能な媒体を含む。制御装置14は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェア回路によって構成されていてもよい。処理回路である制御装置14は、コンピュータプログラムに従って動作する1つ以上のプロセッサ、ASICやFPGA等の1つ以上のハードウェア回路、或いは、それらの組み合わせを含み得る。 As shown in FIG. 1, the control device 14 includes a processor 15 and a storage section 16. The storage unit 16 includes a RAM (Random Access Memory) and a ROM (Read Only Memory). The storage unit 16 stores program codes or instructions configured to cause the processor 15 to execute processes. Storage 16, or computer readable media, includes any available media that can be accessed by a general purpose or special purpose computer. The control device 14 may be configured by a hardware circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control device 14, which is a processing circuit, may include one or more processors that operate according to a computer program, one or more hardware circuits such as ASIC or FPGA, or a combination thereof.

<仮想センサ>
図4に示すように、制御装置14は、第1距離データ群、及び第2距離データ群から仮想センサISを原点とする二次元の極座標系での仮想検出点P3の位置を導出することができる。仮想センサISは、第1距離データ群及び第2距離データ群を合成することによって生成される仮想的なセンサである。
<Virtual sensor>
As shown in FIG. 4, the control device 14 can derive the position of the virtual detection point P3 in a two-dimensional polar coordinate system with the virtual sensor IS as the origin from the first distance data group and the second distance data group. can. The virtual sensor IS is a virtual sensor generated by combining the first distance data group and the second distance data group.

仮想センサISの視野角θ3は、360°である。仮想センサISの角度分解能θ4は、30°である。仮想センサISは、センサ12,13よりも視野角θ3が広く、かつ、センサ12,13と同一の角度分解能θ4である。制御装置14は、仮想生成点IPに仮想センサISが配置された場合に、仮想センサISが検出する仮想距離データ群を導出する。仮想距離データ群は、距離データ群と同様に、複数の数値の配列である。仮想距離データ群に含まれる数値は、仮想検出点P3までの距離を示す仮想距離データである。仮想距離データ群に含まれる仮想距離データの順序は、基準角からの角度を表す。 The viewing angle θ3 of the virtual sensor IS is 360°. The angular resolution θ4 of the virtual sensor IS is 30°. The virtual sensor IS has a wider viewing angle θ3 than the sensors 12 and 13, and the same angular resolution θ4 as the sensors 12 and 13. The control device 14 derives a virtual distance data group detected by the virtual sensor IS when the virtual sensor IS is placed at the virtual generation point IP. Like the distance data group, the virtual distance data group is an array of a plurality of numerical values. The numerical values included in the virtual distance data group are virtual distance data indicating the distance to the virtual detection point P3. The order of the virtual distance data included in the virtual distance data group represents the angle from the reference angle.

仮想センサISを仮想生成点IPに配置した際に距離が検出されると予測される仮想検出点P3と、検出点P1,P2とが重なり合う場合、制御装置14は、仮想距離データとして、仮想検出点P3と重なり合う検出点P1,P2までの距離データを用いる。仮想検出点P3と、検出点P1,P2とが重なり合わない場合、制御装置14は、仮想距離データとして、仮想検出点P3から所定範囲A1に位置している検出点P1,P2までの距離データを用いる。所定範囲A1は、検出点P1,P2を仮想検出点P3とみなせる範囲である。所定範囲A1は、例えば、仮想検出点P3を中心とする円形の範囲である。仮想検出点P3から所定範囲A1に位置している検出点P1,P2が存在しない場合、仮想距離データは0である。上記したように、仮想距離データとしては、距離データが用いられる。 If the virtual detection point P3 from which distance is predicted to be detected when the virtual sensor IS is placed at the virtual generation point IP overlaps the detection points P1 and P2, the control device 14 uses the virtual detection point as virtual distance data. Distance data to detection points P1 and P2 that overlap with point P3 is used. When the virtual detection point P3 and the detection points P1 and P2 do not overlap, the control device 14 uses distance data as virtual distance data from the virtual detection point P3 to the detection points P1 and P2 located in the predetermined range A1. Use. The predetermined range A1 is a range in which the detection points P1 and P2 can be regarded as a virtual detection point P3. The predetermined range A1 is, for example, a circular range centered on the virtual detection point P3. If the detection points P1 and P2 located within the predetermined range A1 from the virtual detection point P3 do not exist, the virtual distance data is 0. As described above, distance data is used as the virtual distance data.

制御装置14は、仮想距離データ群によって物体の位置を認識する。制御装置14は、仮想距離データを直交座標系の座標に変換することによって、直交座標系での物体の位置を認識してもよい。制御装置14は、認識した物体の位置から自己位置を推定してもよい。自己位置は、地図データにおける車両10の座標である。制御装置14は、認識した物体の位置から車両10と物体との接触を回避するように制御を行ってもよい。例えば、制御装置14は、物体を回避する制御、又は車両10を減速させる制御を行ってもよい。人が搭乗する車両10であれば、人に警告を行ってもよい。このように、認識した物体の位置から制御装置14が行う制御は、任意である。 The control device 14 recognizes the position of the object based on the virtual distance data group. The control device 14 may recognize the position of the object in the Cartesian coordinate system by converting the virtual distance data into coordinates in the Cartesian coordinate system. The control device 14 may estimate its own position from the position of the recognized object. The self-position is the coordinates of the vehicle 10 in the map data. The control device 14 may perform control to avoid contact between the vehicle 10 and the object based on the recognized position of the object. For example, the control device 14 may perform control to avoid objects or control to decelerate the vehicle 10. If the vehicle 10 has a person on board, a warning may be given to the person. In this way, the control performed by the control device 14 based on the recognized position of the object is arbitrary.

<制御装置が仮想センサを生成する際に行う制御>
制御装置14が仮想センサISを生成する際に行う制御について説明する。この制御は、車両10の起動中に所定の制御周期で繰り返し実行される。
<Control performed when the control device generates a virtual sensor>
The control performed by the control device 14 when generating the virtual sensor IS will be described. This control is repeatedly executed at a predetermined control cycle during startup of the vehicle 10.

図5に示すように、ステップS1において、制御装置14は、第1センサ12から第1距離データ群を取得する。
次に、ステップS2において、制御装置14は、第1距離データの平均値である第1平均値D1を算出する。第1平均値D1は、第1センサ12が1周期で検出する複数の第1検出点P1までの距離の平均値である。
As shown in FIG. 5, in step S1, the control device 14 acquires a first distance data group from the first sensor 12.
Next, in step S2, the control device 14 calculates a first average value D1 that is an average value of the first distance data. The first average value D1 is the average value of the distances to the plurality of first detection points P1 detected by the first sensor 12 in one cycle.

次に、ステップS3において、制御装置14は、第2センサ13から第2距離データ群を取得する。
次に、ステップS4において、制御装置14は、第2距離データの平均値である第2平均値D2を算出する。第2平均値D2は、第2センサ13が1周期で検出する複数の第2検出点P2までの距離の平均値である。
Next, in step S3, the control device 14 acquires a second distance data group from the second sensor 13.
Next, in step S4, the control device 14 calculates a second average value D2 that is an average value of the second distance data. The second average value D2 is the average value of the distances to the plurality of second detection points P2 detected by the second sensor 13 in one cycle.

次に、ステップS5において、制御装置14は、仮想生成点IPの位置を算出する。仮想生成点IPは、仮想センサISの位置である。仮想生成点IPは、仮想距離データ群によって表される二次元の極座標系の原点である。本実施形態において、仮想生成点IPは、第1センサ12と第2センサ13との間の範囲内で設定される。 Next, in step S5, the control device 14 calculates the position of the virtual generation point IP. The virtual generation point IP is the position of the virtual sensor IS. The virtual generation point IP is the origin of a two-dimensional polar coordinate system represented by the virtual distance data group. In this embodiment, the virtual generation point IP is set within the range between the first sensor 12 and the second sensor 13.

図6に示すように、仮想生成点IPは、第1センサ12と第2センサ13との間で設定される。制御装置14は、第1センサ12と第2センサ13を結ぶ仮想的な線分L1上で仮想生成点IPを設定する。即ち、第1検出点P1の位置を表す極座標系の原点と、第2検出点P2の位置を表す極座標系の原点との間で、仮想生成点IPは、直線上に移動する。本実施形態の仮想生成点IPは、車両10の前後方向に移動する。線分L1の中心位置、即ち、第1センサ12と第2センサ13との間の中心位置を基準位置PSとする。 As shown in FIG. 6, the virtual generation point IP is set between the first sensor 12 and the second sensor 13. The control device 14 sets a virtual generation point IP on the virtual line segment L1 connecting the first sensor 12 and the second sensor 13. That is, the virtual generation point IP moves on a straight line between the origin of the polar coordinate system representing the position of the first detection point P1 and the origin of the polar coordinate system representing the position of the second detection point P2. The virtual generation point IP of this embodiment moves in the longitudinal direction of the vehicle 10. The center position of the line segment L1, that is, the center position between the first sensor 12 and the second sensor 13 is defined as a reference position PS.

制御装置14は、線分L1を平均値D1:平均値D2に分割する位置に仮想生成点IPを設定する。即ち、第1センサ12から仮想生成点IPまでの距離と第2センサ13から仮想生成点IPまでの距離との比は、第1平均値D1と第2平均値D2との比と一致する。 The control device 14 sets a virtual generation point IP at a position where the line segment L1 is divided into an average value D1: an average value D2. That is, the ratio between the distance from the first sensor 12 to the virtual generation point IP and the distance from the second sensor 13 to the virtual generation point IP matches the ratio between the first average value D1 and the second average value D2.

第1平均値D1と第2平均値D2とが同一の値であれば、仮想生成点IPは、基準位置PSに設定される。第1平均値D1が第2平均値D2より小さければ、仮想生成点IPから第1センサ12までの距離は、仮想生成点IPから第2センサ13までの距離よりも短くなる。第1平均値D1が第2平均値D2より小さい場合、第1センサ12から物体までの距離が第2センサ13から物体までの距離よりも短い。従って、仮想生成点IPは、第1センサ12と第2センサ13との間で、物体に近付くように移動することになる。 If the first average value D1 and the second average value D2 are the same value, the virtual generation point IP is set to the reference position PS. If the first average value D1 is smaller than the second average value D2, the distance from the virtual generation point IP to the first sensor 12 will be shorter than the distance from the virtual generation point IP to the second sensor 13. When the first average value D1 is smaller than the second average value D2, the distance from the first sensor 12 to the object is shorter than the distance from the second sensor 13 to the object. Therefore, the virtual generation point IP moves between the first sensor 12 and the second sensor 13 so as to approach the object.

図5に示すように、次に、ステップS6において、制御装置14は、ステップS5で算出された位置に仮想生成点IPを設定する。
次に、ステップS7において、制御装置14は、ステップS6で設定された仮想生成点IPに仮想センサISが配置されている場合の仮想距離データ群を導出する。制御装置14は、前述したように、第1距離データ群、及び第2距離データ群を用いて仮想距離データ群を導出する。仮想生成点IPは、仮想センサISの位置であるため、仮想センサISは、物体に近付くように移動することになる。
As shown in FIG. 5, next, in step S6, the control device 14 sets the virtual generation point IP at the position calculated in step S5.
Next, in step S7, the control device 14 derives a virtual distance data group when the virtual sensor IS is placed at the virtual generation point IP set in step S6. As described above, the control device 14 derives a virtual distance data group using the first distance data group and the second distance data group. Since the virtual generation point IP is the position of the virtual sensor IS, the virtual sensor IS moves to approach the object.

[本実施形態の作用]
図7に示すように、2つの壁21,22の間を車両10が通過する場合を想定する。車両10は、2つのセンサ12,13から2つの壁21,22までの距離が一定のまま2つの壁21,22の間を通過する。2つの壁21,22の間には、障害物23が位置している。障害物23は、壁22に沿って設けられている。2つの壁21,22、及び障害物23は、物体の一例である。
[Operation of this embodiment]
As shown in FIG. 7, assume that the vehicle 10 passes between two walls 21 and 22. The vehicle 10 passes between the two walls 21, 22 while the distances from the two sensors 12, 13 to the two walls 21, 22 remain constant. An obstacle 23 is located between the two walls 21 and 22. Obstacle 23 is provided along wall 22. The two walls 21 and 22 and the obstacle 23 are examples of objects.

センサ12,13の検出可能範囲に障害物23が入り込まない場合、センサ12,13は壁21,22のみを検出する。この場合、第1平均値D1と第2平均値D2とは同一の値になる。仮想センサISの位置は、基準位置PSである。 When the obstacle 23 does not enter the detectable range of the sensors 12 and 13, the sensors 12 and 13 detect only the walls 21 and 22. In this case, the first average value D1 and the second average value D2 are the same value. The position of the virtual sensor IS is the reference position PS.

車両10が移動すると、第1センサ12の検出可能範囲に障害物23が入り込む。第1センサ12から壁22までの距離に比べて第1センサ12から障害物23の距離は短いため、第1平均値D1の値は小さくなる。仮想センサISの位置は、基準位置PSから第1センサ12に向けて障害物23に近付くように移動する。 When the vehicle 10 moves, the obstacle 23 enters the detectable range of the first sensor 12 . Since the distance from the first sensor 12 to the obstacle 23 is shorter than the distance from the first sensor 12 to the wall 22, the value of the first average value D1 becomes smaller. The position of the virtual sensor IS moves from the reference position PS toward the first sensor 12 so as to approach the obstacle 23.

第1センサ12から障害物23までの距離が第2センサ13から障害物23までの距離よりも短い場合、第1平均値D1は第2平均値D2よりも小さくなる。この場合、第1平均値D1と第2平均値D2との比に応じて、仮想センサISの位置は、基準位置PSから障害物23に近付く。この際の第1センサ12から仮想センサISまでの距離は、第2センサ13から仮想センサISまでの距離よりも短い。 When the distance from the first sensor 12 to the obstacle 23 is shorter than the distance from the second sensor 13 to the obstacle 23, the first average value D1 is smaller than the second average value D2. In this case, the position of the virtual sensor IS approaches the obstacle 23 from the reference position PS according to the ratio between the first average value D1 and the second average value D2. At this time, the distance from the first sensor 12 to the virtual sensor IS is shorter than the distance from the second sensor 13 to the virtual sensor IS.

第2センサ13から障害物23までの距離が第1センサ12から障害物23までの距離よりも短い場合、第2平均値D2は第1平均値D1よりも小さくなる。この場合、第1平均値D1と第2平均値D2との比に応じて、仮想センサISの位置は、基準位置PSから障害物23に近付く。この際の第2センサ13から仮想センサISまでの距離は、第1センサ12から仮想センサISまでの距離よりも短い。 When the distance from the second sensor 13 to the obstacle 23 is shorter than the distance from the first sensor 12 to the obstacle 23, the second average value D2 is smaller than the first average value D1. In this case, the position of the virtual sensor IS approaches the obstacle 23 from the reference position PS according to the ratio between the first average value D1 and the second average value D2. At this time, the distance from the second sensor 13 to the virtual sensor IS is shorter than the distance from the first sensor 12 to the virtual sensor IS.

上記したように、制御装置14は、仮想センサISの位置を基準位置PSから障害物23に近付くように移動させる。言い換えれば、制御装置14は、仮想センサISの位置を基準位置PSから障害物23に近いセンサ12,13に近付くように移動させる。 As described above, the control device 14 moves the position of the virtual sensor IS from the reference position PS to approach the obstacle 23. In other words, the control device 14 moves the position of the virtual sensor IS from the reference position PS to approach the sensors 12 and 13 near the obstacle 23.

なお、車両10の周囲に複数の物体が存在する場合、仮想センサISの移動によって仮想センサISが離れる物体が存在する場合もある。第1平均値D1及び第2平均値D2に影響を与える物体は、車両10の制御に際して最も影響が大きい物体である。車両10の周囲に複数の物体が存在する場合、最も影響が大きい物体に仮想センサISは近付くことになる。 Note that when a plurality of objects exist around the vehicle 10, there may be an object from which the virtual sensor IS moves away due to the movement of the virtual sensor IS. The object that influences the first average value D1 and the second average value D2 is the object that has the greatest influence on the control of the vehicle 10. If there are multiple objects around the vehicle 10, the virtual sensor IS will approach the object that has the greatest influence.

図8に示すように、仮想センサISの位置を一定とする場合、第1センサ12を原点として物体24を表現する表現角θ5よりも仮想センサISを原点として物体24を表現する表現角θ6が狭くなるおそれがある。表現角は、座標系の原点から物体24を見たときに物体24が占める範囲を角度で表したものである。図8から把握できるように、第1センサ12を原点とした場合の表現角θ5よりも、仮想センサISを原点とした場合の表現角θ6は狭い。表現角が狭いと、制御装置14による物体24の認識精度が低下するおそれがあり、これに伴い自己位置推定精度の低下などを招くおそれがある。表現角が狭いと、表現角の範囲に含まれる検出点の数が少なくなるため、物体を認識しにくくなる。図8に示す例であれば、表現角θ6の範囲に含まれる仮想検出点P3の数は、表現角θ5に含まれる第1検出点P1の数よりも少なくなるため、仮想センサISによって物体を認識することによって物体の認識精度が低下するおそれがある。 As shown in FIG. 8, when the position of the virtual sensor IS is kept constant, the expression angle θ6 that expresses the object 24 with the virtual sensor IS as the origin is greater than the expression angle θ5 that expresses the object 24 with the first sensor 12 as the origin. There is a risk that it will become narrower. The expression angle is an angle that represents the range occupied by the object 24 when viewed from the origin of the coordinate system. As can be understood from FIG. 8, the expression angle θ6 when the virtual sensor IS is the origin is narrower than the expression angle θ5 when the first sensor 12 is the origin. If the expression angle is narrow, there is a risk that the recognition accuracy of the object 24 by the control device 14 will decrease, and this may lead to a decrease in self-position estimation accuracy. When the representation angle is narrow, the number of detection points included in the range of the representation angle decreases, making it difficult to recognize the object. In the example shown in FIG. 8, the number of virtual detection points P3 included in the range of expression angle θ6 is smaller than the number of first detection points P1 included in expression angle θ5, so the virtual sensor IS detects the object. There is a risk that object recognition accuracy may decrease due to recognition.

これに対し、本実施形態であれば、仮想センサISの位置は、基準位置PSから物体に近付くように移動する。このため、仮想センサISの位置は、第1センサ12に近付く。これにより、仮想センサISの表現角θ6が狭くなることを抑制できる。 In contrast, in this embodiment, the position of the virtual sensor IS moves from the reference position PS to approach the object. Therefore, the position of the virtual sensor IS approaches the first sensor 12. Thereby, it is possible to suppress the expression angle θ6 of the virtual sensor IS from becoming narrower.

[本実施形態の作用]
(1)制御装置14は、物体に近付くように仮想センサISの位置を移動させる。これにより、表現角が狭くなることを抑制できる。
[Operation of this embodiment]
(1) The control device 14 moves the position of the virtual sensor IS so that it approaches the object. Thereby, narrowing of the expression angle can be suppressed.

(2)制御装置14は、第1センサ12と第2センサ13を結ぶ仮想的な線分L1上で仮想センサISの位置を移動させる。仮想センサISを線分L1上で移動させると、仮想センサISは、2つのセンサ12,13のうちの一方に近付く。このため、検出点P1,P2が所定範囲A1に含まれやすくなり、検出点P1,P2で表現される物体を仮想検出点P3で表現しやすくなる。このため、物体の認識精度の低下を抑制することができる。 (2) The control device 14 moves the position of the virtual sensor IS on the virtual line segment L1 connecting the first sensor 12 and the second sensor 13. When the virtual sensor IS is moved on the line segment L1, the virtual sensor IS approaches one of the two sensors 12 and 13. Therefore, the detection points P1 and P2 are likely to be included in the predetermined range A1, and the object represented by the detection points P1 and P2 can be easily represented by the virtual detection point P3. Therefore, it is possible to suppress a decrease in object recognition accuracy.

(3)制御装置14は、第1センサ12から仮想センサISまでの距離と第2センサ13から仮想センサISまでの距離との比が、第1平均値D1と第2平均値D2との比に一致するように仮想センサISを移動させる。センサ12,13と物体との距離が短いほど検出点P1,P2までの距離の平均値は小さくなる。第1平均値D1と第2平均値D2との比に応じて仮想センサISを移動させることで、仮想センサISを物体に近付けることができる。 (3) The control device 14 determines that the ratio of the distance from the first sensor 12 to the virtual sensor IS to the distance from the second sensor 13 to the virtual sensor IS is the ratio of the first average value D1 to the second average value D2. The virtual sensor IS is moved to match the . The shorter the distance between the sensors 12, 13 and the object, the smaller the average value of the distances to the detection points P1, P2. By moving the virtual sensor IS according to the ratio between the first average value D1 and the second average value D2, the virtual sensor IS can be brought closer to the object.

[変更例]
実施形態は、以下のように変更して実施することができる。実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
[Example of change]
The embodiment can be modified and implemented as follows. The embodiments and the following modification examples can be implemented in combination with each other within a technically consistent range.

○制御装置14は、仮想生成点IPを車両10の左右方向に移動させてもよい。この場合、制御装置14は、車両10の右方向に対する距離データと、車両10の左方向に対する距離データとに基づいて仮想生成点IPの位置を算出する。例えば、制御装置14は、センサ12,13の視野角θ1のうち車両10の右方向に対する135°の範囲の検出点P1,P2までの距離の平均値と、センサ12,13の視野角θ1のうち車両10の左方向に対する135°の範囲の検出点P1,P2までの距離の平均値と、を算出する。センサ12,13の視野角θ1のうち車両10の右方向に対する135°の範囲の検出点P1,P2までの距離の平均値を右平均値とする。センサ12,13の視野角θ1のうち車両10の左方向に対する135°の範囲の検出点P1,P2までの距離の平均値を左平均値とする。制御装置14は、右平均値が左平均値よりも小さい場合、線分L1よりも車両10の右方向に仮想生成点IPを設定する。制御装置14は、左平均値が右平均値よりも小さい場合、線分L1よりも車両10の左方向に仮想生成点IPを設定する。例えば、線分L1を中心として車両10の左右両側に拡がる範囲を仮想生成点IPが左右方向に移動できる範囲として設定しておき、右平均値と左平均値との比に応じて当該範囲内での仮想生成点IPの位置を設定してもよい。この場合、線分L1が基準位置である。制御装置14は、仮想生成点IPを車両10の左右方向に移動させる場合、仮想生成点IPを車両10の前後方向に移動させてもいいし、仮想生成点IPを車両10の前後方向に移動させなくてもよい。 The control device 14 may move the virtual generation point IP in the left-right direction of the vehicle 10. In this case, the control device 14 calculates the position of the virtual generation point IP based on the distance data for the right direction of the vehicle 10 and the distance data for the left direction of the vehicle 10. For example, the control device 14 calculates the average value of the distance to the detection points P1, P2 in a range of 135° to the right of the vehicle 10 among the viewing angles θ1 of the sensors 12 and 13, and the viewing angle θ1 of the sensors 12 and 13. Of these, the average value of the distances to the detection points P1 and P2 within a range of 135 degrees with respect to the left direction of the vehicle 10 is calculated. The average value of the distances to the detection points P1 and P2 within the range of 135° to the right of the vehicle 10 in the viewing angle θ1 of the sensors 12 and 13 is defined as the right average value. The average value of the distances to the detection points P1 and P2 in the range of 135° to the left of the vehicle 10 in the viewing angle θ1 of the sensors 12 and 13 is defined as the left average value. When the right average value is smaller than the left average value, the control device 14 sets the virtual generation point IP to the right of the vehicle 10 from the line segment L1. When the left average value is smaller than the right average value, the control device 14 sets the virtual generation point IP to the left of the vehicle 10 than the line segment L1. For example, a range that extends to both the left and right sides of the vehicle 10 with the line segment L1 as the center is set as the range in which the virtual generation point IP can move in the left and right direction, and the range is set according to the ratio of the right average value and the left average value. You may also set the position of the virtual generation point IP at . In this case, line segment L1 is the reference position. When moving the virtual generation point IP in the left-right direction of the vehicle 10, the control device 14 may move the virtual generation point IP in the front-rear direction of the vehicle 10, or move the virtual generation point IP in the front-rear direction of the vehicle 10. You don't have to let it happen.

○制御装置14は、距離データを直交座標系の座標に変換してもよい。極座標系と直交座標系とは、相互に変換可能であるため、距離データを直交座標系の座標に変換することができる。直交座標系は、車両10の前後方向をY軸、車両10の左右方向をX軸とする座標系である。Y座標は、検出点P1,P2までの車両10の前後方向の距離である。X座標は、検出点P1,P2までの車両10の左右方向の距離である。制御装置14は、第1センサ12が1周期で検出する複数の第1検出点P1までのY軸方向の距離の平均値を第1平均値D1としてもよい。制御装置14は、第2センサ13が1周期で検出する複数の第2検出点P2までのY軸方向の距離の平均値を第2平均値D2としてもよい。そして、制御装置14は、これらの平均値から仮想センサISの位置を設定してもよい。 ○The control device 14 may convert the distance data into coordinates of an orthogonal coordinate system. Since the polar coordinate system and the orthogonal coordinate system are mutually convertible, distance data can be converted into coordinates in the orthogonal coordinate system. The orthogonal coordinate system is a coordinate system in which the Y axis is the longitudinal direction of the vehicle 10 and the X axis is the horizontal direction of the vehicle 10. The Y coordinate is the distance in the longitudinal direction of the vehicle 10 to the detection points P1 and P2. The X coordinate is the distance in the left-right direction of the vehicle 10 to the detection points P1 and P2. The control device 14 may set the average value of the distances in the Y-axis direction to the plurality of first detection points P1 detected by the first sensor 12 in one cycle as the first average value D1. The control device 14 may set the average value of the distances in the Y-axis direction to the plurality of second detection points P2 detected by the second sensor 13 in one cycle as the second average value D2. The control device 14 may then set the position of the virtual sensor IS based on these average values.

○制御装置14は、第1距離データ群、及び第2距離データ群から仮想センサISを原点とする二次元の直交座標系での仮想検出点P3の位置を導出してもよい。この場合、制御装置14は、距離データを直交座標系の座標に変換した上で、仮想センサISを原点とする二次元の直交座標系での仮想検出点P3の位置を導出してもよい。即ち、仮想センサISを原点とする二次元の座標系は、極座標系であってもよいし、直交座標系であってもよい。 The control device 14 may derive the position of the virtual detection point P3 in a two-dimensional orthogonal coordinate system having the virtual sensor IS as the origin from the first distance data group and the second distance data group. In this case, the control device 14 may convert the distance data into coordinates of an orthogonal coordinate system, and then derive the position of the virtual detection point P3 in a two-dimensional orthogonal coordinate system with the virtual sensor IS as the origin. That is, the two-dimensional coordinate system having the virtual sensor IS as its origin may be a polar coordinate system or a rectangular coordinate system.

○制御装置14は、センサ12,13が1周期で検出する複数の検出点P1,P2までの距離の平均値を算出する際に、値が0の距離データを除外して平均値を算出してもよい。 ○ When calculating the average value of the distances to the plurality of detection points P1 and P2 detected by the sensors 12 and 13 in one cycle, the control device 14 excludes distance data with a value of 0 and calculates the average value. It's okay.

○仮想生成点IPは、線分L1からずれた位置に設定されてもよい。例えば、仮想生成点IPは、線分L1と平行であって線分L1から所定距離離れた線分上に設定されてもよい。 - The virtual generation point IP may be set at a position shifted from the line segment L1. For example, the virtual generation point IP may be set on a line segment that is parallel to the line segment L1 and is a predetermined distance away from the line segment L1.

○センサ12,13は、検出点P1,P2の二次元の座標系での位置を検出できるものであればよい。例えば、センサ12,13としては、レーダー、ステレオカメラ、又はToF(Time Of Flight)カメラを用いることができる。検出点P1,P2の二次元の座標系は、極座標系であってもよいし、直交座標系であってもよい。 The sensors 12 and 13 may be of any type as long as they can detect the positions of the detection points P1 and P2 in a two-dimensional coordinate system. For example, as the sensors 12 and 13, a radar, a stereo camera, or a ToF (Time Of Flight) camera can be used. The two-dimensional coordinate system of the detection points P1 and P2 may be a polar coordinate system or a rectangular coordinate system.

○第1センサ12と第2センサ13とは、互いに視野角θ1が異なっていてもよいし、互いに角度分解能θ2が異なっていてもよい。第1センサ12と第2センサ13とは異なる種類のセンサであってもよい。例えば、第1センサ12としてLIDARを用いて、第2センサ13としてステレオカメラを用いてもよい。 The first sensor 12 and the second sensor 13 may have different viewing angles θ1 or may have different angular resolutions θ2. The first sensor 12 and the second sensor 13 may be different types of sensors. For example, LIDAR may be used as the first sensor 12 and a stereo camera may be used as the second sensor 13.

○仮想センサISの角度分解能θ4は、センサ12,13の角度分解能θ2よりも高くしてもよいし、低くしてもよい。
○車両10は、車両10に搭乗した人によって操作されるものであってもよい。
The angular resolution θ4 of the virtual sensor IS may be higher or lower than the angular resolution θ2 of the sensors 12 and 13.
The vehicle 10 may be operated by a person riding in the vehicle 10.

IS…仮想センサ、L1…線分、P1…第1検出点、P2…第2検出点、P3…仮想検出点、PS…基準位置、10…車両、12…第1センサ、13…第2センサ、14…制御装置。 IS...virtual sensor, L1...line segment, P1...first detection point, P2...second detection point, P3...virtual detection point, PS...reference position, 10...vehicle, 12...first sensor, 13...second sensor , 14...control device.

Claims (3)

物体の表面の一部を表す第1検出点の二次元の座標系での位置を検出する第1センサと、
前記物体の表面の一部を表す第2検出点の二次元の座標系での位置を検出する第2センサと、
制御装置と、を備え、
前記制御装置は、
前記第1センサの検出結果と前記第2センサの検出結果とに基づいて、仮想センサを原点とする二次元の座標系での仮想検出点の位置を導出し、
前記第1センサの検出結果と前記第2センサの検出結果とに基づいて、基準位置から前記物体に近付くように前記仮想センサを移動させる、車両。
a first sensor that detects the position of a first detection point representing a part of the surface of the object in a two-dimensional coordinate system;
a second sensor that detects a position in a two-dimensional coordinate system of a second detection point representing a part of the surface of the object;
comprising a control device;
The control device includes:
Deriving the position of a virtual detection point in a two-dimensional coordinate system with the virtual sensor as the origin based on the detection result of the first sensor and the detection result of the second sensor,
The vehicle moves the virtual sensor so as to approach the object from a reference position based on a detection result of the first sensor and a detection result of the second sensor.
前記制御装置は、前記第1センサと前記第2センサを結ぶ仮想的な線分上で前記仮想センサを移動させる、請求項1に記載の車両。 The vehicle according to claim 1, wherein the control device moves the virtual sensor on a virtual line segment connecting the first sensor and the second sensor. 前記制御装置は、
前記第1センサが1周期で検出する複数の前記第1検出点までの距離の平均値である第1平均値を算出し、
前記第2センサが1周期で検出する複数の前記第2検出点までの距離の平均値である第2平均値を算出し、
前記第1センサから前記仮想センサまでの距離と前記第2センサから前記仮想センサまでの距離との比が、前記第1平均値と前記第2平均値との比に一致するように前記仮想センサを移動させる、請求項2に記載の車両。
The control device includes:
Calculating a first average value that is an average value of distances to the plurality of first detection points detected by the first sensor in one cycle,
Calculating a second average value that is an average value of distances to the plurality of second detection points detected by the second sensor in one cycle,
The virtual sensor is configured such that the ratio of the distance from the first sensor to the virtual sensor and the distance from the second sensor to the virtual sensor matches the ratio of the first average value and the second average value. 3. The vehicle according to claim 2, wherein the vehicle moves a .
JP2022138546A 2022-08-31 2022-08-31 vehicle Pending JP2024034358A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022138546A JP2024034358A (en) 2022-08-31 2022-08-31 vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022138546A JP2024034358A (en) 2022-08-31 2022-08-31 vehicle

Publications (1)

Publication Number Publication Date
JP2024034358A true JP2024034358A (en) 2024-03-13

Family

ID=90193671

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022138546A Pending JP2024034358A (en) 2022-08-31 2022-08-31 vehicle

Country Status (1)

Country Link
JP (1) JP2024034358A (en)

Similar Documents

Publication Publication Date Title
US11097726B2 (en) Lane keeping assist system and method for improving safety in preceding vehicle follower longitudinal control
JP5470886B2 (en) Object detection device
JP5884902B2 (en) Driving assistance device
US20140114526A1 (en) Safety apparatus for a vehicle
CN104554258A (en) Path planning for evasive steering manuever employing virtual potential field technique
US11347227B2 (en) Autonomous mobile apparatus
JP4843571B2 (en) Vehicle object detection device
CN104554272A (en) Path planning for evasive steering maneuver in presence of target vehicle and surrounding objects
CN110352450A (en) Driving assistance method and drive assistance device
US11769267B2 (en) Object distance measurement apparatus and method
WO2014033956A1 (en) Collision determination device and collision determination method
JP6424467B2 (en) Target detection device
JP2009086787A (en) Vehicle detection device
JP5376187B2 (en) Object detection apparatus and object detection program
WO1998020398A1 (en) Obstacle collision preventive apparatus of mobile object
CN111942378A (en) Vehicle control device, vehicle control method, and storage medium
WO2012133457A1 (en) Object recognition device
JP5712900B2 (en) Peripheral object detection device
JP2018081628A (en) Vehicle control device, vehicle control method
CN114523963A (en) System and method for predicting road collision with host vehicle
KR20180039900A (en) Apparatus and method for determining collision possibility according to traveling path scenario and controlling a vehicle
KR20180116212A (en) Object detecting apparatus, object detecting method, and program
JP7081098B2 (en) Driving environment recognition device, driving environment recognition method, program
KR20230031344A (en) System and Method for Detecting Obstacles in Area Surrounding Vehicle
JP2024034358A (en) vehicle