WO2006035510A1 - 車両の外界認識装置 - Google Patents

車両の外界認識装置 Download PDF

Info

Publication number
WO2006035510A1
WO2006035510A1 PCT/JP2004/014666 JP2004014666W WO2006035510A1 WO 2006035510 A1 WO2006035510 A1 WO 2006035510A1 JP 2004014666 W JP2004014666 W JP 2004014666W WO 2006035510 A1 WO2006035510 A1 WO 2006035510A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
vehicle
image
holding member
information
Prior art date
Application number
PCT/JP2004/014666
Other languages
English (en)
French (fr)
Inventor
Hiroyuki Kasuya
Tatsuhiko Monji
Isao Furusawa
Original Assignee
Hitachi, Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi, Ltd. filed Critical Hitachi, Ltd.
Priority to PCT/JP2004/014666 priority Critical patent/WO2006035510A1/ja
Priority to JP2006517877A priority patent/JPWO2006035510A1/ja
Publication of WO2006035510A1 publication Critical patent/WO2006035510A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
    • B60R2300/402Image calibration

Definitions

  • the present invention relates to a vehicle external recognition device.
  • AC C Adaptive Cruise Control
  • a lane departure warning which detects the danger of a vehicle lane departure and alerts the driver Driving assistance devices
  • driving assistance control so-called pre-crash safety
  • pre-crash safety has been put into practical use, which detects the danger of a collision and assists in the depression of the brake when it is judged that collision avoidance is difficult. It is expected that safer and more convenient control will be realized for such driving support devices.
  • the driving assist apparatus as described above, external environment automobile is placed, i.e. the circumstances Ya vehicle, the other vehicle run ⁇ 1 state and the like can be detected accurately, realizing a more advanced control Is important.
  • an imaging unit that captures a situation around the host vehicle, a traveling lane and another vehicle from the captured image by the imaging unit
  • image processing means that recognizes at least, and those that detect the position of other vehicles around the host vehicle by radiating electromagnetic waves toward the area to be searched and detecting reflected waves of the electromagnetic waves .
  • a mounting structure for an external environment recognition device is a door / mirror or side mirror camera.
  • the target detected by the camera and the target detected by the radar are the same vehicle or different vehicles.
  • Information processing is important. In this matching process, the imaging direction of the camera and the detection direction of the radar must match with a predetermined accuracy.
  • the present invention reduces the mounting error between a plurality of sensors and the change in error due to secular change, and simplifies the work of mounting the outside recognition device on a vehicle in an outside recognition device combining a plurality of sensors.
  • the purpose is to
  • the present invention comprises means for acquiring image information, and object detection means for detecting the target object by transmitting and receiving signals.
  • Information by the image capture means and information by the object detection means In the external environment recognition apparatus for a vehicle that recognizes the external environment of the vehicle using the above, the image capturing means and the object detection means are arranged on a common holding member.
  • Fig. 1 shows an example of the system configuration of the combined sensor unit V.
  • Fig. 2 shows an example of a combined sensor unit.
  • Figure 3 shows an example of a compound sensor unit.
  • Figure 4 shows an example of a combined sensor unit.
  • Fig. 5 shows an example of mounting the combined sensor unit to the vehicle.
  • Fig. 6 shows an example of mounting the combined sensor unit on a vehicle.
  • FIG. 7 shows an example of mounting the combined sensor unit on a vehicle.
  • Fig. 8 shows an example of mounting the combined sensor unit to the vehicle.
  • Figure 9 shows an example of a combined sensor unit.
  • FIG. 10 is an example of a sensor mounting board.
  • Fig. 11 shows an example of how to measure and correct the optical axis deviation.
  • Figure 12 shows an example of the prior art. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIGS. 12 (b) and 12 (a) Prior to the description of the preferred embodiment of the present invention, the contents and problems of the prior art will be described with reference to FIGS. 12 (b) and 12 (a).
  • Fig. 12 (a) two sensors, Radar Unit 13 and Camera Unit 14, have been placed in different locations. Considering the detection performance of the radar unit alone, placing the radar unit 13 at the tip of the car can receive the radio waves transmitted by itself more efficiently. Similarly, if we focus only on the performance of image recognition with a power camera, the camera unit 14 is easier to recognize when viewed from a bird's eye view as high as possible. However, when recognizing the external environment by combining both the information from radar unit 1 3 and the information from camera unit 1 4, the relative positional relationship between radar unit 1 3 and camera unit 14 is strictly It is desirable to set. ,
  • the relative positional relationship between the radar unit 1 3 and the camera unit 14 is predetermined.
  • the radar unit 1 3 and the camera unit 14 need to be attached to the vehicle body so as to be related, and the problem that the axis adjustment work needs to be performed twice arises.
  • the radar unit 1 3 and the camera unit 14 have theoretical mounting angles X, ,, With respect to Z, it has a mouth angle error ⁇ ⁇ 1 and ⁇ X2, a pitch angle error ⁇ Y1 and ⁇ Y2, and a corner angle error ⁇ Z1 and ⁇ Z2.
  • the radar: i unit 1 3 and camera unit 14 are installed separately,
  • the shaft adjustment work must be performed twice in the conventional technology.
  • This axis adjustment is performed by imaging the pseudo target or the actual mounting position and angle between the vehicle body and the radar unit 13 or the camera unit 14. Since it is a complicated task to adjust while detecting, if the axis is adjusted twice, the time required for the assembly process of the car will increase, resulting in an increase in production cost.
  • Fig. 1 is a system block diagram of an external recognition device that integrates a camera and radar.
  • An image capturing unit 2 and a transmitting / receiving unit 3 are mounted on the sensor mounting substrate 1.
  • the image capturing unit 2 generally uses a CCD image sensor or a CMOS image sensor.
  • the image processing unit 5 obtains a quantitative sensor amount such as the relative distance from the preceding vehicle or the oncoming vehicle or the vehicle position obtained from the lane mark on the road from the image data obtained by the image capturing unit 2. .
  • the transmission / reception unit 3 includes a transmission circuit such as a millimeter wave and a reception circuit that receives the reflected signal.
  • the radar signal processing unit 7 processes the transmission / reception signal obtained by the transmission / reception unit 3, and detects the distance, relative speed, and azimuth angle with the reflector in the radar detection range.
  • the signal processing unit 4 calculates an external recognition amount based on information from the image processing unit 5 and the radar signal processing unit 7, and can be implemented by, for example, a microcomputer.
  • the optical axis error storage unit 6 records an assembly error (amount of optical axis deviation) between the composite sensor unit 9 and the vehicle body, and the signal processing unit 4 includes the image processing unit 5 and the radar signal processing unit 7.
  • the information on the optical axis deviation stored in the optical axis error storage unit 6 is used when calculating the amount of recognition of the outside world based on this information.
  • the control unit 10 is a controller that controls the brakes and accelerators of the vehicle based on the external recognition amount calculated by the composite sensor unit 9, and controls the vehicle speed according to the distance from an obstacle or a preceding vehicle, for example. To do.
  • FIG. 2 shows a detailed embodiment of the sensor mounting board 1.
  • An image capturing unit 2 that is an image sensor and an antenna unit 1 are arranged on the sensor mounting substrate 1.
  • the misalignment error between the image sensor and the antenna unit 1 can be made extremely small by the recent substrate mounting technology. Therefore, quoting the symbol in Fig. 12 (b),
  • ⁇ X 1 ⁇ X 2
  • ⁇ ⁇ 1 ⁇ ⁇ 2
  • ⁇ ⁇ 1 ⁇ ⁇ 2
  • the relative positional relationship between the image capture unit 2 and the transmission / reception unit 3 depends on the tolerance of the base mounting. Since it is possible to maintain a substantially constant accuracy to be determined, it is not necessary to adjust and store the relative positional relationship between the image capture unit 2 and the transmission / reception unit 3 for each unit. Become. Further, the signal processing unit 4 also does not need to correct the relative positional relationship between the image capturing unit 2 and the transmission / reception unit 3.
  • the image capturing unit 2 and the transmission / reception unit 3 are attached to the vehicle at a time by attaching the composite sensor unit 9 to the vehicle. Just do it.
  • an example of the structure of the composite sensor unit 9 will be described in detail with reference to FIG.
  • An image capturing unit 2 and a transmission / reception unit 3 which are image sensors are mounted on the sensor mounting substrate 1.
  • the image capture unit 2 and the transmission / reception unit 3 are mounted so that the positions in the X, Y, and Z directions, and the angle, roll angle, and pitch angle are predetermined.
  • the angle and pitch angle of the image capturing unit 2 and the transmitting / receiving unit 3 can be matched.
  • an image capturing circuit unit 16 that drives the image capturing unit 2 and a high-frequency circuit unit 15 that supplies a transmission signal to the transmitting / receiving unit 3 are mounted on the sensor mounting substrate 1.
  • a signal processing unit 4 is arranged on the back surface of the sensor mounting board 1, an image processing unit 5 and a radar signal processing unit 7 are mounted, and the amount of recognition of the outside world is calculated based on these information.
  • a lens holder 19 and a lens 18 are arranged in front of the image capturing section '2. These are protected by a housing cover 20. Note that the signal processing unit 4 and the sensor mounting board 1 are connected by board-to-board connection.
  • the vehicle mounting bracket ⁇ 17 is attached to the vehicle frame, and has a structure that allows the optical axis adjustment unit 8 to make fine adjustments after mounting the vehicle.
  • the composite sensor unit 9 is provided with a housing side connector 23.
  • the connector includes a power supply line for supplying power to the composite sensor unit 9, a ground line (GND), and the detected information to the composite sensor unit 9.
  • the signal lines to be output to the outside of 9 are gathered, and the structure that fits with the harness side connector 24 provided on the external harness 25. It has become. ,
  • the signal processing unit 4 is provided inside the composite sensor unit 9 and the recognized external environment information is output to the outside.
  • the information is acquired by the image capturing unit 2 and the transmitting / receiving unit 3.
  • the data may be transmitted to an external device, and the external device may combine the respective information to recognize the outside world.
  • the housing cover 21 is shaped to cover the lens 18. As a result, it is possible to facilitate waterproofing of the housing. This configuration is particularly suitable when the composite sensor unit 9 is attached to a lower part of the vehicle pon- ent or the like like a conventional radar unit. At this time, a field window 22 is provided as shown in FIG. 4 (b), and imaging of the outside world is taken into consideration. In addition, the viewing window 22 can have a function of polarization fill or optical pass fill.
  • the structure of the composite sensor unit 9 is the same as in FIG. 3 or FIG. .
  • the combined sensor unit 9 is attached to the vehicle 12 so that the pixel center of the image capturing unit 2 and the center of the transmission / reception unit 3 are positioned on a line substantially perpendicular to the vehicle body.
  • the offset amount of the mounting position in the lateral direction of the vehicle body between the image capturing unit 2 and the transmission / reception unit 3 can be substantially eliminated, and the environment environment is combined with image information and radar information. Correction of the offset amount between sensors when recognizing Is possible.
  • the composite sensor unit 9 is attached to the vehicle 12 so that the pixel center of the image capturing unit 2 and the center of the transmission / reception unit 3 are coaxial with the vehicle center.
  • correcting the offset position of the composite sensor unit when recognizing the external environment can be omitted by arranging the mounting position of the composite sensor unit at the center of the vehicle.
  • Figure 6 shows an example of this specific attachment.
  • FIG. 7 shows an embodiment in which the composite sensor unit is placed horizontally.
  • the pixel center of the image capturing unit 2 and the center of the transmitting / receiving unit 3 in the composite sensor unit are not the same as the center line for the left and right of the same vehicle.
  • the offset amount with the center line with respect to the left and right is known in advance by design, and the offset amount can be corrected by post-processing during control.
  • Fig. 8 shows another embodiment of mounting the combined sensor unit to the vehicle.
  • the combined sensor unit 9 may not be installed in front of the vehicle bonnet due to installation space or aesthetic reasons. In such a case, it is conceivable to install the composite sensor unit 9 in the vehicle interior, but in this case, in order to suppress the amount of the composite sensor unit 9 jumping into the vehicle interior, as shown in Fig. 8, It is effective to place the sensor unit horizontally.
  • 9 (a) shows a more detailed example of the horizontal placement type composite sensor unit shown in FIG.
  • the sensor mounting board 1 is accommodated in the housing 20, and the image capturing section 2 and the transmitting / receiving section 3 are arranged on the sensor mounting board 1.
  • a lens holder 1 9 and a lens 1 8 are attached in front of the image capturing unit 2.
  • the lens 18 is configured to protrude outward from a hole provided in the housing 20.
  • the signal processing unit 4 is also provided with a sensor amount such as a relative distance from a preceding vehicle or an oncoming vehicle or a vehicle position obtained from a lane mark on the road based on the image data obtained by the image capturing unit 2.
  • Radar signal processing that processes the transmission / reception signals obtained by the image processing unit 5 and the transmission / reception unit 3 to detect the distance, relative speed, azimuth angle, etc. with respect to the reflector within the radar detection range. Part 7 is provided.
  • the signal processing unit 4 can be mounted on a circuit board.
  • the board requires a certain amount of board area because of problems such as the arithmetic processing capability required for the signal processing unit 4 and heat dissipation.
  • the area is larger than the sensor mounting board 1.
  • the substrate of the signal processing unit 4 is arranged in the longitudinal direction, and the sensor mounting substrate 1 is connected by the inter-substrate connection harness 26.
  • wires may be used for the board-to-board connection harness 26, but as shown in Fig. 9 (a) and 9 (b), using a flexible harness is more effective for miniaturization. .
  • the amount of protrusion of the composite sensor unit 9 into the passenger compartment depends on the vertical size of the sensor mounting board 1, and the signal processing unit 4 board is made substantially parallel to the sensor mounting board 1. Compared to the arrangement, the amount of jumping into the passenger compartment can be reduced.
  • a rectangular parallelepiped housing is used, but the vertical dimension of the part that houses the signal processing unit 4 should be smaller than the vertical dimension of the part that houses the sensor mounting board 1. And then In addition, it is possible to make it difficult to give the driver a feeling of pressure.
  • Fig. 10 (a) and Fig. 10 (b) show the sensors shown in Fig. 2, Fig. 3, Fig. 4, Fig. 5, Fig. 9, (a) and Fig. 9 (b).
  • 3 is a more detailed example of the mounting substrate 1.
  • an image capturing unit 2 that is an image sensor and a transmission / reception unit 3 formed of a conductive thin film are arranged on the front side of the unit.
  • Fig. 10 (b) is a view of the sensor mounting substrate 1 as viewed from the side opposite to Fig. 10 (a).
  • an image capturing circuit unit 16 that drives the image capturing unit 2 and its wiring unit, and a high-frequency circuit unit 15 that supplies high-frequency signals to the transmitting and receiving unit 3 and its wiring unit are provided.
  • Mutual interference here refers to, for example, when the electromagnetic wave emitted from the image capturing unit 2 affects the high-frequency circuit unit 15 or due to fluctuations (fluctuations) in the GND voltage, which is the installation potential, in the high-frequency circuit unit 15.
  • the noise level may increase or the image data may be distorted in the image capture circuit.
  • the optical axis deviation adjustment operation proceeds in step S10 depending on whether the axis adjustment execution flag is ON. This flag is confirmed by capturing the status of the external switch or performing overnight communication with the microcomputer. When this flag is OFF, the process proceeds to step S 20, and the axis error values of the radar and the camera are read from the optical axis error storage unit 6.
  • the optical axis error storage unit 6 is composed of a nonvolatile memory or the like.
  • step S 1 1 If the flag is ON, go to step S 1 1 to Measure the head with a radar and measure it as an axis adjustment value.
  • the axis adjustment execution flag is set to ON, and the new axis error measured by executing the adjustment process in step S20 and subsequent steps is stored in the optical axis error storage unit 6.
  • step S 1 2 the measured values of errors ⁇ ⁇ 1, ⁇ Y 1, and ⁇ ⁇ 1 are obtained from the determined true value of the target, and the process proceeds to step S 13.
  • step S13 as with radar, the determined target is measured with a camera and measured as an axis adjustment value.
  • step S 14 the measured value errors ⁇ ⁇ 2, ⁇ ⁇ 2, and ⁇ ⁇ 2 are obtained from the determined true value of the target.
  • step S 15 each axis error value obtained as described above is stored in the axis error storage device 6 so that it can be used as a correction coefficient during actual running.
  • step S 3 1 From step S 3 1 is the measurement operation during actual driving.
  • step S31 first, the position X3,, 3, ⁇ 3 of the obstacle is measured by the radar. Thereafter, in step S 3 2, the true values X 3 ′, ⁇ 3 ′, and ⁇ 3 ′ can be obtained using the correction data measured in step S 20.
  • step S 3 3 the positions ⁇ 4, ⁇ 4 and ⁇ 4 of the obstacle are measured by the camera.
  • step S 3 4 the true values ⁇ 4 ′, ⁇ 4 ′, and ⁇ 4 ′ can be obtained using the correction data measured in step S 20.
  • step S35 ⁇ 3 ', ⁇ 3', ⁇ 3 'obtained by the radar and ⁇ 4', ⁇ 4 ', ⁇ 4' obtained by the camera are used. Control is performed in combination with information.
  • step S 3 6 after outputting the total sensor result, the process returns to step S 3 1 to repeat the measurement.
  • radars according to steps S 3 1 and S 3 2 The order of measurement by, and the measurement by the camera at steps S 3 3 and S 3 4 may be reversed.
  • the mounting error between the means for acquiring image information and the object detection means is reduced. Moreover, the adjustment work of these relative positional relationships is simplified. In addition, it is possible to substantially eliminate the secular change of the relative positional relationship between the means for acquiring image information and the object detection means due to vibration after mounting on the vehicle body.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

従来の外界認譏装置では、画像情報を取得する手段と、信号の送受信により該対象物を検出する物体検知手段とを別々に車体に取り付けているため、これらの情報を組み合わせて外界認識を行う場合に、画像情報を取得する手段及び物体検知手段の車体への取り付け精度によって検知性能が大きく左右されるという課題がある。本発明では、画像情報を取得する手段と、信号の送受信により該対象物を検出する物体検知手段と、を備え、該画像取り込み手段による情報と該物体検知手段による情報とを用いて車両の外界環境を認識する車両の外界認識装置において、画像取り込み手段と物体検知手段とを共通の保持部材に配置することにより、画像情報を取得する手段と物体検知手段との相互間の取り付け誤差が低減される。またこれらの相対的位置関係の課整作業が蘭略化される。

Description

車両の外界認識装置 技術分野
本発明は車両の外界認識明装置に関する。 背景技術 細
近年、 先行車に所定の車間距離等を保って追従する AC C (Adaptive Cruise Control, 追従走行制御装置) や、 自動車の車線逸脱の危険性を 検知して運転者に警報する車線逸脱警報等の運転支援装置が実用化され ている。 また衝突の危険性を検知し、 衝突回避困難と判断される場合に ブレーキの踏み込みをアシス トしたり、 自動でブレーキをかけたりする 運転支援制御 (いわゆるプリクラッシュセーフティ) が実用化されてい る。 このような運転支援装置については普及に向けてより安全で便利な 制御の実現が期待されている。
上記のような運転支援装置においては、 自動車が置かれた外界環境、 すなわち周囲の状況ゃ自車, 他車の走^1状態等を精度よく検出すること が、 より高度な制御を実現する上で重要である。
この課題を解決する方法として、 特開平 1 1 一 2 6 4 8 6 8号公報の ように、 自車両周囲の状況を撮影する撮像手段と、 前記撮像手段による 撮影画像から走行車線と他の車両とを少なく とも認識する画像処理手段 と、 探査すべき領域へ向けて電磁波を放射し該電磁波の反射波を検出す ることで自車両周囲に存在する他の車両の位置を検出するものがある。 また、 外界認識装置の取り付け構造としては、 特開平 5— 30 1 541 号公報に記載のように、 ドア · ミラーあるいは、 サイ ドミラ一にカメラ やセンサを内蔵させ、 自動車の前方の対向車の状況や、 前方の隣車線の 状況を確認できるようにするものがある。
上記従来技術のように、 カメラとレーダとを組み合わせて外界環境を 認識するものにおいては、 カメラで検出された物標とレーダで検出され た物標が同じ車両であるか、 別の車両であるかを判定する情報処理 (マ ツチング処理) が重要となる。 このマッチング処理においては、 カメラ の撮像方向とレーダの検知方向が所定の精度で一致している必要がある。
しかじながら、 上記従来技術では、 車両に取り付けた際におけるカメ ラとレーダとの間の相互取り付け精度の点について配慮がされていなレ 。 このため、 カメラまたはレーダの車体への取り付け精度で検知性能が大 きく左右されるといった課題があった。 また、 上記カメラとレーダの、 筐体もしくは取り付けブラケッ トは、 車両の取り付けの上で、 個々に軸 調整を行わなければならないといった課題があった。 発明の開示
本発明は、 複数のセンサを組み合わせた外界認識装置において、 複数 のセンサ間相互の取り付け誤差および、 経年変化による誤差の変化を低 減すること、 及び外界認識装置の車両への取り付け作業の簡略化を図る ことを目的とする。
上記課題を解決する為、 本発明は画像情報を取得する手段と、 信号の 送受信により該対象物を検出する物体検知手段と、 を備え、 該画像取り 込み手段による情報と該物体検知手段による情報とを用いて車両の外界 環境を認識する車両の外界認識装置において、 画像取り込み手段と物体 検知手段とを共通の保持部材に配置する。 図面の簡単な説明
第 1図は、 複合センサュニ V トのシステム構成の一実施例。
第 2図は、 複合センサュニッ 卜の一実施例。
第 3図は、 複合センサュニソ トのー実施例。 '
第 4図は、 複合センサュニ V トの一実施例。
第 5図は、 複合センサュニッ トの車両への取り付けの一実施例。 第 6図は、 複合センサュニッ 卜の車両への取り付けの一実施例。 第 7図は、 複合センサュニッ 卜の車両への取り付けの一実施例。 第 8図は、 複合センサュニッ トの車両への取り付けの一実施例。 第 9図は、 複合センサュニ トのー実施例。
第 1 0図は、 センサ実装基板の一実施例。
第 1 1図は、 光軸ずれ量の測定と、 補正方法の一実施例。
第 1 2図は、 従来技術の例。 発明を実施するための最良の形態
本発明の好適な実施例の説明に先立ち、 先行技術の内容と課題につい て第 1 2図 (b ) , 第 1 2図 ( a ) を用いて説明する。
第 1 2図 ( a ) に示すように、 従来はレーダュニッ ト 1 3 とカメラュ ニッ ト 1 4の 2つのセンサを別々の場所に配置していた。 これは、 レー ダ単体の検知性能に着目して考えれば、 レ一ダユニッ ト 1 3を車の先端 に配置したほうが自身の発信した電波を効率良く受信することができる ため、 より良い検出精度を得ることができるからであり、 また同様に力 メラによる画像認識の性能のみに着目するならば、 カメラュニッ ト 1 4 はなるべく車両の高い位置から鳥瞰的に捉えたほうが認識しやすいから である。 しかしながら、 レーダュニッ ト 1 3 による情報とカメラュニッ 卜 1 4 による情報との双方を組み合わせて外界環境を認識する場合には、 レー ダユニッ ト 1 3 とカメラユニッ ト 1 4との相対的位置関係を厳密に設定 することが望ましい。 、
このため、 従来技術のようにレーダュニッ ト 1 3とカメラユニッ ト 1 4とを別々に車体に取り付ける場合には、 レ一ダユニッ ト 1 3 とカメ ラユニッ ト 1 4との相対的位置関係が所定の関係となるようにレーダュ ニッ ト 1 3 とカメラユニッ ト 1 4を車体に取り付ける必要があり、 軸調 整の作業を 2回行う必要があると.いう課題が生じる。
また一般に、 レーダュニッ ト 1 3やカメラュニッ ト 1 4を構成する筐 体や基盤の形状には製造上の公差があり、 撮像素子もしくはレーダアン テナの基盤への搭載誤差や、 筐体と基盤との組み合わせ誤差もある。 こ の他、 車両への取り付け等もろもろの誤差が積み上げられる結果、 第 1 2図 (b ) に示すように、 レーダユニッ ト 1 3とカメラユニッ ト 1 4 は、 理論的な取り付け角 X, Υ , Zに対し、 口一ル角誤差 Δ Χ 1及び △ X 2、 ピッチ角誤差 Δ Y 1及び△ Y 2、 ョ一角誤差△ Z 1及び△ Z 2 を有することになる。
ここで従来技術では、 レーダ: iニッ ト 1 3 とカメラュニッ ト 1 4を 別々に取り付けているため、
Δ X 1≠ Δ X 2 , Δ Y 1≠ Δ Y 2 , Δ Z 1≠ Δ Z 2
となる。 よって、 センサの車両への取り付けにおいて、 レーダユニッ ト 1 3 とカメラユニッ ト 1 4をそれぞれ別々に軸調整するという作業が発 生する。 すなわち従来技術では軸調整作業は必ず 2回行わなければなら ない。 この軸調整作業は、 車体とレーダユニッ ト 1 3またはカメラュニ ッ ト 1 4との取り付け位置, 角度を実際に擬似的なターゲッ トを撮像又 は検知させながら調整していく煩雑な作業であるため、 軸調整を 2回行 えば、 自動車の組立工程に要する時間が増大し、 結果として生産コスト も上昇することになる。
以下、 図を用いて本発明の好適な実施例について説明する。
第 1図は、 カメラとレーダを一体化した外界認識装置のシステムプロ ック図である。
センサ実装基板 1には、 画像取り込み部 2 と送受信部 3が実装されて いる。 画像取り込み部 2は、 一般的に C C D撮像素子や C M O S撮像素 子を用いる。画像処理部 5は、画像取り込み部 2で得た画像データから、 先行車や対向車との相対距離量、 もしくは道路上のレーンマークから求 められる自車位置などの定量的なセンサ量を求める。 送受信部 3には、 ミリ波などの送信回路と、 その反射信号を受信する受信回路が備えられ ている。 レーダ信号処理部 7は、 送受信部 3で得た送受信の信号を処理 し、 レ一ダ検知範囲内にある反射体との距離, 相対速度及び方位角度を 検知する。 例えば、 この方位角度情報をもとに、 先行車が自車レーン内 に存在しているか判断することができる。 信号処理部 4は、 画像処理部 5 とレーダ信号処理部 7の情報に基づいて外界認識量を計算するもので あり、 例えばマイコンによって実装することができる。 ここで光軸誤差 記憶部 6には、 複合センサユニッ ト 9 と車体との組み付け誤差 (光軸ず れ量) が記録されており、 信号処理部 4は画像処理部 5 とレーダ信号処 理部 7の情報に基づいて外界認識量を計算する際に、 この光軸誤差記憶 部 6に記憶された光軸ずれ量の情報を用いる。 ここで、 画像取り込み部 2 と送受信部 3を同一基板上に設けたので、 車体と複合センサュニッ ト 9 との取り付けに伴う光軸の誤差は双方に共通であり、 同じ光軸誤差記 憶部 6に記憶した共通の情報を用いることができる。 なお、 組み付け誤 差の情報は複合センサュニッ ト 9を組み上げたのちに^』定し、記憶する。 この誤差情報の取得と補正については第 1 1図を用いて後述する。 制御 部 1 0は、 複合センサユニッ ト 9で算出した外界認識量に基づいて、 車 両のブレ一キやアクセルを制御するコントローラであり、 例えば障害物 や先行車との距離に応じて車速を制御する。
第 2図にセンサ実装基板 1の詳細な実施例を示す。 センサ実装基板 1 には撮像素子である画像取り込み部 2 と、 アンテナュニッ ト 1が配置さ れている。この場合、撮像素子とアンテナュごッ ト 1間の軸ずれ誤差は、 近年の基板実装技術により、 極めて小さくすることが可能である。 よつ て、 第 1 2図 (b ) の記号を引用すると、
Δ X 1 = Δ X 2 , Δ Υ 1 =厶 Υ 2, Δ Ζ 1 = Δ Ζ 2
とあらわすことができる。 つまり、 相互の取り付け誤差および経年変化 による誤差の変化を、 演算処理上無視可能な程度にまで低減することが 可能となる。 、 .
このように画像取り込み部 2と送受信部 3 との双方を一つのセンサ実 装基板 1 に実装することにより、 画像取り込み部 2と送受信部 3 との相 対的位置関係は、 基盤実装の公差で決定される精度で実質的に一定に保 つことが可能となるので、 一台一台について、 画像取り込み部 2 と送受 信部 3 との相対的位置関係を調節し、 記憶する作業が不要となる。 また 信号処理部 4においても、 画像取り込み部 2 と送受信部 3 との相対的位 置関係のずれを補正する演算が不要となる。
また、 車体への取り付け後の振動等に起因する画像取り込み部 2 と送 受信部 3 との相対的位置関係の変化を実質的に無くすことができるので、 従来技術に比べて、 外界認識量の計算において相対的位置関係の経年変 化を考慮する必要がないという効果が得られる。 さらに本実施例の構成によれば、 画像取り込み部 2及び送受信部 3の 車両への取り付けは、 複合センサュニッ 卜 9の車両への取り付けにより 一度に行われるので、車両における軸調整の作業は 1回のみ行えば済む。 次に、 複合センサユニッ ト 9の構造の一実施例について、 第 3図を用 いて詳細に説明する。
センサ実装基板 1の上に、 撮像素子である画像取り込み部 2 と送受信 部 3 とを実装する。 ここで画像取り込み部 2 と送受信部 3について X , Y , Z方向の位置とョー角度, ロール角度、 ピッチ角度が所定となるよ うに実装する。 特に同一のセンサ実装基板 1の上に実装することで、 画 像取り込み部 2 と送受信部 3のョ一角とピッチ角を合わせることができ る。
ここでセンサ実装基板 1 には、 画像取り込み部 2を駆動する画像取り 込み回路部 1 6及び送受信部 3に送信信号を供給する高周波回路部 1 5 を実装する構成とする。 またセンサ実装基板 1の背面には信号処理部 4 を配置し、 画像処理部 5 とレ一ダ信号処理部 7を実装して、 これらの情 報に基づいて外界認識量を計算する。 画像取り込み部' 2の前部には、 レ ンズホルダ 1 9 とレンズ 1 8を配置する。 そして、 これらを筐体カバ一 2 0で保護した形状とする。 なお、 信号処理部 4とセンサ実装基板 1は 基板間接続八一ネス 2 6で接続されている。 車両取り付けブラケッ 卜 1 7は、 車両のフレームに取り付けられ、 光軸調整部 8で車両取り付け 後の微調整を可能な構造とする。 また複合センサユニッ ト 9には筐体側 コネクタ 2 3が設けられており、 当該コネクタには複合センサュニッ ト 9内部に電源を供給する電源線, グランド線 (G N D )、 及び検知した情 報を複合センサユニッ ト 9の外部に出力する信号線が集められており、 外部のハーネス 2 5に設けられたハーネス側コネクタ 2 4と嵌合する構 成となっている。 、
なお、 本実施例では、 複合センサユニッ ト 9内部に信号処理部 4を設 けて、 認識した外界環境の情報を外部に出力することとしたが、 画像取 り込み部 2と送受信部 3により取得されたデータを外部機器に送信して、 外部機器側でそれぞれの情報を組み合わせて外界認識を行う構成として も良い。
続いて、 複合センサユニッ ト 9の構造の別の実施例について第 4図を 用いて説明する。 なお基本的な構造は第 3図と同一であり、 相違点を説 明する。
相違点は、 筐体カバ一 2 1をレンズ 1 8も覆う形状とした点である。 このことにより、 筐体の防水対応を容易にすることが可能である。 この 構成は複合センサュニッ ト 9を従来のレーダュニッ トのように車両のポ ンネッ ト下部等に取り付ける場合に特に好適である。 このとき第 4図 ( b ) に示すように視野窓 2 2を設け、 外界の撮像を考慮する。 また、 視野窓 2 2は、 偏光フィル夕や、 光学的パスフィル夕の機能を持たせる ことが可能である。
次に、 複合センサュニッ トの車両への取り付けの実施例について第 5 図を用いて説明する。 なお複合センサユニッ ト 9の構造は第 3図または 第 4図と同様である。 .
第 5図に示すように、 画像取り込み部 2の画素中心と送受信部 3の中 心とが車体に略垂直な線上に位置するように複合センサュニッ ト 9を車 両 1 2に取り付ける。 このように取り付けることで、 画像取り込み部 2 と送受信部 3 との車体横方向への取り付け位置のオフセッ ト量を実質的 に無くすることができ、 画像情報とレーダ情報とを組み合わせて外界環 境を認識する際における、 センサ間のオフセッ ト量の補正を省略するこ とが可能となる。
さらに第 5図に示すように、 画像取り込み部 2の画素中心と送受信部 3の中心とが、 車両中心に対して同軸になるように、 複合センサュニッ ト 9を車両 1 2へ取り付ける。 この場合、 複合センサュニッ 卜の取り付 け位置を車両の中心に配置することにより、 外界環境を認識する際にお ける複合センサュニッ トのオフセッ 卜位置の補正を省略できる。 この具 体的取り付け例を第 6図に示す。
第 7図は、 複合センサユニッ トを横置きに配置した場合の実施例であ る。 この場合、 複合センサユニッ ト内の、 画像取り込み部 2の画素中心 と、 送受信部 3の中心が同一車両の左右に対しての中心線と同一になら ない。 しかしながら、 あらかじめ左右に対しての中心線とのオフセッ ト 量が設計的に既知であるで、 制御時の後処理でそのオフセッ ト量を補正 可能である。
第 8図に複合センサュニッ トの車両への取り付けの他の実施例を示す。 取り付けられる車両の車種, 形状によっては、 取り付けスペースや美観 上などの都合によって車両のボンネッ ト前方に.複合センサュニッ ト 9を 取り付けることができない場合がある。 このような場合には車室内に複 合センサユニッ ト 9を取り付ける場合が考えられるが、 この場合には、 車室内への複合センサュニッ ト 9の飛び出し量を抑えるため、 第 8図に 示すように複合センサュニッ トを横置きに配置することが有効である。 第 9図 ( a ) を用いて、 第 8図に示す横置き配置型の複合センサュニ ッ トについて、 より詳細な実施例を示す。 第 9図 ( a ) に示すように、 筐体 2 0内にはセンサ実装基板 1が収納されており、 このセンサ実装基 板 1 に画像取り込み部 2と送受信部 3が配置されている。 画像取り込み 部 2の前方にはレンズホルダ 1 9 とレンズ 1 8が取り付けられており、 本実施例ではレンズ 1 8を筐体 2 0に設けた穴部から外側に突出させる 構成としている。 また信号処理部 4には、 画像取り込み部 2で得た画像 データに基づいて、 例えば先行車や対向車との相対距離量、 もしくは道 路上のレーンマークから求められる自車位置などのセンサ量を求める画 像処理部 5 と、 送受信部 3で得た送受信の信号を処理し、 例えば、 レ一 ダ検知範囲内にある反射体との距離, 相対速度及び方位角度等を検知す るレーダ信号処理部 7が設けられている。
ここで信号処理部 4は回路基板により実装することができるが、 その 場合は、 信号処理部 4に要求される演算処理能力や放熱等の問題から、 基板にはある程度の基板面積が必要となり、 一般にその面積はセンサ実 装基板 1よりも大きくなる。
複合センサュニッ トの車室内への搭載を考えると、 信号処理部 4の基 板をセンサ実装基板 1 と略平行に配置した場合には、 センサユニッ トの 上下方向の寸法が大きくなり、 車室内への飛び出し量が大きくなって運 転者に圧迫感を与える可能性がある。 そこで第 9図 ( a ) に示すように 信号処理部 4の基板を長手方向に配置し、 センサ実装基板 1 との間を基 板間接続ハーネス 2 6で接続する構成とする。 ここで基板間接続ハーネ ス 2 6は電線を用いてもよいが、 第 9図 ( a ) , 第 9図 (b ) に示すよ うにフレキシブルハーネスを用いる方が小型化にはより効果的である。 ' これにより、 複合センサユニッ ト 9の車室内への飛び出し量は、 セン サ実装基板 1の上下方向の大きさに依存することになり、 信号処理部 4 の基板をセンサ実装基板 1 と略平行に配置した場合に比べて、 車室内へ の飛び出し量を低減できる。 また本実施例では直方体形状の筐体を用い ているが、 信号処理部 4を収納する部分の上下方向の寸法を、 センサ実 装基板 1 を収納する部分の上下方向の寸法よりも小さくすることで、 さ らに運転者に圧迫感を与えにくい構成とすることができる。
第 1 0図 ( a) , 第 1 0図 (b) は、 第 2図, 第 3図, 第 4図, 第 5 図, 第 9図 ( a) , 第 9図 (b) に示したセンサ実装基板 1のより詳細 な実施例である。 センサ実装基板 1 には、 ユニッ ト正面側に、 少なく と も撮像素子である画像取り込み部 2 と導薄で形成された送受信部 3を配 置する。 第 1 0図 (b) はセンサ実装基板 1 を第 1 0図 ( a) とは反対 側からみた図である。 センサ実装基板の背面には、'画像取り込み部 2を 駆動する画像取り込み回路部 1 6 とその配線部および、 送受信部 3に高 周波信号を供給する高周波回路部 1 5 とその配線部を設けている。 この ように画像処理とレーダの処理系を分離することで、 複数のセンサ間の 相互干渉を低減することが出来る。 ここでいう相互干渉とは、 例えば、 画像取り込み部 2が発する電磁波が高周波回路部 1 5に影響を与える場 合や、 設置電位である GND電圧の変動 (揺らぎ) により、 高周波回路 部 1 5においてノイズレベルが上昇したり、 画像取り込み回路部におい て画像データが乱れたりする場合が考えられる。
第 1 1図を用いて、 複合センサュニッ ト 9 と車体との取り付けに伴う 光軸ずれ量の測定, 記憶と、 実際の外界認識における補正について説明 する'。
光軸ずれの調整操作は、 ステップ S 1 0にて、 軸調整実施フラグが ONかどうかで移行する。 このフラグの確認は、 外部スィッチの状態の 取り込み、 もしくは、 マイコンへのデ一夕通信で行う。 このフラグが O F Fの場合、 ステップ S 2 0へ移行し、 レーダとカメラの軸誤差値を 光軸誤差記憶部 6から読み出す。 光軸誤差記憶部 6は不揮発性メモリな どで構成される。
フラグが ONのときは、 ステップ S 1 1 に移行し、 決められた夕ーゲ ッ トをレーダで計測し、 軸調整値として計測する。
なお複合センサュニッ 卜の製造後の初期設定では軸調整実施フラグをONとし、 ステップ S 2 0以下の調整処理を実行して計測した新たな軸 誤差を光軸誤差記憶部 6 に記憶する。
次に、 ステップ S 1 2で、 決められたターゲッ トの真値から、 計測値 の誤差 Δ Χ 1, Δ Y 1 , Δ Ζ 1 を取得し、 ステップ S 1 3へ移行する。 ステップ S 1 3では、 レーダと同様に、 決められたターゲッ トをカメラ で計測し、 軸調整値として計測する。 次に、 ステップ S 1 4で、 決めら れたターゲッ トの真値から、 計測値の誤差 Δ Χ 2, Δ Υ 2 , Δ Ζ 2を取 得する。 ステップ S 1 5では、 以上で求められたそれぞれの軸誤差値を 軸誤差記憶装置 6へ記憶し、 実走行時の補正係数として使えるようにす る。
ステップ S 3 1からは、 実走行時の計測の動作である。 ステップ S31 では、 まず、 レーダにより障害物の位置 X 3, Υ 3 , Ζ 3を計測する。 その後、 ステツプ S 3 2では、.ステップ S 2 0で計測済みの補正データ を用いて、 真値 X 3 ' , Υ 3 ' , Ζ 3 ' を求めることができる。
次に、 ステップ S 3 3で、 カメラにより障害物の位置 Χ 4 , Υ 4 , Ζ 4を計測する。
その後、 ステップ S 3 4では、 ステップ S 2 0で計測済みの補正デー 夕を用いて、 真値 Χ 4 ' , Υ 4 ' , Ζ 4 ' を求めることができる。
ステップ S 3 5では、 レーダにより求めた Χ 3 ' , Υ 3 ' , Ζ 3 ' と カメラにより求めた Χ 4 ' , Υ 4 ' , Ζ 4 ' を用い、 先に述べたカメラ による情報とレーダによる情報とを組み合わせて制御を行う。 次に、 ス テツプ S 3 6では、 センサの総合結果を出力した後、 ステップ S 3 1 に 戻り、 計測を繰り返す。 ここで、 ステップ S 3 1 と S 3 2によるレーダ による計測と、 ステップ S 3 3と S 3 4によるカメラによる計測の順序 は逆でもよい。 産業上の利用可能性
画像情報を取得する手段と物体検知手段との.相互間の取り付け誤差が 低減される。 またこれらの相対的位置関係の調整作業が簡略化される。 また、 車体への取り付け後の振動等に起因する、 画像情報を取得する手 段と物体検知手段との相対的位置関係の経年変化を実質的に無くすこと ができる。
さらに外界認識装置を車両に取り付ける際に行う軸調整についても、 画像情報を取得する手段と物体検知手段のいずれか一方について調整す れば済むので、 車両への取り付けにおける軸調整の作業が軽減される。

Claims

請 求 の 範 囲
1 . 画像情報を取得する画像取り込み手段と、
信号を送信し、 対象物からの反射信号を受信して、 該対象物を検出す る物体検知手段と、 を備え、 前記画像取り-込み手段による情報と前記物 体検知手段による情報とを用いて車両の外界環境を認識する車両の外界 認識装置であって、
前記画像取り込み手段と、 前記物体検知手段とを共通の保持部材に配 置することを特徴とする車両の外界認識装置。
2 . 画像情報を取得する撮像素子と、
前記撮像素子を駆動する撮像素子駆動部と、
信号を送信し対象物からの反射信号を受信する送受信部と、
前記送受信部に高周波信号を供給する高周波回路部と、
前記画像取り込み手段による情報と前記物体検知手段による情報とを 用いて車両の外界環境を認識する信号処理部とを備え、
前記画像取り込み手 と、 前記物体検知手段とを共通の保持部材に配 置することを特徴とする車両の外界認識装置。 '
3 . —方の面に、 画像情報を取得する画像取り込み部と、 信号を送信し 対象物からの反射波を受信する送受信部とを備え'、 他方の面に前記画像 取り込み部を駆動する画像取り込み回路部と、 前記送受信部に高周波信 号を供給する高周波回路部とを備え、
前記画像取り込み部と前記送受信部とを同一基準面に配置したことを 特徴とするセンサ実装基板。
4 . 請求項 2において、
前記撮像素子を覆うレンズホルダと、
前記レンズホルダに取り付けられたレンズと、 前記保持部材を覆うカバ一部材とを備え、
前記レンズホルダの一部が、 前記カバーに設けられた穴部から突出し ていることを特徴とする車両の外界認識装置。
5 . 請求項 2において、
前記撮像素子を覆うレンズホルダと、
前記レンズホルダに取り付けられたレンズと、
前記保持部材を覆うカバー部材とを備え、
前記カバー部材は、 前記レンズホルダ及び前記レンズを覆うように構 成され、 前記レンズと向かい合う位置に視野窓が設けられていることを 特徴とする車両の外界認識装置。
6 . 請求項 5において、
前記カバ一部材は、 偏光フィルタ又は光学的パスフィル夕の機能を備 えることを特徴とする車両の外界認識装置。
7 . 請求項 2において、
前記信号処理部が前記保持部材とは別の部材に設けられており、 該別の保持部材と前記保持部材とが所定の角度を為すことを特徴とす る車両の外界認識装置。
8 . 請求項 7において
前記保持部材と前記別の部材とを収納する筐体を備え、
前記保持部材と前記別の部材とが略直角を為し、.
車両に取り付けられる向きにおいて、 前記筐体の前記別の部材を収納 する部分の上下方向の寸法が、 前記保持部材を収納する部分に比べて小 さいことを特徴とする車両の外観認識装置。
9 . 請求項 2記載の車両の外界認識装置であって、
前記撮像素子と前記送受信部とが、 実質的に車両の中心軸上に位置す るように取り付けられていることを特徴とする車両の 界認識装置。
1 0 . 請求項 2において、
該外界認識装置の車体への取り付け時に生じる光軸ずれ量を記憶する 光軸誤差記憶部を備え、
前記信号処理部は、 前記光軸誤差記憶部に記憶した光軸ずれ量に基づ いて、 前記撮像素子の画像処理における光軸誤差補正と、 前記送受信部 の信号処理における光軸誤差補正とを行うことを特徴とする車両の外界 認識装置。
PCT/JP2004/014666 2004-09-29 2004-09-29 車両の外界認識装置 WO2006035510A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2004/014666 WO2006035510A1 (ja) 2004-09-29 2004-09-29 車両の外界認識装置
JP2006517877A JPWO2006035510A1 (ja) 2004-09-29 2004-09-29 車両の外界認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2004/014666 WO2006035510A1 (ja) 2004-09-29 2004-09-29 車両の外界認識装置

Publications (1)

Publication Number Publication Date
WO2006035510A1 true WO2006035510A1 (ja) 2006-04-06

Family

ID=36118661

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/014666 WO2006035510A1 (ja) 2004-09-29 2004-09-29 車両の外界認識装置

Country Status (2)

Country Link
JP (1) JPWO2006035510A1 (ja)
WO (1) WO2006035510A1 (ja)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2122599A2 (en) 2007-01-25 2009-11-25 Magna Electronics Inc. Radar sensing system for vehicle
JP2011047933A (ja) * 2009-08-13 2011-03-10 Tk Holdings Inc 物体検出システム
JP2012524890A (ja) * 2009-04-24 2012-10-18 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング 車両内の運転者支援システムのためのセンサ構成
DE102015218843A1 (de) 2014-09-30 2016-03-31 Nidec Elesys Corporation Überwachungsvorrichtung
DE102015217012A1 (de) 2014-09-30 2016-03-31 Nidec Elesys Corporation Fahrzeugintegrierte Radarvorrichtung und Fahrzeug
US9525206B2 (en) 2014-02-13 2016-12-20 Honda Elesys Co., Ltd. Antenna unit, radar device, and composite sensor device
CN107042799A (zh) * 2016-01-19 2017-08-15 日本电产艾莱希斯株式会社 车辆
JP2017175515A (ja) * 2016-03-25 2017-09-28 株式会社ファルテック レーダカバー
JP2019510967A (ja) * 2016-02-26 2019-04-18 ウェイモ エルエルシー 非構造化データを使用したレーダ取り付け判定
EP3490062A1 (en) * 2017-11-27 2019-05-29 Panasonic Intellectual Property Management Co., Ltd. Radar device
EP3490065A1 (en) * 2017-11-27 2019-05-29 Panasonic Intellectual Property Management Co., Ltd. Antenna device
JPWO2018051906A1 (ja) * 2016-09-15 2019-06-24 株式会社小糸製作所 センサシステム、センサモジュール、およびランプ装置
WO2019172118A1 (ja) * 2018-03-05 2019-09-12 株式会社小糸製作所 センサシステム、センサモジュール、およびランプ装置
JP2019168455A (ja) * 2018-03-22 2019-10-03 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH センサ組立品及び散乱光シェードを備えた装置
JP2020501963A (ja) * 2016-12-20 2020-01-23 ヴィオニア ユーエス インコーポレイティド 一体化されたカメラ及び通信アンテナ
JP2020085571A (ja) * 2018-11-20 2020-06-04 トヨタ自動車株式会社 センサ搭載構造
EP3739685B1 (en) * 2018-01-10 2023-06-21 Zanini Auto Grup, S.A. Radome for vehicles
EP3564576B1 (en) * 2016-12-28 2023-11-22 Koito Manufacturing Co., Ltd. Lamp device

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05301541A (ja) * 1992-04-28 1993-11-16 Fujitsu Ltd カメラやセンサを内蔵したドア・ミラーあるいはサイド・ミラーによる自動車の進行方向確認方式
JPH08276787A (ja) * 1995-04-03 1996-10-22 Suzuki Motor Corp 車載用画像処理装置及び画像表示システム
JPH10147178A (ja) * 1996-11-18 1998-06-02 Dx Antenna Co Ltd 車両の後方監視装置
JPH1178737A (ja) * 1997-09-13 1999-03-23 Honda Motor Co Ltd 車両搭載カメラ
JP2001158284A (ja) * 1999-11-30 2001-06-12 Honda Access Corp 照明装置,カメラ装置,センサー装置などの車両外面部に組み込む組込装置の取付構造
JP2001233139A (ja) * 2000-02-25 2001-08-28 Fuji Heavy Ind Ltd 車載用プレビューセンサの取り付け構造およびその位置ずれ調整装置
JP2003044995A (ja) * 2001-07-26 2003-02-14 Nissan Motor Co Ltd 物体種別判別装置及び物体種別判別方法
JP2003169233A (ja) * 2001-12-03 2003-06-13 Toyoda Gosei Co Ltd 自動車装着用カメラ
WO2003053743A1 (de) * 2001-12-20 2003-07-03 Robert Bosch Gmbh Stereo-kamera-anordnung in einem kraftfahrzeug
JP2004082829A (ja) * 2002-08-26 2004-03-18 Denso Corp 車載カメラ

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004260787A (ja) * 2002-09-09 2004-09-16 Rohm Co Ltd イメージセンサモジュール

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05301541A (ja) * 1992-04-28 1993-11-16 Fujitsu Ltd カメラやセンサを内蔵したドア・ミラーあるいはサイド・ミラーによる自動車の進行方向確認方式
JPH08276787A (ja) * 1995-04-03 1996-10-22 Suzuki Motor Corp 車載用画像処理装置及び画像表示システム
JPH10147178A (ja) * 1996-11-18 1998-06-02 Dx Antenna Co Ltd 車両の後方監視装置
JPH1178737A (ja) * 1997-09-13 1999-03-23 Honda Motor Co Ltd 車両搭載カメラ
JP2001158284A (ja) * 1999-11-30 2001-06-12 Honda Access Corp 照明装置,カメラ装置,センサー装置などの車両外面部に組み込む組込装置の取付構造
JP2001233139A (ja) * 2000-02-25 2001-08-28 Fuji Heavy Ind Ltd 車載用プレビューセンサの取り付け構造およびその位置ずれ調整装置
JP2003044995A (ja) * 2001-07-26 2003-02-14 Nissan Motor Co Ltd 物体種別判別装置及び物体種別判別方法
JP2003169233A (ja) * 2001-12-03 2003-06-13 Toyoda Gosei Co Ltd 自動車装着用カメラ
WO2003053743A1 (de) * 2001-12-20 2003-07-03 Robert Bosch Gmbh Stereo-kamera-anordnung in einem kraftfahrzeug
JP2004082829A (ja) * 2002-08-26 2004-03-18 Denso Corp 車載カメラ

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10107905B2 (en) 2007-01-25 2018-10-23 Magna Electronics Inc. Forward facing sensing system for vehicle
EP3624086A1 (en) * 2007-01-25 2020-03-18 Magna Electronics Inc. Radar sensing system for vehicle
EP2122599B1 (en) * 2007-01-25 2019-11-13 Magna Electronics Inc. Radar sensing system for vehicle
US10670713B2 (en) 2007-01-25 2020-06-02 Magna Electronics Inc. Forward sensing system for vehicle
US10877147B2 (en) 2007-01-25 2020-12-29 Magna Electronics Inc. Forward sensing system for vehicle
US11815594B2 (en) 2007-01-25 2023-11-14 Magna Electronics Inc. Vehicular forward-sensing system
EP2122599A2 (en) 2007-01-25 2009-11-25 Magna Electronics Inc. Radar sensing system for vehicle
US11506782B2 (en) 2007-01-25 2022-11-22 Magna Electronics Inc. Vehicular forward-sensing system
JP2012524890A (ja) * 2009-04-24 2012-10-18 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング 車両内の運転者支援システムのためのセンサ構成
US9229104B2 (en) 2009-04-24 2016-01-05 Robert Bosch Gmbh Sensor assembly for driver assistance systems in motor vehicles
JP2011047933A (ja) * 2009-08-13 2011-03-10 Tk Holdings Inc 物体検出システム
US9525206B2 (en) 2014-02-13 2016-12-20 Honda Elesys Co., Ltd. Antenna unit, radar device, and composite sensor device
DE102015217012A1 (de) 2014-09-30 2016-03-31 Nidec Elesys Corporation Fahrzeugintegrierte Radarvorrichtung und Fahrzeug
US10082571B2 (en) 2014-09-30 2018-09-25 Nidec Elesys Corporation Monitoring apparatus
US9799949B2 (en) 2014-09-30 2017-10-24 Nidec Corporation On-vehicle radar device and vehicle
CN105467385A (zh) * 2014-09-30 2016-04-06 日本电产艾莱希斯株式会社 监控装置
DE102015218843A1 (de) 2014-09-30 2016-03-31 Nidec Elesys Corporation Überwachungsvorrichtung
CN107042799A (zh) * 2016-01-19 2017-08-15 日本电产艾莱希斯株式会社 车辆
US10322566B2 (en) 2016-01-19 2019-06-18 Nidec Corporation Vehicle
CN107042799B (zh) * 2016-01-19 2019-08-09 日本电产株式会社 车辆
US11016174B2 (en) 2016-02-26 2021-05-25 Waymo Llc Radar mounting estimation with unstructured data
JP2019510967A (ja) * 2016-02-26 2019-04-18 ウェイモ エルエルシー 非構造化データを使用したレーダ取り付け判定
JP2017175515A (ja) * 2016-03-25 2017-09-28 株式会社ファルテック レーダカバー
JP7061071B2 (ja) 2016-09-15 2022-04-27 株式会社小糸製作所 センサシステム、センサモジュール、およびランプ装置
JPWO2018051906A1 (ja) * 2016-09-15 2019-06-24 株式会社小糸製作所 センサシステム、センサモジュール、およびランプ装置
US11467284B2 (en) 2016-09-15 2022-10-11 Koito Manufacturing Co., Ltd. Sensor system, sensor module, and lamp device
JP2020501963A (ja) * 2016-12-20 2020-01-23 ヴィオニア ユーエス インコーポレイティド 一体化されたカメラ及び通信アンテナ
EP3564576B1 (en) * 2016-12-28 2023-11-22 Koito Manufacturing Co., Ltd. Lamp device
EP3490065A1 (en) * 2017-11-27 2019-05-29 Panasonic Intellectual Property Management Co., Ltd. Antenna device
EP3490062A1 (en) * 2017-11-27 2019-05-29 Panasonic Intellectual Property Management Co., Ltd. Radar device
US10804615B2 (en) 2017-11-27 2020-10-13 Panasonic Intellectual Property Management Co., Ltd. Radar device
EP3739685B1 (en) * 2018-01-10 2023-06-21 Zanini Auto Grup, S.A. Radome for vehicles
US11248767B2 (en) 2018-03-05 2022-02-15 Koito Manufacturing Co., Ltd. Sensor system, sensor module, and lamp device
WO2019172118A1 (ja) * 2018-03-05 2019-09-12 株式会社小糸製作所 センサシステム、センサモジュール、およびランプ装置
JP2019168455A (ja) * 2018-03-22 2019-10-03 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH センサ組立品及び散乱光シェードを備えた装置
US10823839B2 (en) 2018-03-22 2020-11-03 Conti Temic Microelectronic Gmbh Apparatus with a sensor assembly and a stray light baffle
US10620308B2 (en) 2018-03-22 2020-04-14 Conti Temic Microelectronic Gmbh Apparatus with a sensor assembly and a stray light baffle
JP7131326B2 (ja) 2018-11-20 2022-09-06 トヨタ自動車株式会社 センサ搭載構造
JP2020085571A (ja) * 2018-11-20 2020-06-04 トヨタ自動車株式会社 センサ搭載構造
US11693095B2 (en) 2018-11-20 2023-07-04 Toyota Jidosha Kabushiki Kaisha Sensor mounting structure

Also Published As

Publication number Publication date
JPWO2006035510A1 (ja) 2008-05-15

Similar Documents

Publication Publication Date Title
WO2006035510A1 (ja) 車両の外界認識装置
US11156711B2 (en) Vehicular sensing system using RF sensors
US9229104B2 (en) Sensor assembly for driver assistance systems in motor vehicles
EP2340185B1 (en) Integrated radar-camera sensor
US11027653B2 (en) Apparatus, system and method for preventing collision
US9063230B2 (en) Radar sensor module
KR102179784B1 (ko) 각도 측정용 자동차의 센서를 보정하는 방법, 계산 장치, 운전자 보조 시스템, 및 자동차
US20140247349A1 (en) Integrated lighting, camera and sensor unit
JP6391047B2 (ja) レーダ装置を備えた車両
US20150123838A1 (en) Radar antenna assembly
JP6317657B2 (ja) レーダーセンサモジュール
JP2014228943A (ja) 車両用外界センシング装置、その軸ズレ補正プログラム及びその軸ズレ補正方法
JP3905410B2 (ja) 車両用運転支援装置
US11719561B2 (en) Sensor module having a sensor carrier rotatable about an axis, and method for assembling a sensor module of this type
TWI540063B (zh) 盲點偵測系統
US20200108837A1 (en) Device, method, and system for controling road curvature of vehicle
JP7305535B2 (ja) 測距装置、及び、測距方法
CN110546528A (zh) 用于车辆的传感器系统和用于确定威胁评估的方法
JP2009208581A (ja) ミラー自動調整システム及び画像撮像装置
JP2004085258A (ja) レーダ装置
US20210405186A1 (en) Obstacle detection system and method using distance sensor
KR20140109716A (ko) 차량용 레이더의 얼라인먼트 조정장치 및 방법
CN113740854B (zh) 雷达装置
US20210349206A1 (en) Radar for vehicle
JP7119444B2 (ja) 測距システム、測距方法、車載装置、車両

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

WWE Wipo information: entry into national phase

Ref document number: 2006517877

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 04788445

Country of ref document: EP

Kind code of ref document: A1