JP2007233440A - On-vehicle image processor - Google Patents

On-vehicle image processor Download PDF

Info

Publication number
JP2007233440A
JP2007233440A JP2006050665A JP2006050665A JP2007233440A JP 2007233440 A JP2007233440 A JP 2007233440A JP 2006050665 A JP2006050665 A JP 2006050665A JP 2006050665 A JP2006050665 A JP 2006050665A JP 2007233440 A JP2007233440 A JP 2007233440A
Authority
JP
Japan
Prior art keywords
image
image area
vehicle
radar
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006050665A
Other languages
Japanese (ja)
Inventor
Koji Horibe
剛治 堀部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2006050665A priority Critical patent/JP2007233440A/en
Publication of JP2007233440A publication Critical patent/JP2007233440A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To set an image area for carrying out image processing for correctly associating an image acquired in a predetermined scan timing with the position of an object detected by a radar. <P>SOLUTION: This on-vehicle image processor is provided with a radar 3 for detecting an object ahead of its own vehicle by beam scan; a camera 1 to be driven synchronously with this for picking up the image of the front part of its own vehicle; and a speed sensor for detecting the speed of its own vehicle. Information acquired from those radar 3, camera 1 and speed sensor is input to an image processing area setting part 5, and an image area for performing image processing for every detected object. When the detected object does not exist at the corresponding position in the image, an image processing area setting part 5 resets an image area in a virtual space formed by connecting the position of the object with an endless apoapsis set in the image based on a moving distance where its own vehicle has moved. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、自車両の速度制御や停止制御等を行う車載装置に設けられ、撮像装置で取得された自車両の前方の画像を処理する車載用画像処理装置に関する。   The present invention relates to an in-vehicle image processing apparatus that is provided in an in-vehicle device that performs speed control, stop control, and the like of a host vehicle and that processes an image ahead of the host vehicle acquired by an imaging device.

走行中の自車両の前方を監視し車間距離制御等に資するための車載装置として、自車両の前方を電磁波ビーム(レーザビーム等)で走査して先行車両等の物体を検出するレーダが実用化されている、また、自車両の前方を撮像しレーダで検出された物体を含む画像を取得して画像処理を行うことにより、先行車両やその他の物体の認識精度を高める撮像装置が実用化されている。   A radar that scans the front of the host vehicle with an electromagnetic beam (laser beam, etc.) and detects an object such as a preceding vehicle is put into practical use as an in-vehicle device for monitoring the front of the host vehicle and contributing to inter-vehicle distance control. In addition, an imaging device that improves the recognition accuracy of a preceding vehicle and other objects by acquiring an image including an object detected by a radar by capturing an image of the front of the host vehicle and performing image processing has been put into practical use. ing.

前記撮像装置は、レーダの走査と同期して駆動され、レーダで取得した物体の位置と撮像した画像との対比を行い、該位置の画像への対応づけを行って画像エリアを設定する。そして、この画像エリアに対して画像処理を行う。このように、画像エリアを設定することにより、全画像を処理することによる処理速度の低下を防ぎ、ビームの走査周期毎に高速で画像処理ができるようにしている。   The imaging device is driven in synchronization with the scanning of the radar, compares the position of the object acquired by the radar and the captured image, and associates the position with the image to set the image area. Then, image processing is performed on this image area. In this way, setting the image area prevents a reduction in processing speed caused by processing all images, and enables high-speed image processing for each beam scanning period.

このような構成を備える従来の画像処理装置としては、例えば特許文献1に開示されている。
特許第3264060号
A conventional image processing apparatus having such a configuration is disclosed in Patent Document 1, for example.
Japanese Patent No. 3264060

上記の構成を備える装置において、レーダで取得した物体の位置を画像に対応づけるには、レーダで測定するときのシーンと撮像装置で撮像するときシーンとが同じタイミングである必要がある。両者のタイミングが大きくずれると、レーダで測定したときのシーンと撮像装置で測定したときのシーンとが異なってしまい、両方のシーンで物体の位置が異なってくるからである。このことを図1、図2を参照して説明する。   In the apparatus having the above configuration, in order to associate the position of the object acquired by the radar with the image, the scene when measured by the radar and the scene when captured by the imaging apparatus need to be at the same timing. This is because if the timing of the two is greatly shifted, the scene measured by the radar and the scene measured by the imaging device are different, and the position of the object is different in both scenes. This will be described with reference to FIGS.

図1は、レーダの最初のスキャン(走査)時の第1のシーンを示している。同図(A)は、第1のシーンの画像を示し、同図(B)は、第1のシーンでビームのスキャン位置をレーダ座標で示している。図2は、レーダの最後のスキャン(走査)時の第2のシーンを示している。同図(A)は、レーダの最初のスキャン(走査)時に取得される画像を示し、同図(B)は、第2のシーンでビームのスキャン位置をレーダ座標で示している。   FIG. 1 shows a first scene during the first scan of the radar. FIG. 2A shows an image of the first scene, and FIG. 2B shows a beam scan position in the first scene by radar coordinates. FIG. 2 shows a second scene during the last scan of the radar. FIG. 6A shows an image acquired during the first scan of the radar, and FIG. 6B shows the beam scan position in the second scene in radar coordinates.

ビームは、図1(B)、図2(B)に示すように、図1(B)のときから図2(B)にかけて扇形にスキャンされ、1スキャンには約50msec程度の時間を要する。また、撮像装置は図1の最初のスキャンタイミングで駆動され、そのときの取得画像がメモリに記憶され、その画像は画像処理に使用される。   As shown in FIGS. 1B and 2B, the beam is scanned in a fan shape from FIG. 1B to FIG. 2B, and one scan takes about 50 msec. Further, the image pickup apparatus is driven at the first scan timing in FIG. 1, and an acquired image at that time is stored in a memory, and the image is used for image processing.

図1、図2において、領域Pは予め設定されている視野であり、この範囲内で画像処理が行われる。レーダから出力されるビームBM1は、最初のスキャンタイミングで発射されるビームの位置と形状を示している。また、ビームBM2は、最後のスキャンタイミングで発射されるビームの位置と形状を示している。図2(A)において、画像エリアQ1〜Q3は、画像処理を行うために設定されたエリアであり、ビームが反射した位置を示す黒丸の反射ポイントにおいて、距離や方位が略等しいものは同一の物体から反射されたものとみなしてグルーピングされ、各エリアはこのグルーピングした反射ポイントを画像内に対応づけて設定される。同図において、画像エリアQ1は、ビームにより検出された車線横の固定物を囲むエリアを示し、画像エリアQ2は、車線上を走行する先行車両を囲むエリアを示している。また、画像エリアQ3は、歩行者を囲むエリアを示している。   1 and 2, a region P is a field of view set in advance, and image processing is performed within this range. The beam BM1 output from the radar indicates the position and shape of the beam emitted at the first scan timing. A beam BM2 indicates the position and shape of the beam emitted at the last scan timing. In FIG. 2A, image areas Q1 to Q3 are areas set for performing image processing, and the black circle reflection points indicating the positions where the beams are reflected are the same if they have substantially the same distance and direction. The areas are grouped as if they were reflected from the object, and each area is set by associating the grouped reflection points in the image. In the figure, an image area Q1 indicates an area surrounding a fixed object beside the lane detected by the beam, and an image area Q2 indicates an area surrounding a preceding vehicle traveling on the lane. An image area Q3 indicates an area surrounding the pedestrian.

図1(B)において、グルーピングされているグレー色の反射ポイントは、前回のビームスキャンで得られた物体の位置を示し、図2において、グルーピングされている黒丸の反射ポイントは、今回のビームスキャンで得られた物体の位置を示している。   In FIG. 1B, the grouped gray reflection point indicates the position of the object obtained by the previous beam scan. In FIG. 2, the grouped black circle reflection point indicates the current beam scan. The position of the object obtained in is shown.

以上の図から明らかなように、図1に示す第1のシーンでは、最初のスキャンタイミングと撮像装置の撮像タイミングとが同一であるが、図2に示す第2のシーンでは、第1のシーンから50msec経過しているために、最後のスキャンタイミングでビームの反射により検出される反射ポイントの位置と画像との対応関係がとれない場合が生じてくる。すなわち、図2に示すように、自車両が50msec移動している間に歩行者の位置は自車両側に移動しているにもかかわらず、撮像装置で取得されている画像は50msec前のものであるために、第1のシーンのときに撮像された歩行者の位置は、50msec後の第2のシーンでレーダで検出される歩行者の位置(現実の位置)と、ずれてしまっている。一方、先行車両については、50msec後も自車両と同じ車間距離を保っているために、レーダで検出される反射ポイントの位置は変わらない。また、固定物については、最初のスキャンタイミングで検出しているため、その位置は前回の最後のスキャンタイミングで検出した位置と変わらない。なお、図2(B)では、歩行者についてのみ、前回のスキャンで検出された反射ポイントが今回のスキャンで手前側(自車両側)に移動することを示している。   As is clear from the above figures, in the first scene shown in FIG. 1, the first scan timing and the imaging timing of the imaging device are the same, but in the second scene shown in FIG. Since 50 msec has elapsed, there may occur a case where the correspondence between the position of the reflection point detected by the reflection of the beam at the last scan timing and the image cannot be obtained. That is, as shown in FIG. 2, the image acquired by the imaging device is 50 msec before, even though the position of the pedestrian is moving toward the own vehicle while the own vehicle is moving for 50 msec. For this reason, the position of the pedestrian captured in the first scene is shifted from the position of the pedestrian detected by the radar in the second scene after 50 msec (actual position). . On the other hand, for the preceding vehicle, the position of the reflection point detected by the radar does not change because the same inter-vehicle distance as that of the host vehicle is maintained after 50 msec. Further, since the fixed object is detected at the first scan timing, the position is not different from the position detected at the last scan timing of the previous time. Note that FIG. 2B shows that only the pedestrian moves the reflection point detected in the previous scan to the near side (own vehicle side) in the current scan.

以上の理由から、スキャン時間に対して殆ど移動しない歩行者等の物体については、最初のスキャンタイミングから一定時間が経過したタイミングにおいて、レーダで取得した実際の位置と、画像上の位置との対応関係が正しくなくなるという問題があった。   For the above reasons, for objects such as pedestrians that hardly move with respect to the scan time, the correspondence between the actual position acquired by the radar and the position on the image at the timing when a fixed time has elapsed from the initial scan timing There was a problem that the relationship was incorrect.

また、撮像装置を最後のスキャンタイミングで駆動する場合は、最初のスキャンタイミングで検出した物体の反射ポイントの位置と画像との対応関係がとれなくなる。図3はこの状態を示し、道路脇に存在している固定物についての対応関係がとれなくなっていることを示している。撮像装置を途中のスキャンタイミングで駆動する場合でも、同じような問題が生じてくる。   Further, when the imaging apparatus is driven at the last scan timing, the correspondence between the position of the reflection point of the object detected at the first scan timing and the image cannot be obtained. FIG. 3 shows this state, and shows that a correspondence relationship with respect to a fixed object existing on the side of the road cannot be taken. The same problem occurs even when the imaging apparatus is driven at an intermediate scan timing.

本発明の目的は、所定のスキャンタイミングで取得した画像と、レーダで検出した物体の位置とが正しく対応するように画像処理を行うための画像エリアを修正する車載用画像処理装置を提供することある。   An object of the present invention is to provide an in-vehicle image processing apparatus that corrects an image area for performing image processing so that an image acquired at a predetermined scan timing and an object position detected by a radar correctly correspond to each other. is there.

本発明は、自車両の前方を電磁波ビームで走査して先行車両等の物体を検出するレーダと、前記レーダの走査毎に所定の走査タイミングで自車両の前方を撮像し前記物体を含む画像を取得する撮像装置と、自車両の車速等の自車両走行情報を取得する自車両走行情報取得部とを備え、
前記レーダにより検出した物体と、前記撮像装置により前記所定の走査タイミングで取得した画像とに基づいて該画像中の処理すべき画像エリアを求める車載用画像処理装置を備えたものである。
The present invention provides a radar that scans the front of the host vehicle with an electromagnetic wave beam to detect an object such as a preceding vehicle, and captures an image including the object by imaging the front of the host vehicle at a predetermined scanning timing for each scan of the radar. An imaging device to acquire, and a host vehicle travel information acquisition unit that acquires host vehicle travel information such as the vehicle speed of the host vehicle,
An in-vehicle image processing device that obtains an image area to be processed in the image based on an object detected by the radar and an image acquired by the imaging device at the predetermined scanning timing is provided.

電磁波ビームとしては、例えばレーザビームがあり、レーダは、このビームを車両前方に扇形状となるように左から右にスキャンする。ビームは2次元にスキャンすることもでき、この場合は、左から右へのスキャンを繰り返しながら上下方向のスキャン位置を下方に移動していく。   An example of the electromagnetic wave beam is a laser beam, and the radar scans the beam from left to right so as to form a fan shape in front of the vehicle. The beam can be scanned two-dimensionally. In this case, the scanning position in the vertical direction is moved downward while repeating the scanning from left to right.

撮像装置は、例えばグローバルシャッタ付きのCCDカメラ等で構成され、シャッタが開いた瞬間のタイミングで前方を撮像して画像を取得しこれをメモリに記憶する。シャッタは、ビームの所定のスキャンタイミングで開き、この動作をスキャン毎に行う。所定のスキャンタイミングは、例えば、最初のスキャンタイミングである。   The imaging device is composed of, for example, a CCD camera with a global shutter, and captures an image of the front at the moment when the shutter is opened, and stores this in a memory. The shutter is opened at a predetermined scan timing of the beam, and this operation is performed for each scan. The predetermined scan timing is, for example, the first scan timing.

車両走行情報取得部は、自車両の速度(車速)や、ヨーレートなどを測定する。   The vehicle travel information acquisition unit measures the speed (vehicle speed) of the host vehicle, the yaw rate, and the like.

本発明の車載用画像処理装置は、上記レーダで検出した先行車両等の物体と、画像と、に基づいて該画像中の処理すべき画像エリアを求める。画像処理では、画像エリア内にある物体の特徴量を抽出して該物体を認識したりする。   The in-vehicle image processing apparatus according to the present invention obtains an image area to be processed in the image based on an object such as a preceding vehicle detected by the radar and the image. In the image processing, the feature amount of an object in the image area is extracted and the object is recognized.

上記の構成で、本発明は、前記画像エリアを再設定する画像エリア再設定手段を備えている。   With the above configuration, the present invention includes image area resetting means for resetting the image area.

画像エリア再設定手段は、前記レーダにより1つのスキャンが終了するまでに検出した物体が前記画像中のその対応位置に存在しない場合、前記自車両走行情報及び前記所定のスキャンタイミングにより得られる自車両が移動した移動距離に基づいて、該レーダにより検出された物体の位置と画像中に設定された無限遠点とを結んで形成される仮想空間内に画像エリアを再設定する。   The image area resetting means, when an object detected by the radar until the end of one scan does not exist at the corresponding position in the image, the host vehicle obtained by the host vehicle travel information and the predetermined scan timing The image area is reset in a virtual space formed by connecting the position of the object detected by the radar and the infinity point set in the image based on the movement distance moved by.

このような操作により、画像エリアが拡がり、同エリア内に物体を検出することができるようになる。なお、この再設定を行うときには、自車両の速度等の動きを考慮することが必要である。何故なら、自車両が高速であれば、仮想空間内に再設定される画像エリアの面積はより広くしなければならなく、また、車線に沿って回動する場合は、その曲率に沿って画像エリアを設定することが必要になるからである。   By such an operation, the image area is expanded, and an object can be detected in the area. When this resetting is performed, it is necessary to take into account movements such as the speed of the host vehicle. This is because if the vehicle is at high speed, the area of the image area that is reset in the virtual space must be larger, and if the vehicle rotates along the lane, the image along the curvature This is because it is necessary to set an area.

前記画像エリア再設定手段は、レーダで検出された物体の位置において一定の大きさの第1の画像エリアを設定し、この第1の画像エリアの角と前記無限遠点とを結ぶことにより前記仮想空間を形成する。   The image area resetting means sets a first image area having a constant size at the position of the object detected by the radar, and connects the corner of the first image area and the point at infinity. Form a virtual space.

無限遠点は、この発明では画像の消失点(以下、単に消失点)と称する。一般には、この消失点は画面の中心位置に固定位置として設定される。第1の画像エリアは、レーダで検出した物体の位置を基準にして任意の方法により求めた矩形状、又は同位置を基準にして予め定めた大きさの矩形状の大きさに設定される。この第1の画像エリアの角と消失点とを結ぶことにより、四角柱の仮想空間が形成される。この仮想空間内に、前記自車両走行情報と前記所定のスキャンタイミングとにより得られる自車両が移動した移動距離の位置で第2の画像エリアを設定し、前記第1の画像エリアと前記第2の画像エリアを仮想空間の稜線に沿って結合したエリアを前記画像エリアとして再設定する
これにより、再設定された画像エリアは、再設定前の画像エリアに比べて画像座標上の面積が大きくなり、しかも、そのエリアは自車両の速度など情報に基づいて形成されるため、該エリア内に物体の画像が存在する確立が非常に高くなる。
The infinity point is referred to as an image vanishing point (hereinafter simply referred to as vanishing point) in the present invention. Generally, this vanishing point is set as a fixed position at the center position of the screen. The first image area is set to a rectangular shape obtained by an arbitrary method based on the position of the object detected by the radar, or a rectangular shape having a predetermined size based on the same position. By connecting the corners and vanishing points of the first image area, a quadrangular prism virtual space is formed. In this virtual space, a second image area is set at the position of the travel distance traveled by the host vehicle obtained from the host vehicle travel information and the predetermined scan timing, and the first image area and the second image area are set. The area obtained by combining the image areas along the edge of the virtual space is reset as the image area. As a result, the reset image area has a larger area on the image coordinates than the image area before resetting. Moreover, since the area is formed based on information such as the speed of the host vehicle, the probability that an image of an object exists in the area is very high.

本発明によれば、レーダにより検出された物体の位置と、それよりも前に撮像した画像内の当該物体の位置とがずれている場合に、画像処理を行うための画像エリア内に該物体が含まれるよう該画像エリアが再設定されるため、レーダで検出した物体に対する画像処理が常に正しく行われる。このため、画像処理の精度が良くなる利点がある。   According to the present invention, when the position of the object detected by the radar is shifted from the position of the object in the image captured before that, the object is included in the image area for image processing. Since the image area is reset so as to include the image, the image processing on the object detected by the radar is always performed correctly. For this reason, there is an advantage that the accuracy of image processing is improved.

図4は、本発明の実施形態である車載用画像処理装置の概略ブロック図である。   FIG. 4 is a schematic block diagram of an in-vehicle image processing apparatus that is an embodiment of the present invention.

カメラ1は、グローバルシャッタ付きのCCDカメラ等で構成され、撮像面を前方に向けて自車両のルームミラー近辺に設けられる。このカメラ1は、自車両の前方を撮像する。   The camera 1 is composed of a CCD camera or the like with a global shutter, and is provided in the vicinity of the rear mirror of the host vehicle with the imaging surface facing forward. This camera 1 images the front of the host vehicle.

全体画像記憶部2は、カメラ1で撮像された画像を記憶する。   The entire image storage unit 2 stores an image captured by the camera 1.

レーダ3は、レーザレーダで構成され、レーザビーム(以下、単にビームと称する)を自車両前方に発射し、その反射ビームを受光する。この実施形態では、照射面が長円状で幅が細いビームを前方に左右1往復することで1スキャンを終え、これにより前方の2次元範囲を探索する。   The radar 3 is configured by a laser radar, emits a laser beam (hereinafter simply referred to as a beam) in front of the host vehicle, and receives the reflected beam. In this embodiment, one scan is completed by reciprocating the left and right beams of an ellipse with a narrow width on the irradiation surface, thereby searching for a front two-dimensional range.

信号処理部4は、レーダ3からの信号に基づいてビーム光の往復時間を測定して物体までの距離を測定する。スキャンタイミング毎に測距することにより、1スキャン内に前方の物体を全て検出し、それらの物体に対しての測距が可能である。また、図示しない車速センサ、ヨーレートセンサからの信号を受信し、これを後述の画像処理エリア設定部5に送る。なお、ヨーレートセンサに代えて操舵角センサを用いることも可能である。   The signal processing unit 4 measures the distance to the object by measuring the round trip time of the beam light based on the signal from the radar 3. By measuring the distance at each scan timing, all the objects in front can be detected within one scan, and the distance to these objects can be measured. Further, signals from a vehicle speed sensor and a yaw rate sensor (not shown) are received and sent to the image processing area setting unit 5 described later. A steering angle sensor can be used instead of the yaw rate sensor.

トリガ信号発生部6は、レーダ3のスキャン開始信号を受けてトリガ信号を生成する。このトリガ信号は、撮像指令部7に出力され、ここでカメラ1のシャッタオン信号が生成されてカメラ1に出力される。したがって、カメラ1は、レーダ3にて最初のスキャンを開始するタイミングにおいてシャッタがオンして前方の画像を取得する。   The trigger signal generator 6 receives the scan start signal from the radar 3 and generates a trigger signal. This trigger signal is output to the imaging command unit 7, where a shutter-on signal for the camera 1 is generated and output to the camera 1. Therefore, the camera 1 acquires a forward image when the shutter is turned on at the timing when the radar 3 starts the first scan.

全体画像記憶部2に記憶された画像は画像処理エリア設定部5に入力する。さらに、この画像処理エリア設定部5には信号処理部4を介して車速センサからの車速とヨーレートセンサからのヨーレートが入力する。   The image stored in the entire image storage unit 2 is input to the image processing area setting unit 5. Further, the vehicle speed from the vehicle speed sensor and the yaw rate from the yaw rate sensor are input to the image processing area setting unit 5 via the signal processing unit 4.

後述のように、この画像処理エリア設定部5において、画像エリアの設定とその再設定が行われる。全体画像に対して1つ以上設定された各画像エリア内の部分画像が抽出され、これが部分画像記憶部1〜Nに記憶され、画像処理部1〜Nにおいて画像処理が行われる。画像処理部においては、画像の形状や移動方向などが認識されそれぞれ物体1〜Nとして属性情報付き(形状や移動方向等の属性情報)の位置情報として上位処理装置(例えば、車間距離制御装置)に出力される。   As will be described later, the image processing area setting unit 5 sets and resets an image area. Partial images in each image area set for one or more entire images are extracted, stored in the partial image storage units 1 to N, and image processing is performed in the image processing units 1 to N. In the image processing unit, the shape and moving direction of the image are recognized, and each of the objects 1 to N has higher-order processing devices (for example, inter-vehicle distance control device) as position information with attribute information (attribute information such as shape and moving direction). Is output.

図5は、信号処理部4の構成図である。   FIG. 5 is a configuration diagram of the signal processing unit 4.

この信号処理部4は、レーダ3からの信号に基づいて物体までの距離と方位を算出し、その距離と方位データをインターフェイス41を介して画像処理エリア設定部5に送る。また、車速センサとヨーレートセンサからの信号は車両走行情報取得部42に入力され、車速センサで得た走行速度とヨーレートで得たデータにより道路の曲率半径の算出等を行う。ここで取得された各センサからの信号や算出結果をインターフェイス41を介して画像処理エリア設定部5に送る。   The signal processing unit 4 calculates the distance and direction to the object based on the signal from the radar 3, and sends the distance and direction data to the image processing area setting unit 5 via the interface 41. Signals from the vehicle speed sensor and the yaw rate sensor are input to the vehicle travel information acquisition unit 42, and the curvature radius of the road is calculated based on the travel speed obtained by the vehicle speed sensor and the data obtained from the yaw rate. The signals and calculation results from each sensor acquired here are sent to the image processing area setting unit 5 via the interface 41.

図6は、画像処理エリア設定部5の構成図である。   FIG. 6 is a configuration diagram of the image processing area setting unit 5.

この画像処理エリア設定部5は、道路上の白線を認識する白線認識部50、消失点算出部51、エリア設定部52を備えている。消失点とは、前述したように、画像中の無限遠点を意味している。白線認識部50は、後述の実施例2において消失点を求めるときに用いられる。エリア設定部52は、画像エリアの設定と再設定とを行う。エリア設定部52は、消失点を予め固定点とする場合は、消失点算出部51の出力を使用せずに、画像エリアの設定と再設定とをする。エリア設定部52は、白線認識部50で認識された白線に基づいて消失点を求める場合は、その消失点に基づいて画像エリアの設定と再設定とをする。   The image processing area setting unit 5 includes a white line recognition unit 50 that recognizes a white line on a road, a vanishing point calculation unit 51, and an area setting unit 52. As described above, the vanishing point means an infinite point in the image. The white line recognition part 50 is used when calculating | requiring a vanishing point in Example 2 mentioned later. The area setting unit 52 sets and resets an image area. When the vanishing point is set as a fixed point in advance, the area setting unit 52 sets and resets the image area without using the output of the vanishing point calculation unit 51. When the vanishing point is obtained based on the white line recognized by the white line recognition unit 50, the area setting unit 52 sets and resets the image area based on the vanishing point.

次に動作を説明する。   Next, the operation will be described.

図7、図8は、車載用画像処理装置の概略の動作を示すフローチャートである。   7 and 8 are flowcharts showing the schematic operation of the in-vehicle image processing apparatus.

図7は、レーダ3の動作を示している。   FIG. 7 shows the operation of the radar 3.

ステップ(ST)1では、レーダスキャンを開始する。図1の状態がこのタイミングに対応している。次に、ST2でスキャンによる物体までの測距を行う。続いて、そのタイミングがカメラ1のトリガ位置のタイミングであるかどうかを判定する。本実施形態では、最初のスキャンタイミングをトリガ位置のタイミングに設定しているため、ST1→ST2→ST3と進んだときは、最初のスキャンタイミングである。ST3においてトリガ位置に対応する最初のスキャンタイミングであると判断すると、ST4においてトリガ信号発生部6においてトリガ信号を発生し、カメラ1のシャッタをオンする。ST5において、次のスキャンに移行し、以下、全スキャンを終了するまでST2において連続的に測距を行う。トリガ信号は、最初のスキャンタイミングにおいてのみ生成されるため、カメラ1は1スキャン毎に最初のスキャンタイミングで1回だけ画像を取得する。   In step (ST) 1, a radar scan is started. The state of FIG. 1 corresponds to this timing. Next, ranging to an object by scanning is performed in ST2. Subsequently, it is determined whether or not the timing is the timing of the trigger position of the camera 1. In the present embodiment, since the first scan timing is set to the trigger position timing, the process proceeds from ST1 to ST2 to ST3 as the first scan timing. If it is determined in ST3 that it is the first scan timing corresponding to the trigger position, a trigger signal is generated in the trigger signal generator 6 in ST4, and the shutter of the camera 1 is turned on. In ST5, the process proceeds to the next scan, and thereafter, ranging is continuously performed in ST2 until all scans are completed. Since the trigger signal is generated only at the first scan timing, the camera 1 acquires an image only once at the first scan timing for each scan.

ST6では、車速とヨーレートを取得し、このデータを画像処理エリア設定部5に出力する。ST7では、全てのスキャンで得られたデータに基づいて各スキャン毎に物体(物体)までの測距を行う。そして、ST8において、測距データを画像処理エリア設定部5に出力する。   In ST 6, the vehicle speed and yaw rate are acquired, and this data is output to the image processing area setting unit 5. In ST7, ranging to an object (object) is performed for each scan based on data obtained in all scans. In ST8, the distance measurement data is output to the image processing area setting unit 5.

図8はカメラ1及び画像処理エリア設定部5の動作を示している。   FIG. 8 shows operations of the camera 1 and the image processing area setting unit 5.

ST10では、カメラ1が撮像指令部7からシャッタオン信号を受信するとシャッタをオンし、ST11に進んで撮像を開始し、撮像画像を取得して全体画像記憶部2(メインメモリ)に記憶する(ST12)。続いて信号処理部4から測距データを受信すると(ST13)、ST14において画像エリアの計算を行う。   In ST10, when the camera 1 receives a shutter-on signal from the imaging command unit 7, the shutter is turned on, the process proceeds to ST11, imaging is started, and the captured image is acquired and stored in the entire image storage unit 2 (main memory) ( ST12). Subsequently, when ranging data is received from the signal processing unit 4 (ST13), the image area is calculated in ST14.

画像エリアは、次のようにして設定される。   The image area is set as follows.

図1に示すように、最初のスキャンタイミングで画像を取得した後、レーダから1スキャン分の測距データを受けると、各スキャン毎に検出した物体が画像中のその対応位置に存在しているかどうか判定し、存在している場合には、そのビーム反射ポイントをグルーピングした領域の周囲に画像エリアを設定する。図2において、画像エリアQ1、Q2は、レーダ3で検出した固定物、先行車両が画像中のその対応位置に存在しているため、それらのビーム反射ポイントをグルーピングした領域の周囲に設定された画像エリアである。   As shown in FIG. 1, after acquiring an image at the first scan timing and receiving ranging data for one scan from the radar, is the object detected for each scan present at the corresponding position in the image? If it exists, an image area is set around the area where the beam reflection points are grouped. In FIG. 2, the image areas Q1 and Q2 are set around the area where the beam reflection points are grouped because the fixed object detected by the radar 3 and the preceding vehicle are present at the corresponding positions in the image. It is an image area.

一方、レーダ3で検出した物体が画像中のその対応位置に存在していない場合には、図7に示す方法で画像エリアを設定する。図7は、画像エリアの設定を行う実施例1を説明する図である。実施例1では道路が直線道路であって、画像の無限遠点を固定の消失点Sとして設定している。今、道路の右端にいる歩行者について考える。   On the other hand, when the object detected by the radar 3 does not exist at the corresponding position in the image, the image area is set by the method shown in FIG. FIG. 7 is a diagram for explaining the first embodiment for setting an image area. In the first embodiment, the road is a straight road, and an infinite point in the image is set as a fixed vanishing point S. Now consider the pedestrian at the right end of the road.

同図に示すように、レーダで検出したポイントをグルーピングした領域を基準にして、第1の画像エリアQ30を設定する。この第1の画像エリアQ30は、高さと幅が予め定めた大きさにあり(又はグルーピングした領域に基づいて自動で設定することも可能である)、且つ矩形状に設定される。この第1の画像エリアQ30の角と画像の無限遠点である消失点Sとを結び、四角柱の形状を有する仮想空間Xを形成する。無限遠点である消失点Sは先に延べたように固定点として設定される。そして、Q30から固定点である消失点Sに向けて、自車両の車速に50msec(最初のスキャンタイミングから最後のスキャンタイミングに至るまでの時間)を乗じた値に対応する距離だけ移動させ、その移動した位置で仮想空間内に矩形状の第2の画像エリアQ31を形成する。次に、この第1の画像エリアと第2の画像エリアを結合する。結合した画像エリアを新たな画像エリアとして再設定する。図4(B)は、この再設定した画像エリアQ32を示している。図示するように、再設定された画像エリアQ32は、再設定前の画像エリアQ30よりも大きい。これにより、Q30からQ32へと再設定された画像エリアには、最初のタイミングでカメラ1により撮像した画像(この例では歩行者)が含まれるようになる。   As shown in the figure, a first image area Q30 is set with reference to an area obtained by grouping points detected by the radar. The first image area Q30 has a predetermined height and width (or can be automatically set based on the grouped area) and is set in a rectangular shape. The corner of the first image area Q30 and the vanishing point S, which is an infinite point of the image, are connected to form a virtual space X having a quadrangular prism shape. The vanishing point S, which is an infinite point, is set as a fixed point as previously described. Then, from Q30 toward the vanishing point S which is a fixed point, the vehicle speed of the host vehicle is moved by a distance corresponding to a value obtained by multiplying the vehicle speed by 50 msec (time from the first scan timing to the last scan timing), A rectangular second image area Q31 is formed in the virtual space at the moved position. Next, the first image area and the second image area are combined. The combined image area is reset as a new image area. FIG. 4B shows the reset image area Q32. As shown in the figure, the reset image area Q32 is larger than the image area Q30 before resetting. As a result, the image area reset from Q30 to Q32 includes an image captured by the camera 1 at the first timing (in this example, a pedestrian).

図8のフローチャートにおいて、ST14で画像エリアが設定されると(再設定される画像エリアも含む)、ST15において画像エリア内に含まれる画像が部分画像記憶部1〜N(サブメモリ)に転送される。このST14〜ST16をレーダで検出した全ての物体(物体)に対して繰り返すことにより(ST16)、各画像エリアの画像はそれぞれ部分画像記憶部1〜Nに転送されていく。   In the flowchart of FIG. 8, when an image area is set in ST14 (including an image area to be reset), images included in the image area are transferred to partial image storage units 1 to N (sub-memory) in ST15. The By repeating ST14 to ST16 for all the objects (objects) detected by the radar (ST16), the images in the respective image areas are transferred to the partial image storage units 1 to N, respectively.

ST17〜ST19においては、各部分画像記憶部1〜Nの画像に対して所定の画像処理を行う。   In ST17 to ST19, predetermined image processing is performed on the images in the partial image storage units 1 to N.

上記画像エリアを設定するときの計算では、レーダ3の座標、カメラ1の座標を合わせ、それらを画像座標に射影することが必要になる。具体的には次のようにして計算を行う。   In the calculation for setting the image area, it is necessary to match the coordinates of the radar 3 and the camera 1 and project them to the image coordinates. Specifically, the calculation is performed as follows.

図10に示すように、カメラ1、レーダ3の座標系を、それぞれ(XC,YC,ZC)、(XL,YL,ZL)とする。すると、両者の座標の関係は式1のようになる。   As shown in FIG. 10, the coordinate systems of the camera 1 and the radar 3 are (XC, YC, ZC) and (XL, YL, ZL), respectively. Then, the relationship between the two coordinates is as shown in Equation 1.

Figure 2007233440
Figure 2007233440

この式1は、レーザ座標をカメラ座標に変換する式である。式2は、カメラ座標を画像座標に射影する式である。   Expression 1 is an expression for converting laser coordinates into camera coordinates. Expression 2 is an expression for projecting camera coordinates to image coordinates.

Figure 2007233440
Figure 2007233440

したがって、式1、式2により、レーダ座標をカメラ座標を通して画像座標に射影することができる。これらの式については、コンピュータビジョン技術において一般的である。例えば、「3次元ビジョン」(2004年、共立出版、徐剛・辻三郎著)がある。   Therefore, the radar coordinates can be projected to the image coordinates through the camera coordinates by Expression 1 and Expression 2. These equations are common in computer vision technology. For example, “Three-dimensional vision” (2004, Kyoritsu Shuppan, written by Xu Tsuyoshi and Saburo Saburo).

図11は、レーダ座標を2次元的に示している。今、レーダ3により検出された歩行者(物体)の位置が図示のように相対的に移動したとする(実際には自車両の移動による)。最後のスキャンタイミングで検出される移動後の検出ポイントをグルーピングした領域の重心と、幅wと、高さH(予め定めた固定値)とに基づいて矩形を設定し、この頂点をB1〜B4とする(図11では、2次元で示しているためにB1とB2しか示していないが、実際は紙面に垂直な方向の位置にB3とB4が存在している。他の矩形についても同様である。)。上記レーダ座標上のB1〜B4を、式1、式2より座標変換してb1〜b4を得る。画像座標上では図12に示すようにb1〜b4としてプロットされる。このb1〜b4と消失点Sとを結び四角柱の仮想空間を形成する。   FIG. 11 shows the radar coordinates two-dimensionally. Now, it is assumed that the position of the pedestrian (object) detected by the radar 3 has moved relatively as shown (actually due to the movement of the host vehicle). A rectangle is set based on the center of gravity of the area where the detection points after movement detected at the last scan timing are grouped, the width w, and the height H (predetermined fixed value). (In FIG. 11, only B1 and B2 are shown because they are shown in two dimensions, but actually B3 and B4 exist at positions perpendicular to the paper surface. The same applies to other rectangles. .) B1 to B4 on the radar coordinates are coordinate-converted from Equations 1 and 2 to obtain b1 to b4. On the image coordinates, b1 to b4 are plotted as shown in FIG. The b1-b4 and the vanishing point S are connected to form a quadrangular prism virtual space.

次に、トリガ発生位置(最初のスキャンタイミング)からB1〜B4の矩形(最後のスキャンタイミング)に至るまでのスキャン時間Tと、自車両の車速vと、を乗じて移動距離vTを求め、このvTだけ自車両の移動方向に移動した位置に頂点をA1〜A4とする矩形を設定する。矩形の大きさは頂点をB1〜B4とする矩形と同じである。そして、このレーダ座標上のA1〜A4を、式1、式2より座標変換してa1〜a4を得る。このa1〜a4を画像座標上にプロットすると、図12に示すようになる。結果として、a1〜a4を角とする矩形は、b1〜b4と消失点とを結んだ四角柱の仮想空間内に設定されることになる。図12は、B1〜B4の矩形を式1、式2で座標変換したb1〜b4の矩形と、A1〜A4の矩形を式1、式2で座標変換したa1〜a4の矩形とを示している。いずれも画像座標上の位置を示している。また、図13は、図12上のa1〜a4の矩形で設定される画像エリアとb1〜b4の矩形で設定される画像エリアとを結んで再設定した画像エリアを示している。a1〜a4とb1〜b4とが仮想空間の稜線に沿って結合される。   Next, the travel distance vT is obtained by multiplying the scan time T from the trigger generation position (first scan timing) to the rectangles B1 to B4 (last scan timing) and the vehicle speed v of the host vehicle. A rectangle having apexes A1 to A4 is set at a position moved in the moving direction of the host vehicle by vT. The size of the rectangle is the same as the rectangle with vertices B1 to B4. Then, A1 to A4 on the radar coordinates are coordinate-converted from Equations 1 and 2 to obtain a1 to a4. When a1 to a4 are plotted on the image coordinates, the result is as shown in FIG. As a result, a rectangle having corners a1 to a4 is set in a virtual space of a quadrangular prism connecting b1 to b4 and the vanishing point. FIG. 12 shows the rectangles b1 to b4 obtained by coordinate conversion of the rectangles B1 to B4 using Equations 1 and 2, and the rectangles a1 to a4 obtained by performing coordinate conversion of the rectangles A1 to A4 using Equations 1 and 2. Yes. Both indicate positions on image coordinates. FIG. 13 shows an image area that is reset by connecting the image areas set as rectangles a1 to a4 and the image areas set as rectangles b1 to b4 in FIG. a1 to a4 and b1 to b4 are coupled along the ridgeline of the virtual space.

画像アリアの再設定の具体的な計算は以上のようにして行われる。   The specific calculation for resetting the image area is performed as described above.

図14は、画像エリアの設定を行う実施例2の説明図である。   FIG. 14 is an explanatory diagram of the second embodiment for setting an image area.

この実施例2では、道路を直線状としているが消失点Sを固定点として設定するのではなく、該消失点Sを車線の形状に応じてフレーム毎(1スキャン毎)に動的に設定する。すなわち、カメラ1で取得した画像から車線の手前の白線(車線側部に形成される白線や中央線等)を認識し、この白線の交点を消失点として設定する。手前の白線を使うのは、車線がカーブしている状況、先行車両が存在する状況、道路の遠方位置が登っている又は下り坂である状況などでも消失点が簡単に求まるようにするためである。白線の認識については、カメラ1で取得した画像から容易に可能であって一般的な画像認識処理で可能であるが、具体的な認識方法の一つとしては、例えば、「レーンキープアシストシステムにおける白線認識システムの開発」(Vol.12,No.1 HONDA R&D Technical Review 2000 。峯田、鵜浦、池田著) に開示されている。なお、消失点Sを設定する以外の動作手順については、実施例1と全く同じである。   In the second embodiment, the road is straight, but the vanishing point S is not set as a fixed point, but the vanishing point S is dynamically set for each frame (every scan) according to the shape of the lane. . That is, a white line before the lane (a white line or a center line formed on the side of the lane) is recognized from the image acquired by the camera 1, and the intersection of the white lines is set as a vanishing point. The white line in the foreground is used so that the vanishing point can be easily obtained even when the lane is curved, when there is a preceding vehicle, when the road is far away or downhill. is there. The white line can be recognized easily from the image acquired by the camera 1 and can be performed by a general image recognition process. As one specific recognition method, for example, in the “lane keep assist system” "Development of white line recognition system" (Vol.12, No.1 HONDA R & D Technical Review 2000, written by Hirota, Kajiura, and Ikeda). The operation procedure other than setting the vanishing point S is exactly the same as in the first embodiment.

図15は、画像エリアの設定を行う実施例3の説明図である。
この実施例3では、道路がカーブしていて、消失点Sを固定点として設定している。
FIG. 15 is an explanatory diagram of the third embodiment for setting an image area.
In the third embodiment, the road is curved and the vanishing point S is set as a fixed point.

高速道路や自動車用道路の曲線部は、ほとんどがクロソイド曲線として設計されている。クロソイド曲線とは、曲率半径と曲線長の積を一定とする曲線であり、2つの異なる曲率半径どうしの道路を滑らかに接続するための緩和曲線として用いられる。クロソイド曲線の描く座標値は、曲率半径Rと曲線Lとを用いて、式3と式4のように表せる(ただし、高次の項は省略した近似式)。   Most curved parts of expressways and automobile roads are designed as clothoid curves. The clothoid curve is a curve in which the product of the curvature radius and the curve length is constant, and is used as a relaxation curve for smoothly connecting roads having two different curvature radii. The coordinate values drawn by the clothoid curve can be expressed as Equation 3 and Equation 4 using the radius of curvature R and the curve L (however, an approximate expression with the higher order terms omitted).

Figure 2007233440
Figure 2007233440

この式3、式4は、物体(物体)が、図16のA5〜A8(図ではA5、A6のみ表示)の位置からB5〜B8(図ではB5、B6のみ表示)の位置へ移動する際に変化する座標値変化分を表している。   Expressions 3 and 4 are obtained when the object (object) moves from the position A5 to A8 (only A5 and A6 are shown in the figure) to the position B5 to B8 (only B5 and B6 are shown in the figure). This represents a change in coordinate value that changes to.

曲率半径Rは、ヨーレートセンサの検出信号から測定した角速度ωを式5に代入して求める。図16のA5、A6の位置からB5、B6の位置までの曲線長Lは、この間の走行車速vが一定として式6から求める。   The radius of curvature R is obtained by substituting the angular velocity ω measured from the detection signal of the yaw rate sensor into Equation 5. The curve length L from the position of A5, A6 in FIG. 16 to the position of B5, B6 is obtained from Equation 6 assuming that the traveling vehicle speed v is constant during this time.

したがって、式5、式6から式3、式4が求まる。式3、式4が求まることにより、実施例1と同様に、物体の位置はB5、B6からA5、A6に移動する。A5、A6とB5、B6とは、式1、式2により座標変換をしてa5〜a8とb5〜b8となり、図17のような画像エリアとなり、図18のように画像エリアが再設定される。
図19は、画像エリアの設定を行う実施例4の説明図である。
Therefore, Equation 3 and Equation 4 are obtained from Equation 5 and Equation 6. By obtaining Equations 3 and 4, the position of the object moves from B5 and B6 to A5 and A6 as in the first embodiment. A5, A6 and B5, and B6 are transformed into a5 to a8 and b5 to b8 by coordinate transformation according to equations 1 and 2, resulting in an image area as shown in FIG. 17, and the image area is reset as shown in FIG. The
FIG. 19 is an explanatory diagram of the fourth embodiment for setting an image area.

この実施例4では、道路がカーブしていて、消失点Sを道路形状により動的に設定している。この実施例4ではヨーレートセンサを使用しない。   In the fourth embodiment, the road is curved, and the vanishing point S is dynamically set according to the road shape. In the fourth embodiment, no yaw rate sensor is used.

また、複数の消失点を使用する。ここでは2つの消失点S1、S2を使用する場合の説明をする。   A plurality of vanishing points are used. Here, the case where two vanishing points S1 and S2 are used will be described.

まず、自車両手前の白線の直線部で消失点S1を求める。自車両進行方向のさらに前方の曲線部の接線で消失点S2を求める。実施例1と同様に、図19のレーダ座標上で、B9〜B12と消失点S1との間で第1の仮想空間を形成し、この空間内に、移動距離vTだけ自車両の移動方向に移動した位置に頂点をA9〜A12とする矩形の画像エリアを設定する。同様に、B9〜B12と消失点S2との間に第2の仮想空間を形成し、この空間内に、移動距離vTだけ自車両の移動方向に移動した位置に頂点をC9〜C12とする矩形の画像エリアを設定する。頂点をA9〜A12とする矩形の画像エリアと頂点をC9〜C12とする矩形の画像エリアとのうち、レーダ座標上で自車両を基準により遠方に位置する画像エリアを選択し、この画像エリアとB9〜B12の画像エリアとを結合することで画像エリアの再設定を行う。図20は再設定前の画像エリアを示し、図21は再設定された画像エリアを示している。   First, the vanishing point S1 is obtained at the straight line portion of the white line in front of the host vehicle. The vanishing point S2 is obtained by the tangent of the curve portion further forward in the traveling direction of the host vehicle. As in the first embodiment, a first virtual space is formed between B9 to B12 and the vanishing point S1 on the radar coordinates in FIG. 19, and the moving distance vT is set in the moving direction of the host vehicle in this space. A rectangular image area having apexes A9 to A12 is set at the moved position. Similarly, a second virtual space is formed between B9 to B12 and the vanishing point S2, and in this space, the vertices are C9 to C12 whose vertices are moved in the moving direction of the host vehicle by the moving distance vT. Set the image area. Of the rectangular image area with vertices A9 to A12 and the rectangular image area with vertices C9 to C12, an image area located far from the vehicle on the radar coordinates is selected, and this image area The image area is reset by combining the image areas B9 to B12. FIG. 20 shows the image area before resetting, and FIG. 21 shows the reset image area.

以上の制御動作により、直線道路、カーブ道路については、消失点を固定値とすることで(実施例1、3)、又は消失点を白線認識により求めることで(実施例2、4)画像エリアを再設定することができる。   With the above control operation, for straight roads and curved roads, the vanishing point is set to a fixed value (Examples 1 and 3), or the vanishing point is obtained by white line recognition (Examples 2 and 4). Can be reset.

なお、以上の実施形態では、所定のスキャンタイミングを最初のスキャンタイミングとして、カメラ1のトリガタイミングを最初のスキャンタイミングに一致させたが、カメラ1のトリガタイミングを最後のスキャンタイミングに一致させても良いし、途中のスキャンタイミングに一致させても良い。カメラ1のトリガタイミングを最後のスキャンタイミングに一致させる場合は、図9において、画像エリアQ31はQ30よりも自車両側に設定されることになる。すなわち、消失点Sと画像エリアQ30の角とを結ぶ線を自車両側に延長した仮想空間を形成し、この空間内に画像エリアQ31が設定される。   In the above embodiment, the predetermined scan timing is set as the first scan timing, and the trigger timing of the camera 1 is matched with the first scan timing. However, the trigger timing of the camera 1 may be matched with the last scan timing. It may be good or may be coincident with the scanning timing in the middle. When the trigger timing of the camera 1 is made coincident with the last scan timing, the image area Q31 in FIG. 9 is set on the own vehicle side with respect to Q30. That is, a virtual space is formed by extending a line connecting the vanishing point S and the corner of the image area Q30 to the own vehicle side, and the image area Q31 is set in this space.

さらに、画像エリアは矩形状としたが、多角形形状や楕円形状など、任意の形状であって良い。   Furthermore, although the image area is rectangular, it may be any shape such as a polygonal shape or an elliptical shape.

レーダの最初のスキャン(走査)時の第1のシーンを示している。A first scene during the first scan of the radar is shown. レーダの最後のスキャン(走査)時の第2のシーンを示している。A second scene at the last scan of the radar is shown. レーダの最後のスキャン時に撮像した場合のシーンを示している。A scene in the case of imaging at the last scan of the radar is shown. 本発明の実施形態である車載用画像処理装置のブロック図である。1 is a block diagram of an in-vehicle image processing apparatus that is an embodiment of the present invention. 信号処理部の構成図である。It is a block diagram of a signal processing part. 画像処理エリア設定部の構成図である。It is a block diagram of an image processing area setting part. 本発明の実施形態である車載用画像処理装置のレーダの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the radar of the vehicle-mounted image processing apparatus which is embodiment of this invention. 本発明の実施形態である車載用画像処理装置のカメラ及び画像処理エリア設定部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the camera and image processing area setting part of the vehicle-mounted image processing apparatus which is embodiment of this invention. 画像エリアの設定を行う実施例1の説明図である。It is explanatory drawing of Example 1 which performs the setting of an image area. カメラとレーダの取付位置及びそれぞれの座標系を示す図である。It is a figure which shows the attachment position of a camera and a radar, and each coordinate system. 実施例1のレーダの座標を2次元で示す図である。It is a figure which shows the coordinate of the radar of Example 1 in two dimensions. 実施例1の具体的な画像エリア設定方法を説明する図である。6 is a diagram illustrating a specific image area setting method according to the first exemplary embodiment. FIG. 実施例1の画像エリアの再設定について説明する図である。FIG. 10 is a diagram for explaining resetting of an image area according to the first embodiment. 画像エリアの設定を行う実施例2の説明図である。It is explanatory drawing of Example 2 which performs the setting of an image area. 画像エリアの設定を行う実施例3の説明図である。It is explanatory drawing of Example 3 which performs the setting of an image area. 実施例3のレーダの座標を2次元で示す図である。It is a figure which shows the coordinate of the radar of Example 3 in two dimensions. 実施例3の具体的な画像エリア設定方法を説明する図である。FIG. 10 is a diagram illustrating a specific image area setting method according to the third embodiment. 実施例3の画像エリアの再設定について説明する図である。FIG. 10 is a diagram illustrating resetting of an image area according to a third embodiment. 画像エリアの設定を行う実施例4のレーダの座標を2次元で示す図である。It is a figure which shows the coordinate of the radar of Example 4 which performs the setting of an image area in two dimensions. 実施例4の具体的な画像エリア設定方法を説明する図である。FIG. 10 is a diagram illustrating a specific image area setting method according to a fourth embodiment. 実施例3の画像エリアの再設定について説明する図である。FIG. 10 is a diagram for describing resetting of an image area according to a third embodiment.

Claims (6)

自車両の前方を電磁波ビームで走査して先行車両等の物体を検出するレーダと、前記レーダの走査毎に所定の走査タイミングで自車両の前方を撮像し前記物体を含む画像を取得する撮像装置と、自車両の車速等の自車両走行情報を取得する自車両走行情報取得部とを備え、
前記レーダにより検出した物体と、前記撮像装置により前記所定の走査タイミングで取得した画像とに基づいて該画像中の処理すべき画像エリアを求める車載用画像処理装置において、
前記レーダにより1つの走査が終了するまでに検出した物体が前記画像中のその対応位置に存在しない場合、前記自車両走行情報と前記所定の走査タイミングとにより得られる自車両が移動した移動距離に基づいて、該レーダにより検出された物体の位置と画像中に設定された無限遠点とを結んで形成される仮想空間内に画像エリアを再設定する画像エリア再設定手段を備えたことを特徴とする車載用画像処理装置。
A radar that scans the front of the host vehicle with an electromagnetic wave beam to detect an object such as a preceding vehicle, and an imaging device that captures an image of the front of the host vehicle at a predetermined scanning timing and acquires an image including the object for each scan of the radar And a host vehicle travel information acquisition unit that acquires host vehicle travel information such as the vehicle speed of the host vehicle,
In an in-vehicle image processing apparatus for obtaining an image area to be processed in the image based on an object detected by the radar and an image acquired by the imaging device at the predetermined scanning timing,
If an object detected by the radar until one scan is completed does not exist at the corresponding position in the image, the travel distance traveled by the host vehicle obtained by the host vehicle travel information and the predetermined scan timing is obtained. And an image area resetting means for resetting the image area in a virtual space formed by connecting the position of the object detected by the radar and the infinity point set in the image. An in-vehicle image processing apparatus.
前記画像エリア再設定手段は、前記レーダにより検出された物体の位置において一定の大きさの第1の画像エリアを設定し、この第1の画像エリアの角と前記無限遠点とを結ぶことにより前記仮想空間を形成し、この仮想空間内に、前記移動距離の位置で第2の画像エリアを設定し、前記第1の画像エリアと前記第2の画像エリアを仮想空間の稜線に沿って結合したエリアを前記画像エリアとして再設定することを特徴とする請求項1記載の車載用画像処理装置。   The image area resetting means sets a first image area having a constant size at the position of the object detected by the radar, and connects the corner of the first image area and the point at infinity. The virtual space is formed, a second image area is set in the virtual space at the position of the moving distance, and the first image area and the second image area are combined along the edge of the virtual space. The in-vehicle image processing apparatus according to claim 1, wherein the set area is reset as the image area. 前記画像エリア再設定手段は、前記無限遠点は予め固定点として設定する請求項2記載の車載用画像処理装置。   The in-vehicle image processing apparatus according to claim 2, wherein the image area resetting unit sets the infinity point as a fixed point in advance. 前記画像エリア再設定手段は、前記画像中の車線の白線を認識するとともに該白線の延長点を前記無限遠点として設定する請求項2記載の車載用画像処理装置。   The in-vehicle image processing apparatus according to claim 2, wherein the image area resetting unit recognizes a white line of a lane in the image and sets an extension point of the white line as the infinity point. 前記自車両走行情報取得部は、自車両走行情報として、自車両の車速と角速度と車線の曲率半径とを取得するものであり、
前記画像エリア再設定手段は、これらの情報に基づいて前記曲率半径に沿って自車両の移動距離分だけ移動した位置で第2の画像エリアを設定する請求項3記載の車載用画像処理装置。
The host vehicle travel information acquisition unit acquires the vehicle speed and angular velocity of the host vehicle and the radius of curvature of the lane as host vehicle travel information,
The in-vehicle image processing apparatus according to claim 3, wherein the image area resetting unit sets the second image area at a position moved by the moving distance of the host vehicle along the radius of curvature based on the information.
前記画像エリア再設定手段は、前記画像中の車線の白線を認識するとともに該白線の直線部の延長点を第1の無限遠点として設定し、該白線の曲線部の接線の延長点を第2の無限遠点として設定し、各無限遠点毎に第2の画像エリアの候補を設定し、第1の画像エリアから最遠位置にある画像エリア候補を第2の画像エリアとして設定する請求項2記載の車載用画像処理装置。   The image area resetting means recognizes a white line of a lane in the image, sets an extension point of a straight line portion of the white line as a first infinity point, and sets an extension point of a tangent line of the curved line portion of the white line as a first point. 2 as an infinite point, a second image area candidate is set for each infinite point, and an image area candidate farthest from the first image area is set as a second image area Item 2. The in-vehicle image processing apparatus according to Item 2.
JP2006050665A 2006-02-27 2006-02-27 On-vehicle image processor Pending JP2007233440A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006050665A JP2007233440A (en) 2006-02-27 2006-02-27 On-vehicle image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006050665A JP2007233440A (en) 2006-02-27 2006-02-27 On-vehicle image processor

Publications (1)

Publication Number Publication Date
JP2007233440A true JP2007233440A (en) 2007-09-13

Family

ID=38554016

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006050665A Pending JP2007233440A (en) 2006-02-27 2006-02-27 On-vehicle image processor

Country Status (1)

Country Link
JP (1) JP2007233440A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012014553A (en) * 2010-07-02 2012-01-19 Honda Motor Co Ltd Apparatus for monitoring surrounding of vehicle
JP2013196387A (en) * 2012-03-19 2013-09-30 Pioneer Electronic Corp Image processor and image processing method
KR20180027242A (en) * 2016-09-06 2018-03-14 국방과학연구소 Apparatus and method for environment mapping of an unmanned vehicle
KR101881458B1 (en) * 2017-03-09 2018-07-25 건아정보기술 주식회사 The region of interest extraction system for moving object
CN109059897A (en) * 2018-05-30 2018-12-21 上海懒书智能科技有限公司 A kind of acquisition methods of the real time execution posture based on AGV trolley
WO2023190058A1 (en) * 2022-03-30 2023-10-05 パナソニックIpマネジメント株式会社 Image processing method and image processing device

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06293236A (en) * 1992-12-22 1994-10-21 Mitsubishi Electric Corp Travel environment monitoring device
JPH07117523A (en) * 1993-10-28 1995-05-09 Mitsubishi Motors Corp Travel controller of automobile
JP3123303B2 (en) * 1992-07-21 2001-01-09 日産自動車株式会社 Vehicle image processing device
JP2001281334A (en) * 2000-03-29 2001-10-10 Omron Corp Method and device for detecting object
JP3264060B2 (en) * 1993-11-04 2002-03-11 三菱自動車工業株式会社 The preceding vehicle detection mechanism of the vehicle travel control device
JP2003030792A (en) * 2001-07-12 2003-01-31 Nissan Motor Co Ltd Device and method for discriminating type of object
JP2003099784A (en) * 2001-09-25 2003-04-04 Daihatsu Motor Co Ltd Recognition method for moving object
JP2004144671A (en) * 2002-10-25 2004-05-20 Omron Corp Car-mounted radar device
JP2004148991A (en) * 2002-10-30 2004-05-27 Nissan Motor Co Ltd Outside acknowledging device for vehicle
JP2004301567A (en) * 2003-03-28 2004-10-28 Fujitsu Ltd Collision predicting apparatus
JP2005182137A (en) * 2003-12-16 2005-07-07 Nissan Motor Co Ltd Preceding vehicle detection device and preceding vehicle detection method
JP2005267331A (en) * 2004-03-19 2005-09-29 Nissan Motor Co Ltd Vehicle circumference monitoring device
JP2006004188A (en) * 2004-06-17 2006-01-05 Daihatsu Motor Co Ltd Obstacle recognition method and obstacle recognition device
JP2006048338A (en) * 2004-08-04 2006-02-16 Nissan Motor Co Ltd Mobile object detection apparatus

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3123303B2 (en) * 1992-07-21 2001-01-09 日産自動車株式会社 Vehicle image processing device
JPH06293236A (en) * 1992-12-22 1994-10-21 Mitsubishi Electric Corp Travel environment monitoring device
JPH07117523A (en) * 1993-10-28 1995-05-09 Mitsubishi Motors Corp Travel controller of automobile
JP3264060B2 (en) * 1993-11-04 2002-03-11 三菱自動車工業株式会社 The preceding vehicle detection mechanism of the vehicle travel control device
JP2001281334A (en) * 2000-03-29 2001-10-10 Omron Corp Method and device for detecting object
JP2003030792A (en) * 2001-07-12 2003-01-31 Nissan Motor Co Ltd Device and method for discriminating type of object
JP2003099784A (en) * 2001-09-25 2003-04-04 Daihatsu Motor Co Ltd Recognition method for moving object
JP2004144671A (en) * 2002-10-25 2004-05-20 Omron Corp Car-mounted radar device
JP2004148991A (en) * 2002-10-30 2004-05-27 Nissan Motor Co Ltd Outside acknowledging device for vehicle
JP2004301567A (en) * 2003-03-28 2004-10-28 Fujitsu Ltd Collision predicting apparatus
JP2005182137A (en) * 2003-12-16 2005-07-07 Nissan Motor Co Ltd Preceding vehicle detection device and preceding vehicle detection method
JP2005267331A (en) * 2004-03-19 2005-09-29 Nissan Motor Co Ltd Vehicle circumference monitoring device
JP2006004188A (en) * 2004-06-17 2006-01-05 Daihatsu Motor Co Ltd Obstacle recognition method and obstacle recognition device
JP2006048338A (en) * 2004-08-04 2006-02-16 Nissan Motor Co Ltd Mobile object detection apparatus

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012014553A (en) * 2010-07-02 2012-01-19 Honda Motor Co Ltd Apparatus for monitoring surrounding of vehicle
JP2013196387A (en) * 2012-03-19 2013-09-30 Pioneer Electronic Corp Image processor and image processing method
KR20180027242A (en) * 2016-09-06 2018-03-14 국방과학연구소 Apparatus and method for environment mapping of an unmanned vehicle
KR101864127B1 (en) 2016-09-06 2018-06-29 국방과학연구소 Apparatus and method for environment mapping of an unmanned vehicle
KR101881458B1 (en) * 2017-03-09 2018-07-25 건아정보기술 주식회사 The region of interest extraction system for moving object
CN109059897A (en) * 2018-05-30 2018-12-21 上海懒书智能科技有限公司 A kind of acquisition methods of the real time execution posture based on AGV trolley
CN109059897B (en) * 2018-05-30 2021-08-20 上海懒书智能科技有限公司 AGV trolley based real-time operation attitude acquisition method
WO2023190058A1 (en) * 2022-03-30 2023-10-05 パナソニックIpマネジメント株式会社 Image processing method and image processing device

Similar Documents

Publication Publication Date Title
US11935250B2 (en) Method, device and computer-readable storage medium with instructions for processing sensor data
JP6825569B2 (en) Signal processor, signal processing method, and program
US6956469B2 (en) Method and apparatus for pedestrian detection
JP5470886B2 (en) Object detection device
JP2006252473A (en) Obstacle detector, calibration device, calibration method and calibration program
KR102569437B1 (en) Apparatus and method tracking object based on 3 dimension images
JP2017068700A (en) Object detection apparatus, object detection method, and program
JP7389729B2 (en) Obstacle detection device, obstacle detection system and obstacle detection method
JP2006258497A (en) Object recognition apparatus for vehicle
JP5098563B2 (en) Object detection device
JP7424390B2 (en) Image processing device, image processing method, and image processing program
US20180232582A1 (en) Object detection device, object detection method, and program
JP2007233440A (en) On-vehicle image processor
JP2022045947A5 (en)
JP4052291B2 (en) Image processing apparatus for vehicle
JP2019128350A (en) Image processing method, image processing device, on-vehicle device, moving body and system
JP2000293693A (en) Obstacle detecting method and device
KR20160125803A (en) Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest
CN116343165A (en) 3D target detection system, method, terminal equipment and storage medium
JP3969984B2 (en) Recognition method for moving objects
JP2001243456A (en) Device and method for detecting obstacle
JP4106163B2 (en) Obstacle detection apparatus and method
JP2006258507A (en) Apparatus for recognizing object in front
JP2005148784A (en) Detector for traveling lane on road surface
WO2023188046A1 (en) Image processing device, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081212

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20100802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110105

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110426