JP2007233440A - On-vehicle image processor - Google Patents
On-vehicle image processor Download PDFInfo
- Publication number
- JP2007233440A JP2007233440A JP2006050665A JP2006050665A JP2007233440A JP 2007233440 A JP2007233440 A JP 2007233440A JP 2006050665 A JP2006050665 A JP 2006050665A JP 2006050665 A JP2006050665 A JP 2006050665A JP 2007233440 A JP2007233440 A JP 2007233440A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image area
- vehicle
- radar
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明は、自車両の速度制御や停止制御等を行う車載装置に設けられ、撮像装置で取得された自車両の前方の画像を処理する車載用画像処理装置に関する。 The present invention relates to an in-vehicle image processing apparatus that is provided in an in-vehicle device that performs speed control, stop control, and the like of a host vehicle and that processes an image ahead of the host vehicle acquired by an imaging device.
走行中の自車両の前方を監視し車間距離制御等に資するための車載装置として、自車両の前方を電磁波ビーム(レーザビーム等)で走査して先行車両等の物体を検出するレーダが実用化されている、また、自車両の前方を撮像しレーダで検出された物体を含む画像を取得して画像処理を行うことにより、先行車両やその他の物体の認識精度を高める撮像装置が実用化されている。 A radar that scans the front of the host vehicle with an electromagnetic beam (laser beam, etc.) and detects an object such as a preceding vehicle is put into practical use as an in-vehicle device for monitoring the front of the host vehicle and contributing to inter-vehicle distance control. In addition, an imaging device that improves the recognition accuracy of a preceding vehicle and other objects by acquiring an image including an object detected by a radar by capturing an image of the front of the host vehicle and performing image processing has been put into practical use. ing.
前記撮像装置は、レーダの走査と同期して駆動され、レーダで取得した物体の位置と撮像した画像との対比を行い、該位置の画像への対応づけを行って画像エリアを設定する。そして、この画像エリアに対して画像処理を行う。このように、画像エリアを設定することにより、全画像を処理することによる処理速度の低下を防ぎ、ビームの走査周期毎に高速で画像処理ができるようにしている。 The imaging device is driven in synchronization with the scanning of the radar, compares the position of the object acquired by the radar and the captured image, and associates the position with the image to set the image area. Then, image processing is performed on this image area. In this way, setting the image area prevents a reduction in processing speed caused by processing all images, and enables high-speed image processing for each beam scanning period.
このような構成を備える従来の画像処理装置としては、例えば特許文献1に開示されている。
上記の構成を備える装置において、レーダで取得した物体の位置を画像に対応づけるには、レーダで測定するときのシーンと撮像装置で撮像するときシーンとが同じタイミングである必要がある。両者のタイミングが大きくずれると、レーダで測定したときのシーンと撮像装置で測定したときのシーンとが異なってしまい、両方のシーンで物体の位置が異なってくるからである。このことを図1、図2を参照して説明する。 In the apparatus having the above configuration, in order to associate the position of the object acquired by the radar with the image, the scene when measured by the radar and the scene when captured by the imaging apparatus need to be at the same timing. This is because if the timing of the two is greatly shifted, the scene measured by the radar and the scene measured by the imaging device are different, and the position of the object is different in both scenes. This will be described with reference to FIGS.
図1は、レーダの最初のスキャン(走査)時の第1のシーンを示している。同図(A)は、第1のシーンの画像を示し、同図(B)は、第1のシーンでビームのスキャン位置をレーダ座標で示している。図2は、レーダの最後のスキャン(走査)時の第2のシーンを示している。同図(A)は、レーダの最初のスキャン(走査)時に取得される画像を示し、同図(B)は、第2のシーンでビームのスキャン位置をレーダ座標で示している。 FIG. 1 shows a first scene during the first scan of the radar. FIG. 2A shows an image of the first scene, and FIG. 2B shows a beam scan position in the first scene by radar coordinates. FIG. 2 shows a second scene during the last scan of the radar. FIG. 6A shows an image acquired during the first scan of the radar, and FIG. 6B shows the beam scan position in the second scene in radar coordinates.
ビームは、図1(B)、図2(B)に示すように、図1(B)のときから図2(B)にかけて扇形にスキャンされ、1スキャンには約50msec程度の時間を要する。また、撮像装置は図1の最初のスキャンタイミングで駆動され、そのときの取得画像がメモリに記憶され、その画像は画像処理に使用される。 As shown in FIGS. 1B and 2B, the beam is scanned in a fan shape from FIG. 1B to FIG. 2B, and one scan takes about 50 msec. Further, the image pickup apparatus is driven at the first scan timing in FIG. 1, and an acquired image at that time is stored in a memory, and the image is used for image processing.
図1、図2において、領域Pは予め設定されている視野であり、この範囲内で画像処理が行われる。レーダから出力されるビームBM1は、最初のスキャンタイミングで発射されるビームの位置と形状を示している。また、ビームBM2は、最後のスキャンタイミングで発射されるビームの位置と形状を示している。図2(A)において、画像エリアQ1〜Q3は、画像処理を行うために設定されたエリアであり、ビームが反射した位置を示す黒丸の反射ポイントにおいて、距離や方位が略等しいものは同一の物体から反射されたものとみなしてグルーピングされ、各エリアはこのグルーピングした反射ポイントを画像内に対応づけて設定される。同図において、画像エリアQ1は、ビームにより検出された車線横の固定物を囲むエリアを示し、画像エリアQ2は、車線上を走行する先行車両を囲むエリアを示している。また、画像エリアQ3は、歩行者を囲むエリアを示している。 1 and 2, a region P is a field of view set in advance, and image processing is performed within this range. The beam BM1 output from the radar indicates the position and shape of the beam emitted at the first scan timing. A beam BM2 indicates the position and shape of the beam emitted at the last scan timing. In FIG. 2A, image areas Q1 to Q3 are areas set for performing image processing, and the black circle reflection points indicating the positions where the beams are reflected are the same if they have substantially the same distance and direction. The areas are grouped as if they were reflected from the object, and each area is set by associating the grouped reflection points in the image. In the figure, an image area Q1 indicates an area surrounding a fixed object beside the lane detected by the beam, and an image area Q2 indicates an area surrounding a preceding vehicle traveling on the lane. An image area Q3 indicates an area surrounding the pedestrian.
図1(B)において、グルーピングされているグレー色の反射ポイントは、前回のビームスキャンで得られた物体の位置を示し、図2において、グルーピングされている黒丸の反射ポイントは、今回のビームスキャンで得られた物体の位置を示している。 In FIG. 1B, the grouped gray reflection point indicates the position of the object obtained by the previous beam scan. In FIG. 2, the grouped black circle reflection point indicates the current beam scan. The position of the object obtained in is shown.
以上の図から明らかなように、図1に示す第1のシーンでは、最初のスキャンタイミングと撮像装置の撮像タイミングとが同一であるが、図2に示す第2のシーンでは、第1のシーンから50msec経過しているために、最後のスキャンタイミングでビームの反射により検出される反射ポイントの位置と画像との対応関係がとれない場合が生じてくる。すなわち、図2に示すように、自車両が50msec移動している間に歩行者の位置は自車両側に移動しているにもかかわらず、撮像装置で取得されている画像は50msec前のものであるために、第1のシーンのときに撮像された歩行者の位置は、50msec後の第2のシーンでレーダで検出される歩行者の位置(現実の位置)と、ずれてしまっている。一方、先行車両については、50msec後も自車両と同じ車間距離を保っているために、レーダで検出される反射ポイントの位置は変わらない。また、固定物については、最初のスキャンタイミングで検出しているため、その位置は前回の最後のスキャンタイミングで検出した位置と変わらない。なお、図2(B)では、歩行者についてのみ、前回のスキャンで検出された反射ポイントが今回のスキャンで手前側(自車両側)に移動することを示している。 As is clear from the above figures, in the first scene shown in FIG. 1, the first scan timing and the imaging timing of the imaging device are the same, but in the second scene shown in FIG. Since 50 msec has elapsed, there may occur a case where the correspondence between the position of the reflection point detected by the reflection of the beam at the last scan timing and the image cannot be obtained. That is, as shown in FIG. 2, the image acquired by the imaging device is 50 msec before, even though the position of the pedestrian is moving toward the own vehicle while the own vehicle is moving for 50 msec. For this reason, the position of the pedestrian captured in the first scene is shifted from the position of the pedestrian detected by the radar in the second scene after 50 msec (actual position). . On the other hand, for the preceding vehicle, the position of the reflection point detected by the radar does not change because the same inter-vehicle distance as that of the host vehicle is maintained after 50 msec. Further, since the fixed object is detected at the first scan timing, the position is not different from the position detected at the last scan timing of the previous time. Note that FIG. 2B shows that only the pedestrian moves the reflection point detected in the previous scan to the near side (own vehicle side) in the current scan.
以上の理由から、スキャン時間に対して殆ど移動しない歩行者等の物体については、最初のスキャンタイミングから一定時間が経過したタイミングにおいて、レーダで取得した実際の位置と、画像上の位置との対応関係が正しくなくなるという問題があった。 For the above reasons, for objects such as pedestrians that hardly move with respect to the scan time, the correspondence between the actual position acquired by the radar and the position on the image at the timing when a fixed time has elapsed from the initial scan timing There was a problem that the relationship was incorrect.
また、撮像装置を最後のスキャンタイミングで駆動する場合は、最初のスキャンタイミングで検出した物体の反射ポイントの位置と画像との対応関係がとれなくなる。図3はこの状態を示し、道路脇に存在している固定物についての対応関係がとれなくなっていることを示している。撮像装置を途中のスキャンタイミングで駆動する場合でも、同じような問題が生じてくる。 Further, when the imaging apparatus is driven at the last scan timing, the correspondence between the position of the reflection point of the object detected at the first scan timing and the image cannot be obtained. FIG. 3 shows this state, and shows that a correspondence relationship with respect to a fixed object existing on the side of the road cannot be taken. The same problem occurs even when the imaging apparatus is driven at an intermediate scan timing.
本発明の目的は、所定のスキャンタイミングで取得した画像と、レーダで検出した物体の位置とが正しく対応するように画像処理を行うための画像エリアを修正する車載用画像処理装置を提供することある。 An object of the present invention is to provide an in-vehicle image processing apparatus that corrects an image area for performing image processing so that an image acquired at a predetermined scan timing and an object position detected by a radar correctly correspond to each other. is there.
本発明は、自車両の前方を電磁波ビームで走査して先行車両等の物体を検出するレーダと、前記レーダの走査毎に所定の走査タイミングで自車両の前方を撮像し前記物体を含む画像を取得する撮像装置と、自車両の車速等の自車両走行情報を取得する自車両走行情報取得部とを備え、
前記レーダにより検出した物体と、前記撮像装置により前記所定の走査タイミングで取得した画像とに基づいて該画像中の処理すべき画像エリアを求める車載用画像処理装置を備えたものである。
The present invention provides a radar that scans the front of the host vehicle with an electromagnetic wave beam to detect an object such as a preceding vehicle, and captures an image including the object by imaging the front of the host vehicle at a predetermined scanning timing for each scan of the radar. An imaging device to acquire, and a host vehicle travel information acquisition unit that acquires host vehicle travel information such as the vehicle speed of the host vehicle,
An in-vehicle image processing device that obtains an image area to be processed in the image based on an object detected by the radar and an image acquired by the imaging device at the predetermined scanning timing is provided.
電磁波ビームとしては、例えばレーザビームがあり、レーダは、このビームを車両前方に扇形状となるように左から右にスキャンする。ビームは2次元にスキャンすることもでき、この場合は、左から右へのスキャンを繰り返しながら上下方向のスキャン位置を下方に移動していく。 An example of the electromagnetic wave beam is a laser beam, and the radar scans the beam from left to right so as to form a fan shape in front of the vehicle. The beam can be scanned two-dimensionally. In this case, the scanning position in the vertical direction is moved downward while repeating the scanning from left to right.
撮像装置は、例えばグローバルシャッタ付きのCCDカメラ等で構成され、シャッタが開いた瞬間のタイミングで前方を撮像して画像を取得しこれをメモリに記憶する。シャッタは、ビームの所定のスキャンタイミングで開き、この動作をスキャン毎に行う。所定のスキャンタイミングは、例えば、最初のスキャンタイミングである。 The imaging device is composed of, for example, a CCD camera with a global shutter, and captures an image of the front at the moment when the shutter is opened, and stores this in a memory. The shutter is opened at a predetermined scan timing of the beam, and this operation is performed for each scan. The predetermined scan timing is, for example, the first scan timing.
車両走行情報取得部は、自車両の速度(車速)や、ヨーレートなどを測定する。 The vehicle travel information acquisition unit measures the speed (vehicle speed) of the host vehicle, the yaw rate, and the like.
本発明の車載用画像処理装置は、上記レーダで検出した先行車両等の物体と、画像と、に基づいて該画像中の処理すべき画像エリアを求める。画像処理では、画像エリア内にある物体の特徴量を抽出して該物体を認識したりする。 The in-vehicle image processing apparatus according to the present invention obtains an image area to be processed in the image based on an object such as a preceding vehicle detected by the radar and the image. In the image processing, the feature amount of an object in the image area is extracted and the object is recognized.
上記の構成で、本発明は、前記画像エリアを再設定する画像エリア再設定手段を備えている。 With the above configuration, the present invention includes image area resetting means for resetting the image area.
画像エリア再設定手段は、前記レーダにより1つのスキャンが終了するまでに検出した物体が前記画像中のその対応位置に存在しない場合、前記自車両走行情報及び前記所定のスキャンタイミングにより得られる自車両が移動した移動距離に基づいて、該レーダにより検出された物体の位置と画像中に設定された無限遠点とを結んで形成される仮想空間内に画像エリアを再設定する。 The image area resetting means, when an object detected by the radar until the end of one scan does not exist at the corresponding position in the image, the host vehicle obtained by the host vehicle travel information and the predetermined scan timing The image area is reset in a virtual space formed by connecting the position of the object detected by the radar and the infinity point set in the image based on the movement distance moved by.
このような操作により、画像エリアが拡がり、同エリア内に物体を検出することができるようになる。なお、この再設定を行うときには、自車両の速度等の動きを考慮することが必要である。何故なら、自車両が高速であれば、仮想空間内に再設定される画像エリアの面積はより広くしなければならなく、また、車線に沿って回動する場合は、その曲率に沿って画像エリアを設定することが必要になるからである。 By such an operation, the image area is expanded, and an object can be detected in the area. When this resetting is performed, it is necessary to take into account movements such as the speed of the host vehicle. This is because if the vehicle is at high speed, the area of the image area that is reset in the virtual space must be larger, and if the vehicle rotates along the lane, the image along the curvature This is because it is necessary to set an area.
前記画像エリア再設定手段は、レーダで検出された物体の位置において一定の大きさの第1の画像エリアを設定し、この第1の画像エリアの角と前記無限遠点とを結ぶことにより前記仮想空間を形成する。 The image area resetting means sets a first image area having a constant size at the position of the object detected by the radar, and connects the corner of the first image area and the point at infinity. Form a virtual space.
無限遠点は、この発明では画像の消失点(以下、単に消失点)と称する。一般には、この消失点は画面の中心位置に固定位置として設定される。第1の画像エリアは、レーダで検出した物体の位置を基準にして任意の方法により求めた矩形状、又は同位置を基準にして予め定めた大きさの矩形状の大きさに設定される。この第1の画像エリアの角と消失点とを結ぶことにより、四角柱の仮想空間が形成される。この仮想空間内に、前記自車両走行情報と前記所定のスキャンタイミングとにより得られる自車両が移動した移動距離の位置で第2の画像エリアを設定し、前記第1の画像エリアと前記第2の画像エリアを仮想空間の稜線に沿って結合したエリアを前記画像エリアとして再設定する
これにより、再設定された画像エリアは、再設定前の画像エリアに比べて画像座標上の面積が大きくなり、しかも、そのエリアは自車両の速度など情報に基づいて形成されるため、該エリア内に物体の画像が存在する確立が非常に高くなる。
The infinity point is referred to as an image vanishing point (hereinafter simply referred to as vanishing point) in the present invention. Generally, this vanishing point is set as a fixed position at the center position of the screen. The first image area is set to a rectangular shape obtained by an arbitrary method based on the position of the object detected by the radar, or a rectangular shape having a predetermined size based on the same position. By connecting the corners and vanishing points of the first image area, a quadrangular prism virtual space is formed. In this virtual space, a second image area is set at the position of the travel distance traveled by the host vehicle obtained from the host vehicle travel information and the predetermined scan timing, and the first image area and the second image area are set. The area obtained by combining the image areas along the edge of the virtual space is reset as the image area. As a result, the reset image area has a larger area on the image coordinates than the image area before resetting. Moreover, since the area is formed based on information such as the speed of the host vehicle, the probability that an image of an object exists in the area is very high.
本発明によれば、レーダにより検出された物体の位置と、それよりも前に撮像した画像内の当該物体の位置とがずれている場合に、画像処理を行うための画像エリア内に該物体が含まれるよう該画像エリアが再設定されるため、レーダで検出した物体に対する画像処理が常に正しく行われる。このため、画像処理の精度が良くなる利点がある。 According to the present invention, when the position of the object detected by the radar is shifted from the position of the object in the image captured before that, the object is included in the image area for image processing. Since the image area is reset so as to include the image, the image processing on the object detected by the radar is always performed correctly. For this reason, there is an advantage that the accuracy of image processing is improved.
図4は、本発明の実施形態である車載用画像処理装置の概略ブロック図である。 FIG. 4 is a schematic block diagram of an in-vehicle image processing apparatus that is an embodiment of the present invention.
カメラ1は、グローバルシャッタ付きのCCDカメラ等で構成され、撮像面を前方に向けて自車両のルームミラー近辺に設けられる。このカメラ1は、自車両の前方を撮像する。
The
全体画像記憶部2は、カメラ1で撮像された画像を記憶する。
The entire
レーダ3は、レーザレーダで構成され、レーザビーム(以下、単にビームと称する)を自車両前方に発射し、その反射ビームを受光する。この実施形態では、照射面が長円状で幅が細いビームを前方に左右1往復することで1スキャンを終え、これにより前方の2次元範囲を探索する。 The radar 3 is configured by a laser radar, emits a laser beam (hereinafter simply referred to as a beam) in front of the host vehicle, and receives the reflected beam. In this embodiment, one scan is completed by reciprocating the left and right beams of an ellipse with a narrow width on the irradiation surface, thereby searching for a front two-dimensional range.
信号処理部4は、レーダ3からの信号に基づいてビーム光の往復時間を測定して物体までの距離を測定する。スキャンタイミング毎に測距することにより、1スキャン内に前方の物体を全て検出し、それらの物体に対しての測距が可能である。また、図示しない車速センサ、ヨーレートセンサからの信号を受信し、これを後述の画像処理エリア設定部5に送る。なお、ヨーレートセンサに代えて操舵角センサを用いることも可能である。
The
トリガ信号発生部6は、レーダ3のスキャン開始信号を受けてトリガ信号を生成する。このトリガ信号は、撮像指令部7に出力され、ここでカメラ1のシャッタオン信号が生成されてカメラ1に出力される。したがって、カメラ1は、レーダ3にて最初のスキャンを開始するタイミングにおいてシャッタがオンして前方の画像を取得する。
The trigger signal generator 6 receives the scan start signal from the radar 3 and generates a trigger signal. This trigger signal is output to the
全体画像記憶部2に記憶された画像は画像処理エリア設定部5に入力する。さらに、この画像処理エリア設定部5には信号処理部4を介して車速センサからの車速とヨーレートセンサからのヨーレートが入力する。
The image stored in the entire
後述のように、この画像処理エリア設定部5において、画像エリアの設定とその再設定が行われる。全体画像に対して1つ以上設定された各画像エリア内の部分画像が抽出され、これが部分画像記憶部1〜Nに記憶され、画像処理部1〜Nにおいて画像処理が行われる。画像処理部においては、画像の形状や移動方向などが認識されそれぞれ物体1〜Nとして属性情報付き(形状や移動方向等の属性情報)の位置情報として上位処理装置(例えば、車間距離制御装置)に出力される。
As will be described later, the image processing
図5は、信号処理部4の構成図である。
FIG. 5 is a configuration diagram of the
この信号処理部4は、レーダ3からの信号に基づいて物体までの距離と方位を算出し、その距離と方位データをインターフェイス41を介して画像処理エリア設定部5に送る。また、車速センサとヨーレートセンサからの信号は車両走行情報取得部42に入力され、車速センサで得た走行速度とヨーレートで得たデータにより道路の曲率半径の算出等を行う。ここで取得された各センサからの信号や算出結果をインターフェイス41を介して画像処理エリア設定部5に送る。
The
図6は、画像処理エリア設定部5の構成図である。
FIG. 6 is a configuration diagram of the image processing
この画像処理エリア設定部5は、道路上の白線を認識する白線認識部50、消失点算出部51、エリア設定部52を備えている。消失点とは、前述したように、画像中の無限遠点を意味している。白線認識部50は、後述の実施例2において消失点を求めるときに用いられる。エリア設定部52は、画像エリアの設定と再設定とを行う。エリア設定部52は、消失点を予め固定点とする場合は、消失点算出部51の出力を使用せずに、画像エリアの設定と再設定とをする。エリア設定部52は、白線認識部50で認識された白線に基づいて消失点を求める場合は、その消失点に基づいて画像エリアの設定と再設定とをする。
The image processing
次に動作を説明する。 Next, the operation will be described.
図7、図8は、車載用画像処理装置の概略の動作を示すフローチャートである。 7 and 8 are flowcharts showing the schematic operation of the in-vehicle image processing apparatus.
図7は、レーダ3の動作を示している。 FIG. 7 shows the operation of the radar 3.
ステップ(ST)1では、レーダスキャンを開始する。図1の状態がこのタイミングに対応している。次に、ST2でスキャンによる物体までの測距を行う。続いて、そのタイミングがカメラ1のトリガ位置のタイミングであるかどうかを判定する。本実施形態では、最初のスキャンタイミングをトリガ位置のタイミングに設定しているため、ST1→ST2→ST3と進んだときは、最初のスキャンタイミングである。ST3においてトリガ位置に対応する最初のスキャンタイミングであると判断すると、ST4においてトリガ信号発生部6においてトリガ信号を発生し、カメラ1のシャッタをオンする。ST5において、次のスキャンに移行し、以下、全スキャンを終了するまでST2において連続的に測距を行う。トリガ信号は、最初のスキャンタイミングにおいてのみ生成されるため、カメラ1は1スキャン毎に最初のスキャンタイミングで1回だけ画像を取得する。
In step (ST) 1, a radar scan is started. The state of FIG. 1 corresponds to this timing. Next, ranging to an object by scanning is performed in ST2. Subsequently, it is determined whether or not the timing is the timing of the trigger position of the
ST6では、車速とヨーレートを取得し、このデータを画像処理エリア設定部5に出力する。ST7では、全てのスキャンで得られたデータに基づいて各スキャン毎に物体(物体)までの測距を行う。そして、ST8において、測距データを画像処理エリア設定部5に出力する。
In ST 6, the vehicle speed and yaw rate are acquired, and this data is output to the image processing
図8はカメラ1及び画像処理エリア設定部5の動作を示している。
FIG. 8 shows operations of the
ST10では、カメラ1が撮像指令部7からシャッタオン信号を受信するとシャッタをオンし、ST11に進んで撮像を開始し、撮像画像を取得して全体画像記憶部2(メインメモリ)に記憶する(ST12)。続いて信号処理部4から測距データを受信すると(ST13)、ST14において画像エリアの計算を行う。
In ST10, when the
画像エリアは、次のようにして設定される。 The image area is set as follows.
図1に示すように、最初のスキャンタイミングで画像を取得した後、レーダから1スキャン分の測距データを受けると、各スキャン毎に検出した物体が画像中のその対応位置に存在しているかどうか判定し、存在している場合には、そのビーム反射ポイントをグルーピングした領域の周囲に画像エリアを設定する。図2において、画像エリアQ1、Q2は、レーダ3で検出した固定物、先行車両が画像中のその対応位置に存在しているため、それらのビーム反射ポイントをグルーピングした領域の周囲に設定された画像エリアである。 As shown in FIG. 1, after acquiring an image at the first scan timing and receiving ranging data for one scan from the radar, is the object detected for each scan present at the corresponding position in the image? If it exists, an image area is set around the area where the beam reflection points are grouped. In FIG. 2, the image areas Q1 and Q2 are set around the area where the beam reflection points are grouped because the fixed object detected by the radar 3 and the preceding vehicle are present at the corresponding positions in the image. It is an image area.
一方、レーダ3で検出した物体が画像中のその対応位置に存在していない場合には、図7に示す方法で画像エリアを設定する。図7は、画像エリアの設定を行う実施例1を説明する図である。実施例1では道路が直線道路であって、画像の無限遠点を固定の消失点Sとして設定している。今、道路の右端にいる歩行者について考える。 On the other hand, when the object detected by the radar 3 does not exist at the corresponding position in the image, the image area is set by the method shown in FIG. FIG. 7 is a diagram for explaining the first embodiment for setting an image area. In the first embodiment, the road is a straight road, and an infinite point in the image is set as a fixed vanishing point S. Now consider the pedestrian at the right end of the road.
同図に示すように、レーダで検出したポイントをグルーピングした領域を基準にして、第1の画像エリアQ30を設定する。この第1の画像エリアQ30は、高さと幅が予め定めた大きさにあり(又はグルーピングした領域に基づいて自動で設定することも可能である)、且つ矩形状に設定される。この第1の画像エリアQ30の角と画像の無限遠点である消失点Sとを結び、四角柱の形状を有する仮想空間Xを形成する。無限遠点である消失点Sは先に延べたように固定点として設定される。そして、Q30から固定点である消失点Sに向けて、自車両の車速に50msec(最初のスキャンタイミングから最後のスキャンタイミングに至るまでの時間)を乗じた値に対応する距離だけ移動させ、その移動した位置で仮想空間内に矩形状の第2の画像エリアQ31を形成する。次に、この第1の画像エリアと第2の画像エリアを結合する。結合した画像エリアを新たな画像エリアとして再設定する。図4(B)は、この再設定した画像エリアQ32を示している。図示するように、再設定された画像エリアQ32は、再設定前の画像エリアQ30よりも大きい。これにより、Q30からQ32へと再設定された画像エリアには、最初のタイミングでカメラ1により撮像した画像(この例では歩行者)が含まれるようになる。
As shown in the figure, a first image area Q30 is set with reference to an area obtained by grouping points detected by the radar. The first image area Q30 has a predetermined height and width (or can be automatically set based on the grouped area) and is set in a rectangular shape. The corner of the first image area Q30 and the vanishing point S, which is an infinite point of the image, are connected to form a virtual space X having a quadrangular prism shape. The vanishing point S, which is an infinite point, is set as a fixed point as previously described. Then, from Q30 toward the vanishing point S which is a fixed point, the vehicle speed of the host vehicle is moved by a distance corresponding to a value obtained by multiplying the vehicle speed by 50 msec (time from the first scan timing to the last scan timing), A rectangular second image area Q31 is formed in the virtual space at the moved position. Next, the first image area and the second image area are combined. The combined image area is reset as a new image area. FIG. 4B shows the reset image area Q32. As shown in the figure, the reset image area Q32 is larger than the image area Q30 before resetting. As a result, the image area reset from Q30 to Q32 includes an image captured by the
図8のフローチャートにおいて、ST14で画像エリアが設定されると(再設定される画像エリアも含む)、ST15において画像エリア内に含まれる画像が部分画像記憶部1〜N(サブメモリ)に転送される。このST14〜ST16をレーダで検出した全ての物体(物体)に対して繰り返すことにより(ST16)、各画像エリアの画像はそれぞれ部分画像記憶部1〜Nに転送されていく。
In the flowchart of FIG. 8, when an image area is set in ST14 (including an image area to be reset), images included in the image area are transferred to partial
ST17〜ST19においては、各部分画像記憶部1〜Nの画像に対して所定の画像処理を行う。
In ST17 to ST19, predetermined image processing is performed on the images in the partial
上記画像エリアを設定するときの計算では、レーダ3の座標、カメラ1の座標を合わせ、それらを画像座標に射影することが必要になる。具体的には次のようにして計算を行う。
In the calculation for setting the image area, it is necessary to match the coordinates of the radar 3 and the
図10に示すように、カメラ1、レーダ3の座標系を、それぞれ(XC,YC,ZC)、(XL,YL,ZL)とする。すると、両者の座標の関係は式1のようになる。
As shown in FIG. 10, the coordinate systems of the
この式1は、レーザ座標をカメラ座標に変換する式である。式2は、カメラ座標を画像座標に射影する式である。
したがって、式1、式2により、レーダ座標をカメラ座標を通して画像座標に射影することができる。これらの式については、コンピュータビジョン技術において一般的である。例えば、「3次元ビジョン」(2004年、共立出版、徐剛・辻三郎著)がある。
Therefore, the radar coordinates can be projected to the image coordinates through the camera coordinates by
図11は、レーダ座標を2次元的に示している。今、レーダ3により検出された歩行者(物体)の位置が図示のように相対的に移動したとする(実際には自車両の移動による)。最後のスキャンタイミングで検出される移動後の検出ポイントをグルーピングした領域の重心と、幅wと、高さH(予め定めた固定値)とに基づいて矩形を設定し、この頂点をB1〜B4とする(図11では、2次元で示しているためにB1とB2しか示していないが、実際は紙面に垂直な方向の位置にB3とB4が存在している。他の矩形についても同様である。)。上記レーダ座標上のB1〜B4を、式1、式2より座標変換してb1〜b4を得る。画像座標上では図12に示すようにb1〜b4としてプロットされる。このb1〜b4と消失点Sとを結び四角柱の仮想空間を形成する。
FIG. 11 shows the radar coordinates two-dimensionally. Now, it is assumed that the position of the pedestrian (object) detected by the radar 3 has moved relatively as shown (actually due to the movement of the host vehicle). A rectangle is set based on the center of gravity of the area where the detection points after movement detected at the last scan timing are grouped, the width w, and the height H (predetermined fixed value). (In FIG. 11, only B1 and B2 are shown because they are shown in two dimensions, but actually B3 and B4 exist at positions perpendicular to the paper surface. The same applies to other rectangles. .) B1 to B4 on the radar coordinates are coordinate-converted from
次に、トリガ発生位置(最初のスキャンタイミング)からB1〜B4の矩形(最後のスキャンタイミング)に至るまでのスキャン時間Tと、自車両の車速vと、を乗じて移動距離vTを求め、このvTだけ自車両の移動方向に移動した位置に頂点をA1〜A4とする矩形を設定する。矩形の大きさは頂点をB1〜B4とする矩形と同じである。そして、このレーダ座標上のA1〜A4を、式1、式2より座標変換してa1〜a4を得る。このa1〜a4を画像座標上にプロットすると、図12に示すようになる。結果として、a1〜a4を角とする矩形は、b1〜b4と消失点とを結んだ四角柱の仮想空間内に設定されることになる。図12は、B1〜B4の矩形を式1、式2で座標変換したb1〜b4の矩形と、A1〜A4の矩形を式1、式2で座標変換したa1〜a4の矩形とを示している。いずれも画像座標上の位置を示している。また、図13は、図12上のa1〜a4の矩形で設定される画像エリアとb1〜b4の矩形で設定される画像エリアとを結んで再設定した画像エリアを示している。a1〜a4とb1〜b4とが仮想空間の稜線に沿って結合される。
Next, the travel distance vT is obtained by multiplying the scan time T from the trigger generation position (first scan timing) to the rectangles B1 to B4 (last scan timing) and the vehicle speed v of the host vehicle. A rectangle having apexes A1 to A4 is set at a position moved in the moving direction of the host vehicle by vT. The size of the rectangle is the same as the rectangle with vertices B1 to B4. Then, A1 to A4 on the radar coordinates are coordinate-converted from
画像アリアの再設定の具体的な計算は以上のようにして行われる。 The specific calculation for resetting the image area is performed as described above.
図14は、画像エリアの設定を行う実施例2の説明図である。 FIG. 14 is an explanatory diagram of the second embodiment for setting an image area.
この実施例2では、道路を直線状としているが消失点Sを固定点として設定するのではなく、該消失点Sを車線の形状に応じてフレーム毎(1スキャン毎)に動的に設定する。すなわち、カメラ1で取得した画像から車線の手前の白線(車線側部に形成される白線や中央線等)を認識し、この白線の交点を消失点として設定する。手前の白線を使うのは、車線がカーブしている状況、先行車両が存在する状況、道路の遠方位置が登っている又は下り坂である状況などでも消失点が簡単に求まるようにするためである。白線の認識については、カメラ1で取得した画像から容易に可能であって一般的な画像認識処理で可能であるが、具体的な認識方法の一つとしては、例えば、「レーンキープアシストシステムにおける白線認識システムの開発」(Vol.12,No.1 HONDA R&D Technical Review 2000 。峯田、鵜浦、池田著) に開示されている。なお、消失点Sを設定する以外の動作手順については、実施例1と全く同じである。
In the second embodiment, the road is straight, but the vanishing point S is not set as a fixed point, but the vanishing point S is dynamically set for each frame (every scan) according to the shape of the lane. . That is, a white line before the lane (a white line or a center line formed on the side of the lane) is recognized from the image acquired by the
図15は、画像エリアの設定を行う実施例3の説明図である。
この実施例3では、道路がカーブしていて、消失点Sを固定点として設定している。
FIG. 15 is an explanatory diagram of the third embodiment for setting an image area.
In the third embodiment, the road is curved and the vanishing point S is set as a fixed point.
高速道路や自動車用道路の曲線部は、ほとんどがクロソイド曲線として設計されている。クロソイド曲線とは、曲率半径と曲線長の積を一定とする曲線であり、2つの異なる曲率半径どうしの道路を滑らかに接続するための緩和曲線として用いられる。クロソイド曲線の描く座標値は、曲率半径Rと曲線Lとを用いて、式3と式4のように表せる(ただし、高次の項は省略した近似式)。
Most curved parts of expressways and automobile roads are designed as clothoid curves. The clothoid curve is a curve in which the product of the curvature radius and the curve length is constant, and is used as a relaxation curve for smoothly connecting roads having two different curvature radii. The coordinate values drawn by the clothoid curve can be expressed as Equation 3 and
この式3、式4は、物体(物体)が、図16のA5〜A8(図ではA5、A6のみ表示)の位置からB5〜B8(図ではB5、B6のみ表示)の位置へ移動する際に変化する座標値変化分を表している。
曲率半径Rは、ヨーレートセンサの検出信号から測定した角速度ωを式5に代入して求める。図16のA5、A6の位置からB5、B6の位置までの曲線長Lは、この間の走行車速vが一定として式6から求める。
The radius of curvature R is obtained by substituting the angular velocity ω measured from the detection signal of the yaw rate sensor into
したがって、式5、式6から式3、式4が求まる。式3、式4が求まることにより、実施例1と同様に、物体の位置はB5、B6からA5、A6に移動する。A5、A6とB5、B6とは、式1、式2により座標変換をしてa5〜a8とb5〜b8となり、図17のような画像エリアとなり、図18のように画像エリアが再設定される。
図19は、画像エリアの設定を行う実施例4の説明図である。
Therefore, Equation 3 and
FIG. 19 is an explanatory diagram of the fourth embodiment for setting an image area.
この実施例4では、道路がカーブしていて、消失点Sを道路形状により動的に設定している。この実施例4ではヨーレートセンサを使用しない。 In the fourth embodiment, the road is curved, and the vanishing point S is dynamically set according to the road shape. In the fourth embodiment, no yaw rate sensor is used.
また、複数の消失点を使用する。ここでは2つの消失点S1、S2を使用する場合の説明をする。 A plurality of vanishing points are used. Here, the case where two vanishing points S1 and S2 are used will be described.
まず、自車両手前の白線の直線部で消失点S1を求める。自車両進行方向のさらに前方の曲線部の接線で消失点S2を求める。実施例1と同様に、図19のレーダ座標上で、B9〜B12と消失点S1との間で第1の仮想空間を形成し、この空間内に、移動距離vTだけ自車両の移動方向に移動した位置に頂点をA9〜A12とする矩形の画像エリアを設定する。同様に、B9〜B12と消失点S2との間に第2の仮想空間を形成し、この空間内に、移動距離vTだけ自車両の移動方向に移動した位置に頂点をC9〜C12とする矩形の画像エリアを設定する。頂点をA9〜A12とする矩形の画像エリアと頂点をC9〜C12とする矩形の画像エリアとのうち、レーダ座標上で自車両を基準により遠方に位置する画像エリアを選択し、この画像エリアとB9〜B12の画像エリアとを結合することで画像エリアの再設定を行う。図20は再設定前の画像エリアを示し、図21は再設定された画像エリアを示している。 First, the vanishing point S1 is obtained at the straight line portion of the white line in front of the host vehicle. The vanishing point S2 is obtained by the tangent of the curve portion further forward in the traveling direction of the host vehicle. As in the first embodiment, a first virtual space is formed between B9 to B12 and the vanishing point S1 on the radar coordinates in FIG. 19, and the moving distance vT is set in the moving direction of the host vehicle in this space. A rectangular image area having apexes A9 to A12 is set at the moved position. Similarly, a second virtual space is formed between B9 to B12 and the vanishing point S2, and in this space, the vertices are C9 to C12 whose vertices are moved in the moving direction of the host vehicle by the moving distance vT. Set the image area. Of the rectangular image area with vertices A9 to A12 and the rectangular image area with vertices C9 to C12, an image area located far from the vehicle on the radar coordinates is selected, and this image area The image area is reset by combining the image areas B9 to B12. FIG. 20 shows the image area before resetting, and FIG. 21 shows the reset image area.
以上の制御動作により、直線道路、カーブ道路については、消失点を固定値とすることで(実施例1、3)、又は消失点を白線認識により求めることで(実施例2、4)画像エリアを再設定することができる。 With the above control operation, for straight roads and curved roads, the vanishing point is set to a fixed value (Examples 1 and 3), or the vanishing point is obtained by white line recognition (Examples 2 and 4). Can be reset.
なお、以上の実施形態では、所定のスキャンタイミングを最初のスキャンタイミングとして、カメラ1のトリガタイミングを最初のスキャンタイミングに一致させたが、カメラ1のトリガタイミングを最後のスキャンタイミングに一致させても良いし、途中のスキャンタイミングに一致させても良い。カメラ1のトリガタイミングを最後のスキャンタイミングに一致させる場合は、図9において、画像エリアQ31はQ30よりも自車両側に設定されることになる。すなわち、消失点Sと画像エリアQ30の角とを結ぶ線を自車両側に延長した仮想空間を形成し、この空間内に画像エリアQ31が設定される。
In the above embodiment, the predetermined scan timing is set as the first scan timing, and the trigger timing of the
さらに、画像エリアは矩形状としたが、多角形形状や楕円形状など、任意の形状であって良い。 Furthermore, although the image area is rectangular, it may be any shape such as a polygonal shape or an elliptical shape.
Claims (6)
前記レーダにより検出した物体と、前記撮像装置により前記所定の走査タイミングで取得した画像とに基づいて該画像中の処理すべき画像エリアを求める車載用画像処理装置において、
前記レーダにより1つの走査が終了するまでに検出した物体が前記画像中のその対応位置に存在しない場合、前記自車両走行情報と前記所定の走査タイミングとにより得られる自車両が移動した移動距離に基づいて、該レーダにより検出された物体の位置と画像中に設定された無限遠点とを結んで形成される仮想空間内に画像エリアを再設定する画像エリア再設定手段を備えたことを特徴とする車載用画像処理装置。 A radar that scans the front of the host vehicle with an electromagnetic wave beam to detect an object such as a preceding vehicle, and an imaging device that captures an image of the front of the host vehicle at a predetermined scanning timing and acquires an image including the object for each scan of the radar And a host vehicle travel information acquisition unit that acquires host vehicle travel information such as the vehicle speed of the host vehicle,
In an in-vehicle image processing apparatus for obtaining an image area to be processed in the image based on an object detected by the radar and an image acquired by the imaging device at the predetermined scanning timing,
If an object detected by the radar until one scan is completed does not exist at the corresponding position in the image, the travel distance traveled by the host vehicle obtained by the host vehicle travel information and the predetermined scan timing is obtained. And an image area resetting means for resetting the image area in a virtual space formed by connecting the position of the object detected by the radar and the infinity point set in the image. An in-vehicle image processing apparatus.
前記画像エリア再設定手段は、これらの情報に基づいて前記曲率半径に沿って自車両の移動距離分だけ移動した位置で第2の画像エリアを設定する請求項3記載の車載用画像処理装置。 The host vehicle travel information acquisition unit acquires the vehicle speed and angular velocity of the host vehicle and the radius of curvature of the lane as host vehicle travel information,
The in-vehicle image processing apparatus according to claim 3, wherein the image area resetting unit sets the second image area at a position moved by the moving distance of the host vehicle along the radius of curvature based on the information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006050665A JP2007233440A (en) | 2006-02-27 | 2006-02-27 | On-vehicle image processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006050665A JP2007233440A (en) | 2006-02-27 | 2006-02-27 | On-vehicle image processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007233440A true JP2007233440A (en) | 2007-09-13 |
Family
ID=38554016
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006050665A Pending JP2007233440A (en) | 2006-02-27 | 2006-02-27 | On-vehicle image processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007233440A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012014553A (en) * | 2010-07-02 | 2012-01-19 | Honda Motor Co Ltd | Apparatus for monitoring surrounding of vehicle |
JP2013196387A (en) * | 2012-03-19 | 2013-09-30 | Pioneer Electronic Corp | Image processor and image processing method |
KR20180027242A (en) * | 2016-09-06 | 2018-03-14 | 국방과학연구소 | Apparatus and method for environment mapping of an unmanned vehicle |
KR101881458B1 (en) * | 2017-03-09 | 2018-07-25 | 건아정보기술 주식회사 | The region of interest extraction system for moving object |
CN109059897A (en) * | 2018-05-30 | 2018-12-21 | 上海懒书智能科技有限公司 | A kind of acquisition methods of the real time execution posture based on AGV trolley |
WO2023190058A1 (en) * | 2022-03-30 | 2023-10-05 | パナソニックIpマネジメント株式会社 | Image processing method and image processing device |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06293236A (en) * | 1992-12-22 | 1994-10-21 | Mitsubishi Electric Corp | Travel environment monitoring device |
JPH07117523A (en) * | 1993-10-28 | 1995-05-09 | Mitsubishi Motors Corp | Travel controller of automobile |
JP3123303B2 (en) * | 1992-07-21 | 2001-01-09 | 日産自動車株式会社 | Vehicle image processing device |
JP2001281334A (en) * | 2000-03-29 | 2001-10-10 | Omron Corp | Method and device for detecting object |
JP3264060B2 (en) * | 1993-11-04 | 2002-03-11 | 三菱自動車工業株式会社 | The preceding vehicle detection mechanism of the vehicle travel control device |
JP2003030792A (en) * | 2001-07-12 | 2003-01-31 | Nissan Motor Co Ltd | Device and method for discriminating type of object |
JP2003099784A (en) * | 2001-09-25 | 2003-04-04 | Daihatsu Motor Co Ltd | Recognition method for moving object |
JP2004144671A (en) * | 2002-10-25 | 2004-05-20 | Omron Corp | Car-mounted radar device |
JP2004148991A (en) * | 2002-10-30 | 2004-05-27 | Nissan Motor Co Ltd | Outside acknowledging device for vehicle |
JP2004301567A (en) * | 2003-03-28 | 2004-10-28 | Fujitsu Ltd | Collision predicting apparatus |
JP2005182137A (en) * | 2003-12-16 | 2005-07-07 | Nissan Motor Co Ltd | Preceding vehicle detection device and preceding vehicle detection method |
JP2005267331A (en) * | 2004-03-19 | 2005-09-29 | Nissan Motor Co Ltd | Vehicle circumference monitoring device |
JP2006004188A (en) * | 2004-06-17 | 2006-01-05 | Daihatsu Motor Co Ltd | Obstacle recognition method and obstacle recognition device |
JP2006048338A (en) * | 2004-08-04 | 2006-02-16 | Nissan Motor Co Ltd | Mobile object detection apparatus |
-
2006
- 2006-02-27 JP JP2006050665A patent/JP2007233440A/en active Pending
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3123303B2 (en) * | 1992-07-21 | 2001-01-09 | 日産自動車株式会社 | Vehicle image processing device |
JPH06293236A (en) * | 1992-12-22 | 1994-10-21 | Mitsubishi Electric Corp | Travel environment monitoring device |
JPH07117523A (en) * | 1993-10-28 | 1995-05-09 | Mitsubishi Motors Corp | Travel controller of automobile |
JP3264060B2 (en) * | 1993-11-04 | 2002-03-11 | 三菱自動車工業株式会社 | The preceding vehicle detection mechanism of the vehicle travel control device |
JP2001281334A (en) * | 2000-03-29 | 2001-10-10 | Omron Corp | Method and device for detecting object |
JP2003030792A (en) * | 2001-07-12 | 2003-01-31 | Nissan Motor Co Ltd | Device and method for discriminating type of object |
JP2003099784A (en) * | 2001-09-25 | 2003-04-04 | Daihatsu Motor Co Ltd | Recognition method for moving object |
JP2004144671A (en) * | 2002-10-25 | 2004-05-20 | Omron Corp | Car-mounted radar device |
JP2004148991A (en) * | 2002-10-30 | 2004-05-27 | Nissan Motor Co Ltd | Outside acknowledging device for vehicle |
JP2004301567A (en) * | 2003-03-28 | 2004-10-28 | Fujitsu Ltd | Collision predicting apparatus |
JP2005182137A (en) * | 2003-12-16 | 2005-07-07 | Nissan Motor Co Ltd | Preceding vehicle detection device and preceding vehicle detection method |
JP2005267331A (en) * | 2004-03-19 | 2005-09-29 | Nissan Motor Co Ltd | Vehicle circumference monitoring device |
JP2006004188A (en) * | 2004-06-17 | 2006-01-05 | Daihatsu Motor Co Ltd | Obstacle recognition method and obstacle recognition device |
JP2006048338A (en) * | 2004-08-04 | 2006-02-16 | Nissan Motor Co Ltd | Mobile object detection apparatus |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012014553A (en) * | 2010-07-02 | 2012-01-19 | Honda Motor Co Ltd | Apparatus for monitoring surrounding of vehicle |
JP2013196387A (en) * | 2012-03-19 | 2013-09-30 | Pioneer Electronic Corp | Image processor and image processing method |
KR20180027242A (en) * | 2016-09-06 | 2018-03-14 | 국방과학연구소 | Apparatus and method for environment mapping of an unmanned vehicle |
KR101864127B1 (en) | 2016-09-06 | 2018-06-29 | 국방과학연구소 | Apparatus and method for environment mapping of an unmanned vehicle |
KR101881458B1 (en) * | 2017-03-09 | 2018-07-25 | 건아정보기술 주식회사 | The region of interest extraction system for moving object |
CN109059897A (en) * | 2018-05-30 | 2018-12-21 | 上海懒书智能科技有限公司 | A kind of acquisition methods of the real time execution posture based on AGV trolley |
CN109059897B (en) * | 2018-05-30 | 2021-08-20 | 上海懒书智能科技有限公司 | AGV trolley based real-time operation attitude acquisition method |
WO2023190058A1 (en) * | 2022-03-30 | 2023-10-05 | パナソニックIpマネジメント株式会社 | Image processing method and image processing device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11935250B2 (en) | Method, device and computer-readable storage medium with instructions for processing sensor data | |
JP6825569B2 (en) | Signal processor, signal processing method, and program | |
US6956469B2 (en) | Method and apparatus for pedestrian detection | |
JP5470886B2 (en) | Object detection device | |
JP2006252473A (en) | Obstacle detector, calibration device, calibration method and calibration program | |
KR102569437B1 (en) | Apparatus and method tracking object based on 3 dimension images | |
JP2017068700A (en) | Object detection apparatus, object detection method, and program | |
JP7389729B2 (en) | Obstacle detection device, obstacle detection system and obstacle detection method | |
JP2006258497A (en) | Object recognition apparatus for vehicle | |
JP5098563B2 (en) | Object detection device | |
JP7424390B2 (en) | Image processing device, image processing method, and image processing program | |
US20180232582A1 (en) | Object detection device, object detection method, and program | |
JP2007233440A (en) | On-vehicle image processor | |
JP2022045947A5 (en) | ||
JP4052291B2 (en) | Image processing apparatus for vehicle | |
JP2019128350A (en) | Image processing method, image processing device, on-vehicle device, moving body and system | |
JP2000293693A (en) | Obstacle detecting method and device | |
KR20160125803A (en) | Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest | |
CN116343165A (en) | 3D target detection system, method, terminal equipment and storage medium | |
JP3969984B2 (en) | Recognition method for moving objects | |
JP2001243456A (en) | Device and method for detecting obstacle | |
JP4106163B2 (en) | Obstacle detection apparatus and method | |
JP2006258507A (en) | Apparatus for recognizing object in front | |
JP2005148784A (en) | Detector for traveling lane on road surface | |
WO2023188046A1 (en) | Image processing device, image processing method, and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081212 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20100802 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110105 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110426 |