JP2005032074A - Image detection apparatus - Google Patents

Image detection apparatus Download PDF

Info

Publication number
JP2005032074A
JP2005032074A JP2003271993A JP2003271993A JP2005032074A JP 2005032074 A JP2005032074 A JP 2005032074A JP 2003271993 A JP2003271993 A JP 2003271993A JP 2003271993 A JP2003271993 A JP 2003271993A JP 2005032074 A JP2005032074 A JP 2005032074A
Authority
JP
Japan
Prior art keywords
image
integration
detection
vehicle
detection target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003271993A
Other languages
Japanese (ja)
Inventor
Hidekazu Nishiuchi
秀和 西内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2003271993A priority Critical patent/JP2005032074A/en
Publication of JP2005032074A publication Critical patent/JP2005032074A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image detection apparatus capable of preventing a blurred photographic image of a detecting object, even if the vehicle mounting the camera and/or the detecting object moves. <P>SOLUTION: The image detection apparatus includes an image processing chip 2 for extracting a detecting object candidate from the photographic image obtained by a camera 1; a microcomputer 5 for calculating the number of times of luminance improvement integrals from the difference between the luminance value of the detecting object candidate, extracted by the image processing chip 2 and the luminance value of the background; a vehicle sensor 4 for measuring the behavior of the vehicle concerned; and an integration chip 6 for performing image integration by the number of times of the integrals calculated by the microcomputer 5. The microcomputer 5 calculates integration conditions from the detecting object candidate extracted by the image processing chip 2, the behavior of the vehicle concerned, and a movement model of the detecting object; determines the number of times of the integrals from the number of times of the luminance improvement integrals and the integral condition; and detects the detecting object using the integrated image calculated by the integration chip 6. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、車両に搭載される画像検出装置に関する。   The present invention relates to an image detection device mounted on a vehicle.

従来より、車両にセンサを搭載し、自車両の近傍に存在する検出対象物を検出する技術が開発されている。特にセンサとして可視カメラを用いた検出装置においては、時間、天候、(固定照明や可動照明による)照明状態等の撮像環境により画像上での検出対象物の明るさ(輝度値)が変化する。このため、どのような環境下においても検出対象物を明瞭に撮像し、確実に検出することが重要となる。撮像環境が変化した場合でも確実に検出対象物を検出する方法は多く研究されている。その一つとして、カメラから連続的に入力される画像を累積する画像積分を利用する方法がある。この方法は、カメラの露光の制御と比べ、1.局所の積分ができる、2.露光制御用の複雑な機構が不要であるなど、機能、コスト面で有利である。このように画像積分を利用し、検出対象物を検出する方法として、下記特許文献1記載の「車載画像蓄積装置および車載画像認識装置」がある。
この従来例では、例えば露光時間制御手段から受け取った信号にしたがって、カメラの露光時間を制御する。なお、露光時間制御手段は、撮像画像をエッジ処理したエッジ画像の、例えば各走査線毎に最大エッジ強度と最小エッジ強度を算出し、その値から露光時間を算出するというものである。
Conventionally, a technology has been developed in which a sensor is mounted on a vehicle and a detection target existing in the vicinity of the host vehicle is detected. In particular, in a detection apparatus using a visible camera as a sensor, the brightness (luminance value) of a detection target on an image changes depending on an imaging environment such as time, weather, and illumination state (by fixed illumination or movable illumination). For this reason, it is important that the detection target object is clearly imaged and reliably detected in any environment. Many researches have been made on methods for reliably detecting a detection target even when the imaging environment changes. As one of them, there is a method using image integration that accumulates images continuously input from a camera. This method is compared with the control of camera exposure as follows: 1. Can integrate locally. This is advantageous in terms of function and cost, such as eliminating the need for a complicated mechanism for exposure control. As a method for detecting a detection target using image integration in this way, there is an “in-vehicle image storage device and in-vehicle image recognition device” described in Patent Document 1 below.
In this conventional example, for example, the exposure time of the camera is controlled in accordance with a signal received from the exposure time control means. The exposure time control means calculates, for example, the maximum edge intensity and the minimum edge intensity for each scanning line of the edge image obtained by performing edge processing on the captured image, and calculates the exposure time from the values.

特開2000−285224号公報JP 2000-285224 A

しかしながら、上記のような従来の技術にあっては、カメラの露光時間を制御して画像の改善を行うため、カメラを搭載した車両と検出する検出対象物のいずれかが動く場合には、露光時間内に検出対象物が画面上で動いてしまい、検出対象物の撮像画像がボケてしまうという問題があった。
本発明の目的は、カメラを搭載した車両や検出対象物が動いても、検出対象物の撮像画像のボケを防止できる画像検出装置を提供することにある。
However, in the conventional technology as described above, since the image is improved by controlling the exposure time of the camera, the exposure is performed when either the vehicle equipped with the camera or the detection target to be detected moves. There is a problem that the detection target object moves on the screen within the time, and the captured image of the detection target object is blurred.
An object of the present invention is to provide an image detection device that can prevent blur of a captured image of a detection target even if a vehicle or a detection target mounted with a camera moves.

上記課題を解決するため、本発明の画像検出装置は、自車両に搭載され、自車両の近傍を撮像する撮像手段と、撮像された画像から検出対象物候補を抽出する検出対象物候補抽出手段と、自車両挙動測定手段と、検出対象物候補抽出手段により抽出された検出対象物候補と、自車両の挙動と、検出対象物運動モデルから積分条件を算出する積分条件算出手段と、上記積分条件で画像積分を行う画像積分手段と、画像積分手段により算出された積分画像を用いて検出対象物を検出する検出対象物検出手段とを有するという構成になっている。   In order to solve the above-described problems, an image detection apparatus according to the present invention is mounted on a host vehicle and captures an image of the vicinity of the host vehicle, and a detection target candidate extraction unit that extracts a detection target candidate from the captured image. An own vehicle behavior measuring means, a detection target candidate extracted by the detection target candidate extraction means, a behavior of the own vehicle, an integration condition calculating means for calculating an integration condition from the detection target motion model, and the integration An image integration unit that performs image integration under conditions and a detection target detection unit that detects a detection target using the integrated image calculated by the image integration unit are provided.

本発明によれば、自車両や検出対象物が動いても、画像ボケがなく、輝度差の大きい画像を得ることができる。   According to the present invention, even if the host vehicle or the detection target moves, an image with no image blur and a large luminance difference can be obtained.

以下、図面に基づき本発明の実施の形態について詳細に説明する。
図1は、本実施の形態の画像検出装置の構成を示すブロック図である。図1に示すように、本実施の形態の画像検出装置は、電子式のカメラ1、画像処理チップ(IC)2、検出画像メモリ3、車両センサ4、マイクロコンピュータ5、積分チップ(加算処理チップ。IC)6、処理画像メモリ7、モニタ8が接続されている。
カメラ1は、自車両の所定の位置例えば前部に設けられ、自車両の近傍ここでは前方を撮像する。画像処理チップ2は、カメラ1で撮像された画像の各走査線毎に所定の画像サイズでフィルタ処理を行い、検出対象物候補(検出対象物候補領域)を抽出する。検出画像メモリ3は、画像処理チップ2で算出されたフィルタ画像をデジタル値に変換し保持する。車両センサ4は、自車両の挙動ここでは車輪の回転を計測する。マイクロコンピュータ5は、検出画像メモリ3に保持されたデジタル画像を入力し、検出対象物候補の輝度値と背景の輝度値との差から輝度改善積分回数を算出する。また、マイクロコンピュータ5は、検出画像メモリ3に保持されたデジタル画像と、車両センサ4から入力される車輪回転数と、検出対象物運動モデルから積分条件を算出する。また、マイクロコンピュータ5は、マイクロコンピュータ5で算出した輝度改善積分回数と積分条件から積分パラメータを算出する。積分チップ6は、マイクロコンピュータ5で算出した積分パラメータを用いて画像積分を行う。処理画像メモリ7は、積分チップ6で算出された積分画像をデジタル値に変換し保持する。また、マイクロコンピュータ5は、積分画像を入力し、パターンマッチング処理により検出対象物を検出する。モニタ8は、検出された検出対象物を表示する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram showing the configuration of the image detection apparatus according to the present embodiment. As shown in FIG. 1, the image detection apparatus of the present embodiment includes an electronic camera 1, an image processing chip (IC) 2, a detected image memory 3, a vehicle sensor 4, a microcomputer 5, an integration chip (addition processing chip). IC) 6, processing image memory 7, and monitor 8 are connected.
The camera 1 is provided at a predetermined position of the host vehicle, for example, at the front, and images the vicinity of the host vehicle, here in front. The image processing chip 2 performs a filtering process with a predetermined image size for each scanning line of the image captured by the camera 1 to extract a detection target candidate (detection target candidate region). The detected image memory 3 converts the filter image calculated by the image processing chip 2 into a digital value and holds it. The vehicle sensor 4 measures the behavior of the host vehicle, here the rotation of the wheels. The microcomputer 5 inputs the digital image held in the detected image memory 3, and calculates the luminance improvement integration number from the difference between the luminance value of the detection target candidate and the luminance value of the background. Further, the microcomputer 5 calculates an integration condition from the digital image held in the detected image memory 3, the wheel rotational speed input from the vehicle sensor 4, and the detected object motion model. Further, the microcomputer 5 calculates an integration parameter from the brightness improvement integration number and the integration condition calculated by the microcomputer 5. The integration chip 6 performs image integration using the integration parameters calculated by the microcomputer 5. The processed image memory 7 converts the integrated image calculated by the integrating chip 6 into a digital value and holds it. Moreover, the microcomputer 5 inputs an integral image and detects a detection target object by pattern matching processing. The monitor 8 displays the detected detection object.

図2(a)〜(h)は、本実施の形態においてカメラ1の撮像画像に画像処理チップ2によって検出対象物候補を抽出する基本原理を示す図である。図2(a)は所定の画像サイズの物体(検出対象物)を抽出する空間フィルタである画像処理チップ2の構成を示す。図2(b)〜(e)は画像処理チップ2の処理を示し、(b)は物体が小さい場合の撮像画像、(c)は物体が小さい場合のフィルタ画像、(d)は物体が大きい場合の撮像画像、(e)は物体が大きい場合のフィルタ画像である。図2(f)〜(h)は検出対象物候補を抽出する際の画像を示し、(f)は撮像画像、(g)は空間フィルタ画像、(h)は二値化画像である。
図2(a)において21は中心画素、22は一画素、23は背景領域、Tgtは目標サイズ、Bakは背景サイズである。図2(a)の画像処理チップ2は、縦方向一画素、横方向に所定の背景サイズBakの画素の大きさをしており、中心画素21の輝度を目標輝度値、背景サイズBakから所定の目標サイズTgtを除いた背景領域23の平均輝度を背景輝度値とすると、出力値は(目標輝度値)−(背景輝度値)とする。このような画像処理チップ2によるフィルタ処理を行うと、図2(b)〜(e)に示したように、撮像された物体の大きさが空間フィルタの目標サイズTgtより小さい場合はそのままの輝度値で出力され、撮像された検出対象物の大きさが目標サイズTgtより大きい場合は輝度値がゼロとして出力される。よって図2(f)に示すような建造物10、レーンマーク11、走行車両12が撮像された撮像画像に対し、空間フィルタ処理を行うと、所定のフィルタサイズの大きさにあった物体のみを強調するため、サイズの大きい建造物10が除去された図2(g)に示すような空間フィルタ画像が得られ、また、所定の閾値で二値化処理を行うことで、図2(h)に示すようなフィルタサイズに合った領域をオン画素とする二値化画像が得られる。このようにして算出された図2(h)の二値化画像の中から、検出対象のサイズを示す物体を抽出することでレーンマーク11が除去され、走行車両12のみが検出すべき検出対象物候補として抽出できる。
2A to 2H are diagrams illustrating the basic principle of extracting a detection target candidate from the captured image of the camera 1 by the image processing chip 2 in the present embodiment. FIG. 2A shows a configuration of the image processing chip 2 which is a spatial filter for extracting an object (detection target) having a predetermined image size. FIGS. 2B to 2E show processing of the image processing chip 2. FIG. 2B shows a captured image when the object is small, FIG. 2C shows a filter image when the object is small, and FIG. 2D shows a large object. (E) is a filter image when the object is large. 2 (f) to 2 (h) show images when extracting detection target candidates, (f) is a captured image, (g) is a spatial filter image, and (h) is a binarized image.
In FIG. 2A, 21 is a central pixel, 22 is one pixel, 23 is a background area, Tgt is a target size, and Bak is a background size. The image processing chip 2 in FIG. 2A has a pixel size of one pixel in the vertical direction and a predetermined background size Bak in the horizontal direction, and the luminance of the central pixel 21 is determined from the target luminance value and the background size Bak. If the average luminance of the background area 23 excluding the target size Tgt is a background luminance value, the output value is (target luminance value) − (background luminance value). When the filter processing by the image processing chip 2 is performed, as shown in FIGS. 2B to 2E, when the size of the imaged object is smaller than the target size Tgt of the spatial filter, the luminance remains as it is. If the size of the imaged detection target is larger than the target size Tgt, the luminance value is output as zero. Therefore, when the spatial filter process is performed on the captured image obtained by capturing the building 10, the lane mark 11, and the traveling vehicle 12 as illustrated in FIG. 2F, only an object having a predetermined filter size is obtained. For emphasis, a spatial filter image as shown in FIG. 2G from which the large-sized building 10 has been removed is obtained, and binarization processing is performed with a predetermined threshold value, so that FIG. A binarized image having an area matching the filter size as shown in FIG. By extracting an object indicating the size of the detection target from the binarized image of FIG. 2H calculated in this way, the lane mark 11 is removed, and the detection target that only the traveling vehicle 12 should detect is detected. Can be extracted as an object candidate.

図3〜6は、本実施の形態において画像処理チップ2により抽出された検出対象物候補と、車両センサ4によって測定された自車両の挙動と、検出対象物運動モデルからマイクロコンピュータ5によって積分条件を算出する基本原理が示されている。図3(a)〜(c)は検出対象物候補から検出対象物の空間位置を算出する方法を示す。図4(a)は空間における自車両と検出対象物の上方から見た位置および向きを示し、図4(b)は空間における自車両と検出対象物の側方から見た位置および向きを示す。図5(a)、(b)は検出対象物の上方から見た空間位置と画像上の画素位置の関係を示す。図6(a)、(b)は検出対象物の側方から見た空間位置と画像上の画素位置の関係を示す。
図3(a)において31はカメラ視軸、32は検出対象物候補領域、Xr、Xl、Yb、Ytはカメラ視軸ずれ、(b)、(c)においてθl、θrは見え角、θt、θbは見え角、(c)においてhsは自車両のカメラ設置高さ、33は検出対象物高さである。
図4(a)において41は自車両、42は検出対象物、dθxはカメラ視軸変化、(b)においてdθyはカメラ視軸変化である。
図5(a)においてθxはカメラ視軸からのずれ角、Cxは横方向の撮像素子面サイズ、Fは焦点距離、(b)においてPxはカメラ視軸からのずれ画素、Pixは横方向の画像サイズである。
図6(a)においてθyはカメラ視軸からのずれ角、Cyは縦方向の撮像素子面サイズ、(b)においてPyはカメラ視軸からのずれ画素、Piyは縦方向の画像サイズである。
3 to 6 show the detection target candidates extracted by the image processing chip 2 in the present embodiment, the behavior of the host vehicle measured by the vehicle sensor 4, and the integration condition by the microcomputer 5 from the detection target motion model. The basic principle of calculating is shown. 3A to 3C show a method for calculating the spatial position of the detection target object from the detection target candidate. FIG. 4 (a) shows the position and orientation of the vehicle and the detection object viewed from above in space, and FIG. 4 (b) shows the position and orientation of the vehicle and the detection object viewed from the side in space. . 5A and 5B show the relationship between the spatial position viewed from above the detection target and the pixel position on the image. 6A and 6B show the relationship between the spatial position viewed from the side of the detection object and the pixel position on the image.
In FIG. 3A, 31 is a camera visual axis, 32 is a detection target object candidate region, Xr, Xl, Yb, and Yt are camera visual axis shifts, and in FIGS. 3B and 3C, θl and θr are viewing angles, θt, θb is a viewing angle, and in (c), hs is a camera installation height of the host vehicle, and 33 is a detection object height.
In FIG. 4A, 41 is the host vehicle, 42 is a detection target, dθx is a camera visual axis change, and in FIG. 4B, dθy is a camera visual axis change.
In FIG. 5A, θx is a deviation angle from the camera visual axis, Cx is a horizontal image sensor surface size, F is a focal length, Px is a deviation pixel from the camera visual axis, and Pix is a horizontal direction in (b). The image size.
In FIG. 6A, θy is a deviation angle from the camera viewing axis, Cy is a vertical image sensor surface size, Py is a displacement pixel from the camera viewing axis, and Piy is a vertical image size.

図3(a)に示すように撮像画像内の検出対象物候補領域32の位置関係が、カメラ視軸31を基準にXr、Xl、Yt、Yb画素ずれた位置にある場合、図5、図6に示すように画像上におけるカメラ視軸31からのずれ画素Px(図5(b))、Py(図6(b))と、空間におけるカメラ視軸31からのずれ角θx(図5(a))、θy(図6(a))は、既知のカメラの焦点距離F、および撮像素子面サイズCによって決まるため、
θl=2tan−1(Cx/2・F)/Pix・xl
θr=2tan−1(Cx/2・F)/Pix・xr
θt=2tan−1(Cy/2・F)/Piy・yt
θb=2tan−1(Cy/2・F)/Piy・yb …(1)
となる。なお、xlは検出対象物候補領域32の最左位置、xrは最右位置、ytは最上位置、ybは最下位置である。
よって自車両41のカメラ設置高さhsと、検出対象物候補領域32の最下位置ybから検出対象物候補領域32までの縦位置の最小値Ymin、同様にカメラ設置高さhsと検出対象物候補領域32の最上位置ytと検出対象物運動モデルの最大高から検出対象物候補領域32までの縦位置の最大値Ymaxが幾何学的に算出できる。また、検出対象物候補領域32までの縦位置の最小値Ymin、検出対象物候補領域32までの縦位置の最大値Ymaxと、検出対象物候補領域32の最右位置xr、最左位置xlから検出対象物候補領域32の右位置の最大値Xrmin、最大値Xrmaxと、検出対象物候補領域32の左位置の最大値Xlmin、最大値Xlmaxも幾何学的に算出できる。すなわち、検出対象物候補領域32から検出対象物候補領域32の存在し得る空間位置の範囲が算出できる。
As shown in FIG. 3A, when the positional relationship of the detection object candidate region 32 in the captured image is at a position shifted by Xr, Xl, Yt, Yb pixels with respect to the camera visual axis 31, FIG. As shown in FIG. 6, the shift pixels Px (FIG. 5B) and Py (FIG. 6B) from the camera visual axis 31 on the image and the shift angle θx from the camera visual axis 31 in the space (FIG. a)) and θy (FIG. 6A) are determined by the known camera focal length F and imaging element surface size C.
θl = 2 tan −1 (Cx / 2 · F) / Pix · xl
θr = 2 tan −1 (Cx / 2 · F) / Pix · xr
θt = 2tan −1 (Cy / 2 · F) / Pyy · yt
θb = 2 tan −1 (Cy / 2 · F) / Pyy · yb (1)
It becomes. Note that xl is the leftmost position of the detection target object candidate area 32, xr is the rightmost position, yt is the uppermost position, and yb is the lowermost position.
Therefore, the camera installation height hs of the host vehicle 41 and the minimum value Ymin of the vertical position from the lowest position yb of the detection object candidate area 32 to the detection object candidate area 32, as well as the camera installation height hs and the detection object. The maximum value Ymax of the vertical position from the highest position yt of the candidate area 32 and the maximum height of the detection object motion model to the detection object candidate area 32 can be calculated geometrically. Further, the minimum value Ymin of the vertical position up to the detection object candidate area 32, the maximum value Ymax of the vertical position up to the detection object candidate area 32, and the rightmost position xr and the leftmost position xl of the detection object candidate area 32 The maximum value Xrmin and maximum value Xrmax of the right position of the detection target object candidate region 32 and the maximum value Xlmin and maximum value Xlmax of the left position of the detection target candidate region 32 can also be calculated geometrically. That is, the range of spatial positions where the detection target object candidate area 32 can exist can be calculated from the detection target object candidate area 32.

図4(a)に示すように、時刻T0時に自車両41と検出対象物42の位置関係が、縦方向にYt0、横方向にXt0、時刻T1時に自車両41と検出対象物42の位置関係が、縦方向にYt1、横方向にXt1であった場合、時刻T0におけるカメラ視軸を基準とし自車両41から見た検出対象物42の方向θx0、時刻T1におけるカメラ視軸を基準とし自車両41から見た検出対象物42の方向θx1は、
θx0=tan−1(Xt0/Yt0) …(2)
θx1=tan−1(Xt1/Yt1)+dθx …(3)
となる。ここでdθxは時刻T0と時刻T1における横方向のカメラ視軸の変化角である。
また、時刻T0と時刻T1間における見え角の変化dθx01は、
dθx01=θx1−θx0=tan−1(Xt1/Yt1)+dθx−tan−1(Xt0/Yt0) …(4)
となる。
また、図4(b)に示すように、自車両41のカメラ設置高さがhs、検出対象物領域32の高さがht、時刻T0時に自車両41と検出対象物領域32の位置関係が、縦方向にYt0、時刻T1時に自車両41と検出対象物領域32の位置関係が、縦方向にYt1であった場合、時刻T0におけるカメラ視軸を基準とし自車両41から見た検出対象物領域32の方向θy0、時刻T1におけるカメラ視軸を基準とし、自車両41から見た検出対象物領域32の方向θy1は、
θy0 = tan−1((hs−ht)/Yt0) …(5)
θy1 = tan−1((hs−ht)/Yt1)+dθy …(6)
となる。ここでdθyは時刻T0と時刻T1における高さ方向のカメラ視軸の変化角である。また、時刻T0と時刻T1間における見え角の変化dθy01は、
dθy01=θy1−θy0=tan−1((hs−ht)/Yt1)+dθy−tan−1((hs−ht)/Yt0) …(7)
となる。
ここで、式(4)を見ると、Xt0、Yt0は図3に示すように検出対象物領域32より範囲を算出でき、dθxは車両挙動から算出できる。また、Xt1、Yt1はXt0、Yt0を基準に検出対象物運動モデルの最大運動量から時刻T1−T0間に動き得る範囲が算出できる。以上から時刻T0の情報を用い、時刻T1までの見え角の最大変化量dθx01maxが算出でき、これに図5の見え角−画素変換式を用いることで、画像における最大画素移動量がわかる。
視軸からのずれ画素−視軸からのずれ角の関係:
θx=2tan−1(Cx/2・F)/Pix・Px …(8)
同様に式(7)を見るとカメラ設置高さhsは既知の値であり、Yt0は図3に示すように検出対象物領域32から範囲を算出でき、dθyは車両挙動から算出できる。検出対象物領域32の高さhtは、検出対象物運動モデルから取り得る範囲を特定でき、またYt1はYt0を基準に検出対象物運動モデルの最大運動量から時刻T1−T0間に動き得る範囲が算出できる。以上から時刻T0の情報を用い、時刻T1までの見え角の最大変化量dθy01maxが算出でき、これに図6の見え角−画素変換式を用いることで、画像における最大画素移動量がわかる。
視軸からのずれ画素−視軸からのずれ角の関係:
θy=2tan−1(Cy/2・F)/Piy・Py …(9)
以上から検出対象物候補領域32と、自車両挙動と、検出対象物運動モデルからカメラの撮像フレーム間における最大画素移動量がわかるため、すなわち1画素動くのに何フレームかかるかわかるので画像ボケしないで積分できる回数(積分条件)を算出することができる。
As shown in FIG. 4A, the positional relationship between the host vehicle 41 and the detection object 42 at time T0 is Yt0 in the vertical direction, Xt0 in the horizontal direction, and the positional relationship between the host vehicle 41 and the detection object 42 at time T1. Is Yt1 in the vertical direction and Xt1 in the horizontal direction, the direction θx0 of the detection object 42 viewed from the own vehicle 41 with reference to the camera visual axis at time T0 and the own vehicle with respect to the camera visual axis at time T1. The direction θx1 of the detection object 42 viewed from 41 is:
θx0 = tan −1 (Xt0 / Yt0) (2)
θx1 = tan −1 (Xt1 / Yt1) + dθx (3)
It becomes. Here, dθx is a change angle of the camera visual axis in the horizontal direction at time T0 and time T1.
Also, the change in viewing angle dθx01 between time T0 and time T1 is
dθx01 = θx1−θx0 = tan −1 (Xt1 / Yt1) + dθx−tan −1 (Xt0 / Yt0) (4)
It becomes.
4B, the camera installation height of the host vehicle 41 is hs, the height of the detection target region 32 is ht, and the positional relationship between the host vehicle 41 and the detection target region 32 is at time T0. When the positional relationship between the host vehicle 41 and the detection target region 32 is Yt1 in the vertical direction and Yt1 in the vertical direction, the detection target viewed from the host vehicle 41 with respect to the camera visual axis at the time T0. The direction θy0 of the region 32 and the direction θy1 of the detection target region 32 viewed from the host vehicle 41 with reference to the camera visual axis at time T1 is
θy0 = tan −1 ((hs−ht) / Yt0) (5)
θy1 = tan −1 ((hs−ht) / Yt1) + dθy (6)
It becomes. Here, dθy is a change angle of the camera visual axis in the height direction at time T0 and time T1. Also, the change in viewing angle dθy01 between time T0 and time T1 is
dθy01 = θy1−θy0 = tan −1 ((hs−ht) / Yt1) + dθy−tan −1 ((hs−ht) / Yt0) (7)
It becomes.
Here, looking at equation (4), Xt0 and Yt0 can be calculated from the detection object region 32 as shown in FIG. 3, and dθx can be calculated from the vehicle behavior. In addition, Xt1 and Yt1 can be calculated based on Xt0 and Yt0 from the maximum momentum of the detected object motion model in a range that can move between times T1 and T0. From the above, using the information at time T0, the maximum change amount dθx01max of the viewing angle up to time T1 can be calculated, and by using the viewing angle-pixel conversion formula of FIG.
The relationship between the deviation pixel from the visual axis and the deviation angle from the visual axis:
θx = 2 tan −1 (Cx / 2 · F) / Pix · Px (8)
Similarly, looking at equation (7), the camera installation height hs is a known value, Yt0 can be calculated from the detection object region 32 as shown in FIG. 3, and dθy can be calculated from the vehicle behavior. The height ht of the detection object region 32 can specify the range that can be taken from the detection object motion model, and Yt1 is the range that can move between the time T1 and T0 from the maximum momentum of the detection object motion model based on Yt0. It can be calculated. From the above, using the information at time T0, the maximum change amount dθy01max of the viewing angle until time T1 can be calculated, and the maximum pixel movement amount in the image can be obtained by using the viewing angle-pixel conversion equation of FIG.
The relationship between the deviation pixel from the visual axis and the deviation angle from the visual axis:
θy = 2tan −1 (Cy / 2 · F) / Pyy · Py (9)
From the above, since the maximum pixel movement amount between the imaging frames of the camera can be determined from the detection object candidate region 32, the own vehicle behavior, and the detection object motion model, that is, how many frames it takes to move one pixel does not blur the image. The number of times (integration conditions) that can be integrated can be calculated.

図7は、本実施の形態において積分チップ6において積分処理を行う基本原理を示す。図7(a)、(b)は背景輝度値を算出するオフセットフィルタの構成を示し、図7(c)はオフセットフィルタの処理を示し、図7(d)は積分処理結果を示す。図7(a)、(b)のようにオフセットフィルタは検出対象物候補領域の左右別々に用意されている。オフセットフィルタは縦方向に1画素、横方向に所定の背景サイズで構成され、背景領域23の平均値を背景輝度値、中心画素21の輝度値から背景輝度値を引いた値を積分輝度値として出力する。このフィルタを1画素ずつずらしながら処理することで検出対象物候補領域の積分輝度値と背景輝度値を算出する。図7(c)に示すように検出対象物候補領域の輝度値がLt、背景輝度値がLbの場合、図のフィルタ位置70でオフセットフィルタ処理を行うと背景輝度値はLb、積分輝度値は0となり、フィルタ位置71でオフセットフィルタ処理を行うと背景輝度値はLb、積分輝度値は(Lt−Lb)となる。積分処理ではカメラ1から入力される画像信号をマイクロコンピュータ5から入力される積分回数で積分輝度値を累積し、累積に使用した全フレーム画像における背景輝度値の平均値を加算する。すなわち座標x,yの背景輝度をImgb(x,y)、積分輝度をImgd(x,y)、積分回数をnとすると積分画像は、
ΣImgd(x,y)+ΣImgb(x,y)/n …(10)
となり、図7(d)のような輝度値が背景輝度Lbの領域は輝度改善されず、輝度値が検出対象物候補輝度Ltの領域のみが積分され、輝度差のある検出対象物候補領域の画像が算出できる。
FIG. 7 shows the basic principle of performing integration processing in the integration chip 6 in this embodiment. 7A and 7B show the configuration of the offset filter that calculates the background luminance value, FIG. 7C shows the processing of the offset filter, and FIG. 7D shows the result of the integration processing. As shown in FIGS. 7A and 7B, the offset filters are prepared separately on the left and right sides of the detection object candidate region. The offset filter is composed of one pixel in the vertical direction and a predetermined background size in the horizontal direction. The average value of the background area 23 is the background luminance value, and the value obtained by subtracting the background luminance value from the luminance value of the central pixel 21 is the integrated luminance value. Output. The integrated luminance value and the background luminance value of the detection object candidate region are calculated by processing the filter while shifting the pixel by pixel. As shown in FIG. 7C, when the luminance value of the detection target object region is Lt and the background luminance value is Lb, when the offset filter processing is performed at the filter position 70 in the figure, the background luminance value is Lb and the integrated luminance value is When the offset filter processing is performed at the filter position 71, the background luminance value is Lb and the integrated luminance value is (Lt−Lb). In the integration process, the integrated luminance value of the image signal input from the camera 1 is accumulated by the number of integrations input from the microcomputer 5, and the average value of the background luminance values in all frame images used for accumulation is added. That is, if the background luminance of coordinates x, y is Imgb (x, y), the integral luminance is Imgd (x, y), and the number of integrations is n, the integral image is
ΣImgd (x, y) + ΣImgb (x, y) / n (10)
Thus, the luminance value of the background luminance Lb area as shown in FIG. 7D is not improved, and only the area of the detection object candidate luminance Lt having the luminance value is integrated. Images can be calculated.

図8には、以上述べた基本原理に従って背景との輝度差が小さい検出対象物の検出を実施する処理フローが示されている。
S100はカメラ1から出力された画像信号を画像処理チップ2で検出対象物候補を抽出する空間フィルタ処理である。
S101はS100で算出された空間フィルタ画像について所定の閾値で二値化する二値化処理である。
S102はS101で算出された二値化画像について近接する二値化画素を同一の物体であるとラベリングするクラスタリング処理である。
S103はS102でクラスタリングされた領域の縦横のサイズを算出し、検出対象物候補領域を抽出する処理である。
S104はS103で抽出された検出対象物候補領域の画像を読み込む処理である。
S105はS104で読み込んだ画像に対しソベルフィルタでエッジ検出処理するものである。
S106はS105で算出されたエッジ強度の最小値を算出し、所定の輝度差まで強調するための輝度改善積分回数を算出する処理である。
S107は車両センサ4の信号を読み出す処理である。
S108はS103で抽出された検出対象物候補領域から検出対象物候補の空間位置を算出する処理である。
S109はS108で算出された検出対象物候補とS107で読み出された車両センサ4で読み出された信号と、検出対象物候補の空間位置に基づく検出対象物運動モデルから検出対象物候補の積分回数の上限値(積分条件)を算出する処理である。
S110はS106で算出された輝度改善積分回数と、S109で算出された積分回数上限値から画像積分する積分パラメータを算出(判定)する処理である。
S111はS104で読み込んだ画像から、背景輝度値を算出する処理である。
S112は積分チップ6においてS111で算出した背景輝度値を引き、オフセット除去画像を算出する処理である。
S113は積分チップ6においてS112で算出したオフセット除去画像をS110で算出された積分パラメータで画像積分し、積分画像を算出し、その結果を処理画像メモリ7に保存する処理である。
S114は積分チップ6においてS113で算出した積分画像にS111で算出した背景輝度値を加算し、処理画像を算出する処理である。
S115は積分チップ6によって算出され、処理画像メモリ7に保存された積分画像を処理画像メモリ7から読み出す処理である。
S116はマイクロコンピュータ5に登録された検出対象物の画像パターンを読み出す処理である。
S117はS115で読み出された処理画像(積分画像)と、S116で読み出した検出対象物の画像パターンの相関度を算出する処理である。
S118はS117で算出された相関度に基づき検出対象物候補が検出対象物であるか否かを判定する処理である。相関度がある所定の値より高い場合は検出対象物であるとし、S119の処理を実施する。
S119はS118で検出対象物であると判断された該検出対象物の空間位置を示す画像をモニタ8に表示する処理である。
FIG. 8 shows a processing flow for detecting a detection object having a small luminance difference from the background according to the basic principle described above.
S100 is a spatial filter process in which the image processing chip 2 extracts detection target candidates from the image signal output from the camera 1.
S101 is a binarization process that binarizes the spatial filter image calculated in S100 with a predetermined threshold.
S102 is a clustering process for labeling adjacent binarized pixels of the binarized image calculated in S101 as the same object.
S103 is a process of calculating the vertical and horizontal sizes of the areas clustered in S102 and extracting the detection target object candidate areas.
S104 is a process of reading the image of the detection target object candidate area extracted in S103.
In step S105, edge detection processing is performed on the image read in step S104 using a Sobel filter.
S106 is a process for calculating the minimum value of the edge intensity calculated in S105 and calculating the number of times of luminance improvement integration for emphasizing up to a predetermined luminance difference.
S107 is a process of reading a signal from the vehicle sensor 4.
S108 is a process of calculating the spatial position of the detection object candidate from the detection object candidate area extracted in S103.
S109 is the integration of the detection target candidate from the detection target motion model based on the detection target candidate calculated in S108, the signal read out by the vehicle sensor 4 read out in S107, and the spatial position of the detection target candidate. This is a process for calculating the upper limit (integration condition) of the number of times.
S110 is a process of calculating (determining) an integration parameter for image integration from the luminance improvement integration count calculated in S106 and the integration count upper limit value calculated in S109.
S111 is processing for calculating a background luminance value from the image read in S104.
S112 is processing for subtracting the background luminance value calculated in S111 in the integration chip 6 and calculating an offset-removed image.
S113 is a process of integrating the offset-removed image calculated in S112 in the integration chip 6 with the integration parameter calculated in S110, calculating an integrated image, and storing the result in the processed image memory 7.
S114 is a process of adding the background luminance value calculated in S111 to the integrated image calculated in S113 in the integration chip 6 to calculate a processed image.
S <b> 115 is processing for reading out the integrated image calculated by the integrating chip 6 and stored in the processed image memory 7 from the processed image memory 7.
S <b> 116 is a process of reading the image pattern of the detection target registered in the microcomputer 5.
S117 is a process of calculating the degree of correlation between the processed image (integrated image) read in S115 and the image pattern of the detection target read in S116.
S118 is processing for determining whether or not the detection target candidate is a detection target based on the correlation degree calculated in S117. When the degree of correlation is higher than a predetermined value, it is determined that the object is a detection target, and the process of S119 is performed.
S119 is a process of displaying on the monitor 8 an image indicating the spatial position of the detection object determined to be the detection object in S118.

以上説明したように、本実施の形態の画像検出装置は、自車両の所定の位置に配置され、自車両の近傍を撮像するカメラ1と、カメラ1により撮像された画像から、検出対象物候補を抽出する画像処理チップ2と、自車両の挙動を測定する車両センサ4と、画像処理チップ2により抽出された検出対象物候補と、車両センサ4によって測定された自車両の挙動と、検出対象物運動モデルから積分条件を算出するマイクロコンピュータ5と、マイクロコンピュータ5により算出された積分条件により画像積分を行う積分チップ6と、積分チップ6により算出された積分画像を用いて検出対象物を検出する前記マイクロコンピュータ5とを有する(なお、マイクロコンピュータ5は通常1個である)。なお、図1のカメラ1が特許請求の範囲の撮像手段に、画像処理チップ2および図8のS103が検出対象物候補抽出手段に、車両センサ4およびS107が自車両挙動測定手段に、マイクロコンピュータ5およびS109が積分条件算出手段に、積分チップ6およびS113が画像積分手段に、マイクロコンピュータ5およびS118が検出対象物検出手段に相当する。
このような構成によれば、自車両の挙動、検出対象物の動きを考慮することで、抽出された検出対象物候補の撮像画面上における最大の画素動き量がわかるため、何回画像積分できるかを算出できる。すなわち、自車両が動いていても、また検出対象物が動いていても画像ボケがなく、輝度差が大きい積分画像を算出することができる。
また、本実施の形態の画像検出装置は、自車両の所定の位置に配置され、自車両の近傍を撮像するカメラ1と、カメラ1により撮像された画像から、検出対象物候補を抽出する画像処理チップ2と、画像処理チップ2により抽出された検出対象物候補の輝度値と背景の輝度値との差から輝度改善積分回数(輝度差改善値)を算出するマイクロコンピュータ5と、自車両の挙動を測定する車両センサ4と、画像処理チップ2により抽出された検出対象物候補と、車両センサ4によって測定された自車両の挙動と、検出対象物運動モデルから積分条件を算出する前記マイクロコンピュータ5と、マイクロコンピュータ5により算出された輝度改善積分回数と、マイクロコンピュータ5により算出された積分条件から積分回数を判定する前記マイクロコンピュータ5と、マイクロコンピュータ5により算出された積分回数で画像積分を行う積分チップ6と、積分チップ6により算出された積分画像を用いて検出対象物を検出する前記マイクロコンピュータ5とを有する(なお、マイクロコンピュータ5は通常1個である)。なお、マイクロコンピュータ5およびS106が輝度改善積分回数算出手段に、マイクロコンピュータ5およびS110が積分パラメータ判定手段に相当する。
このような構成によれば、検出対象物候補の輝度値とその近傍の背景の輝度値から算出された輝度改善のための輝度改善積分回数と、自車両挙動、検出対象の動きを考慮した積分条件から画像積分回数を判定しているため、ボケがなく画像処理に最適な輝度差をもった積分画像を算出することができる。
さらに、本実施の形態の画像検出装置は、積分チップ6において、オフセットフィルタにより検出対象物の輝度から背景の輝度を引いた輝度差を算出し、その輝度差についてのみ、積分処理を行う。
このような構成によれば、検出対象物候補の輝度値から背景の輝度レベルの輝度値を引いた輝度差のみ積分し、そのあと、背景輝度を加えるため、積分により背景輝度は変化しない。すなわち、積分領域と非積分領域(または異なる積分回数領域)の境に輝度差のない輝度値が連続する積分画像を算出することができる。
なお、以上説明した実施の形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施の形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
As described above, the image detection apparatus according to the present embodiment is arranged at a predetermined position of the host vehicle, and detects the detection target candidate from the camera 1 that captures the vicinity of the host vehicle and the image captured by the camera 1. The image processing chip 2 for extracting the vehicle, the vehicle sensor 4 for measuring the behavior of the own vehicle, the detection object candidate extracted by the image processing chip 2, the behavior of the own vehicle measured by the vehicle sensor 4, and the detection target A microcomputer 5 that calculates integration conditions from an object motion model, an integration chip 6 that performs image integration under the integration conditions calculated by the microcomputer 5, and an object to be detected using the integration image calculated by the integration chip 6 (The number of microcomputers 5 is usually one). The camera 1 in FIG. 1 is the imaging means in the claims, the image processing chip 2 and S103 in FIG. 8 are the detection object candidate extraction means, the vehicle sensors 4 and S107 are the vehicle behavior measuring means, and the microcomputer. 5 and S109 correspond to integration condition calculation means, the integration chips 6 and S113 correspond to image integration means, and the microcomputers 5 and S118 correspond to detection object detection means.
According to such a configuration, the maximum pixel motion amount on the imaging screen of the extracted detection object candidate can be understood by considering the behavior of the host vehicle and the movement of the detection object, so that the image can be integrated many times. Can be calculated. That is, even if the host vehicle is moving or the detection target object is moving, there can be calculated an integral image having no image blur and having a large luminance difference.
In addition, the image detection apparatus according to the present embodiment is arranged at a predetermined position of the host vehicle, the camera 1 that captures the vicinity of the host vehicle, and an image that extracts detection target candidates from the image captured by the camera 1. A processing chip 2, a microcomputer 5 for calculating a luminance improvement integration number (luminance difference improvement value) from the difference between the luminance value of the detection target candidate extracted by the image processing chip 2 and the luminance value of the background; The microcomputer for calculating the integration condition from the vehicle sensor 4 for measuring the behavior, the detection object candidate extracted by the image processing chip 2, the behavior of the own vehicle measured by the vehicle sensor 4, and the detection object motion model. 5 and the microphone for determining the number of integrations based on the number of luminance improvement integrations calculated by the microcomputer 5 and the integration condition calculated by the microcomputer 5 A computer 5, an integration chip 6 that performs image integration with the number of integrations calculated by the microcomputer 5, and the microcomputer 5 that detects an object to be detected using the integration image calculated by the integration chip 6 (note that The microcomputer 5 is usually one). The microcomputers 5 and S106 correspond to the luminance improvement integration number calculation means, and the microcomputers 5 and S110 correspond to the integration parameter determination means.
According to such a configuration, the number of luminance improvement integrations for luminance improvement calculated from the luminance value of the detection target candidate and the luminance value of the background in the vicinity thereof, the integration considering the own vehicle behavior and the movement of the detection target Since the number of times of image integration is determined from the conditions, it is possible to calculate an integrated image that has no blur and has an optimum luminance difference for image processing.
Furthermore, the image detection apparatus according to the present embodiment uses the integration chip 6 to calculate a luminance difference obtained by subtracting the background luminance from the luminance of the detection object using the offset filter, and performs integration processing only for the luminance difference.
According to such a configuration, only the luminance difference obtained by subtracting the luminance value of the background luminance level from the luminance value of the detection target candidate is integrated, and then the background luminance is added. Therefore, the background luminance is not changed by the integration. That is, it is possible to calculate an integral image in which luminance values having no luminance difference are continuous between the integration region and the non-integration region (or different integration frequency region).
The embodiment described above is described in order to facilitate understanding of the present invention, and is not described in order to limit the present invention. Therefore, each element disclosed in the above embodiment includes all design changes and equivalents belonging to the technical scope of the present invention.

本発明の実施の形態の画像検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image detection apparatus of embodiment of this invention. 本発明の実施の形態の画像検出装置の基本原理を示す図である。It is a figure which shows the basic principle of the image detection apparatus of embodiment of this invention. 本発明の実施の形態の画像検出装置の基本原理を示す図である。It is a figure which shows the basic principle of the image detection apparatus of embodiment of this invention. 本発明の実施の形態の画像検出装置の基本原理を示す図である。It is a figure which shows the basic principle of the image detection apparatus of embodiment of this invention. 本発明の実施の形態の画像検出装置の基本原理を示す図である。It is a figure which shows the basic principle of the image detection apparatus of embodiment of this invention. 本発明の実施の形態の画像検出装置の基本原理を示す図である。It is a figure which shows the basic principle of the image detection apparatus of embodiment of this invention. 本発明の実施の形態の画像検出装置の基本原理を示す図である。It is a figure which shows the basic principle of the image detection apparatus of embodiment of this invention. 本発明の実施の形態の画像検出装置の処理を示すフローチャートである。It is a flowchart which shows the process of the image detection apparatus of embodiment of this invention.

符号の説明Explanation of symbols

1…カメラ
2…画像処理チップ
3…検出画像メモリ
4…車両センサ
5…マイクロコンピュータ
6…積分処理チップ
7…処理画像メモリ
8…モニタ
DESCRIPTION OF SYMBOLS 1 ... Camera 2 ... Image processing chip 3 ... Detection image memory 4 ... Vehicle sensor 5 ... Microcomputer 6 ... Integration processing chip 7 ... Processing image memory 8 ... Monitor

Claims (3)

自車両の所定の位置に配置され、前記自車両の近傍を撮像する撮像手段と、
前記撮像手段により撮像された画像から、検出対象物候補を抽出する検出対象物候補抽出手段と、
前記自車両の挙動を測定する自車両挙動測定手段と、
前記検出対象物候補抽出手段により抽出された前記検出対象物候補と、前記自車両挙動測定手段によって測定された前記自車両の挙動と、検出対象物運動モデルから積分条件を算出する積分条件算出手段と、
前記積分条件算出手段により算出された前記積分条件により画像積分を行う画像積分手段と、
前記画像積分手段により算出された積分画像を用いて検出対象物を検出する検出対象物検出手段と
を有することを特徴とする画像検出装置。
An imaging means that is arranged at a predetermined position of the host vehicle and images the vicinity of the host vehicle;
A detection target candidate extraction unit that extracts a detection target candidate from an image captured by the imaging unit;
Own vehicle behavior measuring means for measuring the behavior of the own vehicle;
Integration condition calculation means for calculating an integration condition from the detection object candidate extracted by the detection object candidate extraction means, the behavior of the own vehicle measured by the own vehicle behavior measurement means, and a detection object motion model When,
Image integration means for performing image integration under the integration condition calculated by the integration condition calculation means;
An image detection apparatus comprising: a detection target detection unit that detects a detection target using the integrated image calculated by the image integration unit.
自車両の所定の位置に配置され、前記自車両の近傍を撮像する撮像手段と、
前記撮像手段により撮像された画像から、検出対象物候補を抽出する検出対象物候補抽出手段と、
前記検出対象物候補抽出手段により抽出された前記検出対象物候補の輝度値と背景の輝度値との差から輝度改善積分回数を算出する輝度改善積分回数算出手段と、
前記自車両の挙動を測定する自車両挙動測定手段と、
前記検出対象物候補抽出手段により抽出された前記検出対象物候補と、前記自車両挙動測定手段によって測定された前記自車両の挙動と、検出対象物運動モデルから積分条件を算出する積分条件算出手段と、
前記輝度改善積分回数算出手段により算出された輝度改善積分回数と、前記積分条件算出手段により算出された積分条件から積分回数を判定する積分パラメータ判定手段と、
前記積分パラメータ判定手段により算出された前記積分回数で画像積分を行う画像積分手段と、
前記画像積分手段により算出された積分画像を用いて検出対象物を検出する検出対象物検出手段と
を有することを特徴とする画像検出装置。
An imaging means that is arranged at a predetermined position of the host vehicle and images the vicinity of the host vehicle;
A detection target candidate extraction unit that extracts a detection target candidate from an image captured by the imaging unit;
A luminance improvement integration number calculating means for calculating a luminance improvement integration number from a difference between a luminance value of the detection target candidate extracted by the detection target candidate extraction means and a background luminance value;
Own vehicle behavior measuring means for measuring the behavior of the own vehicle;
Integration condition calculation means for calculating an integration condition from the detection object candidate extracted by the detection object candidate extraction means, the behavior of the own vehicle measured by the own vehicle behavior measurement means, and a detection object motion model When,
An integration parameter determination unit that determines the number of integrations from the integration condition calculated by the integration condition calculation unit, and the luminance improvement integration number calculated by the luminance improvement integration number calculation unit;
Image integration means for performing image integration at the number of integrations calculated by the integration parameter determination means;
An image detection apparatus comprising: a detection target detection unit that detects a detection target using the integrated image calculated by the image integration unit.
前記画像検出装置は、
前記画像積分手段において、オフセットフィルタにより前記検出対象物の輝度から背景の輝度を引いた輝度差を算出し、その輝度差についてのみ、積分処理を行うことを特徴とする画像検出装置。
The image detection device includes:
An image detection apparatus characterized in that, in the image integration means, a luminance difference obtained by subtracting background luminance from luminance of the detection object is calculated by an offset filter, and integration processing is performed only for the luminance difference.
JP2003271993A 2003-07-08 2003-07-08 Image detection apparatus Pending JP2005032074A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003271993A JP2005032074A (en) 2003-07-08 2003-07-08 Image detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003271993A JP2005032074A (en) 2003-07-08 2003-07-08 Image detection apparatus

Publications (1)

Publication Number Publication Date
JP2005032074A true JP2005032074A (en) 2005-02-03

Family

ID=34209687

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003271993A Pending JP2005032074A (en) 2003-07-08 2003-07-08 Image detection apparatus

Country Status (1)

Country Link
JP (1) JP2005032074A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102446034A (en) * 2010-10-13 2012-05-09 原相科技股份有限公司 Optical touch control system and object sensing method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102446034A (en) * 2010-10-13 2012-05-09 原相科技股份有限公司 Optical touch control system and object sensing method thereof

Similar Documents

Publication Publication Date Title
US9704230B2 (en) Feedback to user for indicating augmentability of an image
JP2006268097A (en) On-vehicle object detecting device, and object detecting method
US8203602B2 (en) Depth-aware blur kernel estimation method for iris deblurring
JP5019375B2 (en) Object detection apparatus and object detection method
KR20130040964A (en) Object identification device
JP2009187135A (en) Vehicle periphery monitoring device, vehicle, program for monitoring vehicle periphery, and vehicle periphery monitoring method
JP5834933B2 (en) Vehicle position calculation device
JP2006157739A (en) Abnormality detecting device of image pickup apparatus
US20080247596A1 (en) Apparatus and Method For Detecting Objects
JP2009276910A (en) Image processor, method and program
JP2015059768A (en) Level difference measuring device, level difference measuring method and program
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP2006318064A (en) Image sensor
JP4887540B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP4765113B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP4321410B2 (en) Object detection apparatus and method
JP2005032074A (en) Image detection apparatus
JP2021051381A (en) Attached matter detection device and attached matter detection method
JP5891802B2 (en) Vehicle position calculation device
JP5642785B2 (en) Vehicle periphery monitoring device
JP5903901B2 (en) Vehicle position calculation device
JP4062306B2 (en) Image processing apparatus and method
JP2008028478A (en) Obstacle detection system, and obstacle detecting method
JP4144464B2 (en) In-vehicle distance calculation device
JP4464574B2 (en) Road surface condition determination method and apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090224

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090707