JP4995555B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP4995555B2
JP4995555B2 JP2006335763A JP2006335763A JP4995555B2 JP 4995555 B2 JP4995555 B2 JP 4995555B2 JP 2006335763 A JP2006335763 A JP 2006335763A JP 2006335763 A JP2006335763 A JP 2006335763A JP 4995555 B2 JP4995555 B2 JP 4995555B2
Authority
JP
Japan
Prior art keywords
edge
vehicle
image
captured image
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006335763A
Other languages
Japanese (ja)
Other versions
JP2008143452A (en
Inventor
幸男 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2006335763A priority Critical patent/JP4995555B2/en
Publication of JP2008143452A publication Critical patent/JP2008143452A/en
Application granted granted Critical
Publication of JP4995555B2 publication Critical patent/JP4995555B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、車載カメラが撮影した車両周囲の撮影画像を2値化し、2値化された撮影画像内のエッジを検出する画像処理装置に関する。   The present invention relates to an image processing apparatus that binarizes a captured image around a vehicle captured by an in-vehicle camera and detects an edge in the binarized captured image.

CMOSイメージセンサを備えたカメラと、その撮影画像からエッジ(輪郭)を検出してエッジの形状から被写体を認識する画像処理装置により構成される画像センサが知られている。近年ではこのような画像センサにより車両前方の物体を認識する車両の安全制御システムが普及しつつあり、その一例が特許文献1に記載されている。   There is known an image sensor including a camera including a CMOS image sensor and an image processing apparatus that detects an edge (contour) from a captured image and recognizes a subject from the shape of the edge. In recent years, a vehicle safety control system for recognizing an object in front of the vehicle by using such an image sensor is spreading, and an example thereof is described in Patent Document 1.

かかる画像センサの画像処理装置は、まず撮影画像を車載カメラの解像度に対応した画素ごとに、例えば黒に対応する「1」または白に対応する「0」のいずれかに2値化し、2値化画像データをメモリに格納する。次に、画像処理装置は、2値化画像データを画像の縦方向、横方向それぞれ個別に累計(ヒストグラム化)し、その累計値により黒色が割当てられた画素の分布を求めて画像内のエッジを検出する。そして、画像処理装置は、検出されたエッジの形状を予め記憶された先行車両その他の障害物のエッジの形状と照合して、画像認識を行う。   The image processing apparatus of such an image sensor first binarizes a captured image into, for example, “1” corresponding to black or “0” corresponding to white for each pixel corresponding to the resolution of the in-vehicle camera. The converted image data is stored in the memory. Next, the image processing apparatus individually accumulates the binarized image data in the vertical and horizontal directions (histogram) and obtains the distribution of the pixels to which black is assigned based on the accumulated value to obtain an edge in the image. Is detected. Then, the image processing apparatus performs image recognition by comparing the shape of the detected edge with the shape of the edge of the preceding vehicle or other obstacle stored in advance.

このような画像処理においては、処理される画像データを格納するために多くのメモリが必要とされる。例えば、画素ごとに2値化された2値化画像データを格納するには少なくとも画素数と同じビット数の容量のメモリが必要となる。そして、エッジ検出では縦方向、横方向それぞれ個別にヒストグラム化が行われるため、1画像のエッジ検出のためには2画像分の2値化画像データを格納できる容量のメモリが必要となる。このように2値化画像データはメモリ資源を圧迫する一因となる。   In such image processing, a large amount of memory is required to store image data to be processed. For example, in order to store binarized image data binarized for each pixel, a memory having a capacity of at least the same number of bits as the number of pixels is required. In edge detection, histograms are separately formed in the vertical direction and the horizontal direction, respectively. Therefore, a memory having a capacity capable of storing binary image data for two images is required for edge detection of one image. Thus, the binarized image data contributes to the pressure on memory resources.

また、2値化画像データのデータ量が大きくなると、エッジ検出の処理量が増大する。よって、2値化画像データは画像処理装置の処理負荷を増大させる一因ともなる。   Further, as the amount of binarized image data increases, the amount of edge detection processing increases. Therefore, the binarized image data also contributes to increase the processing load on the image processing apparatus.

よって、メモリ量やエッジ検出処理の負荷の低減を目的として、2値化画像データのデータ量を削減するための方法が種々提案されている。一例としては、撮影画像の画素を例えば縦横2画素からなる画素ブロックに分割し、画素ブロック単位で2値化する方法が提案されている。この方法によれば、画像の解像度を低下させながらも2値化画像データのデータ量を4分の1に抑えることができる。   Therefore, various methods for reducing the amount of binarized image data have been proposed for the purpose of reducing the amount of memory and the load of edge detection processing. As an example, a method has been proposed in which pixels of a captured image are divided into pixel blocks made up of, for example, two vertical and horizontal pixels and binarized in units of pixel blocks. According to this method, the data amount of the binarized image data can be suppressed to a quarter while reducing the resolution of the image.

さらに別の例として、車載カメラにより例えば毎秒30画像の頻度で撮影される画像の連続性に着目して、前回の撮影画像で検出されたエッジ付近の範囲の画像は1画素単位で2値化し、それ以外の範囲の画像は画素ブロック単位で2値化する方法も提案されている。この方法によれば、解像度を低下させずにエッジ検出が行え、且つ2値化画像データのデータ量も有る程度抑えることができる。
特開2005−332120号公報
As another example, paying attention to the continuity of images captured at a frequency of, for example, 30 images per second by an in-vehicle camera, the image in the range near the edge detected in the previous captured image is binarized in units of one pixel. A method has also been proposed in which images in other ranges are binarized in units of pixel blocks. According to this method, edge detection can be performed without reducing the resolution, and the amount of binarized image data can be suppressed to some extent.
JP-A-2005-332120

しかしながら上記のような従来技術では、主要な撮像対象である先行車両が高速で移動すると同時に自車両も高速で移動するので、次のような問題が生じる。すなわち、1つの撮影画像から次の撮影画像までの間に画像内の物体の移動量は大きくなるので、移動したエッジの検出を精度よく行うためには1画素単位で2値化する範囲を前回の撮影画像のエッジ付近で広く設定しなくてはならない。すると、2値化画像データのデータ量はさほど小さくならず、メモリ量やエッジ検出処理の負荷の低減効果が十分得られない。   However, in the conventional technology as described above, the preceding vehicle, which is the main imaging target, moves at a high speed, and at the same time, the host vehicle also moves at a high speed. That is, since the amount of movement of the object in the image increases from one captured image to the next captured image, in order to detect the moved edge accurately, the binarized range in units of one pixel is set to the previous time. It must be set widely near the edge of the captured image. Then, the data amount of the binarized image data is not so small, and the effect of reducing the memory amount and the load of edge detection processing cannot be obtained sufficiently.

そこで、本発明の目的は、撮影対象物の移動量が大きい場合であっても、精度よいエッジ検出を行いつつメモリ量やエッジ検出処理の負荷の低減が可能な画像処理装置を提供することにある。   Accordingly, an object of the present invention is to provide an image processing apparatus capable of reducing the amount of memory and the load of edge detection processing while performing accurate edge detection even when the amount of movement of the photographing object is large. is there.

上記の目的を達成するための本発明の第1の側面は、車載カメラが順次撮影する車両周囲の撮影画像を2値化し、前記2値化された撮影画像内のエッジを検出する画像処理装置であって、第1の撮影画像で検出されるエッジの第1の位置と当該エッジの移動情報とに基づき前記第1の撮影画像の後の第2の撮影画像における当該エッジの第2の位置を予測し、前記第2の撮影画像では前記第2の位置周辺の範囲を第1の画素数単位で2値化し、それ以外の範囲を前記第1の画素数より大きい第2の画素数単位で2値化することを特徴とする。   In order to achieve the above object, according to a first aspect of the present invention, there is provided an image processing apparatus that binarizes captured images around a vehicle that are sequentially captured by an in-vehicle camera and detects an edge in the binarized captured image. The second position of the edge in the second photographed image after the first photographed image based on the first position of the edge detected in the first photographed image and the movement information of the edge In the second captured image, the range around the second position is binarized in units of the first number of pixels, and the other range is in units of the second number of pixels larger than the first number of pixels. It is characterized by binarizing with.

上記側面によれば、第1の撮影画像で検出されるエッジの第1の位置と当該エッジの移動情報とに基づき第2の撮影画像における当該エッジの第2の位置を予測することにより、先行車両などの物体と自車両が高速で移動する場合であっても、予測されたエッジ位置周辺の最小限の範囲を第1の画素数単位で2値化し、それ以外の範囲を前記第1の画素数より大きい第2の画素数単位で2値化することができる。すなわち、第1の画素数単位で2値化を行う範囲は、解像度は高いがメモリ消費量の大きいので、その範囲を最小限とすることにより、エッジ検出の精度を低下させることなく2値化画像データのデータ量を削減できる。よって、2値化画像データを格納するメモリ量やエッジ検出処理の負荷を低減することができる。   According to the above aspect, the preceding position is predicted by predicting the second position of the edge in the second photographed image based on the first position of the edge detected in the first photographed image and the movement information of the edge. Even when an object such as a vehicle and the host vehicle move at high speed, the minimum range around the predicted edge position is binarized in units of the first number of pixels, and the other range is converted into the first range. Binarization can be performed in units of a second number of pixels larger than the number of pixels. In other words, the binarization range in units of the first number of pixels is high in resolution but consumes a large amount of memory. Therefore, binarization is performed without reducing the accuracy of edge detection by minimizing the range. The amount of image data can be reduced. Therefore, it is possible to reduce the amount of memory for storing binarized image data and the load of edge detection processing.

以下、図面にしたがって本発明の実施の形態について説明する。但し、本発明の技術的範囲はこれらの実施の形態に限定されず、特許請求の範囲に記載された事項とその均等物まで及ぶものである。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the technical scope of the present invention is not limited to these embodiments, but extends to the matters described in the claims and equivalents thereof.

図1は本実施形態における画像処理装置が車両に搭載される例を説明する図である。車両1には、車両前方を撮影し撮影画像の認識を行う画像センサ2が搭載され、画像センサ2は車載カメラ2aと画像処理装置2bが一体化されて構成される。車載カメラ2aは、固定式のカメラであって、例えば640×480画素のCMOSイメージセンサを備え、車両前方の一定範囲2cの画像を毎秒30画像撮影し、画像処理装置2bへその撮影画像データを入力する。そして画像処理装置2bは撮影画像データを処理して撮影画像の2値化、エッジ検出、及びエッジ形状の認識を行い、認識結果データを出力する。   FIG. 1 is a diagram illustrating an example in which the image processing apparatus according to the present embodiment is mounted on a vehicle. The vehicle 1 is equipped with an image sensor 2 that captures the front of the vehicle and recognizes a captured image. The image sensor 2 is configured by integrating an in-vehicle camera 2a and an image processing device 2b. The in-vehicle camera 2a is a fixed camera, and includes, for example, a 640 × 480 pixel CMOS image sensor. The in-vehicle camera 2a captures 30 images per second in a certain range 2c in front of the vehicle, and sends the captured image data to the image processing device 2b. input. The image processing device 2b processes the captured image data, binarizes the captured image, detects an edge, and recognizes the edge shape, and outputs recognition result data.

また、車両1には車両前方の一定角度の検知範囲3aにおいて先行車両などの物標の相対的な位置、距離、速度などの物標状態を検知するスキャン式の車載レーダ3や、車両1の速度を検知する車速センサ4、車両1の加速度を検知するGセンサ5、車両1のドライバによる操舵角を検知するステアリングセンサ6などの各種センサが搭載される。そして画像センサ2による画像認識結果データ、車載レーダ3により検知される物標状態データ、及び各種センサ4〜6による検知される車速、加速度、操舵方向等の車両状態データは、制御ECU(Electronic Control Unit)8へ入力される。そして、制御ECU8はこれらの入力データに基づいてブレーキ7などのアクチュエータを制御して車両1の走行を制御したり、不図示の警報器にドライバへの警告を行わせたりする。このように、制御ECU8とこれに接続される各種機器により車両の安全制御システムが構成される。   Further, the vehicle 1 includes a scan-type in-vehicle radar 3 that detects a target state such as a relative position, a distance, and a speed of a target such as a preceding vehicle in a detection range 3a at a predetermined angle in front of the vehicle, Various sensors such as a vehicle speed sensor 4 for detecting speed, a G sensor 5 for detecting acceleration of the vehicle 1, and a steering sensor 6 for detecting a steering angle by a driver of the vehicle 1 are mounted. The image recognition result data by the image sensor 2, the target state data detected by the in-vehicle radar 3, and the vehicle state data such as the vehicle speed, acceleration, and steering direction detected by the various sensors 4-6 are controlled by a control ECU (Electronic Control). Unit) 8. Based on these input data, the control ECU 8 controls an actuator such as the brake 7 to control the traveling of the vehicle 1 or causes an alarm device (not shown) to give a warning to the driver. Thus, a vehicle safety control system is configured by the control ECU 8 and various devices connected thereto.

図2は、本実施形態における画像処理装置2bの構成を説明する図である。まず2値化処理部21は、車載カメラ2aから毎秒30画像の撮影画像データ2dを入力され、各撮影画像を構成する画素の濃度階調値に応じて画像を2値化(「0」または「1」)し、2値化された撮影画像の2値化画像データ21aを第1メモリ22に格納する。次に、ヒストグラム処理部23は、第1メモリから読み出した2値化画像データ21aに基づき画像の縦方向、横方向ごとの値を累計してヒストグラム化し、ヒストグラムデータ23aを第2メモリ24に格納する。   FIG. 2 is a diagram illustrating the configuration of the image processing apparatus 2b in the present embodiment. First, the binarization processing unit 21 is input with the captured image data 2d of 30 images per second from the in-vehicle camera 2a, and binarizes the image according to the density gradation value of the pixels constituting each captured image ("0" or “1”), and binarized image data 21 a of the binarized captured image is stored in the first memory 22. Next, the histogram processing unit 23 accumulates the values in the vertical and horizontal directions of the image based on the binarized image data 21 a read from the first memory, forms a histogram, and stores the histogram data 23 a in the second memory 24. To do.

エッジ検出部25は、第2メモリからヒストグラムデータ23aを読出し、画像内の「1」が割当てられた画素の分布を求めてエッジ検出を行い、検出したエッジの座標からなるエッジ位置データ25aを第3メモリ26に格納する。ここで、「エッジ」とは撮影画像の明暗の変化点によって、画像内の物体の輪郭を構成する線、または輪郭と輪郭内部の領域の形状や模様を構成する線をいう。なお、以下では物体の輪郭を構成する線を例として説明する。   The edge detection unit 25 reads the histogram data 23a from the second memory, obtains the distribution of pixels assigned “1” in the image, performs edge detection, and obtains edge position data 25a composed of the coordinates of the detected edge. 3 Store in memory 26. Here, “edge” refers to a line that forms the contour of an object in the image, or a line that forms the shape or pattern of an area inside the contour and the contour, depending on the change point of brightness of the captured image. In the following description, lines constituting the contour of an object will be described as an example.

CPU27は第3メモリ26に格納されるエッジ位置データ25aを読出して検出されたエッジの形状を第5メモリ30に予め格納された各種物体のエッジの形状と照合させて被写体の画像認識を行い、その画像認識結果データ27aを制御ECU8へ出力する。   The CPU 27 reads out the edge position data 25a stored in the third memory 26, compares the detected edge shape with the edge shapes of various objects stored in the fifth memory 30 in advance, and performs image recognition of the subject. The image recognition result data 27a is output to the control ECU 8.

ここで図3を用いて、2値化処理部21による撮影画像の2値化処理について説明する。まず、図3(A)において、車載カメラ2aから入力される撮影画像データ2dを処理して撮影画像を車載カメラ2aの解像度、つまり640×480画素の1画素単位で2値化する場合を示す。2値化処理部21は、例えば1画素256階調(8ビット)の撮影画像データについて、中間値(128)以上の階調値の画素に「1」、それ未満の階調値の画素に「0」を割付けて撮影画像を2値化し、2値化画像データを21a生成する。この結果、640×480ビットの2値化画像データ21aが生成される。さらにヒストグラム処理部23で縦横2方向で個別の累計計算を行うので、この2値化画像データ21aを2画像分格納するために第1メモリ22には640×480×2ビットの容量が必要とされる。   Here, the binarization processing of the captured image by the binarization processing unit 21 will be described with reference to FIG. First, FIG. 3A shows a case where the captured image data 2d input from the in-vehicle camera 2a is processed to binarize the captured image in the resolution of the in-vehicle camera 2a, that is, in units of one pixel of 640 × 480 pixels. . For example, with regard to captured image data of 256 gradations (8 bits) per pixel, the binarization processing unit 21 applies “1” to pixels having a gradation value equal to or higher than the intermediate value (128), and pixels having gradation values less than that. “0” is assigned to binarize the captured image to generate binarized image data 21a. As a result, 640 × 480-bit binary image data 21a is generated. Further, since the cumulative total calculation is performed in the vertical and horizontal directions by the histogram processing unit 23, the first memory 22 needs to have a capacity of 640 × 480 × 2 bits in order to store the binary image data 21a for two images. Is done.

次に、図3(B)において、撮影画像を縦横2画素の4画素からなる画素ブロックごとに分割し、画素ブロック単位で2値化する場合を示す。この場合、画素ブロックに含まれる4画素分の階調値の合計値は0から1020までの値となる。よって2値化処理部21は、中間値(510)を基準にそれ以上の合計値の画素ブロックに「1」、それ未満の合計値の画素ブロックに「0」を割付けて画素ブロックごとの2値化画像データ21aを生成する。この結果生成される2値化画像データ21aのデータ量は画素数の4分の1のビット数となる。よって、第1メモリ22にはヒストグラム処理のために2画像分の2値化画像データ21aが格納されるとしても、必要なメモリ量は、640×480×2/4ビットとなる。   Next, FIG. 3B shows a case where a captured image is divided into pixel blocks each composed of 4 pixels of 2 pixels vertically and horizontally and binarized in units of pixel blocks. In this case, the total value of the gradation values for the four pixels included in the pixel block is a value from 0 to 1020. Accordingly, the binarization processing unit 21 assigns “1” to the pixel block having the total value higher than the intermediate value (510) and “0” to the pixel block having the lower total value, and sets 2 for each pixel block. The valued image data 21a is generated. The data amount of the binarized image data 21a generated as a result is a bit number that is a quarter of the number of pixels. Therefore, even if binary image data 21a for two images is stored in the first memory 22 for histogram processing, the required memory amount is 640 × 480 × 2/4 bits.

上述の図3(A)、(B)の2値化処理を比較すると、図3(A)の方法は2値化された撮影画像の解像度は高いがデータ量が大きくなり、図3(B)の方法は反対に解像度は低くなるがデータ量は小さく抑えられる。本実施形態においては、図3(A)、図3(B)の方法を組み合わせた2値化処理が次のように行われる。   Comparing the binarization processing of FIGS. 3A and 3B described above, the method of FIG. 3A has a high resolution although the resolution of the binarized photographed image is high, and FIG. On the other hand, the resolution is low, but the amount of data is kept small. In the present embodiment, a binarization process combining the methods of FIGS. 3A and 3B is performed as follows.

図2に戻り、エッジ位置予測部28は、車載カメラ2aから連続して入力される撮影画像について、撮影画像ごとに検出されたエッジ位置データ25aを第3メモリ26から読み出して格納する第4メモリ29を備える。この第4メモリ29は、数画像分のエッジ位置データを格納する容量を有し、最新のエッジ位置データ25aが入力されると、古いデータは上書きされる。そしてエッジ位置予測部28は、第4メモリ29から読み出した前回の撮影画像のエッジ位置と後述するエッジ移動情報とから今回の撮影画像のエッジ位置を予測して予測結果データ28aをCPU27へ入力する。   Returning to FIG. 2, the edge position prediction unit 28 reads out the edge position data 25 a detected for each captured image from the third memory 26 and stores the captured images continuously input from the in-vehicle camera 2 a. 29. The fourth memory 29 has a capacity for storing edge position data for several images. When the latest edge position data 25a is input, old data is overwritten. Then, the edge position prediction unit 28 predicts the edge position of the current captured image from the edge position of the previous captured image read from the fourth memory 29 and the edge movement information described later, and inputs the prediction result data 28 a to the CPU 27. .

すると、CPU27は、予測された今回の撮影画像のエッジ位置付近の一定の範囲を図3(A)で示したように1画素単位で2値化を行うエッジ検出範囲として算出し、2値化処理部21にそのエッジ検出範囲データ27bを入力する。すると、2値化処理部21は入力により設定されたエッジ検出範囲の撮影画像を1画素単位で2値化し、それ以外の範囲を4画素で構成される画素ブロック単位で2値化して、2値化画像データ21aを第1メモリ22に格納する。   Then, the CPU 27 calculates a certain range in the vicinity of the predicted edge position of the photographed image as an edge detection range in which binarization is performed for each pixel as shown in FIG. The edge detection range data 27b is input to the processing unit 21. Then, the binarization processing unit 21 binarizes the captured image in the edge detection range set by the input in units of one pixel, and binarizes the other range in units of pixel blocks composed of four pixels. The valued image data 21 a is stored in the first memory 22.

このようにして、エッジ位置を予測することによりエッジ付近のエッジ検出範囲を限定して設定することができる。よって、2値化された撮影画像のエッジ付近の解像度を低下させることなく、且つ2値化画像データ21a全体のデータ量を低減することが可能となる。次に、エッジ位置の移動情報の種別ごとに、本実施形態におけるエッジ位置予測の例を説明する。   In this way, the edge detection range near the edge can be limited and set by predicting the edge position. Therefore, it is possible to reduce the data amount of the entire binarized image data 21a without reducing the resolution near the edge of the binarized captured image. Next, an example of edge position prediction in this embodiment will be described for each type of edge position movement information.

図4は、本実施形態におけるエッジ位置予測の第1の例を説明する図である。図4(A)〜(D)はいずれも車載カメラ2aの撮影画像を模式的に示している。上述したように、2値化処理部21へは毎秒30画像分の撮影画像データが車載カメラ2aから順次入力される。よって、図4(A)に、前々回の撮影画像において検出されたエッジE1(一点鎖線で表示)と、前回の撮影画像で検出されたエッジE2(実線で表示)とを示すと、矢印Dで示されるエッジE1からE2への移動方向と移動量とを求めることができる。よって、第1の例では、エッジE1からE2への移動方向と移動量とをエッジの「移動情報」として用いて、今回の撮影画像でのエッジ位置を予測する。   FIG. 4 is a diagram for explaining a first example of edge position prediction in the present embodiment. FIGS. 4A to 4D schematically show images taken by the in-vehicle camera 2a. As described above, captured image data for 30 images per second is sequentially input from the in-vehicle camera 2a to the binarization processing unit 21. Therefore, FIG. 4A shows an edge E1 (displayed by a one-dot chain line) detected in the previous captured image and an edge E2 (displayed by a solid line) detected in the previous captured image, which are indicated by an arrow D. The moving direction and moving amount from the edge E1 to E2 shown can be obtained. Therefore, in the first example, the movement position and movement amount from the edge E1 to E2 are used as the “movement information” of the edge to predict the edge position in the current captured image.

具体的には、エッジ位置予測部28は前々回のエッジE1の位置データと前回のエッジE2の位置データとを第4メモリ29に格納しておき、これらのデータからエッジの移動方向、移動量からなるエッジの移動情報を求める。そして、エッジ位置予測部28は、図4(B)に示すように今回の撮影画像のエッジE3(点線で表示)の位置を前回のエッジE2の位置と矢印Dで示されるエッジの移動情報とに基づき予測する。   Specifically, the edge position prediction unit 28 stores the position data of the previous edge E1 and the position data of the previous edge E2 in the fourth memory 29, and from these data, the edge movement direction and the movement amount are stored. The movement information of the edge is obtained. Then, as shown in FIG. 4B, the edge position prediction unit 28 determines the position of the edge E3 (displayed by a dotted line) of the current captured image as the previous edge E2 and the edge movement information indicated by the arrow D. Predict based on.

そして、CPU27は、今回の撮影画像においては図4(C)に示すように予測されたエッジ位置E3付近のエッジ検出範囲A1(斜線で表示された範囲)を2値化処理部21に設定する。そして、2値化処理部21はエッジ検出範囲A1を1画素単位で2値化し、それ以外の範囲A2は4画素からなる画素ブロック単位で2値化して、撮影画像全体の2値化画像データを第1メモリ22に格納する。   Then, the CPU 27 sets, in the binarized processing unit 21, the edge detection range A1 (range indicated by hatching) in the vicinity of the edge position E3 predicted as shown in FIG. . Then, the binarization processing unit 21 binarizes the edge detection range A1 in units of one pixel, and the other range A2 binarizes in units of four pixel blocks, thereby binarizing image data of the entire captured image. Is stored in the first memory 22.

ここで従来技術と本実施形態における2値化処理とを比較する。図4(D)に示すように、従来技術では前回のエッジE2付近のエッジ検出範囲A3を1画素単位で2値化し、それ以外の範囲を画素ブロック単位で2値化する。しかし、従来技術ではエッジ位置の予測を行わないため、エッジE2がいずれの方向へ移動してもエッジが存在する画像範囲を1画素単位で2値化して精度よくエッジ検出できるように、エッジ検出範囲A3を広く設定する必要がある。すると、エッジ検出範囲A3については、2値化画像データは画素数と同じビット数のデータ量となるため、画像全体としてのデータ量はさほど小さくはならない。一方、本実施形態では図4(C)に示したようにエッジE3の位置を予測することによりエッジ検出範囲A1をより限定して設定できるので、2値化画像データ21aのデータ量をより小さく抑えることができる。また、エッジE3が確度高くに存在する範囲をエッジ検出範囲とするので、その範囲の画像を解像度の高い1画素単位で2値化でき、エッジ検出を精度良く行うことができる。   Here, the prior art and the binarization processing in the present embodiment will be compared. As shown in FIG. 4D, in the prior art, the edge detection range A3 near the previous edge E2 is binarized in units of one pixel, and the other ranges are binarized in units of pixel blocks. However, since the edge position is not predicted in the prior art, the edge detection is performed so that the edge can be detected with high accuracy by binarizing the image area where the edge exists even if the edge E2 moves in any direction. It is necessary to set the range A3 wide. Then, in the edge detection range A3, since the binarized image data has a data amount of the same number of bits as the number of pixels, the data amount of the entire image is not so small. On the other hand, in the present embodiment, as shown in FIG. 4C, the edge detection range A1 can be set more limited by predicting the position of the edge E3, so the data amount of the binarized image data 21a is made smaller. Can be suppressed. Further, since the range where the edge E3 exists with high accuracy is set as the edge detection range, the image in the range can be binarized in units of one pixel with high resolution, and the edge detection can be performed with high accuracy.

図5は本実施形態におけるエッジ位置予測の第2、第3の例を説明する図である。図5(A)、(B)はいずれも車載カメラ2aによる撮影画像を模式的に示している。まず第2の例について説明する。図5(A)に示すように、エッジ位置予測部28は、前回の撮影画像のエッジE21(実線で表示)の位置と、車速センサ4、Gセンサ5、ステアリングセンサ6から入力される車両状態データを含むエッジの移動情報に基づき、今回の撮影画像のエッジE22(点線で表示)の位置を予測する。   FIG. 5 is a diagram for explaining second and third examples of edge position prediction in the present embodiment. 5A and 5B schematically show images taken by the in-vehicle camera 2a. First, a second example will be described. As shown in FIG. 5A, the edge position predicting unit 28 determines the position of the edge E21 (indicated by a solid line) of the previous captured image and the vehicle state input from the vehicle speed sensor 4, the G sensor 5, and the steering sensor 6. Based on edge movement information including data, the position of the edge E22 (displayed with a dotted line) of the current captured image is predicted.

具体的には、図5(C)に示すように、例えば自車両1の車載カメラ2aによる撮影可能範囲2cに先行車両100が存在し、先行車両100が撮影画像内のエッジE21として検出されたとする。今仮に自車両1はドライバの運転操作により矢印Lで示すように左側へ移動し始めたとすると、車速センサ5は移動速度、ステアリングセンサ6はハンドルの操舵方向、Gセンサは横方向の加速度をそれぞれ検知し、それぞれの検知結果からなる車両状態データがエッジ位置予測部28へ入力される。すると、エッジ位置予測部28は、車両状態データに基づきエッジE21で表される先行車両100が自車両1の車載カメラ2aとは相対的に右側へ移動すると判断し、車両1の移動速度に応じて矢印D1で表される移動量でエッジE21が右側へ移動した位置をエッジE22の位置として予測する。   Specifically, as shown in FIG. 5C, for example, the preceding vehicle 100 is present in the imageable range 2c of the in-vehicle camera 2a of the host vehicle 1, and the preceding vehicle 100 is detected as the edge E21 in the captured image. To do. Assuming that the host vehicle 1 starts to move to the left as indicated by the arrow L by the driving operation of the driver, the vehicle speed sensor 5 indicates the moving speed, the steering sensor 6 indicates the steering direction of the steering wheel, and the G sensor indicates the lateral acceleration. The vehicle state data consisting of the detection results is input to the edge position prediction unit 28. Then, the edge position prediction unit 28 determines that the preceding vehicle 100 represented by the edge E21 moves to the right relative to the in-vehicle camera 2a of the own vehicle 1 based on the vehicle state data, and according to the moving speed of the vehicle 1 Then, the position where the edge E21 has moved to the right side by the movement amount represented by the arrow D1 is predicted as the position of the edge E22.

そして、CPU27は今回の撮影画像においては図5(B)に示すように予測されたエッジE22付近のエッジ検出範囲A11(斜線で表示された範囲)を設定する。すると2値化処理部21は、エッジ検出範囲A11を1画素単位で2値化し、それ以外の範囲A21を4画素からなる画素ブロック単位で2値化して、撮影画像全体の2値化画像データを第1メモリ22に格納する。このように、前回のエッジ位置と車両1の車両状態とに基づき今回の撮影画像のエッジ位置を予測することによっても、画像処理装置2bは上述した第1の例と同様の作用効果を奏する。   Then, the CPU 27 sets an edge detection range A11 (range indicated by oblique lines) near the predicted edge E22 as shown in FIG. Then, the binarization processing unit 21 binarizes the edge detection range A11 in units of one pixel, binarizes the other range A21 in units of four pixel blocks, and binarized image data of the entire captured image. Is stored in the first memory 22. As described above, the image processing device 2b also achieves the same effects as the first example described above by predicting the edge position of the current captured image based on the previous edge position and the vehicle state of the vehicle 1.

また、第3の例としては、図5(C)に示すように車載レーダ3の検知範囲3a内に存在する先行車両100の位置、距離、速度等の物標状態データに基づいて今回の撮影画像でのエッジ位置E31を予測することができる。すなわち、先行車両100の角度方向が車載レーダ3によって矢印Rに示されるように右側へ移動していることが検知された場合に、かかる物標状態データが画像処理装置2bのエッジ位置予測部28へ入力される。すると、エッジ位置予測部28は、図5(A)に示すようにエッジE21で表される先行車両100が自車両1の車載カメラ2aとは相対的に右側へ移動すると判断し、移動速度に応じた量(矢印D1)でエッジE21が右側へ移動した位置をエッジE22の位置として予測する。そして、CPU27、2値化処理部21は、上述の第2の例と同様の処理を行う。よってこの場合も、第2の例と同様の作用効果を奏する。   Further, as a third example, as shown in FIG. 5C, the current photographing is performed based on target state data such as the position, distance, and speed of the preceding vehicle 100 existing within the detection range 3a of the in-vehicle radar 3. The edge position E31 in the image can be predicted. That is, when it is detected by the in-vehicle radar 3 that the angle direction of the preceding vehicle 100 is moving to the right as indicated by the arrow R, the target state data is converted to the edge position prediction unit 28 of the image processing device 2b. Is input. Then, the edge position prediction unit 28 determines that the preceding vehicle 100 represented by the edge E21 moves to the right relative to the in-vehicle camera 2a of the host vehicle 1 as shown in FIG. The position where the edge E21 has moved to the right side by the corresponding amount (arrow D1) is predicted as the position of the edge E22. Then, the CPU 27 and the binarization processing unit 21 perform the same processing as in the second example described above. Therefore, also in this case, the same effect as the second example is achieved.

また、第2、第3の例を組み合わせたエッジ位置の予測を行うことも可能である。すなわち、車両1の車両状態データと他車両による物標状態データとにもとづきエッジ位置を予測することで、より精度のよい予測が可能となる。よって、1画素単位で2値化するエッジ検出範囲A11をさらに狭く設定することが可能となり、2値化画像データ21aのデータ量をより削減することが可能となる。   It is also possible to predict the edge position by combining the second and third examples. That is, by predicting the edge position based on the vehicle state data of the vehicle 1 and the target state data of the other vehicle, a more accurate prediction can be performed. Therefore, the edge detection range A11 that is binarized in units of one pixel can be set narrower, and the data amount of the binarized image data 21a can be further reduced.

さらに、上述した第1の例と、第2、第3の例のいずれか1つまたは両方とを組み合わせてエッジ位置の予測を行うことができる。すなわち、前々回、前回の撮影画像でのエッジ位置からエッジの移動情報を求め、そのエッジ移動情報と車両1の車両状態データまたは他車両による物標状態データとに基づいてエッジ位置を予測することで、より精度のよい予測が可能となる。よってこの場合も、1画素単位で2値化するエッジ検出範囲を第1〜3の例を単独で用いた場合より狭く設定することができ、2値化画像データ21aのデータ量をより削減することが可能となる。   Furthermore, the edge position can be predicted by combining the first example described above and one or both of the second and third examples. That is, the edge movement information is obtained from the edge position in the previous captured image, and the edge position is predicted based on the edge movement information and the vehicle state data of the vehicle 1 or the target state data of another vehicle. , More accurate prediction is possible. Therefore, in this case as well, the edge detection range that is binarized on a pixel-by-pixel basis can be set narrower than when the first to third examples are used alone, and the data amount of the binarized image data 21a is further reduced. It becomes possible.

図6は、本実施形態における画像処理装置2bの動作手順について説明するフローチャート図である。まず画像処理装置2bは、電源が投下された直後に車載カメラ2aが撮影する第1撮影画像の処理を行う(手順S100)。すなわち、1画素単位で2値化するエッジ検出範囲を設定せずに撮影画像の全体を4画素の画素ブロック単位で2値化し(S1)、エッジ検出を行う(S2)。車両が走行を開始する前であれば精度のよいエッジ検出は必要ないため、4画素単位で画像を2値化することで2値化画像データのデータ量を削減できる。そして、検出されたエッジに基づき画像認識を行い、第1撮影画像の認識結果データを制御ECU8へ送信する(S3)。   FIG. 6 is a flowchart for explaining the operation procedure of the image processing apparatus 2b in the present embodiment. First, the image processing apparatus 2b performs processing of the first captured image captured by the in-vehicle camera 2a immediately after the power is turned off (step S100). That is, the entire captured image is binarized in units of four pixel blocks without setting an edge detection range that is binarized in units of one pixel (S1), and edge detection is performed (S2). Since accurate edge detection is not necessary before the vehicle starts traveling, the amount of binarized image data can be reduced by binarizing the image in units of four pixels. Then, image recognition is performed based on the detected edge, and recognition result data of the first captured image is transmitted to the control ECU 8 (S3).

次に画像処理装置2bは、第2撮影画像の画像処理を行う(S200)。すなわち、車両1の車両状態を含むエッジの移動情報を取得し(S4)、手順S2で検出された第1撮影画像でのエッジ位置と取得したエッジの移動情報とに基づき、第2撮影画像でのエッジ位置を予測する(S5)。そして、予測されたエッジ位置周辺の1画素単位で2値化するエッジ検出範囲を設定し(S6)、撮影画像を2値化してエッジを検出する(S7)。そして、検出されたエッジに基づき画像認識を行い、第2撮影画像の認識結果データを制御ECU8へ送信する(S8)。   Next, the image processing apparatus 2b performs image processing of the second captured image (S200). That is, the movement information of the edge including the vehicle state of the vehicle 1 is acquired (S4), and the second captured image is obtained based on the edge position in the first captured image detected in step S2 and the acquired edge movement information. The edge position is predicted (S5). Then, an edge detection range to be binarized in units of one pixel around the predicted edge position is set (S6), and the captured image is binarized to detect an edge (S7). Then, image recognition is performed based on the detected edge, and recognition result data of the second captured image is transmitted to the control ECU 8 (S8).

そして画像処理装置2bは、第3撮影画像以降の画像処理を行う(S300)。すなわち、前回の撮影画像で検出されたエッジの位置と、そのエッジ位置と前々回の撮影画像で検出されたエッジ位置の差とに基づき新たなエッジ位置を予測し(S9)、車両1の車両状態あるいは他車による物標状態を含むエッジの移動情報を取得して(S10)、手順S9で予測した予測結果とエッジ位置移動情報とからエッジ位置を再度予測する(S11)。そして予測されたエッジ位置周辺のエッジ検出範囲を設定し(S12)、撮影画像を2値化してエッジを検出する(S13)。そして、検出されたエッジに基づき画像認識を行い、認識結果データを制御ECU8へ送信する(S14)。そして、車両1の走行中は手順S9〜S14からなる手順S300が繰り返し実行される。   Then, the image processing device 2b performs image processing after the third captured image (S300). That is, a new edge position is predicted based on the position of the edge detected in the previous captured image and the difference between the edge position and the edge position detected in the previous captured image (S9), and the vehicle state of the vehicle 1 Alternatively, edge movement information including the target state by another vehicle is acquired (S10), and the edge position is predicted again from the prediction result predicted in step S9 and the edge position movement information (S11). Then, an edge detection range around the predicted edge position is set (S12), and the captured image is binarized to detect an edge (S13). Then, image recognition is performed based on the detected edge, and recognition result data is transmitted to the control ECU 8 (S14). While the vehicle 1 is traveling, the procedure S300 including the procedures S9 to S14 is repeatedly executed.

なお、上記において示した手順200は上述した第2の例に対応しており、また手順300は上述した第1の例と第2または第3の例の組合せに対応する。しかし、手順300のうち手順S10、S11を省略することにより第1の例に対応した手順としてもよく、手順S9を省略して第2または第3の例に対応した手順とすることももちろん可能である。   The procedure 200 shown above corresponds to the above-described second example, and the procedure 300 corresponds to a combination of the above-described first example and the second or third example. However, the procedure S10 and S11 in the procedure 300 may be omitted, and the procedure corresponding to the first example may be performed, and the procedure S9 may be omitted and the procedure corresponding to the second or third example may be performed. It is.

図7は、従来技術と本実施形態における画像処理について説明するシーケンス図である。図7(1)には従来の車載カメラ2a、画像処理装置2bによる動作、図7(2)には本実施形態の車載カメラ2a、画像処理装置2b、各種センサ4〜6、車載レーダ3等の動作による画像処理シーケンスが示される。なお、画像処理装置2bの動作には図7のフローチャート図で示した手順と同じ符号が付してあり、反復される手順S300には反復回数に応じた添え字「−n」(nは自然数)が付してある。   FIG. 7 is a sequence diagram for explaining image processing in the related art and the present embodiment. FIG. 7 (1) shows the operation of the conventional in-vehicle camera 2a and image processing apparatus 2b, and FIG. 7 (2) shows the in-vehicle camera 2a, image processing apparatus 2b, various sensors 4-6, in-vehicle radar 3 and the like of this embodiment. An image processing sequence by the operation of is shown. The operation of the image processing apparatus 2b is denoted by the same reference numeral as the procedure shown in the flowchart of FIG. 7, and the repeated procedure S300 has a subscript “−n” (n is a natural number) corresponding to the number of iterations. ) Is attached.

図7(1)に示すように、従来は順次車載カメラ2aが毎秒30画像、つまり100ミリ秒ごとに3画像の速度で撮影を行う(P1、P2、…、Pn)。しかし2値化画像データ21aのデータ量が大きいため画像処理装置2bによるエッジ検出の処理負荷が大きく、2値化処理とエッジ検出、及びエッジ検出結果に基づく画像認識結果データの出力は第1撮影画像の処理(S100)の後、3画像に1回の割合でしか行われていなかった(S200、S300−1、…、S300−n)。これに対し、図7(2)に示すように本実施形態では、2値化画像データ21aのデータ量が削減できるためエッジ検出処理の処理負荷が軽減され、毎撮影画像ごとに2値化処理とエッジ検出が可能となり、さらには検出されたエッジに基づく画像認識と認識結果を制御ECU8へ通信することが可能となる(S200、S300−1、…、S300−n)。よって、画像認識における時間精度を向上させることが可能となる。   As shown in FIG. 7A, conventionally, the vehicle-mounted camera 2a sequentially captures 30 images per second, that is, three images every 100 milliseconds (P1, P2,..., Pn). However, since the data amount of the binarized image data 21a is large, the processing load of the edge detection by the image processing device 2b is large, and the binarization process, the edge detection, and the output of the image recognition result data based on the edge detection result are the first photographing. After the image processing (S100), it was performed only once every three images (S200, S300-1, ..., S300-n). On the other hand, as shown in FIG. 7B, in the present embodiment, the data amount of the binarized image data 21a can be reduced, so that the processing load of edge detection processing is reduced, and binarization processing is performed for each captured image. Edge detection is possible, and further, image recognition based on the detected edge and the recognition result can be communicated to the control ECU 8 (S200, S300-1,..., S300-n). Therefore, it is possible to improve time accuracy in image recognition.

また図7(3)に示すように、1撮影画像分の画像処理S300−nでは、エッジ位置の予測(S9、S11)、エッジ検出範囲の設定(S12)、2値化処理及びエッジ検出(S13)、そして画像認識と制御ECU8への認識結果データの送信(S14)が順次行われ、エッジ位置の予測に際して各種センサ4〜6からの車両1の車両状態データや車載レーダ3からの他車両による物標状態データが入力される(S10)。ここで、これらのデータが入力されるタイミングはエッジ位置予測が終了する以前の任意のタイミングとすることが可能である。また、制御ECU8への認識結果データの送信(S14)と次の撮影画像の画像処理シーケンスにおけるエッジ位置の予測とは並行して処理させることも可能である。そうすることにより、さらに時間精度を向上させることが可能となる。   Further, as shown in FIG. 7 (3), in image processing S300-n for one captured image, edge position prediction (S9, S11), edge detection range setting (S12), binarization processing and edge detection ( S13), and image recognition and transmission of recognition result data to the control ECU 8 (S14) are sequentially performed. When the edge position is predicted, vehicle state data of the vehicle 1 from the various sensors 4 to 6 and other vehicles from the in-vehicle radar 3 The target state data is input (S10). Here, the timing at which these data are input can be any timing before the end of the edge position prediction. Further, the transmission of the recognition result data to the control ECU 8 (S14) and the prediction of the edge position in the image processing sequence of the next photographed image can be processed in parallel. By doing so, it is possible to further improve the time accuracy.

図8は、本実施形態における2値化処理の第4の例を説明する図である。第4の例では、車載レーダ3から入力される、車載カメラ2aの撮影範囲外で検知される物標の相対的な位置、距離、速度を表す物標状態データに基づいて、エッジ位置予測部28が2値化処理する撮影画像でのエッジ位置を予測する。例えば、図8(A)に示すように車載レーダ3の検知範囲3a内に存在する隣接車線の先行車両100が矢印L1に示されるように車載カメラ2の撮影可能範囲2cの方向へ移動していることが検知され、車載レーダ3からかかる物標状態データがエッジ位置予測部28に入力される。すると、エッジ位置予測部28は先行車両100が車載カメラ2の撮影可能範囲2cへ入ることを予測して、図8(B)に示すように先行車両100が撮影されることによりエッジE32が表れると予測する。そしてCPU27は、エッジE32が位置する画像の右端の領域に対し1画素単位で2値化するエッジ検出範囲A31を設定する。そして、2値化処理部21が2値化処理を行う。   FIG. 8 is a diagram illustrating a fourth example of binarization processing in the present embodiment. In the fourth example, an edge position prediction unit based on target state data representing the relative position, distance, and speed of a target detected outside the imaging range of the in-vehicle camera 2a, which is input from the in-vehicle radar 3. 28 predicts an edge position in a captured image to be binarized. For example, as shown in FIG. 8A, the preceding vehicle 100 in the adjacent lane that exists in the detection range 3a of the in-vehicle radar 3 moves in the direction of the photographing range 2c of the in-vehicle camera 2 as indicated by the arrow L1. The target state data is input from the in-vehicle radar 3 to the edge position prediction unit 28. Then, the edge position prediction unit 28 predicts that the preceding vehicle 100 enters the image capturing possible range 2c of the in-vehicle camera 2, and the edge E32 appears by capturing the preceding vehicle 100 as shown in FIG. 8B. Predict. Then, the CPU 27 sets an edge detection range A31 that is binarized in units of one pixel with respect to the right end region of the image where the edge E32 is located. Then, the binarization processing unit 21 performs binarization processing.

このようにして、前回の撮影画像でエッジが検出されていない場合であっても、今回の撮影画像でのエッジ位置を予測でき、エッジ検出精度を低下させることなく2値化画像データ21aのデータ量を削減できる。そして、一旦エッジE32が検出された後は、上述した第2、第3の例、さらに2画像以上処理した後は第1の例によって画像処理を行うことができる。   In this way, even when the edge is not detected in the previous captured image, the edge position in the current captured image can be predicted, and the data of the binarized image data 21a without reducing the edge detection accuracy. The amount can be reduced. Then, once the edge E32 is detected, the image processing can be performed by the second and third examples described above, and further by the first example after processing two or more images.

なお本実施形態では、予測されたエッジ位置付近を1画素単位で2値化し、それ以外の範囲は4画素の画素ブロック単位で2値化する。しかし、2値化する単位の画素数はこれに限られず、予測されたエッジ付近のエッジ検出範囲を2値化する画素数の単位が、その他の範囲を2値化する画素数の単位より小さければ、エッジ付近の解像度をそれ以外の範囲の解像度より落とすことなく、撮影画像全体としての2値化画像データのデータ量を削減することができる。   In the present embodiment, the vicinity of the predicted edge position is binarized in units of one pixel, and the other ranges are binarized in units of four pixel blocks. However, the number of pixels for binarization is not limited to this, and the unit for the number of pixels for binarizing the predicted edge detection range near the edge may be smaller than the unit for the number of pixels for binarizing the other ranges. For example, the data amount of the binarized image data as the entire captured image can be reduced without reducing the resolution in the vicinity of the edge from the resolution in other ranges.

以上説明したとおり、本発明によれば、撮影対象物の移動量が大きい場合であっても、精度よいエッジ検出を行いつつメモリ量、エッジ検出処理の負荷の低減が可能となる。   As described above, according to the present invention, it is possible to reduce the memory amount and the load of edge detection processing while performing accurate edge detection even when the amount of movement of the photographing object is large.

本実施形態における画像処理装置が車両に搭載される例を説明する図である。It is a figure explaining the example by which the image processing apparatus in this embodiment is mounted in a vehicle. 本実施形態における画像処理装置2bの構成を説明する図である。It is a figure explaining the structure of the image processing apparatus 2b in this embodiment. 2値化処理部21による撮影画像の2値化処理について説明する図である。It is a figure explaining the binarization process of the picked-up image by the binarization process part. 本実施形態におけるエッジ位置予測の第1の例を説明する図である。It is a figure explaining the 1st example of edge position prediction in this embodiment. 本実施形態におけるエッジ位置予測の第2、第3の例を説明する図である。It is a figure explaining the 2nd and 3rd example of edge position prediction in this embodiment. 本実施形態における画像処理装置2bの動作手順について説明するフローチャート図である。It is a flowchart figure explaining the operation | movement procedure of the image processing apparatus 2b in this embodiment. 従来技術と本実施形態における画像処理について説明するシーケンス図である。It is a sequence diagram explaining the image processing in a prior art and this embodiment. 本実施形態における2値化処理の第4の例を説明する図である。It is a figure explaining the 4th example of the binarization process in this embodiment.

符号の説明Explanation of symbols

2b:画像処理装置、3:車載レーダ、4:車速センサ、5:Gセンサ、
6:ステアリングセンサ、21:2値化処理部、22:第1メモリ、
23:ヒストグラム処理部、25:エッジ検出部、27:CPU、28:エッジ位置予測部
2b: image processing device, 3: on-vehicle radar, 4: vehicle speed sensor, 5: G sensor,
6: steering sensor, 21: binarization processing unit, 22: first memory,
23: Histogram processing unit, 25: Edge detection unit, 27: CPU, 28: Edge position prediction unit

Claims (5)

車載カメラが順次撮影する車両周囲の撮影画像を2値化する二値化処理部と
前記2値化された撮影画像内のエッジを検出するエッジ検出部と
第1の撮影画像で検出されるエッジの第1の位置と当該エッジの移動情報とに基づき前記第1の撮影画像の後の第2の撮影画像における当該エッジの第2の位置を予測するエッジ位置予測部とを有し、
前記二値化処理部は、前記第2の撮影画像では前記第2の位置周辺の範囲を第1の画素数単位で2値化し、それ以外の範囲を前記第1の画素数より大きい第2の画素数単位で2値化することを特徴とする画像処理装置。
A binarization processing unit that binarizes captured images around the vehicle that the in-vehicle camera sequentially captures,
An edge detection unit for detecting an edge in the binarized captured image;
An edge for predicting the second position of the edge in the second photographed image after the first photographed image based on the first position of the edge detected in the first photographed image and the movement information of the edge A position prediction unit,
The binarization processing unit binarizes a range around the second position in units of the first number of pixels in the second photographed image, and a second range larger than the first number of pixels. characterized by binarizing the number of pixels, the image processing apparatus.
請求項1において、
前記エッジの移動情報は、前記エッジ位置予測部により求められる、前記第1の撮影画像の前の第3の撮影画像における前記エッジの第3の位置と前記第1の位置との差を有することを特徴とする画像処理装置。
In claim 1,
Movement information of the edge is determined by the edge position prediction unit, having a difference between the third third position and said first position of said edge that definitive a captured image in front of the first captured image An image processing apparatus.
請求項1または2において、
記エッジの移動情報は、前記エッジ位置予測部に入力される、前記車両の車速、加速度、操舵方向等の車両状態を含むことを特徴とする画像処理装置。
In claim 1 or 2,
Movement information before Symbol edge, the input to the edge position prediction unit, a vehicle speed of the vehicle, acceleration, an image processing apparatus which comprises a vehicle condition such as a steering direction.
請求項1乃至3のいずれかにおいて、
記エッジの移動情報は、前記エッジ位置予測部に入力される、前記車両の車載レーダ装置から前記車載カメラの撮影範囲で検知される物標の相対的な位置、距離、速度等の物標状態を含むことを特徴とする画像処理装置。
In any one of Claims 1 thru | or 3,
Movement information before Symbol edge, the input to the edge position prediction unit, the relative position of the vehicle radar device of target object detected by the shooting range of the vehicle camera the vehicle, distance, speed, etc. target An image processing apparatus including a state .
車載カメラが順次撮影する車両周囲の撮影画像を2値化する二値化処理部と
前記2値化された撮影画像内のエッジを検出するエッジ検出部と
前記車両の車載レーダ装置から前記車載カメラの撮影範囲外の範囲を含む検知範囲で検知される物標の相対的な位置、距離、速度等の物標状態を表す物標状態データが入力され、前記撮影画像における前記エッジの位置を前記物標状態に基づき予測するエッジ位置予測部とを有し
前記二値化処理部は、当該撮影画像では前記予測される位置周辺の範囲を第1の画素数単位で2値化し、それ以外の範囲を前記第1の画素数より大きい第2の画素数単位で2値化することを特徴とする画像処理装置。
A binarization processing unit that binarizes captured images around the vehicle that the in-vehicle camera sequentially captures,
An edge detection unit for detecting an edge in the binarized captured image;
Target state data representing a target state such as a relative position, a distance, and a speed of a target detected in a detection range including a range outside the imaging range of the in-vehicle camera is input from the in-vehicle radar device of the vehicle, An edge position prediction unit that predicts the position of the edge in the captured image based on the target state ;
The binarization processing unit binarizes a range around the predicted position in the captured image in units of a first number of pixels, and sets the other range to a second number of pixels larger than the first number of pixels. characterized by binarizing a unit, the image processing apparatus.
JP2006335763A 2006-12-13 2006-12-13 Image processing device Expired - Fee Related JP4995555B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006335763A JP4995555B2 (en) 2006-12-13 2006-12-13 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006335763A JP4995555B2 (en) 2006-12-13 2006-12-13 Image processing device

Publications (2)

Publication Number Publication Date
JP2008143452A JP2008143452A (en) 2008-06-26
JP4995555B2 true JP4995555B2 (en) 2012-08-08

Family

ID=39604085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006335763A Expired - Fee Related JP4995555B2 (en) 2006-12-13 2006-12-13 Image processing device

Country Status (1)

Country Link
JP (1) JP4995555B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106096512A (en) * 2016-05-31 2016-11-09 上海美迪索科电子科技有限公司 Utilize the detection device and method that vehicles or pedestrians are identified by depth camera

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5849942B2 (en) * 2012-12-25 2016-02-03 株式会社日本自動車部品総合研究所 In-vehicle image processing device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4151137B2 (en) * 1998-12-16 2008-09-17 株式会社豊田自動織機 Obstacle detection device for vehicle and vehicle
JP2005090974A (en) * 2003-09-12 2005-04-07 Daihatsu Motor Co Ltd Preceding car recognition device
JP2005318546A (en) * 2004-03-29 2005-11-10 Fuji Photo Film Co Ltd Image recognition system, image recognition method, and image recognition program
JP2007058282A (en) * 2005-08-22 2007-03-08 Fujitsu Ten Ltd Image recognition processor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106096512A (en) * 2016-05-31 2016-11-09 上海美迪索科电子科技有限公司 Utilize the detection device and method that vehicles or pedestrians are identified by depth camera
CN106096512B (en) * 2016-05-31 2020-08-25 上海美迪索科电子科技有限公司 Detection device and method for recognizing vehicle or pedestrian by using depth camera

Also Published As

Publication number Publication date
JP2008143452A (en) 2008-06-26

Similar Documents

Publication Publication Date Title
JP4437714B2 (en) Lane recognition image processing device
JP4622001B2 (en) Road lane marking detection apparatus and road lane marking detection method
US6531959B1 (en) Position detecting device
US20030137593A1 (en) Infrared image-processing apparatus
JP4584120B2 (en) Road marking line detection device, road marking line detection method, road marking line detection program
JP6457278B2 (en) Object detection apparatus and object detection method
US20050102070A1 (en) Vehicle image processing device
CN112084810B (en) Obstacle detection method and device, electronic equipment and storage medium
US20150367781A1 (en) Lane boundary estimation device and lane boundary estimation method
JP6601506B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method, image processing program, and vehicle
JP5402828B2 (en) Lane boundary detection device, lane boundary detection program
JP5855756B2 (en) Lane mark recognition device
JP2011175468A (en) Boundary line detection device
JP2007179386A (en) Method and apparatus for recognizing white line
US8160300B2 (en) Pedestrian detecting apparatus
JP3849505B2 (en) Obstacle monitoring device and program
JP5027710B2 (en) Vehicle environment recognition device and preceding vehicle tracking control system
US11458892B2 (en) Image generation device and image generation method for generating a composite image
JP4995555B2 (en) Image processing device
JP2010061375A (en) Apparatus and program for recognizing object
JP3272694B2 (en) Outside monitoring device with fail-safe function
JP2007058282A (en) Image recognition processor
JP6798331B2 (en) Driving support device
JP4211681B2 (en) Travel path recognition device
JP3532896B2 (en) Smear detection method and image processing apparatus using the smear detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091120

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110927

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120508

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120510

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150518

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees