JP4995555B2 - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP4995555B2 JP4995555B2 JP2006335763A JP2006335763A JP4995555B2 JP 4995555 B2 JP4995555 B2 JP 4995555B2 JP 2006335763 A JP2006335763 A JP 2006335763A JP 2006335763 A JP2006335763 A JP 2006335763A JP 4995555 B2 JP4995555 B2 JP 4995555B2
- Authority
- JP
- Japan
- Prior art keywords
- edge
- vehicle
- image
- captured image
- range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、車載カメラが撮影した車両周囲の撮影画像を2値化し、2値化された撮影画像内のエッジを検出する画像処理装置に関する。 The present invention relates to an image processing apparatus that binarizes a captured image around a vehicle captured by an in-vehicle camera and detects an edge in the binarized captured image.
CMOSイメージセンサを備えたカメラと、その撮影画像からエッジ(輪郭)を検出してエッジの形状から被写体を認識する画像処理装置により構成される画像センサが知られている。近年ではこのような画像センサにより車両前方の物体を認識する車両の安全制御システムが普及しつつあり、その一例が特許文献1に記載されている。
There is known an image sensor including a camera including a CMOS image sensor and an image processing apparatus that detects an edge (contour) from a captured image and recognizes a subject from the shape of the edge. In recent years, a vehicle safety control system for recognizing an object in front of the vehicle by using such an image sensor is spreading, and an example thereof is described in
かかる画像センサの画像処理装置は、まず撮影画像を車載カメラの解像度に対応した画素ごとに、例えば黒に対応する「1」または白に対応する「0」のいずれかに2値化し、2値化画像データをメモリに格納する。次に、画像処理装置は、2値化画像データを画像の縦方向、横方向それぞれ個別に累計(ヒストグラム化)し、その累計値により黒色が割当てられた画素の分布を求めて画像内のエッジを検出する。そして、画像処理装置は、検出されたエッジの形状を予め記憶された先行車両その他の障害物のエッジの形状と照合して、画像認識を行う。 The image processing apparatus of such an image sensor first binarizes a captured image into, for example, “1” corresponding to black or “0” corresponding to white for each pixel corresponding to the resolution of the in-vehicle camera. The converted image data is stored in the memory. Next, the image processing apparatus individually accumulates the binarized image data in the vertical and horizontal directions (histogram) and obtains the distribution of the pixels to which black is assigned based on the accumulated value to obtain an edge in the image. Is detected. Then, the image processing apparatus performs image recognition by comparing the shape of the detected edge with the shape of the edge of the preceding vehicle or other obstacle stored in advance.
このような画像処理においては、処理される画像データを格納するために多くのメモリが必要とされる。例えば、画素ごとに2値化された2値化画像データを格納するには少なくとも画素数と同じビット数の容量のメモリが必要となる。そして、エッジ検出では縦方向、横方向それぞれ個別にヒストグラム化が行われるため、1画像のエッジ検出のためには2画像分の2値化画像データを格納できる容量のメモリが必要となる。このように2値化画像データはメモリ資源を圧迫する一因となる。 In such image processing, a large amount of memory is required to store image data to be processed. For example, in order to store binarized image data binarized for each pixel, a memory having a capacity of at least the same number of bits as the number of pixels is required. In edge detection, histograms are separately formed in the vertical direction and the horizontal direction, respectively. Therefore, a memory having a capacity capable of storing binary image data for two images is required for edge detection of one image. Thus, the binarized image data contributes to the pressure on memory resources.
また、2値化画像データのデータ量が大きくなると、エッジ検出の処理量が増大する。よって、2値化画像データは画像処理装置の処理負荷を増大させる一因ともなる。 Further, as the amount of binarized image data increases, the amount of edge detection processing increases. Therefore, the binarized image data also contributes to increase the processing load on the image processing apparatus.
よって、メモリ量やエッジ検出処理の負荷の低減を目的として、2値化画像データのデータ量を削減するための方法が種々提案されている。一例としては、撮影画像の画素を例えば縦横2画素からなる画素ブロックに分割し、画素ブロック単位で2値化する方法が提案されている。この方法によれば、画像の解像度を低下させながらも2値化画像データのデータ量を4分の1に抑えることができる。 Therefore, various methods for reducing the amount of binarized image data have been proposed for the purpose of reducing the amount of memory and the load of edge detection processing. As an example, a method has been proposed in which pixels of a captured image are divided into pixel blocks made up of, for example, two vertical and horizontal pixels and binarized in units of pixel blocks. According to this method, the data amount of the binarized image data can be suppressed to a quarter while reducing the resolution of the image.
さらに別の例として、車載カメラにより例えば毎秒30画像の頻度で撮影される画像の連続性に着目して、前回の撮影画像で検出されたエッジ付近の範囲の画像は1画素単位で2値化し、それ以外の範囲の画像は画素ブロック単位で2値化する方法も提案されている。この方法によれば、解像度を低下させずにエッジ検出が行え、且つ2値化画像データのデータ量も有る程度抑えることができる。
しかしながら上記のような従来技術では、主要な撮像対象である先行車両が高速で移動すると同時に自車両も高速で移動するので、次のような問題が生じる。すなわち、1つの撮影画像から次の撮影画像までの間に画像内の物体の移動量は大きくなるので、移動したエッジの検出を精度よく行うためには1画素単位で2値化する範囲を前回の撮影画像のエッジ付近で広く設定しなくてはならない。すると、2値化画像データのデータ量はさほど小さくならず、メモリ量やエッジ検出処理の負荷の低減効果が十分得られない。 However, in the conventional technology as described above, the preceding vehicle, which is the main imaging target, moves at a high speed, and at the same time, the host vehicle also moves at a high speed. That is, since the amount of movement of the object in the image increases from one captured image to the next captured image, in order to detect the moved edge accurately, the binarized range in units of one pixel is set to the previous time. It must be set widely near the edge of the captured image. Then, the data amount of the binarized image data is not so small, and the effect of reducing the memory amount and the load of edge detection processing cannot be obtained sufficiently.
そこで、本発明の目的は、撮影対象物の移動量が大きい場合であっても、精度よいエッジ検出を行いつつメモリ量やエッジ検出処理の負荷の低減が可能な画像処理装置を提供することにある。 Accordingly, an object of the present invention is to provide an image processing apparatus capable of reducing the amount of memory and the load of edge detection processing while performing accurate edge detection even when the amount of movement of the photographing object is large. is there.
上記の目的を達成するための本発明の第1の側面は、車載カメラが順次撮影する車両周囲の撮影画像を2値化し、前記2値化された撮影画像内のエッジを検出する画像処理装置であって、第1の撮影画像で検出されるエッジの第1の位置と当該エッジの移動情報とに基づき前記第1の撮影画像の後の第2の撮影画像における当該エッジの第2の位置を予測し、前記第2の撮影画像では前記第2の位置周辺の範囲を第1の画素数単位で2値化し、それ以外の範囲を前記第1の画素数より大きい第2の画素数単位で2値化することを特徴とする。 In order to achieve the above object, according to a first aspect of the present invention, there is provided an image processing apparatus that binarizes captured images around a vehicle that are sequentially captured by an in-vehicle camera and detects an edge in the binarized captured image. The second position of the edge in the second photographed image after the first photographed image based on the first position of the edge detected in the first photographed image and the movement information of the edge In the second captured image, the range around the second position is binarized in units of the first number of pixels, and the other range is in units of the second number of pixels larger than the first number of pixels. It is characterized by binarizing with.
上記側面によれば、第1の撮影画像で検出されるエッジの第1の位置と当該エッジの移動情報とに基づき第2の撮影画像における当該エッジの第2の位置を予測することにより、先行車両などの物体と自車両が高速で移動する場合であっても、予測されたエッジ位置周辺の最小限の範囲を第1の画素数単位で2値化し、それ以外の範囲を前記第1の画素数より大きい第2の画素数単位で2値化することができる。すなわち、第1の画素数単位で2値化を行う範囲は、解像度は高いがメモリ消費量の大きいので、その範囲を最小限とすることにより、エッジ検出の精度を低下させることなく2値化画像データのデータ量を削減できる。よって、2値化画像データを格納するメモリ量やエッジ検出処理の負荷を低減することができる。 According to the above aspect, the preceding position is predicted by predicting the second position of the edge in the second photographed image based on the first position of the edge detected in the first photographed image and the movement information of the edge. Even when an object such as a vehicle and the host vehicle move at high speed, the minimum range around the predicted edge position is binarized in units of the first number of pixels, and the other range is converted into the first range. Binarization can be performed in units of a second number of pixels larger than the number of pixels. In other words, the binarization range in units of the first number of pixels is high in resolution but consumes a large amount of memory. Therefore, binarization is performed without reducing the accuracy of edge detection by minimizing the range. The amount of image data can be reduced. Therefore, it is possible to reduce the amount of memory for storing binarized image data and the load of edge detection processing.
以下、図面にしたがって本発明の実施の形態について説明する。但し、本発明の技術的範囲はこれらの実施の形態に限定されず、特許請求の範囲に記載された事項とその均等物まで及ぶものである。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the technical scope of the present invention is not limited to these embodiments, but extends to the matters described in the claims and equivalents thereof.
図1は本実施形態における画像処理装置が車両に搭載される例を説明する図である。車両1には、車両前方を撮影し撮影画像の認識を行う画像センサ2が搭載され、画像センサ2は車載カメラ2aと画像処理装置2bが一体化されて構成される。車載カメラ2aは、固定式のカメラであって、例えば640×480画素のCMOSイメージセンサを備え、車両前方の一定範囲2cの画像を毎秒30画像撮影し、画像処理装置2bへその撮影画像データを入力する。そして画像処理装置2bは撮影画像データを処理して撮影画像の2値化、エッジ検出、及びエッジ形状の認識を行い、認識結果データを出力する。
FIG. 1 is a diagram illustrating an example in which the image processing apparatus according to the present embodiment is mounted on a vehicle. The
また、車両1には車両前方の一定角度の検知範囲3aにおいて先行車両などの物標の相対的な位置、距離、速度などの物標状態を検知するスキャン式の車載レーダ3や、車両1の速度を検知する車速センサ4、車両1の加速度を検知するGセンサ5、車両1のドライバによる操舵角を検知するステアリングセンサ6などの各種センサが搭載される。そして画像センサ2による画像認識結果データ、車載レーダ3により検知される物標状態データ、及び各種センサ4〜6による検知される車速、加速度、操舵方向等の車両状態データは、制御ECU(Electronic Control Unit)8へ入力される。そして、制御ECU8はこれらの入力データに基づいてブレーキ7などのアクチュエータを制御して車両1の走行を制御したり、不図示の警報器にドライバへの警告を行わせたりする。このように、制御ECU8とこれに接続される各種機器により車両の安全制御システムが構成される。
Further, the
図2は、本実施形態における画像処理装置2bの構成を説明する図である。まず2値化処理部21は、車載カメラ2aから毎秒30画像の撮影画像データ2dを入力され、各撮影画像を構成する画素の濃度階調値に応じて画像を2値化(「0」または「1」)し、2値化された撮影画像の2値化画像データ21aを第1メモリ22に格納する。次に、ヒストグラム処理部23は、第1メモリから読み出した2値化画像データ21aに基づき画像の縦方向、横方向ごとの値を累計してヒストグラム化し、ヒストグラムデータ23aを第2メモリ24に格納する。
FIG. 2 is a diagram illustrating the configuration of the
エッジ検出部25は、第2メモリからヒストグラムデータ23aを読出し、画像内の「1」が割当てられた画素の分布を求めてエッジ検出を行い、検出したエッジの座標からなるエッジ位置データ25aを第3メモリ26に格納する。ここで、「エッジ」とは撮影画像の明暗の変化点によって、画像内の物体の輪郭を構成する線、または輪郭と輪郭内部の領域の形状や模様を構成する線をいう。なお、以下では物体の輪郭を構成する線を例として説明する。
The
CPU27は第3メモリ26に格納されるエッジ位置データ25aを読出して検出されたエッジの形状を第5メモリ30に予め格納された各種物体のエッジの形状と照合させて被写体の画像認識を行い、その画像認識結果データ27aを制御ECU8へ出力する。
The
ここで図3を用いて、2値化処理部21による撮影画像の2値化処理について説明する。まず、図3(A)において、車載カメラ2aから入力される撮影画像データ2dを処理して撮影画像を車載カメラ2aの解像度、つまり640×480画素の1画素単位で2値化する場合を示す。2値化処理部21は、例えば1画素256階調(8ビット)の撮影画像データについて、中間値(128)以上の階調値の画素に「1」、それ未満の階調値の画素に「0」を割付けて撮影画像を2値化し、2値化画像データを21a生成する。この結果、640×480ビットの2値化画像データ21aが生成される。さらにヒストグラム処理部23で縦横2方向で個別の累計計算を行うので、この2値化画像データ21aを2画像分格納するために第1メモリ22には640×480×2ビットの容量が必要とされる。
Here, the binarization processing of the captured image by the
次に、図3(B)において、撮影画像を縦横2画素の4画素からなる画素ブロックごとに分割し、画素ブロック単位で2値化する場合を示す。この場合、画素ブロックに含まれる4画素分の階調値の合計値は0から1020までの値となる。よって2値化処理部21は、中間値(510)を基準にそれ以上の合計値の画素ブロックに「1」、それ未満の合計値の画素ブロックに「0」を割付けて画素ブロックごとの2値化画像データ21aを生成する。この結果生成される2値化画像データ21aのデータ量は画素数の4分の1のビット数となる。よって、第1メモリ22にはヒストグラム処理のために2画像分の2値化画像データ21aが格納されるとしても、必要なメモリ量は、640×480×2/4ビットとなる。
Next, FIG. 3B shows a case where a captured image is divided into pixel blocks each composed of 4 pixels of 2 pixels vertically and horizontally and binarized in units of pixel blocks. In this case, the total value of the gradation values for the four pixels included in the pixel block is a value from 0 to 1020. Accordingly, the
上述の図3(A)、(B)の2値化処理を比較すると、図3(A)の方法は2値化された撮影画像の解像度は高いがデータ量が大きくなり、図3(B)の方法は反対に解像度は低くなるがデータ量は小さく抑えられる。本実施形態においては、図3(A)、図3(B)の方法を組み合わせた2値化処理が次のように行われる。 Comparing the binarization processing of FIGS. 3A and 3B described above, the method of FIG. 3A has a high resolution although the resolution of the binarized photographed image is high, and FIG. On the other hand, the resolution is low, but the amount of data is kept small. In the present embodiment, a binarization process combining the methods of FIGS. 3A and 3B is performed as follows.
図2に戻り、エッジ位置予測部28は、車載カメラ2aから連続して入力される撮影画像について、撮影画像ごとに検出されたエッジ位置データ25aを第3メモリ26から読み出して格納する第4メモリ29を備える。この第4メモリ29は、数画像分のエッジ位置データを格納する容量を有し、最新のエッジ位置データ25aが入力されると、古いデータは上書きされる。そしてエッジ位置予測部28は、第4メモリ29から読み出した前回の撮影画像のエッジ位置と後述するエッジ移動情報とから今回の撮影画像のエッジ位置を予測して予測結果データ28aをCPU27へ入力する。
Returning to FIG. 2, the edge
すると、CPU27は、予測された今回の撮影画像のエッジ位置付近の一定の範囲を図3(A)で示したように1画素単位で2値化を行うエッジ検出範囲として算出し、2値化処理部21にそのエッジ検出範囲データ27bを入力する。すると、2値化処理部21は入力により設定されたエッジ検出範囲の撮影画像を1画素単位で2値化し、それ以外の範囲を4画素で構成される画素ブロック単位で2値化して、2値化画像データ21aを第1メモリ22に格納する。
Then, the
このようにして、エッジ位置を予測することによりエッジ付近のエッジ検出範囲を限定して設定することができる。よって、2値化された撮影画像のエッジ付近の解像度を低下させることなく、且つ2値化画像データ21a全体のデータ量を低減することが可能となる。次に、エッジ位置の移動情報の種別ごとに、本実施形態におけるエッジ位置予測の例を説明する。
In this way, the edge detection range near the edge can be limited and set by predicting the edge position. Therefore, it is possible to reduce the data amount of the entire
図4は、本実施形態におけるエッジ位置予測の第1の例を説明する図である。図4(A)〜(D)はいずれも車載カメラ2aの撮影画像を模式的に示している。上述したように、2値化処理部21へは毎秒30画像分の撮影画像データが車載カメラ2aから順次入力される。よって、図4(A)に、前々回の撮影画像において検出されたエッジE1(一点鎖線で表示)と、前回の撮影画像で検出されたエッジE2(実線で表示)とを示すと、矢印Dで示されるエッジE1からE2への移動方向と移動量とを求めることができる。よって、第1の例では、エッジE1からE2への移動方向と移動量とをエッジの「移動情報」として用いて、今回の撮影画像でのエッジ位置を予測する。
FIG. 4 is a diagram for explaining a first example of edge position prediction in the present embodiment. FIGS. 4A to 4D schematically show images taken by the in-
具体的には、エッジ位置予測部28は前々回のエッジE1の位置データと前回のエッジE2の位置データとを第4メモリ29に格納しておき、これらのデータからエッジの移動方向、移動量からなるエッジの移動情報を求める。そして、エッジ位置予測部28は、図4(B)に示すように今回の撮影画像のエッジE3(点線で表示)の位置を前回のエッジE2の位置と矢印Dで示されるエッジの移動情報とに基づき予測する。
Specifically, the edge
そして、CPU27は、今回の撮影画像においては図4(C)に示すように予測されたエッジ位置E3付近のエッジ検出範囲A1(斜線で表示された範囲)を2値化処理部21に設定する。そして、2値化処理部21はエッジ検出範囲A1を1画素単位で2値化し、それ以外の範囲A2は4画素からなる画素ブロック単位で2値化して、撮影画像全体の2値化画像データを第1メモリ22に格納する。
Then, the
ここで従来技術と本実施形態における2値化処理とを比較する。図4(D)に示すように、従来技術では前回のエッジE2付近のエッジ検出範囲A3を1画素単位で2値化し、それ以外の範囲を画素ブロック単位で2値化する。しかし、従来技術ではエッジ位置の予測を行わないため、エッジE2がいずれの方向へ移動してもエッジが存在する画像範囲を1画素単位で2値化して精度よくエッジ検出できるように、エッジ検出範囲A3を広く設定する必要がある。すると、エッジ検出範囲A3については、2値化画像データは画素数と同じビット数のデータ量となるため、画像全体としてのデータ量はさほど小さくはならない。一方、本実施形態では図4(C)に示したようにエッジE3の位置を予測することによりエッジ検出範囲A1をより限定して設定できるので、2値化画像データ21aのデータ量をより小さく抑えることができる。また、エッジE3が確度高くに存在する範囲をエッジ検出範囲とするので、その範囲の画像を解像度の高い1画素単位で2値化でき、エッジ検出を精度良く行うことができる。
Here, the prior art and the binarization processing in the present embodiment will be compared. As shown in FIG. 4D, in the prior art, the edge detection range A3 near the previous edge E2 is binarized in units of one pixel, and the other ranges are binarized in units of pixel blocks. However, since the edge position is not predicted in the prior art, the edge detection is performed so that the edge can be detected with high accuracy by binarizing the image area where the edge exists even if the edge E2 moves in any direction. It is necessary to set the range A3 wide. Then, in the edge detection range A3, since the binarized image data has a data amount of the same number of bits as the number of pixels, the data amount of the entire image is not so small. On the other hand, in the present embodiment, as shown in FIG. 4C, the edge detection range A1 can be set more limited by predicting the position of the edge E3, so the data amount of the
図5は本実施形態におけるエッジ位置予測の第2、第3の例を説明する図である。図5(A)、(B)はいずれも車載カメラ2aによる撮影画像を模式的に示している。まず第2の例について説明する。図5(A)に示すように、エッジ位置予測部28は、前回の撮影画像のエッジE21(実線で表示)の位置と、車速センサ4、Gセンサ5、ステアリングセンサ6から入力される車両状態データを含むエッジの移動情報に基づき、今回の撮影画像のエッジE22(点線で表示)の位置を予測する。
FIG. 5 is a diagram for explaining second and third examples of edge position prediction in the present embodiment. 5A and 5B schematically show images taken by the in-
具体的には、図5(C)に示すように、例えば自車両1の車載カメラ2aによる撮影可能範囲2cに先行車両100が存在し、先行車両100が撮影画像内のエッジE21として検出されたとする。今仮に自車両1はドライバの運転操作により矢印Lで示すように左側へ移動し始めたとすると、車速センサ5は移動速度、ステアリングセンサ6はハンドルの操舵方向、Gセンサは横方向の加速度をそれぞれ検知し、それぞれの検知結果からなる車両状態データがエッジ位置予測部28へ入力される。すると、エッジ位置予測部28は、車両状態データに基づきエッジE21で表される先行車両100が自車両1の車載カメラ2aとは相対的に右側へ移動すると判断し、車両1の移動速度に応じて矢印D1で表される移動量でエッジE21が右側へ移動した位置をエッジE22の位置として予測する。
Specifically, as shown in FIG. 5C, for example, the preceding
そして、CPU27は今回の撮影画像においては図5(B)に示すように予測されたエッジE22付近のエッジ検出範囲A11(斜線で表示された範囲)を設定する。すると2値化処理部21は、エッジ検出範囲A11を1画素単位で2値化し、それ以外の範囲A21を4画素からなる画素ブロック単位で2値化して、撮影画像全体の2値化画像データを第1メモリ22に格納する。このように、前回のエッジ位置と車両1の車両状態とに基づき今回の撮影画像のエッジ位置を予測することによっても、画像処理装置2bは上述した第1の例と同様の作用効果を奏する。
Then, the
また、第3の例としては、図5(C)に示すように車載レーダ3の検知範囲3a内に存在する先行車両100の位置、距離、速度等の物標状態データに基づいて今回の撮影画像でのエッジ位置E31を予測することができる。すなわち、先行車両100の角度方向が車載レーダ3によって矢印Rに示されるように右側へ移動していることが検知された場合に、かかる物標状態データが画像処理装置2bのエッジ位置予測部28へ入力される。すると、エッジ位置予測部28は、図5(A)に示すようにエッジE21で表される先行車両100が自車両1の車載カメラ2aとは相対的に右側へ移動すると判断し、移動速度に応じた量(矢印D1)でエッジE21が右側へ移動した位置をエッジE22の位置として予測する。そして、CPU27、2値化処理部21は、上述の第2の例と同様の処理を行う。よってこの場合も、第2の例と同様の作用効果を奏する。
Further, as a third example, as shown in FIG. 5C, the current photographing is performed based on target state data such as the position, distance, and speed of the preceding
また、第2、第3の例を組み合わせたエッジ位置の予測を行うことも可能である。すなわち、車両1の車両状態データと他車両による物標状態データとにもとづきエッジ位置を予測することで、より精度のよい予測が可能となる。よって、1画素単位で2値化するエッジ検出範囲A11をさらに狭く設定することが可能となり、2値化画像データ21aのデータ量をより削減することが可能となる。
It is also possible to predict the edge position by combining the second and third examples. That is, by predicting the edge position based on the vehicle state data of the
さらに、上述した第1の例と、第2、第3の例のいずれか1つまたは両方とを組み合わせてエッジ位置の予測を行うことができる。すなわち、前々回、前回の撮影画像でのエッジ位置からエッジの移動情報を求め、そのエッジ移動情報と車両1の車両状態データまたは他車両による物標状態データとに基づいてエッジ位置を予測することで、より精度のよい予測が可能となる。よってこの場合も、1画素単位で2値化するエッジ検出範囲を第1〜3の例を単独で用いた場合より狭く設定することができ、2値化画像データ21aのデータ量をより削減することが可能となる。
Furthermore, the edge position can be predicted by combining the first example described above and one or both of the second and third examples. That is, the edge movement information is obtained from the edge position in the previous captured image, and the edge position is predicted based on the edge movement information and the vehicle state data of the
図6は、本実施形態における画像処理装置2bの動作手順について説明するフローチャート図である。まず画像処理装置2bは、電源が投下された直後に車載カメラ2aが撮影する第1撮影画像の処理を行う(手順S100)。すなわち、1画素単位で2値化するエッジ検出範囲を設定せずに撮影画像の全体を4画素の画素ブロック単位で2値化し(S1)、エッジ検出を行う(S2)。車両が走行を開始する前であれば精度のよいエッジ検出は必要ないため、4画素単位で画像を2値化することで2値化画像データのデータ量を削減できる。そして、検出されたエッジに基づき画像認識を行い、第1撮影画像の認識結果データを制御ECU8へ送信する(S3)。
FIG. 6 is a flowchart for explaining the operation procedure of the
次に画像処理装置2bは、第2撮影画像の画像処理を行う(S200)。すなわち、車両1の車両状態を含むエッジの移動情報を取得し(S4)、手順S2で検出された第1撮影画像でのエッジ位置と取得したエッジの移動情報とに基づき、第2撮影画像でのエッジ位置を予測する(S5)。そして、予測されたエッジ位置周辺の1画素単位で2値化するエッジ検出範囲を設定し(S6)、撮影画像を2値化してエッジを検出する(S7)。そして、検出されたエッジに基づき画像認識を行い、第2撮影画像の認識結果データを制御ECU8へ送信する(S8)。
Next, the
そして画像処理装置2bは、第3撮影画像以降の画像処理を行う(S300)。すなわち、前回の撮影画像で検出されたエッジの位置と、そのエッジ位置と前々回の撮影画像で検出されたエッジ位置の差とに基づき新たなエッジ位置を予測し(S9)、車両1の車両状態あるいは他車による物標状態を含むエッジの移動情報を取得して(S10)、手順S9で予測した予測結果とエッジ位置移動情報とからエッジ位置を再度予測する(S11)。そして予測されたエッジ位置周辺のエッジ検出範囲を設定し(S12)、撮影画像を2値化してエッジを検出する(S13)。そして、検出されたエッジに基づき画像認識を行い、認識結果データを制御ECU8へ送信する(S14)。そして、車両1の走行中は手順S9〜S14からなる手順S300が繰り返し実行される。
Then, the
なお、上記において示した手順200は上述した第2の例に対応しており、また手順300は上述した第1の例と第2または第3の例の組合せに対応する。しかし、手順300のうち手順S10、S11を省略することにより第1の例に対応した手順としてもよく、手順S9を省略して第2または第3の例に対応した手順とすることももちろん可能である。
The
図7は、従来技術と本実施形態における画像処理について説明するシーケンス図である。図7(1)には従来の車載カメラ2a、画像処理装置2bによる動作、図7(2)には本実施形態の車載カメラ2a、画像処理装置2b、各種センサ4〜6、車載レーダ3等の動作による画像処理シーケンスが示される。なお、画像処理装置2bの動作には図7のフローチャート図で示した手順と同じ符号が付してあり、反復される手順S300には反復回数に応じた添え字「−n」(nは自然数)が付してある。
FIG. 7 is a sequence diagram for explaining image processing in the related art and the present embodiment. FIG. 7 (1) shows the operation of the conventional in-
図7(1)に示すように、従来は順次車載カメラ2aが毎秒30画像、つまり100ミリ秒ごとに3画像の速度で撮影を行う(P1、P2、…、Pn)。しかし2値化画像データ21aのデータ量が大きいため画像処理装置2bによるエッジ検出の処理負荷が大きく、2値化処理とエッジ検出、及びエッジ検出結果に基づく画像認識結果データの出力は第1撮影画像の処理(S100)の後、3画像に1回の割合でしか行われていなかった(S200、S300−1、…、S300−n)。これに対し、図7(2)に示すように本実施形態では、2値化画像データ21aのデータ量が削減できるためエッジ検出処理の処理負荷が軽減され、毎撮影画像ごとに2値化処理とエッジ検出が可能となり、さらには検出されたエッジに基づく画像認識と認識結果を制御ECU8へ通信することが可能となる(S200、S300−1、…、S300−n)。よって、画像認識における時間精度を向上させることが可能となる。
As shown in FIG. 7A, conventionally, the vehicle-mounted
また図7(3)に示すように、1撮影画像分の画像処理S300−nでは、エッジ位置の予測(S9、S11)、エッジ検出範囲の設定(S12)、2値化処理及びエッジ検出(S13)、そして画像認識と制御ECU8への認識結果データの送信(S14)が順次行われ、エッジ位置の予測に際して各種センサ4〜6からの車両1の車両状態データや車載レーダ3からの他車両による物標状態データが入力される(S10)。ここで、これらのデータが入力されるタイミングはエッジ位置予測が終了する以前の任意のタイミングとすることが可能である。また、制御ECU8への認識結果データの送信(S14)と次の撮影画像の画像処理シーケンスにおけるエッジ位置の予測とは並行して処理させることも可能である。そうすることにより、さらに時間精度を向上させることが可能となる。
Further, as shown in FIG. 7 (3), in image processing S300-n for one captured image, edge position prediction (S9, S11), edge detection range setting (S12), binarization processing and edge detection ( S13), and image recognition and transmission of recognition result data to the control ECU 8 (S14) are sequentially performed. When the edge position is predicted, vehicle state data of the
図8は、本実施形態における2値化処理の第4の例を説明する図である。第4の例では、車載レーダ3から入力される、車載カメラ2aの撮影範囲外で検知される物標の相対的な位置、距離、速度を表す物標状態データに基づいて、エッジ位置予測部28が2値化処理する撮影画像でのエッジ位置を予測する。例えば、図8(A)に示すように車載レーダ3の検知範囲3a内に存在する隣接車線の先行車両100が矢印L1に示されるように車載カメラ2の撮影可能範囲2cの方向へ移動していることが検知され、車載レーダ3からかかる物標状態データがエッジ位置予測部28に入力される。すると、エッジ位置予測部28は先行車両100が車載カメラ2の撮影可能範囲2cへ入ることを予測して、図8(B)に示すように先行車両100が撮影されることによりエッジE32が表れると予測する。そしてCPU27は、エッジE32が位置する画像の右端の領域に対し1画素単位で2値化するエッジ検出範囲A31を設定する。そして、2値化処理部21が2値化処理を行う。
FIG. 8 is a diagram illustrating a fourth example of binarization processing in the present embodiment. In the fourth example, an edge position prediction unit based on target state data representing the relative position, distance, and speed of a target detected outside the imaging range of the in-
このようにして、前回の撮影画像でエッジが検出されていない場合であっても、今回の撮影画像でのエッジ位置を予測でき、エッジ検出精度を低下させることなく2値化画像データ21aのデータ量を削減できる。そして、一旦エッジE32が検出された後は、上述した第2、第3の例、さらに2画像以上処理した後は第1の例によって画像処理を行うことができる。
In this way, even when the edge is not detected in the previous captured image, the edge position in the current captured image can be predicted, and the data of the
なお本実施形態では、予測されたエッジ位置付近を1画素単位で2値化し、それ以外の範囲は4画素の画素ブロック単位で2値化する。しかし、2値化する単位の画素数はこれに限られず、予測されたエッジ付近のエッジ検出範囲を2値化する画素数の単位が、その他の範囲を2値化する画素数の単位より小さければ、エッジ付近の解像度をそれ以外の範囲の解像度より落とすことなく、撮影画像全体としての2値化画像データのデータ量を削減することができる。 In the present embodiment, the vicinity of the predicted edge position is binarized in units of one pixel, and the other ranges are binarized in units of four pixel blocks. However, the number of pixels for binarization is not limited to this, and the unit for the number of pixels for binarizing the predicted edge detection range near the edge may be smaller than the unit for the number of pixels for binarizing the other ranges. For example, the data amount of the binarized image data as the entire captured image can be reduced without reducing the resolution in the vicinity of the edge from the resolution in other ranges.
以上説明したとおり、本発明によれば、撮影対象物の移動量が大きい場合であっても、精度よいエッジ検出を行いつつメモリ量、エッジ検出処理の負荷の低減が可能となる。 As described above, according to the present invention, it is possible to reduce the memory amount and the load of edge detection processing while performing accurate edge detection even when the amount of movement of the photographing object is large.
2b:画像処理装置、3:車載レーダ、4:車速センサ、5:Gセンサ、
6:ステアリングセンサ、21:2値化処理部、22:第1メモリ、
23:ヒストグラム処理部、25:エッジ検出部、27:CPU、28:エッジ位置予測部
2b: image processing device, 3: on-vehicle radar, 4: vehicle speed sensor, 5: G sensor,
6: steering sensor, 21: binarization processing unit, 22: first memory,
23: Histogram processing unit, 25: Edge detection unit, 27: CPU, 28: Edge position prediction unit
Claims (5)
前記2値化された撮影画像内のエッジを検出するエッジ検出部と、
第1の撮影画像で検出されるエッジの第1の位置と当該エッジの移動情報とに基づき前記第1の撮影画像の後の第2の撮影画像における当該エッジの第2の位置を予測するエッジ位置予測部とを有し、
前記二値化処理部は、前記第2の撮影画像では前記第2の位置周辺の範囲を第1の画素数単位で2値化し、それ以外の範囲を前記第1の画素数より大きい第2の画素数単位で2値化することを特徴とする、画像処理装置。 A binarization processing unit that binarizes captured images around the vehicle that the in-vehicle camera sequentially captures,
An edge detection unit for detecting an edge in the binarized captured image;
An edge for predicting the second position of the edge in the second photographed image after the first photographed image based on the first position of the edge detected in the first photographed image and the movement information of the edge A position prediction unit,
The binarization processing unit binarizes a range around the second position in units of the first number of pixels in the second photographed image, and a second range larger than the first number of pixels. characterized by binarizing the number of pixels, the image processing apparatus.
前記エッジの移動情報は、前記エッジ位置予測部により求められる、前記第1の撮影画像の前の第3の撮影画像における前記エッジの第3の位置と前記第1の位置との差を有することを特徴とする画像処理装置。 In claim 1,
Movement information of the edge is determined by the edge position prediction unit, having a difference between the third third position and said first position of said edge that definitive a captured image in front of the first captured image An image processing apparatus.
前記エッジの移動情報は、前記エッジ位置予測部に入力される、前記車両の車速、加速度、操舵方向等の車両状態を含むことを特徴とする画像処理装置。 In claim 1 or 2,
Movement information before Symbol edge, the input to the edge position prediction unit, a vehicle speed of the vehicle, acceleration, an image processing apparatus which comprises a vehicle condition such as a steering direction.
前記エッジの移動情報は、前記エッジ位置予測部に入力される、前記車両の車載レーダ装置から前記車載カメラの撮影範囲で検知される物標の相対的な位置、距離、速度等の物標状態を含むことを特徴とする画像処理装置。 In any one of Claims 1 thru | or 3,
Movement information before Symbol edge, the input to the edge position prediction unit, the relative position of the vehicle radar device of target object detected by the shooting range of the vehicle camera the vehicle, distance, speed, etc. target An image processing apparatus including a state .
前記2値化された撮影画像内のエッジを検出するエッジ検出部と、
前記車両の車載レーダ装置から前記車載カメラの撮影範囲外の範囲を含む検知範囲で検知される物標の相対的な位置、距離、速度等の物標状態を表す物標状態データが入力され、前記撮影画像における前記エッジの位置を前記物標状態に基づき予測するエッジ位置予測部とを有し、
前記二値化処理部は、当該撮影画像では前記予測される位置周辺の範囲を第1の画素数単位で2値化し、それ以外の範囲を前記第1の画素数より大きい第2の画素数単位で2値化することを特徴とする、画像処理装置。 A binarization processing unit that binarizes captured images around the vehicle that the in-vehicle camera sequentially captures,
An edge detection unit for detecting an edge in the binarized captured image;
Target state data representing a target state such as a relative position, a distance, and a speed of a target detected in a detection range including a range outside the imaging range of the in-vehicle camera is input from the in-vehicle radar device of the vehicle, An edge position prediction unit that predicts the position of the edge in the captured image based on the target state ;
The binarization processing unit binarizes a range around the predicted position in the captured image in units of a first number of pixels, and sets the other range to a second number of pixels larger than the first number of pixels. characterized by binarizing a unit, the image processing apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006335763A JP4995555B2 (en) | 2006-12-13 | 2006-12-13 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006335763A JP4995555B2 (en) | 2006-12-13 | 2006-12-13 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008143452A JP2008143452A (en) | 2008-06-26 |
JP4995555B2 true JP4995555B2 (en) | 2012-08-08 |
Family
ID=39604085
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006335763A Expired - Fee Related JP4995555B2 (en) | 2006-12-13 | 2006-12-13 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4995555B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106096512A (en) * | 2016-05-31 | 2016-11-09 | 上海美迪索科电子科技有限公司 | Utilize the detection device and method that vehicles or pedestrians are identified by depth camera |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5849942B2 (en) * | 2012-12-25 | 2016-02-03 | 株式会社日本自動車部品総合研究所 | In-vehicle image processing device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4151137B2 (en) * | 1998-12-16 | 2008-09-17 | 株式会社豊田自動織機 | Obstacle detection device for vehicle and vehicle |
JP2005090974A (en) * | 2003-09-12 | 2005-04-07 | Daihatsu Motor Co Ltd | Preceding car recognition device |
JP2005318546A (en) * | 2004-03-29 | 2005-11-10 | Fuji Photo Film Co Ltd | Image recognition system, image recognition method, and image recognition program |
JP2007058282A (en) * | 2005-08-22 | 2007-03-08 | Fujitsu Ten Ltd | Image recognition processor |
-
2006
- 2006-12-13 JP JP2006335763A patent/JP4995555B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106096512A (en) * | 2016-05-31 | 2016-11-09 | 上海美迪索科电子科技有限公司 | Utilize the detection device and method that vehicles or pedestrians are identified by depth camera |
CN106096512B (en) * | 2016-05-31 | 2020-08-25 | 上海美迪索科电子科技有限公司 | Detection device and method for recognizing vehicle or pedestrian by using depth camera |
Also Published As
Publication number | Publication date |
---|---|
JP2008143452A (en) | 2008-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4437714B2 (en) | Lane recognition image processing device | |
JP4622001B2 (en) | Road lane marking detection apparatus and road lane marking detection method | |
US6531959B1 (en) | Position detecting device | |
US20030137593A1 (en) | Infrared image-processing apparatus | |
JP4584120B2 (en) | Road marking line detection device, road marking line detection method, road marking line detection program | |
JP6457278B2 (en) | Object detection apparatus and object detection method | |
US20050102070A1 (en) | Vehicle image processing device | |
CN112084810B (en) | Obstacle detection method and device, electronic equipment and storage medium | |
US20150367781A1 (en) | Lane boundary estimation device and lane boundary estimation method | |
JP6601506B2 (en) | Image processing apparatus, object recognition apparatus, device control system, image processing method, image processing program, and vehicle | |
JP5402828B2 (en) | Lane boundary detection device, lane boundary detection program | |
JP5855756B2 (en) | Lane mark recognition device | |
JP2011175468A (en) | Boundary line detection device | |
JP2007179386A (en) | Method and apparatus for recognizing white line | |
US8160300B2 (en) | Pedestrian detecting apparatus | |
JP3849505B2 (en) | Obstacle monitoring device and program | |
JP5027710B2 (en) | Vehicle environment recognition device and preceding vehicle tracking control system | |
US11458892B2 (en) | Image generation device and image generation method for generating a composite image | |
JP4995555B2 (en) | Image processing device | |
JP2010061375A (en) | Apparatus and program for recognizing object | |
JP3272694B2 (en) | Outside monitoring device with fail-safe function | |
JP2007058282A (en) | Image recognition processor | |
JP6798331B2 (en) | Driving support device | |
JP4211681B2 (en) | Travel path recognition device | |
JP3532896B2 (en) | Smear detection method and image processing apparatus using the smear detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091120 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100727 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110912 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110927 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120508 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120510 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150518 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |