JP2008205644A - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP2008205644A
JP2008205644A JP2007037038A JP2007037038A JP2008205644A JP 2008205644 A JP2008205644 A JP 2008205644A JP 2007037038 A JP2007037038 A JP 2007037038A JP 2007037038 A JP2007037038 A JP 2007037038A JP 2008205644 A JP2008205644 A JP 2008205644A
Authority
JP
Japan
Prior art keywords
motion vector
image processing
vehicle
pixel
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007037038A
Other languages
Japanese (ja)
Inventor
Hideaki Yamauchi
英彰 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2007037038A priority Critical patent/JP2008205644A/en
Publication of JP2008205644A publication Critical patent/JP2008205644A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Rear-View Mirror Devices That Are Mounted On The Exterior Of The Vehicle (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable a driver to intuitively determine a collision risk. <P>SOLUTION: A vision auxiliary system mounted to a vehicle is equipped with an image processing LSI 3. The image processing LSI 3 extracts a motion vector from a photographed image of consecutive two frames or thinned-out two frames on a time axis when a front of the vehicle is photographed by a camera 1 mounted to a side mirror at the front passenger seat side of the vehicle, and qualifies a pixel which has a collision risk based on the direction of the motion vector. Then, the image processing LSI 3 highlights the pixel which has the collision risk in displaying the photographed image photographed by the camera 1. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、車両の視界補助システムにおける画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method in a vehicle vision assistance system.

自動車の死角における視界を補助するためのシステムとしてサイドブラインドモニターというシステムがある。このシステムは、自動車の助手席側のサイドミラーに取り付けられたカメラでドライバーの死角となる自動車の助手席側前方を撮影し、そのカメラ映像を車内のモニターに表示することによって視界を補助するシステムである。このようなシステムの中には、単にカメラ映像をモニターに表示するだけでなく、より車両感覚がつかみ易いように、自動車の車体形状から算出されたガイドラインをカメラ映像に合成してモニターに表示するようにしたシステムもある。   There is a system called a side blind monitor as a system for assisting the visual field in the blind spot of an automobile. This system assists the field of view by photographing the front side of the passenger seat of the car, which is the blind spot of the driver, with a camera attached to the side mirror on the passenger side of the car, and displaying the camera image on the monitor inside the car. It is. In such a system, not only the camera image is simply displayed on the monitor, but also the guideline calculated from the shape of the car body is combined with the camera image and displayed on the monitor so that the vehicle sense can be easily grasped. There is also a system like this.

図5は、そのシステムのモニター画面の一例を示す図である。同図に示したように、カメラ映像にガイドライン31が合成されて表示される。
なお、このような視界補助システムのように、車両に取り付けられているカメラで撮影した画像を基に所定の処理を行うシステムは種々提案されている(例えば特許文献1、2、及び3等)。
特開2001−239832号公報 特開2002−314991号公報 特開2006−100965号公報
FIG. 5 is a diagram showing an example of the monitor screen of the system. As shown in the figure, the guideline 31 is synthesized and displayed on the camera video.
Various systems have been proposed for performing predetermined processing based on images captured by a camera attached to a vehicle, such as such a visual field assistance system (for example, Patent Documents 1, 2, and 3). .
JP 2001-239832 A JP 2002-314991 A JP 2006-1000096 A

ところで、上述のようなガイドラインをカメラ映像に合成してモニターに表示するようにしたシステムでは、ガイドラインがカメラ映像に自然に溶け込めず、直感的に判断しにくい。ガイドラインは地面に張り付いた位置関係を表現しており高さ方向の情報を持たないため、側溝位置の視認や地面から垂直に生えた障害物に対してのみ有効で、地表より高い位置で自車側に食い込んでくる複雑な形状の障害物(例えば樹木など)に対しては誤認する恐れがある。また、撮影仰角が地面方向に下がり気味の場合のみ有効で、遠方まで確認したくて真っ直ぐ前方を向いている場合、ガイドラインは意味をなさない。   By the way, in a system in which the above-described guidelines are combined with the camera video and displayed on the monitor, the guidelines are not naturally blended into the camera video and are difficult to judge intuitively. Since the guideline expresses the positional relationship attached to the ground and does not have information on the height direction, it is effective only for visually recognizing the gutter position and for obstacles that grow vertically from the ground, and at higher positions than the ground surface. There is a risk of misidentification of obstacles (such as trees) of complicated shapes that bite into the car. Also, it is effective only when the shooting angle of elevation falls toward the ground, and the guideline does not make sense if you want to check far away and are looking straight ahead.

本発明は、上記実情に鑑み、車両の視界補助システムにおいて、ドライバーが衝突リスクを直感的に判断できるようにする画像処理装置及び画像処理方法を提供することを目的とする。   In view of the above circumstances, an object of the present invention is to provide an image processing apparatus and an image processing method that enable a driver to intuitively determine a collision risk in a vehicle vision assistance system.

上記目的を達成するため、本発明の第1の態様に係る装置は、車両の視界補助システムにおける画像処理装置であって、前記車両の車幅方向片側の最端部又は最端部付近に取り付けられたカメラによって車両前方が撮影された時間軸上で連続した複数フレーム分あるいは間引いた複数フレーム分の撮影画像から動きベクトルを抽出する動きベクトル抽出手段を備え、前記動きベクトル抽出手段により抽出された動きベクトルの方向に基づいて衝突リスクのある画素を認定する、ことを特徴とする。   In order to achieve the above object, an apparatus according to a first aspect of the present invention is an image processing apparatus in a vehicular visibility assisting system, and is attached to the most end portion or near the most end portion on one side in the vehicle width direction of the vehicle. A motion vector extracting means for extracting a motion vector from captured images for a plurality of consecutive frames or a plurality of frames thinned out on a time axis in which the front of the vehicle is photographed by the captured camera, and extracted by the motion vector extracting means A pixel at risk of collision is identified based on the direction of the motion vector.

この装置によれば、複数フレーム分の撮影画像から抽出された動きベクトルに基づいて衝突リスクのある画素を認定することができる。
本発明の第2の態様に係る装置は、上記第1の態様において、前記動きベクトル抽出手段により抽出された動きベクトルを統計的に処理して、水平成分が左方向の動きベクトル
と水平成分が右方向の動きベクトルとの分離境界を抽出し、前記分離境界に基づいて前記衝突リスクのある画素を認定する、ことを特徴とする。
According to this apparatus, pixels having a risk of collision can be identified based on motion vectors extracted from a plurality of frames of captured images.
According to a second aspect of the present invention, in the first aspect, the apparatus according to the first aspect statistically processes the motion vector extracted by the motion vector extraction unit, and the horizontal component is a left-direction motion vector and the horizontal component is A separation boundary with a motion vector in the right direction is extracted, and the pixel having the risk of collision is identified based on the separation boundary.

この装置によれば、水平成分が左方向の動きベクトルと水平成分が右方向の動きベクトルとの分離境界に基づいて衝突リスクのある画素を認定することができる。
本発明の第3の態様に係る装置は、上記第1又は2の態様において、前記カメラによって撮影された撮影画像を表示させるときに前記衝突リスクのある画素を強調表示させる、ことを特徴とする。
According to this apparatus, a pixel having a collision risk can be identified based on a separation boundary between a horizontal motion vector having a horizontal direction and a horizontal component having a horizontal motion vector.
The apparatus according to a third aspect of the present invention is characterized in that, in the first or second aspect, the pixel at risk of collision is highlighted when displaying a photographed image photographed by the camera. .

この装置によれば、衝突リスクのある画素が強調表示されるので、ドライバーは衝突リスクを直感的に判断することができる。
本発明の第4の態様に係る画像処理装置は、上記第2の態様において、前記車両は自動車であり、前記カメラは、前記自動車の助手席側のサイドミラーに取り付けられ、前記サイドミラー最端部から前記カメラの取り付け位置までの車幅方向距離に基づいて前記分離境界の位置を補正する、ことを特徴とする。
According to this apparatus, pixels having a risk of collision are highlighted, so that the driver can intuitively determine the risk of collision.
An image processing apparatus according to a fourth aspect of the present invention is the image processing apparatus according to the second aspect, wherein the vehicle is an automobile, and the camera is attached to a side mirror on the passenger seat side of the automobile, The position of the separation boundary is corrected based on the distance in the vehicle width direction from the section to the camera mounting position.

この装置によれば、分離境界の位置が補正されるので、分離境界の位置の精度が更に向上すると共に、その分離境界に応じて認定された衝突リスクのある画素の精度も更に向上する。   According to this apparatus, since the position of the separation boundary is corrected, the accuracy of the position of the separation boundary is further improved, and the accuracy of the pixel having a collision risk recognized according to the separation boundary is further improved.

また、本発明は、上記各態様に係る装置に限らず、方法として構成することもできる。   In addition, the present invention is not limited to the apparatus according to each aspect described above, and can be configured as a method.

本発明によれば、ドライバーは衝突リスクを直感的に判断することができる。   According to the present invention, the driver can intuitively determine the collision risk.

以下、図面を参照しながら本発明の実施の形態を説明する。
図1は、本発明の一実施の形態に係る画像処理装置を備えた視界補助システムのブロック図である。本実施形態において、視界補助システムはサイドブラインドモニターシステムであり、このシステムが、左側通行の道路を走行する右ハンドル仕様の自動車に搭載されているものとする。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram of a visual field assistance system provided with an image processing apparatus according to an embodiment of the present invention. In the present embodiment, it is assumed that the visibility assisting system is a side blind monitor system, and this system is mounted on a right-hand drive type vehicle traveling on a left-handed road.

同図に示したように、視界補助システムは、主要な構成として、カメラ1、フレームバッファ2、画像処理LSI(Large Scale Integration)3、及び、ディスプレイ4等を有する。   As shown in the figure, the visual field assistance system includes a camera 1, a frame buffer 2, an image processing LSI (Large Scale Integration) 3, a display 4, and the like as main components.

カメラ1は、例えばCCD(Charge Coupled Devices)カメラ等であって、自動車の助手席側のサイドミラー(例えばドアミラーやバックミラー等)に取り付けられ、ドライバーの死角となる自動車の助手席側前方を所定のフレームレートで撮影する。   The camera 1 is, for example, a CCD (Charge Coupled Devices) camera or the like, which is attached to a side mirror (for example, a door mirror or a rearview mirror) on the passenger seat side of the automobile, and is located in front of the passenger seat side of the automobile which is a blind spot of the driver. Shoot at a frame rate of.

フレームバッファ2は、後フレーム領域5及び前フレーム領域6を有し、カメラ1で撮影された時間軸上で連続する2フレーム分あるいは間引いた2フレーム分の撮影画像の画像データを格納する。後フレーム領域5は、カメラ1で撮影された撮影画像の画像データを1フレーム毎に順に格納する領域である。前フレーム領域6は、後フレーム領域5に格納された画像データを順に或いは所定フレーム数毎に1つ格納する領域である。これにより、前フレーム領域6には、後フレーム領域5に格納された画像データよりも時間的に前のフレームの画像データが格納されるようになる。   The frame buffer 2 has a rear frame region 5 and a front frame region 6 and stores image data of captured images of two frames that are consecutively taken or thinned out on the time axis captured by the camera 1. The rear frame area 5 is an area for sequentially storing image data of captured images captured by the camera 1 for each frame. The previous frame area 6 is an area for storing the image data stored in the subsequent frame area 5 in order or one for every predetermined number of frames. As a result, the previous frame area 6 stores the image data of the previous frame in time with respect to the image data stored in the subsequent frame area 5.

画像処理LSI3は、本実施形態に係る画像処理装置の一例であり、動きベクトル水平成分抽出器7、動きベクトル方向判定器8、左スコアバッファ9、右スコアバッファ10
、分水嶺スコアラインバッファ11、大小比較器12、最大値画素検出器13、直進/左旋回/右旋回判定器14、衝突リスク画素強調表示エフェクター15、及び、映像表示器16等を有する。
The image processing LSI 3 is an example of an image processing apparatus according to the present embodiment, and includes a motion vector horizontal component extractor 7, a motion vector direction determiner 8, a left score buffer 9, and a right score buffer 10.
, A watershed score line buffer 11, a magnitude comparator 12, a maximum value pixel detector 13, a straight / left turn / right turn determination unit 14, a collision risk pixel enhancement display effector 15, and a video display 16.

動きベクトル水平成分抽出器7は、後フレーム領域5と前フレーム領域6とに格納されている2フレーム分の撮影画像の画像データから、各画素の動きベクトルを抽出し、さらに、その各画素の動きベクトルの水平成分を抽出する。   The motion vector horizontal component extractor 7 extracts the motion vector of each pixel from the image data of the captured image for two frames stored in the rear frame region 5 and the previous frame region 6, and further, for each pixel. Extract the horizontal component of the motion vector.

なお、本実施形態では、画素毎に動きベクトルを抽出することから、動きベクトルをピクセルフローと言うこともできる。また、本実施例では、撮影画像の水平方向をX方向、垂直方向をY方向とし、その水平方向において左方向を−X方向、右方向を+X方向とする。   In this embodiment, since a motion vector is extracted for each pixel, the motion vector can also be referred to as a pixel flow. In this embodiment, the horizontal direction of the captured image is the X direction, the vertical direction is the Y direction, the left direction in the horizontal direction is the -X direction, and the right direction is the + X direction.

動きベクトル方向判定器8は、動きベクトル水平成分抽出器7により抽出された各画素の動きベクトルの水平成分のそれぞれについて、動きベクトルの水平成分が左方向であるか、右方向であるか、それとも0(水平成分無し)であるかを判定する。   For each horizontal component of the motion vector of each pixel extracted by the motion vector horizontal component extractor 7, the motion vector direction determiner 8 determines whether the horizontal component of the motion vector is the left direction, the right direction, It is determined whether it is 0 (no horizontal component).

左スコアバッファ9は、動きベクトル方向判定器8により動きベクトルの水平成分が左方向であると判定された場合の数がスコアとして格納される。
右スコアバッファ10は、動きベクトル方向判定器8により動きベクトルの水平成分が右方向であると判定された場合の数がスコアとして格納される。
In the left score buffer 9, the number when the horizontal component of the motion vector is determined to be in the left direction by the motion vector direction determiner 8 is stored as a score.
In the right score buffer 10, the number when the horizontal component of the motion vector is determined to be in the right direction by the motion vector direction determining unit 8 is stored as a score.

分水嶺スコアラインバッファ11は、撮影画像の水平方向の画素位置(撮影画像のX座標)に対応するラインバッファであって、動きベクトル方向判定器8により動きベクトルの水平成分が0であると判定された場合の数が、その水平方向の画素位置毎に、スコアとして格納される。例えば、撮影画像の水平方向の画素数が640であった場合には、その水平方向の各画素位置に対応する640個のスコアが分水嶺スコアラインバッファ11に格納されることになる。   The watershed score line buffer 11 is a line buffer corresponding to the pixel position in the horizontal direction of the captured image (X coordinate of the captured image), and the motion vector direction determiner 8 determines that the horizontal component of the motion vector is zero. Is stored as a score for each pixel position in the horizontal direction. For example, when the number of pixels in the horizontal direction of the captured image is 640, 640 scores corresponding to the respective pixel positions in the horizontal direction are stored in the watershed score line buffer 11.

大小比較器12は、左スコアバッファ9と右スコアバッファ10に格納されているスコアの大小を比較する。
最大値画素検出器13は、分水嶺スコアバッファ11に格納されている水平方向の各画素位置のスコアから、最大スコアの画素位置(X座標)を検出する。
The magnitude comparator 12 compares the scores stored in the left score buffer 9 and the right score buffer 10.
The maximum value pixel detector 13 detects the pixel position (X coordinate) of the maximum score from the score of each pixel position in the horizontal direction stored in the watershed score buffer 11.

直進/左旋回/右旋回判定器14は、大小比較器13の比較結果と最大値画素検出器13の検出結果とから、自動車が直進しているのか、左旋回しているのか、右旋回しているのかを判定する。   The straight / left turn / right turn determination unit 14 determines whether the vehicle is moving straight, turning left, or turning right based on the comparison result of the magnitude comparator 13 and the detection result of the maximum value pixel detector 13. It is determined whether it is.

衝突リスク画素強調表示エフェクター15は、直進/左旋回/右旋回判定器14の判定結果と最大値画素検出器13の検出結果とから、衝突リスク画素(衝突リスクのある画素)を認定し、これを強調表示するように映像表示器16に指示する。   The collision risk pixel highlighting effector 15 recognizes a collision risk pixel (a pixel having a collision risk) from the determination result of the straight / left turn / right turn determination unit 14 and the detection result of the maximum value pixel detector 13, The video display 16 is instructed to highlight this.

映像表示器16は、後フレーム領域5に格納されている撮影画像の画像データと衝突リスク画素強調表示エフェクター15の指示とに基づいて、衝突リスク画素を強調表示させた撮影画像をディスプレイ4に表示させる。但し、衝突リスク画素強調表示エフェクター15において、衝突リスク画素が認定されなかった場合には、後フレーム領域5に格納されている画像データに基づいて撮影画像をディスプレイ4に通常表示させる。   The video display 16 displays on the display 4 a captured image in which the collision risk pixel is highlighted based on the image data of the captured image stored in the rear frame region 5 and the instruction of the collision risk pixel enhancement display effector 15. Let However, when the collision risk pixel highlighting effector 15 does not recognize the collision risk pixel, the captured image is normally displayed on the display 4 based on the image data stored in the rear frame region 5.

なお、衝突リスク画素を強調表示させた撮影画像は、例えばαブレンド等の手法を用いて生成することができる。
ディスプレイ4は、例えば液晶ディスプレイ等であって、ドライバーから視認可能な車内の位置に取り付けられている。
Note that a captured image in which the collision risk pixels are highlighted can be generated using a technique such as α blend.
The display 4 is a liquid crystal display or the like, for example, and is attached at a position in the vehicle that can be visually recognized by the driver.

次に、この視界補助システムの動作を画像処理LSI3の処理を中心に説明する。
図2は、この視界補助システムにおける画像処理LSI3のフレーム単位の処理を示すフローチャートである。なお、この処理は、自動車が動いているときに行われるものとし、また、カメラ1での撮影を開始して、後フレーム領域5及び前フレーム領域6に撮影画像の画像データが格納されているときに行われるものとする。
Next, the operation of this visibility assisting system will be described focusing on the processing of the image processing LSI 3.
FIG. 2 is a flowchart showing processing in units of frames of the image processing LSI 3 in this visual field assistance system. Note that this processing is performed when the automobile is moving, and shooting with the camera 1 is started, and image data of the shot image is stored in the rear frame area 5 and the front frame area 6. Shall be done from time to time.

同図に示したように、この処理では、まず、後フレーム領域5及び前フレーム領域6に格納されている2フレーム分の撮影画像の画像データから、各画素の動きベクトルを抽出する(S1)。   As shown in the figure, in this process, first, the motion vector of each pixel is extracted from the image data of the captured images for two frames stored in the rear frame area 5 and the front frame area 6 (S1). .

続いて、処理対象走査線を1走査線目、処理対象画素を1画素目とし、処理対象走査線中の処理対象画素についてのS1で抽出された動きベクトルから、水平成分を抽出する(S2)。   Subsequently, the processing target scanning line is the first scanning line and the processing target pixel is the first pixel, and a horizontal component is extracted from the motion vector extracted in S1 for the processing target pixel in the processing target scanning line (S2). .

続いて、S2で抽出された水平成分の方向が負方向(左方向)であるか、0であるか、正方向(右方向)であるかを判定する(S3)。
S3の判定結果が負方向である場合には、左スコアバッファ9に格納されているスコアを1増やす(S4)。
Subsequently, it is determined whether the direction of the horizontal component extracted in S2 is a negative direction (left direction), 0, or a positive direction (right direction) (S3).
If the determination result in S3 is negative, the score stored in the left score buffer 9 is increased by 1 (S4).

なお、本実施形態では、左スコアバッファ9、右スコアバッファ10、及び、分水嶺スコアラインバッファ11に格納されている各スコアは、上記S1の処理開始前において全て0にリセットされるものとする。   In the present embodiment, all the scores stored in the left score buffer 9, the right score buffer 10, and the watershed score line buffer 11 are all reset to 0 before the start of the processing of S1.

S3の判定結果が0である場合には、分水嶺スコアラインバッファ11に格納されている対応するスコアを1増やす(S5)。例えば処理対象画素が1画素目であった場合には、分水嶺スコアラインバッファ11に格納されている1画素目に対応するスコアが1増える。   If the determination result in S3 is 0, the corresponding score stored in the watershed score line buffer 11 is increased by 1 (S5). For example, when the processing target pixel is the first pixel, the score corresponding to the first pixel stored in the watershed score line buffer 11 is increased by one.

S3の判定結果が正方向である場合には、右スコアバッファ10に格納されているスコアを1増やす(S6)。
続いて、処理対象走査線中の全画素を処理対象画素として処理したか否かを判定し(S7)、その判定結果がNoの場合には、処理対象画素を次の画素に移動して(S8)、S2へ戻る
S7の判定結果がYesの場合には、全走査線を処理対象走査線として処理したか否かを判定し(S9)、その判定結果がNoの場合には、処理対象走査線を次の走査線に移動して(S10)、S2へ戻る。
If the determination result in S3 is positive, the score stored in the right score buffer 10 is increased by 1 (S6).
Subsequently, it is determined whether or not all pixels in the processing target scanning line have been processed as processing target pixels (S7). If the determination result is No, the processing target pixel is moved to the next pixel ( S8), return to S2 If the determination result of S7 is Yes, it is determined whether or not all scanning lines have been processed as processing target scanning lines (S9), and if the determination result is No, the processing target The scanning line is moved to the next scanning line (S10), and the process returns to S2.

S9の判定結果がYesの場合には、分水嶺スコアラインバッファ11に格納されている水平成分の各画素位置のスコアから、最大スコアの画素位置を探索する(S11)。
続いて、分水嶺スコアラインバッファ11に格納されている各画素位置のスコアにおける最大スコアが0より大きいか否かを判定する(S12)。
When the determination result of S9 is Yes, the pixel position of the maximum score is searched from the score of each pixel position of the horizontal component stored in the watershed score line buffer 11 (S11).
Subsequently, it is determined whether or not the maximum score in the score of each pixel position stored in the watershed score line buffer 11 is greater than 0 (S12).

S12の判定結果がYesの場合には、自動車が直進していると判断し、S11で探索された画素位置の座標(X座標)を衝突リスク境界に認定する(S13)。なお、衝突リスク境界は、水平成分が左方向の動きベクトルと水平成分が右方向の動きベクトルとの分離境界である。本実施形態では、この分離境界である衝突リスク境界を、上述のように動きベクトルの統計的な処理によって求めているので、動く物体(例えば歩行者や前方を横
切る他の車両等)による局所的な動きベクトルの乱れの影響を排除することができる。
If the determination result in S12 is Yes, it is determined that the vehicle is traveling straight, and the coordinates (X coordinate) of the pixel position searched in S11 are recognized as a collision risk boundary (S13). The collision risk boundary is a separation boundary between the horizontal motion vector having the left direction and the horizontal component having the right direction. In the present embodiment, the collision risk boundary, which is this separation boundary, is obtained by statistical processing of motion vectors as described above, so that it is locally determined by a moving object (for example, a pedestrian or another vehicle crossing the front). It is possible to eliminate the influence of disturbance of a simple motion vector.

そして、その衝突リスク境界から右側の画素を衝突リスク画素として認定し、その衝突リスク画素をリスク強調表示させた撮影画像をディスプレイ4に表示する(S14)。
図3は、この時に表示された撮影画像の一例を示す図である。同図に示したように、認定された衝突リスク境界から右側の領域(同図の斜線部分)が衝突リスク画素として認定されリスク強調表示される。なお、同図の灰色に着色した領域は、水平成分が右向きの動きベクトルが抽出された樹木の領域を示す。但し、この灰色に着色した領域は、説明の便宜上、着色したものであって、実際の表示画面では、この領域もリスク強調表示される。
Then, the pixel on the right side from the collision risk boundary is recognized as a collision risk pixel, and a captured image in which the risk pixel is highlighted is displayed on the display 4 (S14).
FIG. 3 is a diagram illustrating an example of a captured image displayed at this time. As shown in the figure, the area on the right side of the recognized collision risk boundary (shaded area in the figure) is recognized as a collision risk pixel and is displayed with a risk emphasis. In addition, the area | region colored in gray of the figure shows the area | region of the tree from which the horizontal component extracted the motion vector rightward. However, this gray colored area is colored for convenience of explanation, and this area is also displayed with risk emphasis on the actual display screen.

このような表示により、ドライバーは、リスク強調表示された領域に衝突リスクがあることを直感的に判断することができる。図3に示した例では、ドライバーはリスク強調表示された領域中の樹木に衝突する恐れがあることを容易に判断することができる。なお、衝突リスク境界から左側の領域は、自動車とのクリアランスが十分に保たれている領域である。   With such a display, the driver can intuitively determine that there is a collision risk in the risk highlighted area. In the example shown in FIG. 3, the driver can easily determine that there is a possibility of colliding with a tree in the area where risk is highlighted. The area on the left side from the collision risk boundary is an area where a sufficient clearance from the automobile is maintained.

一方、S12の判定結果がNoの場合には、左スコアバッファ9及び右スコアバッファ10を参照し(S15)、左スコアバッファ9に格納されているスコアが右スコアバッファ10に格納されているスコアよりも小さいか否かを判定する(S16)。   On the other hand, when the determination result of S12 is No, the left score buffer 9 and the right score buffer 10 are referred to (S15), and the score stored in the left score buffer 9 is stored in the right score buffer 10 It is determined whether it is smaller than (S16).

S16の判定結果がYesの場合には、自動車が左旋回していると判断し、ディスプレイ4の画面全体を衝突リスク領域に認定する(S17)。すなわち、全画素を衝突リスク画素に認定する。そして、ディスプレイ4の画面全体をリスク強調表示する(S18)。すなわち、全画素を衝突リスク画素としてリスク強調表示させた撮影画像をディスプレイ4に表示する。これにより、ドライバーは、衝突リスクがあることを直感的に判断することができる。   If the determination result in S16 is Yes, it is determined that the vehicle is turning left, and the entire screen of the display 4 is recognized as a collision risk region (S17). That is, all pixels are recognized as collision risk pixels. Then, the entire screen of the display 4 is highlighted (S18). That is, a captured image in which all the pixels are risk-highlighted as collision risk pixels is displayed on the display 4. As a result, the driver can intuitively determine that there is a collision risk.

S16の判定結果がNoの場合には、自動車が右旋回していると判断して、画面全体を衝突リスク領域外に認定し(S19)、ディスプレイ4の画面全体を通常表示する(S20)。すなわち、撮影画像をディスプレイ4に通常表示する。   If the determination result in S16 is No, it is determined that the vehicle is turning right, the entire screen is recognized outside the collision risk area (S19), and the entire screen of the display 4 is normally displayed (S20). That is, the captured image is normally displayed on the display 4.

以上のような処理をフレーム単位で繰り返し行うことによって、ドライバーは、自動車の走行中における衝突リスクを直感的に判断することができる。
なお、以上のような処理は、次のような原理に基づいている。
By repeatedly performing the above processing in units of frames, the driver can intuitively determine the collision risk while the vehicle is running.
The above processing is based on the following principle.

図4は、時間軸上で異なる複数フレーム分の画像データから抽出された動きベクトルの模式図である。本実施形態では、外界が静止していてカメラ(自車)側が動くので、画面全体が遠景から近景に流れ、同図に示したように放射状の動きベクトルが得られる(但し、同図はカメラ側が直進している場合の例)。従って、画面のある位置を境に(同図の境界線21参照)、右ベクトル(水平成分が右方向の動きベクトル)と左ベクトル(水平成分が左方向の動きベクトル)が分水嶺のように分かれる。基本的な動きベクトルは放射状になるので、歩行者や前方を横切る他車等が生み出す動きベクトルの乱れは局所的である(同図点線枠内参照)。従って、統計的(フィルタリング、平均化、ヒストグラム等)に左右ベクトルの分離境界を抽出すれば、外乱への感度を下げることができる。なお、同図の場合、境界線21より右側の領域は接触の恐れがある領域となり、境界線21より左側の領域はクリアランス十分の領域となる。例えば、境界線21より右側の領域中に障害物がある場合にはその障害物に接触の恐れがあり、境界線21より左側の領域中に障害物がある場合にはその障害物との間に十分なクリアランスが保たれていることになる。   FIG. 4 is a schematic diagram of motion vectors extracted from image data for a plurality of different frames on the time axis. In this embodiment, since the outside world is stationary and the camera (own vehicle) side moves, the entire screen flows from a distant view to a foreground, and a radial motion vector is obtained as shown in FIG. Example when the side is going straight). Therefore, the right vector (horizontal component is the motion vector in the right direction) and the left vector (horizontal component is the motion vector in the left direction) are separated like a watershed at a certain position on the screen (see the boundary line 21 in the figure). . Since the basic motion vector is radial, the disturbance of the motion vector generated by a pedestrian or another vehicle crossing the front is local (see the dotted line in the figure). Therefore, if the left and right vector separation boundaries are extracted statistically (filtering, averaging, histogram, etc.), the sensitivity to disturbance can be lowered. In the case of the figure, the area on the right side of the boundary line 21 is an area where there is a risk of contact, and the area on the left side of the boundary line 21 is an area with sufficient clearance. For example, if there is an obstacle in the area on the right side of the boundary line 21, there is a risk of contact with the obstacle, and if there is an obstacle in the area on the left side of the boundary line 21, between the obstacle Therefore, a sufficient clearance is maintained.

以上、本実施形態によれば、ディスプレイ4の画面を見たドライバーは、衝突リスクを
直感的に判断することができる。
なお、本実施形態では、図2に示したフローチャートのS12及びS13に示したように、分水嶺スコアラインバッファ11に格納されている最大スコアが0より大きい場合に、その最大スコアの画素位置を衝突リスク境界として認定している。しかしながら、上述の動きベクトルの乱れによる影響等を考慮して、最大スコアが、1以上の所定値(例えば10など)より大きい場合に衝突リスク境界として認定することも可能である。
As described above, according to the present embodiment, the driver who views the screen of the display 4 can intuitively determine the collision risk.
In this embodiment, as shown in S12 and S13 of the flowchart shown in FIG. 2, when the maximum score stored in the watershed score line buffer 11 is larger than 0, the pixel position of the maximum score collides. It is recognized as a risk boundary. However, in consideration of the influence of the above-described motion vector disturbance, the collision risk boundary can be recognized when the maximum score is larger than a predetermined value of 1 or more (for example, 10).

また、本実施形態では、時間軸上で連続する或いは間引いた2フレーム分の撮影画像の画像データから動きベクトルを抽出しているが、時間軸上で連続する或いは間引いた3フレーム分以上の撮影画像の画像データから動きベクトルを抽出する構成とすることもできる。   In this embodiment, the motion vector is extracted from the image data of the captured images for two frames that are continuous or thinned on the time axis. However, the image is captured for three or more frames that are continuous or thinned on the time axis. It can also be set as the structure which extracts a motion vector from the image data of an image.

また、本実施形態では、動きベクトルを抽出して処理を行っているが、動きベクトルの代わりにオプティカルフローを抽出して同様に処理を行う構成とすることもできる。
また、本実施形態では、画素毎に動きベクトルを抽出しているが、複数の画素からなる画素ブロック毎に動きベクトルを抽出して同様に処理を行う構成とすることもできる。但し、この場合には、衝突リスク境界の精度が落ちない程度に、1画素ブロックを構成する画素数を決定する必要がある。
In the present embodiment, processing is performed by extracting a motion vector. However, a configuration in which an optical flow is extracted instead of a motion vector and processing is performed in the same manner may be employed.
In this embodiment, a motion vector is extracted for each pixel. However, a configuration in which a motion vector is extracted for each pixel block including a plurality of pixels and processing is performed in a similar manner may be employed. However, in this case, it is necessary to determine the number of pixels constituting one pixel block to such an extent that the accuracy of the collision risk boundary does not decrease.

また、本実施形態において、サイドミラーのカメラ取り付け位置からそのサイドミラー先端までの車幅方向距離分、衝突リスク境界の位置を補正し、衝突リスク境界の精度を更に向上させることもできる。例えば、カメラ取り付け位置からサイドミラー先端までの車幅方向距離が数センチメートルである場合、図3に示した例では、その数センチメートルに対応する分だけ、衝突リスク境界が現在の位置から左側の位置へ補正される。これにより、衝突リスク境界の精度が更に向上するので、接触リスクのある領域及びクリアランスが保たれている領域の精度も更に向上させることができる。   Further, in the present embodiment, the position of the collision risk boundary can be corrected by the distance in the vehicle width direction from the camera mounting position of the side mirror to the tip of the side mirror, and the accuracy of the collision risk boundary can be further improved. For example, when the vehicle width direction distance from the camera mounting position to the side mirror tip is several centimeters, in the example shown in FIG. 3, the collision risk boundary is on the left side from the current position by the amount corresponding to the centimeters. It is corrected to the position. Thereby, since the accuracy of the collision risk boundary is further improved, it is possible to further improve the accuracy of the region having the contact risk and the region where the clearance is maintained.

また、本実施形態では、図1に示した視界補助システムを、左側通行の道路を走行する右ハンドル仕様の自動車に搭載しているが、例えば、右側通行の道路を走行する左ハンドル仕様の自動車に搭載することも勿論可能である。   In the present embodiment, the visibility assisting system shown in FIG. 1 is mounted on a right-hand drive vehicle that travels on a left-handed road. For example, a left-hand drive vehicle that travels on a right-handed road Of course, it is also possible to mount it on.

また、本実施形態では、図1に示した視界補助システムを自動車が搭載する例を説明したが、自動車以外の車両が搭載することも勿論可能である。
以上、本発明について詳細に説明したが、本発明は上記実施形態に限定されず、本発明の要旨を逸脱しない範囲において、各種の改良及び変更を行っても良いのはもちろんである。
Further, in the present embodiment, the example in which the automobile mounts the visibility assisting system shown in FIG. 1 has been described, but it is of course possible to mount a vehicle other than the automobile.
Although the present invention has been described in detail above, the present invention is not limited to the above-described embodiment, and it is needless to say that various improvements and changes may be made without departing from the gist of the present invention.

本発明の一実施の形態に係る画像処理装置を備えた視界補助システムのブロック図である。[BRIEF DESCRIPTION OF THE DRAWINGS] It is a block diagram of the visual field assistance system provided with the image processing apparatus based on one embodiment of this invention. 視界補助システムにおける画像処理LSIのフレーム単位の処理を示すフローチャートである。It is a flowchart which shows the process per frame of the image processing LSI in a visual field assistance system. 衝突リスク画素を強調表示させたときの表示画面例である。It is an example of a display screen when a collision risk pixel is highlighted. 時間軸上で異なる複数フレーム分の画像データから抽出された動きベクトルの模式図である。It is a schematic diagram of the motion vector extracted from the image data for different frames on the time axis. 従来の視界補助システムにおけるモニター画面の一例を示す図である。It is a figure which shows an example of the monitor screen in the conventional visual field assistance system.

符号の説明Explanation of symbols

1 カメラ
2 フレームバッファ
3 画像処理LSI
4 ディスプレイ
5 後フレーム領域
6 前フレーム領域
7 動きベクトル水平成分抽出器
8 動きベクトル方向判定器
9 左スコアバッファ
10 右スコアバッファ
11 分水嶺スコアラインバッファ
12 大小比較器
13 最大値画素検出器
14 直進/左旋回/右旋回判定器
15 衝突リスク画素強調表示エフェクター
16 映像表示器
21 衝突リスク境界
31 ガイドライン
1 Camera 2 Frame buffer 3 Image processing LSI
4 Display 5 Rear frame region 6 Previous frame region 7 Motion vector horizontal component extractor 8 Motion vector direction determiner 9 Left score buffer 10 Right score buffer 11 Divided water scoring line buffer 12 Size comparator 13 Maximum pixel detector 14 Straight / left Turn / Right turn discriminator 15 Collision risk pixel highlighting effector 16 Video display 21 Collision risk boundary 31 Guidelines

Claims (5)

車両の視界補助システムにおける画像処理装置であって、
前記車両の車幅方向片側の最端部又は最端部付近に取り付けられたカメラによって車両前方が撮影された時間軸上で連続した複数フレーム分あるいは間引いた複数フレーム分の撮影画像から動きベクトルを抽出する動きベクトル抽出手段を備え、
前記動きベクトル抽出手段により抽出された動きベクトルの方向に基づいて衝突リスクのある画素を認定する、
ことを特徴とする画像処理装置。
An image processing apparatus in a vehicle vision assistance system,
A motion vector is obtained from captured images of a plurality of frames that are consecutively thinned or thinned on a time axis in which the front of the vehicle is photographed by a camera attached to one end of the vehicle in the vehicle width direction or near the end. A motion vector extracting means for extracting,
Qualifying pixels at risk of collision based on the direction of the motion vector extracted by the motion vector extraction means;
An image processing apparatus.
前記動きベクトル抽出手段により抽出された動きベクトルを統計的に処理して、水平成分が左方向の動きベクトルと水平成分が右方向の動きベクトルとの分離境界を抽出し、前記分離境界に基づいて前記衝突リスクのある画素を認定する、
ことを特徴とする請求項1記載の画像処理装置。
The motion vector extracted by the motion vector extraction means is statistically processed to extract a separation boundary between a horizontal motion vector that is a leftward motion vector and a horizontal component that is a rightward motion vector, and based on the separation boundary Certify pixels at risk of collision,
The image processing apparatus according to claim 1.
前記カメラによって撮影された撮影画像を表示させるときに前記衝突リスクのある画素を強調表示させる、
ことを特徴とする請求項1又は2記載の画像処理装置。
Highlighting the pixels at risk of collision when displaying captured images captured by the camera,
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記車両は自動車であり、
前記カメラは、前記自動車の助手席側のサイドミラーに取り付けられ、
前記サイドミラー最端部から前記カメラの取り付け位置までの車幅方向距離に基づいて前記分離境界の位置を補正する、
ことを特徴とする請求項2記載の画像処理装置。
The vehicle is an automobile;
The camera is attached to a side mirror on the passenger seat side of the car,
Correcting the position of the separation boundary based on the distance in the vehicle width direction from the end of the side mirror to the mounting position of the camera;
The image processing apparatus according to claim 2.
車両の視界補助システムにおける画像処理方法であって、
前記車両の車幅方向片側の最端部又は最端部付近に取り付けられたカメラによって車両前方が撮影された時間軸上で連続した複数フレーム分あるいは間引いた複数フレーム分の撮影画像から動きベクトルを抽出し、
前記動きベクトルの方向に基づいて衝突リスクのある画素を認定する、
ことを特徴とする画像処理方法。
An image processing method in a vehicle vision assistance system,
A motion vector is obtained from captured images of a plurality of frames that are consecutively thinned or thinned on a time axis in which the front of the vehicle is photographed by a camera attached to one end of the vehicle in the vehicle width direction or near the end. Extract and
Qualifying pixels at risk of collision based on the direction of the motion vector;
An image processing method.
JP2007037038A 2007-02-16 2007-02-16 Image processing device and image processing method Withdrawn JP2008205644A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007037038A JP2008205644A (en) 2007-02-16 2007-02-16 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007037038A JP2008205644A (en) 2007-02-16 2007-02-16 Image processing device and image processing method

Publications (1)

Publication Number Publication Date
JP2008205644A true JP2008205644A (en) 2008-09-04

Family

ID=39782701

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007037038A Withdrawn JP2008205644A (en) 2007-02-16 2007-02-16 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP2008205644A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010016274A1 (en) 2008-08-08 2010-02-11 パナソニック株式会社 Wireless communication base station device, wireless communication terminal device, and channel allocation method
JP2010118764A (en) * 2008-11-11 2010-05-27 Nissan Motor Co Ltd Apparatus and method for monitoring periphery of vehicle
JP2010266292A (en) * 2009-05-13 2010-11-25 Furuno Electric Co Ltd Radar device
JP2011053761A (en) * 2009-08-31 2011-03-17 Nissan Motor Co Ltd Traveling support device and traveling support method
WO2014129026A1 (en) * 2013-02-21 2014-08-28 本田技研工業株式会社 Driving assistance device and image processing program
CN104637086A (en) * 2015-02-13 2015-05-20 华东师范大学 Efficient continuous collision detection method based on Vincent theorem
US10181266B2 (en) 2015-09-11 2019-01-15 Sony Corporation System and method to provide driving assistance

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010016274A1 (en) 2008-08-08 2010-02-11 パナソニック株式会社 Wireless communication base station device, wireless communication terminal device, and channel allocation method
EP4344327A2 (en) 2008-08-08 2024-03-27 Sun Patent Trust Wireless communication base station device, wireless communication terminal device, and channel allocation method
EP3952548A1 (en) 2008-08-08 2022-02-09 Sun Patent Trust Wireless communication base station device, wireless communication terminal device, and channel allocation method
JP2010118764A (en) * 2008-11-11 2010-05-27 Nissan Motor Co Ltd Apparatus and method for monitoring periphery of vehicle
JP2010266292A (en) * 2009-05-13 2010-11-25 Furuno Electric Co Ltd Radar device
JP2011053761A (en) * 2009-08-31 2011-03-17 Nissan Motor Co Ltd Traveling support device and traveling support method
CN104885448A (en) * 2013-02-21 2015-09-02 本田技研工业株式会社 Driving assistance device and image processing program
JPWO2014129026A1 (en) * 2013-02-21 2017-02-02 本田技研工業株式会社 Driving support device and image processing program
US9589194B2 (en) 2013-02-21 2017-03-07 Honda Motor Co., Ltd. Driving assistance device and image processing program
CN104885448B (en) * 2013-02-21 2018-04-06 本田技研工业株式会社 Drive assistance device and image processing program
WO2014129026A1 (en) * 2013-02-21 2014-08-28 本田技研工業株式会社 Driving assistance device and image processing program
CN104637086A (en) * 2015-02-13 2015-05-20 华东师范大学 Efficient continuous collision detection method based on Vincent theorem
US10181266B2 (en) 2015-09-11 2019-01-15 Sony Corporation System and method to provide driving assistance

Similar Documents

Publication Publication Date Title
EP2369552B1 (en) Approaching object detection system
JP4882571B2 (en) Vehicle monitoring device
KR102062923B1 (en) Parking assistance system
US8405491B2 (en) Detection system for assisting a driver when driving a vehicle using a plurality of image capturing devices
KR101569411B1 (en) Pedestrian realization apparatus and method
US9886636B2 (en) Enhanced top-down view generation in a front curb viewing system
US10093247B2 (en) Enhanced front curb viewing system
US9418556B2 (en) Apparatus and method for displaying a blind spot
US9834143B2 (en) Enhanced perspective view generation in a front curb viewing system
JP4622001B2 (en) Road lane marking detection apparatus and road lane marking detection method
US20190075255A1 (en) Display control apparatus, display control method, and program
JP2008205644A (en) Image processing device and image processing method
JP4692344B2 (en) Image recognition device
JP6045889B2 (en) In-vehicle control device
EP3286056B1 (en) System and method for a full lane change aid system with augmented reality technology
WO2014084251A1 (en) Onboard image processing system
JP2009083764A (en) Driving assisting device, driving assisting method, and computer program
KR101097063B1 (en) Apparatus and method for displaying blind spot
KR20090109437A (en) Method and System for Image Matching While Driving Vehicle
EP2833096B1 (en) Method for determining a current distance and/or a current speed of a target object based on a reference point in a camera image, camera system and motor vehicle
JP4401890B2 (en) Vehicle recognition support device
JP2001216520A (en) Surroundings monitor device for vehicle
JP2002314989A (en) Peripheral monitor for vehicle
Khalifa et al. A hyperbola-pair based lane detection system for vehicle guidance
JP2014106740A (en) In-vehicle parking frame recognizing device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20080730

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091201

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20101201