JP6048384B2 - Image determination device - Google Patents

Image determination device Download PDF

Info

Publication number
JP6048384B2
JP6048384B2 JP2013256497A JP2013256497A JP6048384B2 JP 6048384 B2 JP6048384 B2 JP 6048384B2 JP 2013256497 A JP2013256497 A JP 2013256497A JP 2013256497 A JP2013256497 A JP 2013256497A JP 6048384 B2 JP6048384 B2 JP 6048384B2
Authority
JP
Japan
Prior art keywords
image
host vehicle
edge
control device
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013256497A
Other languages
Japanese (ja)
Other versions
JP2015114848A (en
Inventor
西嶋 征和
征和 西嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2013256497A priority Critical patent/JP6048384B2/en
Publication of JP2015114848A publication Critical patent/JP2015114848A/en
Application granted granted Critical
Publication of JP6048384B2 publication Critical patent/JP6048384B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Description

本開示は、カメラの撮影画像中の付着物又は写り込みの有無を判定する画像判定装置に関する。   The present disclosure relates to an image determination apparatus that determines the presence or absence of deposits or reflections in a captured image of a camera.

自車両前方を撮影するカメラに付着した付着物の検出方法に関する技術が知られている(例えば特許文献1参照)。特許文献1に開示された装置は、最新の画像データと過去の画像データの特徴量の画素点を比較し、所定時間連続して一致する画素点を検出することにより、カメラの付着物の有無を検出している。   A technique related to a method for detecting an adhering matter attached to a camera that photographs the front of the host vehicle is known (see, for example, Patent Document 1). The apparatus disclosed in Patent Document 1 compares the pixel points of the feature amount of the latest image data and the past image data, and detects pixel points that coincide with each other for a predetermined time, thereby detecting the presence or absence of an attachment on the camera. Is detected.

特開2007−172504号公報JP 2007-172504 A

しかしながら、例えば、自車両が直進して走行している場合、道路の白線等の車線や路側帯は同一の画素点として検出されてしまう。そのため、特許文献1に開示された装置では、カメラのレンズへの付着物や画像への写り込みがないにもかかわらず、付着物や写り込みがあると誤判定する虞がある。   However, for example, when the host vehicle is traveling straight ahead, a lane such as a white line of a road and a roadside band are detected as the same pixel point. For this reason, in the apparatus disclosed in Patent Document 1, there is a possibility that it is erroneously determined that there is an adhering matter or a reflection even though there is no adhering matter to the lens of the camera or no reflection to the image.

そこで、上述の点に鑑み、カメラの撮影画像中の付着物又は写り込みの有無を正確に判定することができる画像判定装置を提供することが望ましい。   Therefore, in view of the above points, it is desirable to provide an image determination device that can accurately determine the presence or absence of deposits or reflections in a captured image of a camera.

本開示の一局面によれば、カメラの撮影画像中の付着物又は写り込みの有無を判定する画像判定装置であって、前記撮影画像中の画像データから画像特徴量の画素点を検出する特徴量検出手段と、自車両の旋回状態を検出する旋回状態検出手段と、を備え、自車両が直進走行しているときの画像特徴量の画素点の位置と、自車両が旋回走行しているときの画像特徴量の画素点の位置と、の差が所定値以下である場合に、前記撮影画像中に付着物又は写り込みがあると判定することを特徴とする画像判定装置が得られる。   According to one aspect of the present disclosure, there is provided an image determination device that determines the presence or absence of deposits or reflections in a captured image of a camera, and a feature that detects a pixel point of an image feature amount from image data in the captured image Amount detection means and turning state detection means for detecting the turning state of the host vehicle, and the position of the pixel point of the image feature amount when the host vehicle is running straight and the host vehicle is turning. When the difference between the image feature amount and the position of the pixel point at that time is equal to or less than a predetermined value, it is determined that there is an adhering substance or a reflection in the photographed image.

本開示によれば、カメラの撮影画像中の付着物又は写り込みの有無を正確に判定することができる画像判定装置が得られる。   According to the present disclosure, it is possible to obtain an image determination device that can accurately determine the presence or absence of deposits or reflections in a captured image of a camera.

自車両が直進走行している場合における車線のエッジ点の検出方法を説明する図(図1(a))、自車両がカーブ走行している場合における車線のエッジ点の検出方法を説明する図(図1(b))である。The figure explaining the detection method of the edge point of a lane when the own vehicle is going straight ahead (FIG. 1 (a)), The figure explaining the detection method of the edge point of a lane when the own vehicle is running in a curve (FIG. 1B). 自車両が直進走行している場合におけるオブジェクトのエッジ点の検出方法を説明する図(図2(a))、自車両がカーブ走行している場合におけるオブジェクトのエッジ点の検出方法を説明する図(図2(b))である。FIG. 2A illustrates a method for detecting an edge point of an object when the host vehicle is traveling straight (FIG. 2A), and a diagram for describing a method for detecting an edge point of the object when the host vehicle is traveling in a curve. (FIG. 2B). 一実施例に係る画像判定装置の制御装置の処理動作を説明するフローチャートである。It is a flowchart explaining the processing operation of the control apparatus of the image determination apparatus which concerns on one Example.

以下、一実施形態に係る画像判定装置について説明する。   Hereinafter, an image determination apparatus according to an embodiment will be described.

(画像判定装置の構成)
本実施形態に係る画像判定装置は、カメラによって撮影した車外環境を認識する車外環境認識システムにおける、カメラの撮影画像中の付着物又はオブジェクト15等の写り込みの有無を判定する装置である。具体的には、画像判定装置1は、自車両のハンドルの操舵角等が異なる2種類の画像データから検出した画像特徴量の画素点を比較して、付着物、又は、オブジェクト15等の写り込みの有無の判定を行うものである。より詳細には、オブジェクトの存在があると認められる場合に、「写り込みオブジェクトあり」の判定を行う。
(Configuration of image determination device)
The image determination apparatus according to the present embodiment is an apparatus that determines the presence or absence of reflection of an attached object or an object 15 in a captured image of a camera in a vehicle environment recognition system that recognizes a vehicle environment captured by a camera. Specifically, the image determination device 1 compares the pixel points of the image feature amount detected from two types of image data with different steering angles of the vehicle's steering wheel and the like, and the image of the attached matter or the object 15 or the like. Judgment of presence or absence of inclusion is performed. More specifically, when it is recognized that the object exists, it is determined that there is a reflection object.

画像特徴量とは、カメラによって撮影した撮影画像フレーム10上において、画素値の変化が生じる位置(画素点)の画素値変化量のことをいう。以下の説明において、画素値の変化が生じる画素点のことをエッジ点といい、エッジ点の座標のことをエッジ座標という。エッジ座標は、x軸方向の座標(x座標)、y軸方向の座標(y座標)として表される(図1、2参照)。以下、詳細に説明する。   The image feature amount refers to a pixel value change amount at a position (pixel point) where a change in pixel value occurs on the captured image frame 10 taken by the camera. In the following description, the pixel point where the pixel value changes is called an edge point, and the coordinates of the edge point are called edge coordinates. The edge coordinates are expressed as coordinates in the x-axis direction (x coordinate) and coordinates in the y-axis direction (y coordinate) (see FIGS. 1 and 2). Details will be described below.

画像判定装置は、該装置を統括的に制御する制御装置を備えている。   The image determination device includes a control device that controls the device centrally.

カメラは、自車両周辺(例えば、自車両の進行方向)を所定の画角で撮像して、その撮像画像を出力する撮像手段である。自車両の進行方向は、前進方向でも、後進方向でもよい。   The camera is an imaging unit that captures an image of the periphery of the host vehicle (for example, the traveling direction of the host vehicle) at a predetermined angle of view and outputs the captured image. The traveling direction of the host vehicle may be the forward direction or the reverse direction.

制御装置は、中央演算処理装置(CPU)、読込専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、等を備えている。   The control device includes a central processing unit (CPU), a read only memory (ROM), a random access memory (RAM), and the like.

制御装置には、車両の速度を検出する車速センサと、ステアリングセンサと、が接続されている。なお、ステアリングセンサの代わりにヨーレートセンサが接続されていてもよい。   A vehicle speed sensor that detects the speed of the vehicle and a steering sensor are connected to the control device. A yaw rate sensor may be connected instead of the steering sensor.

車速センサは、例えば自車両の車輪に取り付けられており、車輪の速度に関する車輪速情報を取得する。車速センサは、取得した車輪速度に関する車輪速情報を制御装置に送信する。   The vehicle speed sensor is attached to, for example, the wheel of the host vehicle, and acquires wheel speed information related to the speed of the wheel. A vehicle speed sensor transmits the wheel speed information regarding the acquired wheel speed to a control apparatus.

ステアリングセンサは、例えば自車両のステアリングロッドに取り付けられており、運転者が操作したステアリングの操舵角を検出する。ステアリングセンサは、検出した操舵角に関する操舵角情報を制御装置に送信する。   The steering sensor is attached to a steering rod of the host vehicle, for example, and detects the steering angle of the steering operated by the driver. The steering sensor transmits steering angle information related to the detected steering angle to the control device.

ヨーレートセンサは、例えば自車両の車体に取り付けられており、自車両が路面に対し水平に回転する際のヨーレート(旋回方向への回転角の変化速度)を検出するとともに、自車両の前後左右の加速度を検出している。ヨーレートセンサは、検出したヨーレートに関するヨーレート情報を制御装置に送信する。   The yaw rate sensor is attached to the body of the host vehicle, for example, and detects the yaw rate (change speed of the rotation angle in the turning direction) when the host vehicle rotates horizontally with respect to the road surface. Acceleration is detected. The yaw rate sensor transmits yaw rate information related to the detected yaw rate to the control device.

(制御装置の構成)
次に、制御装置の構成について説明する。
(Configuration of control device)
Next, the configuration of the control device will be described.

制御装置は、カメラで撮影された撮影画像を画像データとして検出して、撮影画像中の画像データから画像特徴量の画素点を検出する特徴量検出手段と、自車両の操舵角の変化、或いは、ヨーレートの有無(旋回状態)を検出する旋回状態検出手段と、通知手段と、を含んで構成されている。   The control device detects a captured image captured by the camera as image data and detects a pixel point of the image feature amount from the image data in the captured image, and a change in the steering angle of the host vehicle, or The turning state detecting means for detecting the presence / absence of the yaw rate (turning state) and the notification means are included.

(制御装置の制御機構)
次に、制御装置の制御機構について説明する。
(Control mechanism of control device)
Next, the control mechanism of the control device will be described.

車速センサにより自車両の車輪速情報を検出すると、その車輪速情報が制御装置に送信される。送信された車輪速情報が所定値以上である場合は、ステアリングセンサ、或いは、ヨーレートセンサによって検出された操舵角情報或いはヨーレート情報が制御装置に送信される。制御装置は、該操舵角情報或いは該ヨーレート情報(旋回状態の情報)に基づき、自車両の旋回状態の検出を行う。この検出は、操舵角情報或いはヨーレート情報に基づき、旋回状態検出手段が行う。次いで、旋回状態検出手段によって自車両のハンドル操舵角に変化があるとの検出結果が得られた場合、カメラによって撮影された画像特徴量のエッジ点の位置の検出が行われる。この検出は、制御装置が備える特徴量検出手段によって行う。そして、自車両のハンドル操舵角変化前後の画像特徴量のエッジ点の位置、すなわち、エッジ座標を比較する。そして、エッジ座標に差が認められない場合には、制御装置によって、「写り込みオブジェクトあり」と判定するとともに、その旨を通知手段によって運転者に通知する。   When wheel speed information of the host vehicle is detected by the vehicle speed sensor, the wheel speed information is transmitted to the control device. When the transmitted wheel speed information is greater than or equal to a predetermined value, the steering angle information or yaw rate information detected by the steering sensor or yaw rate sensor is transmitted to the control device. The control device detects the turning state of the host vehicle based on the steering angle information or the yaw rate information (turning state information). This detection is performed by the turning state detecting means based on the steering angle information or the yaw rate information. Next, when a detection result indicating that the steering angle of the host vehicle is changed is obtained by the turning state detection means, the position of the edge point of the image feature value captured by the camera is detected. This detection is performed by the feature amount detection means provided in the control device. Then, the positions of the edge points of the image feature amount before and after the change of the steering angle of the steering wheel of the host vehicle, that is, the edge coordinates are compared. When no difference is recognized in the edge coordinates, the control device determines that “there is a reflection object” and notifies the driver of the fact by the notification means.

(エッジ点の検出方法)
次に、操舵角変化前後の画像特徴量のエッジ点の検出方法について、図面を参照しながら詳細に説明する。図1は、自車両が直進走行している場合における車線のエッジ点の検出方法を説明する図(図1(a))、自車両がカーブ走行している場合における車線のエッジ点の検出方法を説明する図(図1(b))である。また、図2は、自車両が直進走行している場合におけるオブジェクト15のエッジ点の検出方法を説明する図(図2(a))、自車両がカーブ走行している場合におけるオブジェクト15のエッジ点の検出方法を説明する図(図2(b))である。上段の図はカメラによる撮影画像フレーム10の一例を示し、下段のグラフは撮影画像フレーム10の画素値の分布を示す。なお、図1(b)においては、自車両が左カーブ走行をしている状態を図示している。
(Edge point detection method)
Next, a method for detecting edge points of image feature amounts before and after a change in steering angle will be described in detail with reference to the drawings. FIG. 1 is a diagram for explaining a lane edge point detection method when the host vehicle is traveling straight (FIG. 1A), and a lane edge point detection method when the host vehicle is traveling in a curve. It is a figure (FIG.1 (b)) explaining these. FIG. 2 is a diagram for explaining a method for detecting an edge point of the object 15 when the host vehicle is traveling straight (FIG. 2A), and an edge of the object 15 when the host vehicle is traveling in a curve. It is a figure (FIG.2 (b)) explaining the detection method of a point. The upper diagram shows an example of the captured image frame 10 by the camera, and the lower graph shows the distribution of pixel values of the captured image frame 10. FIG. 1B shows a state where the host vehicle is traveling on a left curve.

まず、図1上段の図のカメラによる撮影画像フレーム10について説明する。自車両が直進走行している場合、図1(a)に示すように、左右の車線位置が、エッジ点(A1〜A4点参照)として表れる。   First, the captured image frame 10 by the camera shown in the upper part of FIG. 1 will be described. When the host vehicle is traveling straight, the left and right lane positions appear as edge points (see points A1 to A4), as shown in FIG.

このエッジ点の検出は、注目画素値に対する、左画素値の差分値を順次演算することによって行う。この演算は、制御装置のCPUによって行う。ここで、注目画素値とは、撮影画像フレーム10中の水平方向に延在する線分L−L(図1(a)中、破線部分)上の検出対象の注目画素の画素値のことをいう。また、左画素値とは、この注目画素に隣接する左画素の画素値のことをいう。本実施形態においては、隣接する画素値を比較することによって、エッジ点の検出を行う。   The detection of the edge point is performed by sequentially calculating the difference value of the left pixel value with respect to the target pixel value. This calculation is performed by the CPU of the control device. Here, the target pixel value is a pixel value of a target pixel to be detected on a line segment LL (a broken line portion in FIG. 1A) extending in the horizontal direction in the captured image frame 10. Say. Further, the left pixel value means a pixel value of a left pixel adjacent to the target pixel. In the present embodiment, edge points are detected by comparing adjacent pixel values.

図1(a)に示すように、注目画素値と左画素値が異なる場合、その変化量がエッジ点として下段のグラフ上に図示される(A1〜A4点参照)。画素値変化量(画像特徴量)に基づいてエッジ点が検出されることになり、これに伴ってエッジ座標が検出される。急激に画素値が変化する程、エッジ点の変化の度合いが顕著に現れる。   As shown in FIG. 1A, when the target pixel value and the left pixel value are different, the amount of change is illustrated as an edge point on the lower graph (see points A1 to A4). Edge points are detected based on the pixel value change amount (image feature amount), and the edge coordinates are detected accordingly. As the pixel value changes abruptly, the degree of change in the edge point appears more prominently.

なお、自車両がカーブ走行している場合(図1(b)参照)も、自車両が直進走行している場合(図1(a)参照)と同様であるため、詳細な説明は省略する。   Note that the case where the host vehicle is traveling in a curve (see FIG. 1B) is the same as the case where the host vehicle is traveling straight (see FIG. 1A), and thus detailed description thereof is omitted. .

ここで、運転者が、直進走行からカーブ走行(旋回走行)に切り替えることにより、操舵角を変化させた場合について考える。図1(a)、(b)に示すように、カメラによる撮影画像フレーム10中の対応する車線幅(m1及びm3、m2及びm4)が変化することになる。すなわち、操舵角変化前後のエッジ点の位置(エッジ座標)も変化する。具体的には、対応するエッジ点(A1点及びA5点、A2点及びA6点、A3点及びA7点、A4点及びA8点)の各x、y座標が、それぞれ異なることになる。したがって、白線等の車線がカメラによって写し出された場合、車外環境認識システムは、これを車線であると認識する。   Here, consider a case where the driver changes the steering angle by switching from straight traveling to curve traveling (turning traveling). As shown in FIGS. 1A and 1B, the corresponding lane widths (m1 and m3, m2 and m4) in the image frame 10 taken by the camera change. That is, the position (edge coordinate) of the edge point before and after the steering angle change also changes. Specifically, the x and y coordinates of the corresponding edge points (A1 and A5, A2 and A6, A3 and A7, A4 and A8) are different. Therefore, when a lane such as a white line is projected by the camera, the outside environment recognition system recognizes this as a lane.

ところで、自車両内のダッシュボード等には、物15(オブジェクト)が置かれている場合も想定される。このような場合には、フロントガラスにオブジェクト15が写し出される可能性があり、カメラの撮影範囲内に余計なコントラストが発生してしまい、車外環境認識システムが、このコントラストを車線であると誤認識してしまう虞がある。   By the way, the case where the thing 15 (object) is put on the dashboard etc. in the own vehicle is also assumed. In such a case, there is a possibility that the object 15 is projected on the windshield, and an extra contrast is generated within the shooting range of the camera, and the outside environment recognition system misrecognizes this contrast as a lane. There is a risk of it.

しかしながら、ダッシュボード上に置かれているオブジェクト15の相対的な位置関係は自車両の旋回状態(直進走行若しくはカーブ走行)によって変化することはほとんどない。そのため、コントラスト部分(画像特徴量)におけるエッジ点の位置(エッジ座標)も、操舵角の変化前後でほぼ一致することになる。直進走行とカーブ走行とでエッジ座標を比較すると、図2(a)、(b)に示すように、下段のグラフには同一の位置にエッジ点が図示されることになる(A9〜A12点参照)。具体的には、対応するエッジ点である、A9点及びA11点のx、y座標がそれぞれ同一の値となり、A10点及びA12点のx、y座標がそれぞれ同一の値となる。この場合は、画像判定装置によって、「写り込みオブジェクトあり」との判定を行う。   However, the relative positional relationship of the objects 15 placed on the dashboard hardly changes depending on the turning state (straight traveling or curve traveling) of the host vehicle. For this reason, the position of the edge point (edge coordinates) in the contrast portion (image feature amount) also substantially matches before and after the change of the steering angle. When the edge coordinates are compared between the straight traveling and the curve traveling, as shown in FIGS. 2A and 2B, the edge points are illustrated at the same position in the lower graph (points A9 to A12). reference). Specifically, the x and y coordinates of the corresponding edge points A9 and A11 have the same value, and the x and y coordinates of the A10 and A12 have the same value. In this case, the image determination apparatus determines that “there is a reflected object”.

したがって、本実施形態に係る画像判定装置によれば、車外環境認識システムが、オブジェクト15が写し出されることによるコントラストを車線であると誤認識することはない。   Therefore, according to the image determination apparatus according to the present embodiment, the vehicle environment recognition system does not erroneously recognize the contrast due to the object 15 being projected as a lane.

なお、オブジェクト15のエッジ点の検出方法は、車線のエッジ点の検出方法と基本的に同様であるため、詳細な説明は省略する。   Note that the method for detecting the edge point of the object 15 is basically the same as the method for detecting the edge point of the lane, and a detailed description thereof will be omitted.

(制御装置による制御処理)
次に、制御装置の制御処理の流れについて、図3のフローチャートを参照しながら説明する。図3は、一実施例に係る画像判定装置の制御装置の処理動作を説明するフローチャートである。
(Control processing by the control device)
Next, the flow of control processing of the control device will be described with reference to the flowchart of FIG. FIG. 3 is a flowchart illustrating the processing operation of the control device of the image determination device according to the embodiment.

最初に、現在の自車両の走行速度を読み取る。この読み取りは、車速センサによる車輪速情報を制御装置に送信することによって行う。そして、自車両の走行速度が所定速度以上であるか否かの判定を制御装置によって行う(ステップS1)。本実施形態においては、所定速度は、時速50kmと設定している。   First, the current traveling speed of the host vehicle is read. This reading is performed by transmitting wheel speed information from the vehicle speed sensor to the control device. Then, the control device determines whether or not the traveling speed of the host vehicle is equal to or higher than a predetermined speed (step S1). In the present embodiment, the predetermined speed is set to 50 km / h.

自車両の走行速度が時速50km以上である場合(ステップS1のYes)、画像判定装置が備える制御装置によって、自車両のハンドルの操舵角或いはヨーレートに変化が認められるか否かの判定を行う(ステップS2)。自車両のハンドルの操舵角或いはヨーレートは、制御装置に接続されているステアリングセンサ、或いは、ヨーレートセンサによって検出される。これら検出情報が制御装置に送信されることによって、時々刻々の自車両のハンドルの操舵角等の変化状況が判定される。この判定は制御装置が備える旋回状態検出手段によって行う。   When the traveling speed of the host vehicle is 50 km / h or more (Yes in Step S1), it is determined whether or not a change is recognized in the steering angle or yaw rate of the steering wheel of the host vehicle by the control device provided in the image determination device ( Step S2). The steering angle or yaw rate of the steering wheel of the host vehicle is detected by a steering sensor or a yaw rate sensor connected to the control device. By transmitting these pieces of detection information to the control device, it is determined whether the steering angle of the steering wheel of the host vehicle is changing every moment. This determination is performed by the turning state detection means provided in the control device.

旋回状態検出手段によって、例えば、自車両のハンドルの操舵角に変化があると判定されると(ステップS2のYes)、自車両のハンドルの操舵角が変化する前後の撮影画像フレームのエッジ点の位置(エッジ座標)の検出を行う。具体的には、操舵角変化前のカメラによる過去の撮影画像フレーム(以下「過去のフレーム」という)のエッジ座標検出(ステップS3)、及び、操舵角変化後のカメラによる現在の撮影画像フレーム(以下「現在のフレーム」という)のエッジ座標の検出(ステップS4)を行う。エッジ座標の検出方法は上述した通りである。これらのエッジ座標の検出は、制御装置が備える特徴量検出手段によって行う。   For example, if it is determined by the turning state detection means that the steering angle of the steering wheel of the host vehicle has changed (Yes in step S2), the edge point of the captured image frame before and after the steering angle of the steering wheel of the host vehicle changes is detected. The position (edge coordinates) is detected. Specifically, edge coordinate detection (step S3) of a past captured image frame (hereinafter referred to as “past frame”) by the camera before the steering angle change, and a current captured image frame (by the camera after the steering angle change) The edge coordinates (hereinafter “current frame”) are detected (step S4). The edge coordinate detection method is as described above. Detection of these edge coordinates is performed by a feature amount detection means provided in the control device.

続いて、現在及び過去のフレームのエッジ座標の比較を行う(ステップS5)。エッジ座標に差がない、若しくは、その差が微小であると判定される場合(ステップS5のYes)は、自車両内のダッシュボード等にオブジェクト15が置かれている、すなわち、「写り込みオブジェクトあり」と判定する。オブジェクト15の位置は、旋回状態によって変化しない場合が多いからである。なお、「写り込みオブジェクトあり」との判定は、制御装置が備える通知手段によって運転者に通知される(ステップS6)。   Subsequently, the edge coordinates of the current and past frames are compared (step S5). When it is determined that there is no difference in the edge coordinates or the difference is very small (Yes in step S5), the object 15 is placed on the dashboard or the like in the own vehicle. It is determined as “Yes”. This is because the position of the object 15 often does not change depending on the turning state. The determination of “there is a reflection object” is notified to the driver by the notification means provided in the control device (step S6).

制御装置には、さらに、特徴量差演算手段が備えられており、現在及び過去のフレームのエッジ座標の比較は、この特徴量差演算手段によって行われる。具体的には、現在のフレームのエッジ座標に対する過去のフレームのエッジ座標の差分値を演算することによって行う。差分値の有無によって、現在及び過去のフレームのエッジ座標の比較を行う。この演算は、各エッジ点(図1、2中、A1〜A12点参照)の、操舵角変化前後における、対応するエッジ点のx、y座標の差分値を演算することによって行う。   The control device is further provided with a feature amount difference calculation means, and the comparison of the edge coordinates of the current and past frames is performed by the feature amount difference calculation means. Specifically, it is performed by calculating a difference value between the edge coordinates of the past frame with respect to the edge coordinates of the current frame. The edge coordinates of the current and past frames are compared depending on the presence or absence of the difference value. This calculation is performed by calculating a difference value between the x and y coordinates of the corresponding edge point before and after the change of the steering angle at each edge point (see points A1 to A12 in FIGS. 1 and 2).

一方、現在及び過去のフレームのエッジ座標の比較を行った結果、エッジ座標に変化があると判定される場合(ステップS5のNo)は、画像判定装置による「写り込みオブジェクトあり」の判定は行わず、そのまま処理を終了する。   On the other hand, as a result of comparing the edge coordinates of the current and past frames, if it is determined that there is a change in the edge coordinates (No in step S5), the image determination apparatus determines that there is a reflection object. Instead, the process ends.

また、自車両のハンドルの操舵角等に変化がないと判定される場合は(ステップS2のNo)、車外風景の変化が小さいと考えられるため、現在及び過去のフレームのエッジ座標検出を行うことなく処理を終了する
そして、自車両の走行速度が時速50km未満である場合(ステップS1のNo)は、車外環境認識システムは停止状態であるため、画像判定装置による旋回状態の判定、「写り込みオブジェクトあり」の判定等は行わずに、そのまま処理を終了する。車外環境にほとんど変化がないと考えられるためである。例えば、自車両が停止しており、車速センサによる車速情報が時速0kmを示している場合は車外環境に変化はないため、画像判定装置による旋回状態の判定、「写り込みオブジェクトあり」の判定等は行うことなく、そのまま処理を終了する。
If it is determined that there is no change in the steering angle of the steering wheel of the host vehicle (No in step S2), it is considered that the change in the scenery outside the vehicle is small, and therefore the edge coordinates of the current and past frames are detected. If the traveling speed of the host vehicle is less than 50 km / h (No in step S1), the vehicle exterior environment recognition system is in a stopped state. The process is terminated without determining whether there is an object. This is because there is little change in the environment outside the vehicle. For example, when the host vehicle is stopped and the vehicle speed information from the vehicle speed sensor indicates 0 km / h, the environment outside the vehicle does not change, so the turning state is determined by the image determination device, the determination is “There is a reflection object”, etc. The process is terminated without performing the process.

以上のように構成されているため、本実施形態に係る画像判定装置によれば、フロントウインドウの反射によって生じたオブジェクト15の写り込み、又は、カメラのレンズに付着した付着物等を、車線や路側帯等と誤って認識してしまい、車外環境認識システムの認識精度が低下することはない。このため、車外環境認識システムが、誤認識することを効果的に防止することができる。   Since it is configured as described above, according to the image determination device according to the present embodiment, the reflection of the object 15 caused by the reflection of the front window or the adhering matter attached to the lens of the camera can be changed to the lane or The recognition accuracy of the environment recognition system outside the vehicle is not deteriorated because it is mistakenly recognized as a roadside belt or the like. For this reason, it can prevent effectively that a vehicle exterior environment recognition system recognizes incorrectly.

以上、本発明の好ましい実施の形態について詳説したが、本発明は、上述した実施の形態に限定されることはなく、本発明の範囲を逸脱することなく、上述した実施の形態に種々の変形及び置換を加えることができる。   The preferred embodiments of the present invention have been described in detail above. However, the present invention is not limited to the above-described embodiments, and various modifications can be made to the above-described embodiments without departing from the scope of the present invention. And substitutions can be added.

10 撮影画像フレーム
15 オブジェクト
10 shot image frame 15 object

Claims (1)

カメラの撮影画像中の付着物又は写り込みの有無を判定する画像判定装置であって、
前記撮影画像中の画像データから画像特徴量の画素点を検出する特徴量検出手段と、自車両の旋回状態を検出する旋回状態検出手段と、を備え、
自車両が直進走行しているときの画像特徴量の画素点の位置と、自車両が旋回走行しているときの画像特徴量の画素点の位置と、の差が所定値以下である場合に、前記撮影画像中に付着物又は写り込みがあると判定することを特徴とする画像判定装置。
An image determination device for determining the presence or absence of deposits or reflections in a captured image of a camera,
Feature amount detecting means for detecting pixel points of image feature amounts from image data in the captured image, and turning state detecting means for detecting the turning state of the host vehicle,
When the difference between the position of the pixel point of the image feature amount when the host vehicle is traveling straight and the position of the pixel point of the image feature amount when the host vehicle is turning is less than or equal to a predetermined value An image determination apparatus that determines that there is an attached object or a reflection in the photographed image.
JP2013256497A 2013-12-11 2013-12-11 Image determination device Active JP6048384B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013256497A JP6048384B2 (en) 2013-12-11 2013-12-11 Image determination device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013256497A JP6048384B2 (en) 2013-12-11 2013-12-11 Image determination device

Publications (2)

Publication Number Publication Date
JP2015114848A JP2015114848A (en) 2015-06-22
JP6048384B2 true JP6048384B2 (en) 2016-12-21

Family

ID=53528591

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013256497A Active JP6048384B2 (en) 2013-12-11 2013-12-11 Image determination device

Country Status (1)

Country Link
JP (1) JP6048384B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6936070B2 (en) * 2017-08-01 2021-09-15 トヨタ自動車株式会社 Peripheral monitoring device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3655541B2 (en) * 2000-09-18 2005-06-02 トヨタ自動車株式会社 Lane detector
US8180099B2 (en) * 2002-07-16 2012-05-15 Trw Limited Rain detection apparatus and method

Also Published As

Publication number Publication date
JP2015114848A (en) 2015-06-22

Similar Documents

Publication Publication Date Title
CN110232836B (en) Object recognition device and vehicle travel control system
JP5594246B2 (en) Lane recognition device
JP6316411B2 (en) Image recognition apparatus and control method thereof
JP6458384B2 (en) Lane detection device and lane detection method
US10795370B2 (en) Travel assist apparatus
US9794543B2 (en) Information processing apparatus, image capturing apparatus, control system applicable to moveable apparatus, information processing method, and storage medium of program of method
JP7077910B2 (en) Bound line detection device and lane marking method
JP2010078387A (en) Lane determining apparatus
JP6778620B2 (en) Road marking device, road marking system, and road marking method
JP2015225546A (en) Object detection device, drive support apparatus, object detection method, and object detection program
JP2004247979A (en) On-vehicle camera apparatus
JP6314655B2 (en) Marking line detection device, marking line detection method
JP6048384B2 (en) Image determination device
JP7411108B2 (en) Vehicle posture estimation system and vehicle posture estimation method
JP6824759B2 (en) Bound line detection device, lane marking system, and lane marking method
JP5345999B2 (en) Lane mark recognition device
JP5193148B2 (en) Vehicle imaging device
WO2020036039A1 (en) Stereo camera device
JP6244926B2 (en) On-vehicle camera parameter generation device and program
JP6564682B2 (en) Object detection device, object detection method, and object detection program
JP7225079B2 (en) Obstacle recognition device
JP2019151307A (en) Parking area detection device and parking area detection method
JP6432033B2 (en) In-vehicle device
JP2019029986A (en) Imaging control device and imaging control method
JP7131327B2 (en) Target detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161107

R151 Written notification of patent or utility model registration

Ref document number: 6048384

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151