JP2015001812A - Image processing device, image processing method and image processing program - Google Patents

Image processing device, image processing method and image processing program Download PDF

Info

Publication number
JP2015001812A
JP2015001812A JP2013125660A JP2013125660A JP2015001812A JP 2015001812 A JP2015001812 A JP 2015001812A JP 2013125660 A JP2013125660 A JP 2013125660A JP 2013125660 A JP2013125660 A JP 2013125660A JP 2015001812 A JP2015001812 A JP 2015001812A
Authority
JP
Japan
Prior art keywords
vehicle
image
motion blur
image processing
exposure time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013125660A
Other languages
Japanese (ja)
Inventor
江村 恒一
Koichi Emura
恒一 江村
渉 仲井
Wataru Nakai
渉 仲井
伊藤 快
Kai Ito
快 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2013125660A priority Critical patent/JP2015001812A/en
Publication of JP2015001812A publication Critical patent/JP2015001812A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device with a simple configuration capable of precisely determining whether a vehicle is travelling along a lane marker.SOLUTION: An image processing device 100 includes: an image acquisition section 101 that acquires a road surface image which is an image of a road including a lane marker by taking an image from a running vehicle; a motion blur calculation section 102 that calculates the width of a motion blur which is generated in a boundary area between the lane marker and an area other than the lane marker in a partial area of the road surface image; and a travelling state determination section 103 that determines, when the width of the motion blur is smaller than a threshold value, the vehicle is travelling along the lane marker.

Description

本発明は、車載カメラのキャリブレーションや、カーナビゲーションシステムにおける自車両の位置・姿勢表示、安全画像処理システムにおける車線逸脱警報(Lane Departure Warning)や車線維持支援(Lane Keeping Assist)、自動運転システムにおける操舵制御、自動運転・隊列走行システムにおける隊列形成、操舵制御において、車両が白線等のレーンマーカに沿って走行していることを正確に判定する画像処理装置、画像処理方法および画像処理プログラムに関する。   The present invention relates to calibration of an in-vehicle camera, position / posture display of the own vehicle in a car navigation system, lane departure warning in a safety image processing system, lane keeping assistance, and an automatic driving system. The present invention relates to an image processing apparatus, an image processing method, and an image processing program that accurately determine that a vehicle is traveling along a lane marker such as a white line in steering control, formation of formation in an automated driving / convoy running system, and steering control.

従来の画像処理装置として、車両が直進する間に車載カメラ画像を積算し、積算画像から抽出する輝度エッジに基づいて決定する直線群の交点を消失点として特定し、消失点座標と基準座標からカメラパラメータが適切な値か判定するため、舵角センサを用いて車両が直進していることを判定しているものが知られている(例えば特許文献1参照)。   As a conventional image processing device, the vehicle-mounted camera images are integrated while the vehicle goes straight, the intersection point of the straight line group determined based on the luminance edge extracted from the integrated image is specified as the vanishing point, and the vanishing point coordinates and the reference coordinates are used. In order to determine whether the camera parameter is an appropriate value, there is known one that determines that the vehicle is traveling straight using a steering angle sensor (see, for example, Patent Document 1).

国際公開第2010/146695号International Publication No. 2010/146695

しかしながら、特許文献1の技術は、車両が直進していることを判定するために舵角センサが必要となるため、構成が複雑になるという課題がある。   However, the technique of Patent Document 1 has a problem that the configuration is complicated because a steering angle sensor is required to determine that the vehicle is traveling straight.

本発明の目的は、より簡易な構成で、車両がレーンマーカに沿って走行していることを正確に判定できる画像処理装置、画像処理方法、および画像処理プログラムを提供することである。   An object of the present invention is to provide an image processing apparatus, an image processing method, and an image processing program capable of accurately determining that a vehicle is traveling along a lane marker with a simpler configuration.

本発明の一態様に係る画像処理装置は、走行中の車両からの撮影により、レーンマーカを含む道路の画像である第1の路面画像を取得する画像取得部と、前記第1の路面画像から、前記レーンマーカに基づいて発生するモーションブラーの幅を算出するモーションブラー算出部と、前記モーションブラーの幅がしきい値より小さいとき、前記車両が前記レーンマーカに沿って走行していると判定する走行状態判定部と、を有する構成を採る。   An image processing apparatus according to an aspect of the present invention includes an image acquisition unit that acquires a first road surface image that is an image of a road including a lane marker by photographing from a traveling vehicle, and the first road surface image. A motion blur calculation unit that calculates the width of a motion blur that is generated based on the lane marker, and a traveling state that determines that the vehicle is traveling along the lane marker when the width of the motion blur is smaller than a threshold value And a determination unit.

本発明の一態様に係る画像処理方法は、走行中の車両からの撮影により、レーンマーカを含む道路の画像である路面画像を取得するステップと、前記路面画像から、前記レーンマーカに基づいて発生するモーションブラーの幅を算出するステップと、前記モーションブラーの幅がしきい値より小さいとき、前記車両が前記レーンマーカに沿って走行していると判定するステップと、を含む。   An image processing method according to an aspect of the present invention includes a step of acquiring a road surface image that is an image of a road including a lane marker by photographing from a traveling vehicle, and a motion generated based on the lane marker from the road surface image. Calculating a blur width, and determining that the vehicle is traveling along the lane marker when the motion blur width is smaller than a threshold value.

本発明の一態様に係る画像処理プログラムは、走行中の車両からの撮影により、レーンマーカを含む道路の画像である路面画像を取得する処理と、前記路面画像から、前記レーンマーカに基づいて発生するモーションブラーの幅を算出する処理と、前記モーションブラーの幅がしきい値より小さいとき、前記車両が前記レーンマーカに沿って走行していると判定する処理と、をコンピュータに実行させる。   An image processing program according to an aspect of the present invention includes a process of acquiring a road surface image that is an image of a road including a lane marker by shooting from a traveling vehicle, and a motion that is generated based on the lane marker from the road surface image. Processing for calculating the width of the blur and processing for determining that the vehicle is traveling along the lane marker when the width of the motion blur is smaller than a threshold value are executed by the computer.

本発明は、より簡易な構成で、車両がレーンマーカに沿って走行していることを正確に判定できる。   The present invention can accurately determine that the vehicle is traveling along the lane marker with a simpler configuration.

本発明の実施の形態1に係る画像処理装置の構成例を示すブロック図1 is a block diagram illustrating a configuration example of an image processing apparatus according to Embodiment 1 of the present invention. 本発明の実施の形態1に係る車両がレーンマーカに沿って走行している走行状態の例を示す上面図The top view which shows the example of the driving | running | working state which the vehicle which concerns on Embodiment 1 of this invention drive | works along a lane marker 本発明の実施の形態1に係る車両がレーンマーカに沿わずに走行している走行状態の例を示す上面図The top view which shows the example of the driving | running | working state which the vehicle which concerns on Embodiment 1 of this invention is drive | working along a lane marker 本発明の実施の形態1に係る画像処理装置の動作例を示すフローチャート7 is a flowchart illustrating an operation example of the image processing apparatus according to the first embodiment of the present invention. 本発明の実施の形態1に係る車両がレーンマーカに沿って走行しているときに撮影された画像とその拡大画像の例をそれぞれ示す図The figure which each shows the example and the enlarged image which were image | photographed when the vehicle which concerns on Embodiment 1 of this invention is driving | running along a lane marker 本発明の実施の形態1に係る車両がレーンマーカに沿わずに走行しているときに撮影された画像とその拡大画像の例をそれぞれ示す図The figure which each shows the example and the enlarged image which were image | photographed when the vehicle which concerns on Embodiment 1 of this invention is drive | working along a lane marker 本発明の実施の形態1に係る画像処理装置が算出しうる画素ごとの輝度値を示すグラフThe graph which shows the luminance value for every pixel which the image processing apparatus which concerns on Embodiment 1 of this invention can calculate 本発明の実施の形態2に係る画像処理装置の構成例を示すブロック図FIG. 3 is a block diagram showing a configuration example of an image processing apparatus according to Embodiment 2 of the present invention. 本発明の実施の形態2に係る画像処理装置の動作例を示すフローチャートThe flowchart which shows the operation example of the image processing apparatus which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る画像処理装置が算出しうる画素ごとの輝度値を示すグラフThe graph which shows the luminance value for every pixel which the image processing apparatus which concerns on Embodiment 2 of this invention can calculate 本発明の実施の形態3に係る画像処理装置の構成例を示すブロック図FIG. 3 is a block diagram showing an example of the configuration of an image processing apparatus according to Embodiment 3 of the present invention. 本発明の実施の形態3に係る画像処理装置の動作例を示すフローチャートThe flowchart which shows the operation example of the image processing apparatus which concerns on Embodiment 3 of this invention. 本発明の実施の形態3に係る画像処理装置が算出しうる画素ごとの輝度値を示すグラフThe graph which shows the luminance value for every pixel which the image processing apparatus which concerns on Embodiment 3 of this invention can calculate 本発明の実施の形態4に係る画像処理装置の構成例を示すブロック図FIG. 6 is a block diagram showing a configuration example of an image processing apparatus according to Embodiment 4 of the present invention. 本発明の実施の形態4に係る画像処理装置の動作例を示すフローチャートThe flowchart which shows the operation example of the image processing apparatus which concerns on Embodiment 4 of this invention. 本発明の実施の形態5に係る画像処理装置の構成例を示すブロック図FIG. 9 is a block diagram showing a configuration example of an image processing apparatus according to Embodiment 5 of the present invention. 本発明の実施の形態5に係る画像処理装置の動作例を示すフローチャートThe flowchart which shows the operation example of the image processing apparatus which concerns on Embodiment 5 of this invention. 本発明の実施の形態5に係る車両がピッチ角変動なく走行している走行状態の例を示す側面図The side view which shows the example of the driving | running | working state which the vehicle which concerns on Embodiment 5 of this invention drive | works without a pitch angle fluctuation 本発明の実施の形態5に係る車両がピッチ角−1度変動しながら走行している走行状態の例を示す側面図The side view which shows the example of the driving | running | working state which the vehicle which concerns on Embodiment 5 of this invention is driving | running, changing a pitch angle -1 degree. 本発明の実施の形態5に係る車両がピッチ角+1度変動しながら走行している走行状態の例を示す側面図The side view which shows the example of the driving | running | working state which the vehicle which concerns on Embodiment 5 of this invention is driving | running, changing a pitch angle + 1 degree | times. 本発明の実施の形態5に係る車両がピッチ角変動なく走行しているときに撮影された画像とその拡大画像の例をそれぞれ示す図The figure which each shows the example and the enlarged image which were image | photographed when the vehicle which concerns on Embodiment 5 of this invention is drive | working without a pitch angle fluctuation | variation 本発明の実施の形態5に係る車両がピッチ角−1度変動しながら走行しているときに撮影された画像とその拡大画像の例をそれぞれ示す図The figure which each shows the example and the enlarged image which were image | photographed when the vehicle which concerns on Embodiment 5 of this invention is drive | working changing a pitch angle -1 degree | times. 本発明の実施の形態5に係る車両がピッチ角+1度変動しながら走行しているときに撮影された画像とその拡大画像の例をそれぞれ示す図The figure which each shows the example and the enlarged image which were image | photographed when the vehicle which concerns on Embodiment 5 of this invention is drive | working changing a pitch angle + 1 degree | times. 本発明の実施の形態5に係る画像処理装置が算出しうる画素ごとの輝度値を示すグラフGraph showing luminance values for each pixel that can be calculated by the image processing apparatus according to the fifth embodiment of the present invention. 本発明の実施の形態5に係る画像処理装置が算出しうる画素ごとの輝度値を示すグラフGraph showing luminance values for each pixel that can be calculated by the image processing apparatus according to the fifth embodiment of the present invention. 本発明の実施の形態6に係る画像処理装置の構成例を示すブロック図FIG. 9 is a block diagram illustrating a configuration example of an image processing apparatus according to a sixth embodiment of the present invention. 本発明の実施の形態6に係る画像処理装置の動作例を示すフローチャートThe flowchart which shows the operation example of the image processing apparatus which concerns on Embodiment 6 of this invention. 本発明の実施の形態6に係る画像処理装置が撮影する対象となる画像および撮影された画像および画像処理された画像の例を示す図The figure which shows the example of the image used as the object imaged by the image processing apparatus which concerns on Embodiment 6 of this invention, the imaged image, and the image-processed image

以下、本発明の実施の形態について、図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(実施の形態1)
本発明の実施の形態1に係る画像処理装置について説明する。
(Embodiment 1)
An image processing apparatus according to Embodiment 1 of the present invention will be described.

まず、本実施の形態の画像処理装置100の構成について説明する。図1は、本実施の形態の画像処理装置100の構成例を示すブロック図である。   First, the configuration of the image processing apparatus 100 according to the present embodiment will be described. FIG. 1 is a block diagram illustrating a configuration example of an image processing apparatus 100 according to the present embodiment.

図1において、画像処理装置100は、画像取得部101、モーションブラー算出部102、および走行状態判定部103を有する。   In FIG. 1, the image processing apparatus 100 includes an image acquisition unit 101, a motion blur calculation unit 102, and a running state determination unit 103.

画像取得部101は、車載カメラ(以下、適宜「カメラ」ともいう)で撮影された路面画像を取得する。路面画像は、レーンマーカを含む道路の画像である。本明細書でいうレーンマーカは、レーン(車線)を特定可能な表示または物体を意味し、例えば、白線、ボッツドッツ、ポール、ガードレールなどが挙げられる。以下では、レーンマーカが白線である場合を例に挙げて説明する。   The image acquisition unit 101 acquires a road surface image captured by an in-vehicle camera (hereinafter also referred to as “camera” as appropriate). A road surface image is an image of a road including a lane marker. The lane marker referred to in this specification means a display or an object that can specify a lane (lane), and examples thereof include a white line, a botsdot, a pole, a guardrail, and the like. Hereinafter, a case where the lane marker is a white line will be described as an example.

モーションブラー算出部102は、路面画像の部分領域において、白線と白線以外の境界領域に発生するモーションブラーの幅を算出する。本来のモーションブラーは、動いている被写体を動かないカメラで撮影したときに生じる被写体ぶれである。本実施の形態では、モーションブラーを、カメラが、動いていない被写体である白線に沿って移動する場合に、撮影された路面画像において、カメラが動かず白線が動いているものととらえ、白線に対して発生する被写体ぶれ、と定義する。   The motion blur calculation unit 102 calculates the width of the motion blur that occurs in the boundary area other than the white line and the white line in the partial area of the road surface image. The original motion blur is subject blur that occurs when a moving subject is shot with a camera that does not move. In this embodiment, when the camera moves along a white line that is a non-moving subject, the motion blur is regarded as the white line moving without moving the camera in the captured road surface image. It is defined as subject blurring that occurs with respect to the subject.

レーンマーカに沿って走行している車両が車載カメラにより白線を被写体として撮影した場合、その白線のモーションブラーは、車両の走行方向である白線の延長線方向に発生する。そのため、白線の輝度成分は、白線領域内に重畳され、白線の延長方向以外に広がることはない。つまり、白線領域と白線が塗布されていないアスファルト領域の境界領域における、路面画像の水平方向の輝度変化は急峻になり、白線領域とアスファルト領域の境界にモーションブラーは発生しない。   When a vehicle traveling along a lane marker captures a white line as a subject by an in-vehicle camera, the motion blur of the white line is generated in the extension direction of the white line, which is the traveling direction of the vehicle. For this reason, the luminance component of the white line is superimposed in the white line region and does not spread outside the extending direction of the white line. That is, the luminance change in the horizontal direction of the road surface image in the boundary area between the white line area and the asphalt area where the white line is not applied becomes steep, and motion blur does not occur at the boundary between the white line area and the asphalt area.

一方、レーンマーカに沿わずに走行している車両が車載カメラにより白線を被写体として撮影した場合、その白線のモーションブラーは、車両の走行方向に発生するため、白線の延長線方向とずれる。そのため、白線の輝度成分は、白線領域外に重畳され、白線の延長方向以外に広がる。つまり、白線領域とアスファルト領域の境界における、路面画像の水平方向の輝度変化はなだらかになり、白線領域とアスファルト領域の境界にモーションブラーが発生する。   On the other hand, when a vehicle that is traveling along a lane marker captures a white line as a subject by an in-vehicle camera, the motion blur of the white line is generated in the traveling direction of the vehicle, so that the white line is shifted from the extended line direction. Therefore, the luminance component of the white line is superimposed outside the white line region and spreads in directions other than the extending direction of the white line. That is, the horizontal luminance change of the road surface image at the boundary between the white line area and the asphalt area becomes gentle, and motion blur occurs at the boundary between the white line area and the asphalt area.

走行状態判定部103は、モーションブラー算出部102が算出したモーションブラーの幅が予め定められたしきい値より小さいときに、車両の走行状態すなわち、車両がレーンマーカに沿って走行していると判定する。   The traveling state determination unit 103 determines that the vehicle is traveling along the lane marker when the width of the motion blur calculated by the motion blur calculation unit 102 is smaller than a predetermined threshold. To do.

次に、本実施の形態の画像処理装置100を搭載した車両の走行状態の例について説明する。図2は、車両が道路上を走行している様子を示す上面図である。   Next, an example of a traveling state of a vehicle equipped with the image processing apparatus 100 of the present embodiment will be described. FIG. 2 is a top view showing a state where the vehicle is traveling on a road.

図2Aおよび図2Bにおいて、車両202は、その後部に車載カメラ(図示せず)を搭載しており、道路201上の白線203と白線204の間を直進している。白線203と白線204は、レーンマーカの一例である。白線203は、車両202の進行方向向かって左側に位置し、白線204は、車両202の進行方向向かって右側に位置し、白線203と白線20は並行であるとする。基準直線205は、白線203と白線204の中心線である。ベクトル206は、車両202の進行方向を示す。撮影範囲207は、車両202の車載カメラの撮影範囲である。線分208は、白線204を横切りベクトル206と直交する線分である。   2A and 2B, the vehicle 202 has an in-vehicle camera (not shown) mounted on the rear part thereof, and travels straight between the white line 203 and the white line 204 on the road 201. White lines 203 and white lines 204 are examples of lane markers. The white line 203 is located on the left side in the traveling direction of the vehicle 202, the white line 204 is located on the right side in the traveling direction of the vehicle 202, and the white line 203 and the white line 20 are parallel. The reference straight line 205 is the center line of the white line 203 and the white line 204. A vector 206 indicates the traveling direction of the vehicle 202. A shooting range 207 is a shooting range of the vehicle-mounted camera of the vehicle 202. A line segment 208 is a line segment crossing the white line 204 and orthogonal to the vector 206.

なお、本実施の形態では、車載カメラは、車両202の後部に搭載され、車両202の後方を撮影する例として説明するが、車両202の前方に搭載され、車両202の前方を撮影する例であってもよい。ただし、車載カメラにより撮影する路面画像は、車両202により近い画像である方が精度の高い判定ができる。そのため、より好適な実施の形態として、より車両202に近い路面画像を撮影できるように、車載カメラを、車両202の後部に設置し、進行方向向かって後方の路面画像を撮影する例で説明する。   In the present embodiment, the in-vehicle camera is described as an example in which the vehicle-mounted camera is mounted on the rear portion of the vehicle 202 and images the rear of the vehicle 202. However, in the example in which the vehicle-mounted camera is mounted in front of the vehicle 202 and images the front of the vehicle 202. There may be. However, the road surface image taken by the in-vehicle camera can be determined with higher accuracy when the road image is closer to the vehicle 202. Therefore, as a more preferred embodiment, an example will be described in which an in-vehicle camera is installed at the rear part of the vehicle 202 so that a road surface image closer to the vehicle 202 can be taken, and a road surface image behind the vehicle direction is taken. .

図2Aにおいて、ベクトル206は基準直線205と一致している。このとき、車両202は、白線203、204に沿って走行している。一方、図2Bにおいて、ベクトル206は基準直線205から白線204方向へ例えば1度ずれている。このとき、車両202は、白線203、204に沿って走行していない。   In FIG. 2A, the vector 206 coincides with the reference line 205. At this time, the vehicle 202 is traveling along the white lines 203 and 204. On the other hand, in FIG. 2B, the vector 206 is shifted from the reference straight line 205 in the direction of the white line 204, for example, once. At this time, the vehicle 202 is not traveling along the white lines 203 and 204.

次に、本実施の形態の画像処理装置100の動作について説明する。図3は、本実施の形態の画像処理装置100の動作例を示すフローチャートである。   Next, the operation of the image processing apparatus 100 according to the present embodiment will be described. FIG. 3 is a flowchart illustrating an operation example of the image processing apparatus 100 according to the present embodiment.

ステップS301において、画像取得部101は、カメラの露光時間(以下、適宜「露光時間」ともいう)を、例えばNTSC方式のカメラの露光時間16ミリ秒より長い300ミリ秒に設定する。ここで露光時間はフレーム周波数の約1/2とし、露光時間の決定および設定、設定された露光時間での画像の取得は、それぞれフレーム周波数の決定および設定、設定されたフレーム周波数での画像取得としてよい。具体的には、露光時間16ミリ秒で撮影するために、フレーム周波数を秒30フレーム(一フレームの継続時間33ミリ秒)とする。   In step S301, the image acquisition unit 101 sets the exposure time of the camera (hereinafter also referred to as “exposure time” as appropriate) to 300 milliseconds, which is longer than the exposure time of 16 milliseconds of the NTSC camera, for example. Here, the exposure time is about ½ of the frame frequency, and the determination and setting of the exposure time and the acquisition of the image at the set exposure time are the determination and setting of the frame frequency and the acquisition of the image at the set frame frequency, respectively. As good as Specifically, in order to capture an image with an exposure time of 16 milliseconds, the frame frequency is set to 30 frames per second (the duration of one frame is 33 milliseconds).

ステップS302において、画像取得部101は、カメラから路面画像を取得する。   In step S302, the image acquisition unit 101 acquires a road surface image from the camera.

ここで、画像取得部101が取得する路面画像(以下、適宜「画像」ともいう)の例について説明する。なお、以下に説明する画像は、カメラにて撮影されたそのままの画像であるものとして説明するが、カメラにて撮影された画像に対して画像取得部101が所定の処理を施した画像であってもよい。   Here, an example of a road surface image (hereinafter also referred to as “image” as appropriate) acquired by the image acquisition unit 101 will be described. Note that the image described below is described as an image captured by the camera as it is, but is an image obtained by performing a predetermined process on the image captured by the camera. May be.

図4Aは、図2Aの走行状態のときに車載カメラで撮影された路面画像と、その路面画像の一部を拡大した画像の例を示す図である。図4Bは、図2Bの走行状態のときに車載カメラで撮影された路面画像と、その路面画像の一部を拡大した画像の例を示す図である。   FIG. 4A is a diagram illustrating an example of a road surface image captured by the in-vehicle camera in the traveling state of FIG. 2A and an image obtained by enlarging a part of the road surface image. FIG. 4B is a diagram illustrating an example of a road surface image captured by the in-vehicle camera in the traveling state of FIG. 2B and an image obtained by enlarging a part of the road surface image.

図4Aおよび図4Bにおいて、路面画像407a、407bは、時速60kmで走行する車両202の車載カメラにより、撮影範囲207を露光時間300ミリ秒(以下、「ms」ともいう)で撮影した画像である。路面画像407a、407bは、道路201の撮影画像であるアスファルト領域401、白線203の撮影画像である白線領域403、白線204の撮影画像である白線領域404を含む。なお、アスファルト領域401は、道路上において白線が塗布されていない領域(例えば、白線のないアスファルト部分)の撮影画像である。   4A and 4B, road surface images 407a and 407b are images obtained by photographing an imaging range 207 with an exposure time of 300 milliseconds (hereinafter also referred to as “ms”) by an in-vehicle camera of a vehicle 202 traveling at a speed of 60 km / h. . The road surface images 407a and 407b include an asphalt area 401 that is a photographed image of the road 201, a white line area 403 that is a photographed image of the white line 203, and a white line area 404 that is a photographed image of the white line 204. The asphalt area 401 is a photographed image of an area where no white line is applied on the road (for example, an asphalt part having no white line).

また、図4Aおよび図4Bにおいて、矩形領域405a、405bは、路面画像407a、407bの一部分である矩形の領域であり、白線領域404の一部分とアスファルト領域401の一部分を含む。線分領域408a、408bは、矩形領域405a、405bの一部分であり、白線領域404の一部分とアスファルト領域401の一部分を含む線分の領域である。線分領域408a、408bは、白線204を横切りベクトル206と直交する線分208の領域である。   4A and 4B, rectangular areas 405a and 405b are rectangular areas that are part of the road surface images 407a and 407b, and include a part of the white line area 404 and a part of the asphalt area 401. The line segment areas 408 a and 408 b are part of the rectangular areas 405 a and 405 b, and are line segment areas including a part of the white line area 404 and a part of the asphalt area 401. The line segment areas 408 a and 408 b are areas of the line segment 208 that crosses the white line 204 and is orthogonal to the vector 206.

路面画像407a、407bおよび矩形領域405a、405bにおいて、x軸およびy軸を定義している。各軸に示す数値は、画素の座標を示している。線分領域408a、408bは、y軸の350番目の画素のラインにおいて、x軸の90番目から190番目までの画素で構成される領域であり、路面画像407aのx軸方向と平行である。   In the road surface images 407a and 407b and the rectangular areas 405a and 405b, the x axis and the y axis are defined. The numerical value shown on each axis indicates the coordinates of the pixel. The line segment regions 408a and 408b are regions composed of the 90th to 190th pixels on the x axis in the 350th pixel line on the y axis, and are parallel to the x axis direction of the road surface image 407a.

なお、本実施の形態では、路面画像407a、407bから抽出される線分領域は、y軸の350番目の画素のラインとしたが、これに限定されない。上述したとおり、路面画像は車両により近い位置で撮影されたものが好ましいため、線分領域は、例えば、y軸の350番目以下の画素のラインにて抽出される画像であってもよい。   In the present embodiment, the line segment region extracted from the road surface images 407a and 407b is the 350th pixel line on the y axis, but is not limited thereto. As described above, since the road surface image is preferably taken at a position closer to the vehicle, the line segment region may be an image extracted by a line of pixels of the 350th pixel or less on the y axis, for example.

ステップS302において、画像取得部101は、さらに、取得した路面画像407a(または407b)から、白線領域404の一部を含む線分領域408a(または408b)を抽出する。   In step S302, the image acquisition unit 101 further extracts a line segment area 408a (or 408b) including a part of the white line area 404 from the acquired road surface image 407a (or 407b).

ステップS303において、モーションブラー算出部102は、画像取得部101が取得した線分領域408a(または408b)から、モーションブラーの幅を算出する。ここではまず、モーションブラー算出部102は、線分領域408aまたは408bにおいて、x軸における90番目の画素から190番目の画素まで順番に輝度値を算出する。この輝度値の算出結果の例を図5に示す。   In step S303, the motion blur calculation unit 102 calculates the width of the motion blur from the line segment region 408a (or 408b) acquired by the image acquisition unit 101. Here, first, the motion blur calculation unit 102 calculates luminance values in order from the 90th pixel to the 190th pixel on the x-axis in the line segment region 408a or 408b. An example of the calculation result of the luminance value is shown in FIG.

図5は、モーションブラー算出部102により算出された画素ごとの輝度値の変化を示すグラフである。図5において、横軸は、図4における線分領域408aまたは408bのx軸の画素番号を示し、縦軸は、各画素番号の画素の輝度値を示している。グラフ501は、車速が時速60kmのときに露光時間300msで撮影された線分領域408aに含まれる画素の輝度値を○でプロットしたグラフである。グラフ502は、車速が時速60kmのときに露光時間300msで撮影された線分領域408bに含まれる画素の輝度値を△でプロットしたグラフである。   FIG. 5 is a graph showing a change in luminance value for each pixel calculated by the motion blur calculation unit 102. In FIG. 5, the horizontal axis indicates the pixel number of the x-axis of the line segment region 408a or 408b in FIG. 4, and the vertical axis indicates the luminance value of the pixel of each pixel number. A graph 501 is a graph in which the luminance values of the pixels included in the line segment region 408a photographed with an exposure time of 300 ms when the vehicle speed is 60 km / h are plotted with ◯. A graph 502 is a graph in which the luminance values of the pixels included in the line segment region 408b photographed with an exposure time of 300 ms when the vehicle speed is 60 km / h are plotted with Δ.

グラフ501の場合、モーションブラー算出部102は、最大輝度値250(白線領域404の輝度値)と最小輝度値150(アスファルト領域401の輝度値)との間の画素数を算出し、モーションブラーの幅とする。具体的には、横軸の130番目付近または180番目付近の3画素(○の数)をモーションブラーの幅とする。   In the case of the graph 501, the motion blur calculation unit 102 calculates the number of pixels between the maximum luminance value 250 (the luminance value of the white line region 404) and the minimum luminance value 150 (the luminance value of the asphalt region 401), and the motion blur is calculated. Width. Specifically, three pixels (number of circles) near the 130th or 180th on the horizontal axis are set as the width of the motion blur.

グラフ502の場合も同様である。モーションブラー算出部102は、最大輝度値250(白線領域
04の輝度値)と最小輝度値150(アスファルト領域401の輝度値)との間の画素数を算出し、モーションブラーの幅とする。具体的には、横軸の110番目付近から130番目付近または150番目付近の画素から180番目付近までの27画素(△の数)をモーションブラーの幅とする。
The same applies to the graph 502. The motion blur calculation unit 102 calculates the number of pixels between the maximum luminance value 250 (luminance value of the white line region 04) and the minimum luminance value 150 (luminance value of the asphalt region 401), and sets it as the width of the motion blur. Specifically, 27 pixels (number of Δ) from the 110th to 130th or 150th pixel to the 180th pixel on the horizontal axis are set as the width of the motion blur.

以上のようにして、モーションブラー算出部102は、線分領域408aまたは408bに含まれる画素ごとに輝度値を算出し、その輝度値の最大値から最小値まで変化する間の横軸の画素数をモーションブラーの幅とする。   As described above, the motion blur calculation unit 102 calculates the luminance value for each pixel included in the line segment region 408a or 408b, and the number of pixels on the horizontal axis while the luminance value changes from the maximum value to the minimum value. Is the width of the motion blur.

ステップS304において、走行状態判定部103は、モーションブラー算出部102が算出したモーションブラーの幅と、予め定められたしきい値とに基づいて、車両の走行状態を判定する。この走行状態判定処理の一例について以下に説明する。   In step S304, the traveling state determination unit 103 determines the traveling state of the vehicle based on the motion blur width calculated by the motion blur calculation unit 102 and a predetermined threshold value. An example of this running state determination process will be described below.

ステップS304において、走行状態判定部103は、モーションブラーの幅がしきい値未満であるか否かを判定する。モーションブラーの幅がしきい値未満である場合(ステップS304:YES)、フローはステップS305に進む。一方、モーションブラーの幅がしきい値以上の場合(ステップS304:NO)、フローはステップS306に進む。   In step S304, the traveling state determination unit 103 determines whether or not the motion blur width is less than a threshold value. When the width of the motion blur is less than the threshold value (step S304: YES), the flow proceeds to step S305. On the other hand, when the width of the motion blur is equal to or greater than the threshold (step S304: NO), the flow proceeds to step S306.

ステップS305において、走行状態判定部103は、車両202が基準直線205に沿って走行している状態(図2Aに示すように、ベクトル206が基準直線205と一致している状態)であると判定する。よって、この場合、車両202は、白線203、204に沿って走行していると判定される。   In step S305, the traveling state determination unit 103 determines that the vehicle 202 is traveling along the reference line 205 (a state where the vector 206 matches the reference line 205 as shown in FIG. 2A). To do. Therefore, in this case, it is determined that the vehicle 202 is traveling along the white lines 203 and 204.

ステップS306において、走行状態判定部103は、車両202が基準直線205からずれて走行している状態(図2Bに示すように、ベクトル206が基準直線205と一致していない状態)であると判定する。よって、この場合、車両202は、白線203、204に沿って走行していないと判定される。   In step S306, the traveling state determination unit 103 determines that the vehicle 202 is traveling away from the reference straight line 205 (the state where the vector 206 does not match the reference straight line 205 as shown in FIG. 2B). To do. Therefore, in this case, it is determined that the vehicle 202 is not traveling along the white lines 203 and 204.

以上のように、本実施の形態の画像処理装置100は、上述した白線領域とアスファルト領域の境界におけるモーションブラーの発生を利用することにより、より簡易な構成(車載カメラから取得した路面画像のみ)で、車両が白線に沿って走行していることを正確に判定できる。   As described above, the image processing apparatus 100 according to the present embodiment uses a motion blur that occurs at the boundary between the white line area and the asphalt area described above, and thus has a simpler configuration (only a road surface image acquired from an in-vehicle camera). Thus, it can be accurately determined that the vehicle is traveling along the white line.

具体的には、画像処理装置100は、図2Aに示すように車両が白線に沿って走行しているか、または、図2Bに示すように車両が白線に沿って走行していないかを判定できる。   Specifically, the image processing apparatus 100 can determine whether the vehicle is traveling along the white line as illustrated in FIG. 2A or whether the vehicle is traveling along the white line as illustrated in FIG. 2B. .

(実施の形態2)
本発明の実施の形態2に係る画像処理装置について説明する。
(Embodiment 2)
An image processing apparatus according to Embodiment 2 of the present invention will be described.

本実施の形態の画像処理装置600の構成について説明する。図6は、本実施の形態の画像処理装置600の構成例を示すブロック図である。なお、図6において、実施の形態1と同様の構成については同一符号を付し、その詳細な説明は省略する。   A configuration of the image processing apparatus 600 according to the present embodiment will be described. FIG. 6 is a block diagram illustrating a configuration example of the image processing apparatus 600 according to the present embodiment. In FIG. 6, the same components as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

画像取得部101は、設定したカメラの露光時間を、走行状態判定部603へ通知する。   The image acquisition unit 101 notifies the traveling state determination unit 603 of the set exposure time of the camera.

カメラの露光時間が異なるとモーションブラーの幅も異なる。具体的には、露光時間が2倍長くなると、同じ車速の場合、露光している間に被写体である白線がぶれる量も2倍となり、撮影した画像に積算されるモーションブラーの幅も2倍になる。   If the exposure time of the camera is different, the width of the motion blur is also different. Specifically, when the exposure time is doubled, the amount of blurring of the white line that is the subject during exposure is doubled at the same vehicle speed, and the width of the motion blur integrated in the photographed image is also doubled. become.

走行状態判定部603は、露光時間としきい値とが紐付けられたデータを有する。このデータは、例えば、露光時間が長くなるほど、しきい値が大きくなるように設定されている。そして、走行状態判定部603は、画像取得部101から露光時間の通知を受けると、その露光時間に紐付けられたしきい値を選択する。そして、走行状態判定部603は、選択したしきい値と、モーションブラー算出部102が算出したモーションブラーの幅とに基づいて、車両の走行状態を判定する。   The traveling state determination unit 603 has data in which an exposure time and a threshold value are associated with each other. This data is set so that, for example, the threshold value increases as the exposure time increases. When the traveling state determination unit 603 receives the exposure time notification from the image acquisition unit 101, the traveling state determination unit 603 selects a threshold value associated with the exposure time. The traveling state determination unit 603 determines the traveling state of the vehicle based on the selected threshold value and the motion blur width calculated by the motion blur calculation unit 102.

次に、本実施の形態の画像処理装置600の動作について説明する。図7は、本実施の形態の画像処理装置600の動作例を示すフローチャートである。なお、図7において、実施の形態1と同様の動作については同一符号を付し、その詳細な説明は省略する。   Next, the operation of the image processing apparatus 600 of this embodiment will be described. FIG. 7 is a flowchart illustrating an operation example of the image processing apparatus 600 according to the present embodiment. In FIG. 7, the same operations as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

ステップS701において、画像取得部101は、カメラの露光時間を設定する。ここで設定される値は、例えば、100ms、300ms、500msのいずれかが挙げられる。そして、画像取得部101は取得した路面画像をモーションブラー算出部102へ送り、設定したカメラの露光時間を走行状態判定部603へ通知する。   In step S701, the image acquisition unit 101 sets the exposure time of the camera. Examples of the value set here include 100 ms, 300 ms, and 500 ms. Then, the image acquisition unit 101 sends the acquired road surface image to the motion blur calculation unit 102 and notifies the traveling state determination unit 603 of the set exposure time of the camera.

ステップS302〜S303の説明は省略する。   Description of steps S302 to S303 is omitted.

ステップS702において、走行状態判定部603は、判定に用いるしきい値を選択する。すなわち、走行状態判定部603は、画像取得部101から通知された露光時間に該当するしきい値を、予め定められた露光時間としきい値とが紐付けられたデータから選択する。例えば、しきい値は、露光時間がNmsの場合、N/20とする。具体的には、露光時間が100msの場合は5、露光時間が300msの場合は15、露光時間が500msの場合は25とする。   In step S702, the traveling state determination unit 603 selects a threshold value used for determination. That is, the traveling state determination unit 603 selects a threshold value corresponding to the exposure time notified from the image acquisition unit 101 from data in which a predetermined exposure time and a threshold value are associated with each other. For example, the threshold value is N / 20 when the exposure time is Nms. Specifically, it is 5 when the exposure time is 100 ms, 15 when the exposure time is 300 ms, and 25 when the exposure time is 500 ms.

ステップS304において、走行状態判定部603は、モーションブラー算出部102が算出したモーションブラーの幅と、しきい値とに基づいて、車両の走行状態を判定する。この走行状態判定処理の一例について以下に説明する。   In step S304, the traveling state determination unit 603 determines the traveling state of the vehicle based on the width of the motion blur calculated by the motion blur calculation unit 102 and the threshold value. An example of this running state determination process will be described below.

ステップS304におけるモーションブラー算出部102による輝度値の算出結果の例を図8に示す。   An example of the calculation result of the luminance value by the motion blur calculation unit 102 in step S304 is shown in FIG.

図8は、モーションブラー算出部102により算出された画素ごとの輝度値の変化を示すグラフである。図8の横軸および縦軸は、図5と同じである。また、図8において、グラフ501およびグラフ502は、図5と同じである。グラフ803は、車速が時速60kmのときに露光時間100msで撮影された線分領域408bに含まれる画素の輝度値を+でプロットしたグラフである。グラフ804は、車速時速60kmのときに露光時間500msで撮影された線分領域408bに含まれる画素の輝度値を×でプロットしたグラフである。   FIG. 8 is a graph showing a change in luminance value for each pixel calculated by the motion blur calculation unit 102. The horizontal and vertical axes in FIG. 8 are the same as those in FIG. In FIG. 8, the graph 501 and the graph 502 are the same as those in FIG. A graph 803 is a graph in which the luminance values of pixels included in the line segment region 408b photographed with an exposure time of 100 ms when the vehicle speed is 60 km / h is plotted as +. A graph 804 is a graph in which the luminance values of pixels included in the line segment region 408b photographed with an exposure time of 500 ms at a vehicle speed of 60 km / h are plotted with x.

走行状態判定部603は、グラフ501の場合、グラフ501のモーションブラーの幅3に対し、露光時間が300msであるためしきい値15を設定し、モーションブラーの幅がしきい値未満であることから、白線に沿って走行していると判定する。また、走行状態判定部603は、グラフ502の場合、グラフ502のモーションブラーの幅27に対し、露光時間が300msであるためしきい値15を設定し、モーションブラーの幅がしきい値以上であることから、白線に沿って走行していないと判定する。同様に、走行状態判定部603は、グラフ803の場合、グラフ803のモーションブラーの幅10に対し、露光時間が100msであるためしきい値5を設定し、モーションブラーの幅がしきい値以上であることから、白線に沿って走行していないと判定する。同様に、走行状態判定部603は、グラフ804の場合、グラフ804のモーションブラーの幅41に対し、露光時間が500msであるためしきい値25を設定し、モーションブラーの幅がしきい値以上であることから、白線に沿って走行していないと判定する。   In the case of the graph 501, the running state determination unit 603 sets the threshold 15 because the exposure time is 300 ms for the motion blur width 3 of the graph 501, and the motion blur width is less than the threshold. Therefore, it is determined that the vehicle is traveling along the white line. In the case of the graph 502, the running state determination unit 603 sets a threshold value 15 because the exposure time is 300 ms with respect to the motion blur width 27 of the graph 502, and the motion blur width is equal to or greater than the threshold value. Therefore, it is determined that the vehicle is not traveling along the white line. Similarly, in the case of the graph 803, the running state determination unit 603 sets a threshold value 5 because the exposure time is 100 ms with respect to the motion blur width 10 of the graph 803, and the motion blur width is equal to or greater than the threshold value. Therefore, it is determined that the vehicle is not traveling along the white line. Similarly, in the case of the graph 804, the traveling state determination unit 603 sets a threshold value 25 because the exposure time is 500 ms with respect to the motion blur width 41 of the graph 804, and the motion blur width is equal to or greater than the threshold value. Therefore, it is determined that the vehicle is not traveling along the white line.

ステップS305〜S306の説明は省略する。   Description of steps S305 to S306 is omitted.

以上のように、本実施の形態の画像処理装置600によれば、実施の形態1の特徴に加え、カメラの露光時間に応じてしきい値を選択することを特徴とする。よって、画像処理装置600は、より簡易な構成で、任意の露光時間に応じて、車両が白線に沿って走行しているか否かを正確に判定できる。   As described above, according to the image processing apparatus 600 of the present embodiment, in addition to the characteristics of the first embodiment, the threshold value is selected according to the exposure time of the camera. Therefore, the image processing apparatus 600 can accurately determine whether or not the vehicle is traveling along the white line according to an arbitrary exposure time with a simpler configuration.

(実施の形態3)
本発明の実施の形態3に係る画像処理装置について説明する。
(Embodiment 3)
An image processing apparatus according to Embodiment 3 of the present invention will be described.

まず、本実施の形態の画像処理装置900の構成について説明する。図9は、本実施の形態の画像処理装置900の構成例を示すブロック図である。なお、図9において、実施の形態1と同様の構成については同一符号を付し、その詳細な説明は省略する。   First, the configuration of the image processing apparatus 900 of this embodiment will be described. FIG. 9 is a block diagram illustrating a configuration example of the image processing apparatus 900 according to the present embodiment. In FIG. 9, the same components as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

車速取得部905は、走行中の車両の車速を取得する。そして、車速取得部905は、取得した車速を、撮像制御部904と走行状態判定部903へ通知する。   The vehicle speed acquisition unit 905 acquires the vehicle speed of the running vehicle. Then, the vehicle speed acquisition unit 905 notifies the acquired vehicle speed to the imaging control unit 904 and the traveling state determination unit 903.

車速が異なるとモーションブラーの幅も異なる。具体的には、車速が2倍速くなると、同じ露光時間の場合、露光している間に被写体である白線がぶれる量も2倍となり、撮影した画像に積算されるモーションブラーの幅も2倍になる。また、車速が2倍になり、露光時間を1/2にすると、モーションブラーの幅は同じになる。   The width of the motion blur varies with the vehicle speed. Specifically, when the vehicle speed is doubled, the amount of blurring of the white line that is the subject during exposure is doubled for the same exposure time, and the width of the motion blur added to the captured image is doubled. become. When the vehicle speed is doubled and the exposure time is halved, the motion blur width is the same.

撮像制御部904は、車速取得部905で取得された車速に応じて、カメラの露光時間を決定する。例えば、撮像制御部904は、車速が速いほど、カメラの露光時間が短くなるように決定する。そして、撮像制御部904は、決定した露光時間を、画像取得部901と走行状態判定部903へ通知する。   The imaging control unit 904 determines the exposure time of the camera according to the vehicle speed acquired by the vehicle speed acquisition unit 905. For example, the imaging control unit 904 determines that the exposure time of the camera is shortened as the vehicle speed increases. Then, the imaging control unit 904 notifies the image acquisition unit 901 and the traveling state determination unit 903 of the determined exposure time.

画像取得部901は、車載カメラで、撮像制御部904から通知された露光時間撮影された路面画像を取得する。   The image acquisition unit 901 is an in-vehicle camera, and acquires a road surface image that has been shot for the exposure time notified from the imaging control unit 904.

走行状態判定部903は、予め車速および露光時間としきい値とが紐付けられたデータを有する。このデータは、例えば、車速が速くなるほど、また露光時間が長くなるほど、しきい値が大きくなるように設定されている。そして、走行状態判定部903は、車速取得部905から車速の通知を受け、かつ、撮像制御部904から露光時間の通知を受けると、その車速および露光時間に紐付けられたしきい値を選択する。そして、走行状態判定部903は、選択したしきい値と、モーションブラー算出部102が算出したモーションブラーの幅とに基づいて、車両の走行状態を判定する。   The traveling state determination unit 903 has data in which a vehicle speed, an exposure time, and a threshold value are associated in advance. This data is set such that, for example, the threshold value increases as the vehicle speed increases and the exposure time increases. When the driving state determination unit 903 receives the vehicle speed notification from the vehicle speed acquisition unit 905 and receives the exposure time notification from the imaging control unit 904, the driving state determination unit 903 selects the threshold associated with the vehicle speed and the exposure time. To do. Then, the traveling state determination unit 903 determines the traveling state of the vehicle based on the selected threshold value and the motion blur width calculated by the motion blur calculation unit 102.

次に、本実施の形態の画像処理装置900の動作について説明する。図10は、本実施の形態の画像処理装置900の動作例を示すフローチャートである。なお、図10において、実施の形態1と同様の動作については同一符号を付し、その詳細な説明は省略する。   Next, the operation of the image processing apparatus 900 according to this embodiment will be described. FIG. 10 is a flowchart illustrating an operation example of the image processing apparatus 900 according to the present embodiment. In FIG. 10, the same operations as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

ステップS1000において、車速取得部905は、走行中の車両の車速を取得し、撮像制御部904および走行状態判定部903へ通知する。   In step S1000, the vehicle speed acquisition unit 905 acquires the vehicle speed of the running vehicle and notifies the imaging control unit 904 and the traveling state determination unit 903.

ステップS1001において、撮像制御部904は、車速取得部905から通知された車速に基づいて、カメラの露光時間を決定し、画像取得部901と走行状態判定部903へ通知する。画像取得部901は、撮像制御部904から通知されたカメラの露光時間を設定する。   In step S <b> 1001, the imaging control unit 904 determines the exposure time of the camera based on the vehicle speed notified from the vehicle speed acquisition unit 905, and notifies the image acquisition unit 901 and the traveling state determination unit 903. The image acquisition unit 901 sets the exposure time of the camera notified from the imaging control unit 904.

ステップS302〜S303の説明は省略する。   Description of steps S302 to S303 is omitted.

ステップS1002において、走行状態判定部903は、判定に用いるしきい値を選択する。すなわち、走行状態判定部903は、車速取得部905から通知された車速および撮像制御部904から通知された露光時間に該当するしきい値を、予め定められた車速および露光時間としきい値とが紐付けられたデータから選択する。例えば、しきい値は、露光時間がNms、車速が時速Mkmの場合、N/20・M/60とする。具体的には、露光時間が300msで車速が時速40kmの場合は10、露光時間が300msで車速が時速60kmの場合は15、露光時間が300msで車速が時速100kmの場合は25とする。   In step S1002, the traveling state determination unit 903 selects a threshold value used for determination. In other words, the traveling state determination unit 903 determines a threshold value corresponding to the vehicle speed notified from the vehicle speed acquisition unit 905 and the exposure time notified from the imaging control unit 904 as a predetermined vehicle speed, exposure time, and threshold value. Select from the linked data. For example, the threshold value is N / 20 · M / 60 when the exposure time is Nms and the vehicle speed is Mkm / h. Specifically, it is 10 when the exposure time is 300 ms and the vehicle speed is 40 km / h, 15 when the exposure time is 300 ms and the vehicle speed is 60 km / h, and 25 when the exposure time is 300 ms and the vehicle speed is 100 km / h.

ステップS304において、走行状態判定部903は、モーションブラー算出部102が算出したモーションブラーの幅と、予め定められたしきい値とに基づいて、車両の走行状態を判定する。この走行状態判定処理の一例について以下に説明する。   In step S304, the traveling state determination unit 903 determines the traveling state of the vehicle based on the motion blur width calculated by the motion blur calculation unit 102 and a predetermined threshold value. An example of this running state determination process will be described below.

ステップS304におけるモーションブラー算出部102による輝度値の算出結果の例を図11に示す。   An example of the calculation result of the luminance value by the motion blur calculation unit 102 in step S304 is shown in FIG.

図11は、モーションブラー算出部102により算出された画素ごとの輝度値の変化を示すグラフである。図11の横軸および縦軸は、図5と同じである。また、図11において、グラフ501およびグラフ502は、図5と同じである。グラフ1103は、車速が時速40kmのときに露光時間300msで撮影された線分領域408bに含まれる画素の輝度値を+でプロットしたグラフである。グラフ1104は、車速が時速100kmのときに露光時間300msで撮影された線分領域408bに含まれる画素の輝度値を×でプロットしたグラフである。   FIG. 11 is a graph showing a change in luminance value for each pixel calculated by the motion blur calculation unit 102. The horizontal and vertical axes in FIG. 11 are the same as those in FIG. Further, in FIG. 11, a graph 501 and a graph 502 are the same as those in FIG. A graph 1103 is a graph in which the luminance values of the pixels included in the line segment region 408b photographed with an exposure time of 300 ms when the vehicle speed is 40 km / h are plotted with +. A graph 1104 is a graph in which the luminance values of pixels included in the line segment region 408b photographed with an exposure time of 300 ms when the vehicle speed is 100 km / h are plotted with x.

走行状態判定部903は、グラフ501の場合、グラフ501のモーションブラーの幅3に対し、露光時間が300msで時速60kmであるためしきい値15を設定し、モーションブラーの幅がしきい値未満であることから、白線に沿って走行していると判定する。また、走行状態判定部903は、グラフ502の場合、グラフ502のモーションブラーの幅27に対し、露光時間が300msで時速60kmであるためしきい値15を設定し、モーションブラーの幅がしきい値以上であることから、白線に沿って走行していないと判定する。同様に、走行状態判定部903は、グラフ1103の場合、グラフ1103のモーションブラーの幅20に対し、露光時間が300msで時速40kmであるためしきい値10を設定し、モーションブラーの幅がしきい値以上であることから、白線に沿って走行していないと判定する。同様に、走行状態判定部903は、グラフ1104の場合、グラフ1104のモーションブラーの幅36に対し、露光時間が300msで時速100kmであるためしきい値25を設定し、モーションブラーの幅がしきい値以上であることから、白線に沿って走行していないと判定する。   In the case of the graph 501, the running state determination unit 903 sets the threshold value 15 for the motion blur width 3 of the graph 501, because the exposure time is 300 ms and the speed is 60 km / h, and the motion blur width is less than the threshold value. Therefore, it is determined that the vehicle is traveling along the white line. Further, in the case of the graph 502, the running state determination unit 903 sets a threshold value 15 for the motion blur width 27 of the graph 502 because the exposure time is 300 ms and the speed is 60 km / h, and the motion blur width is the threshold. Since it is more than a value, it determines with not drive | working along a white line. Similarly, in the case of the graph 1103, the running state determination unit 903 sets the threshold 10 because the exposure time is 300 ms and the speed is 40 km with respect to the motion blur width 20 of the graph 1103, thereby reducing the motion blur width. Since it is above the threshold, it is determined that the vehicle is not traveling along the white line. Similarly, in the case of the graph 1104, the running state determination unit 903 sets the threshold value 25 for the motion blur width 36 of the graph 1104 because the exposure time is 300 ms and the speed is 100 km / h, thereby reducing the motion blur width. Since it is above the threshold, it is determined that the vehicle is not traveling along the white line.

ステップS305〜S306の説明は省略する。   Description of steps S305 to S306 is omitted.

以上のように、本実施の形態の画像処理装置900によれば、実施の形態1の特徴に加え、車速およびカメラの露光時間に応じてしきい値を選択することを特徴とする。よって、画像処理装置900は、より簡易な構成で、任意の車速および露光時間に応じて、車両が白線に沿って走行していることを正確に判定できる。   As described above, according to the image processing apparatus 900 of the present embodiment, in addition to the features of the first embodiment, the threshold value is selected according to the vehicle speed and the exposure time of the camera. Therefore, the image processing apparatus 900 can accurately determine that the vehicle is traveling along the white line according to an arbitrary vehicle speed and exposure time with a simpler configuration.

(実施の形態4)
本発明の実施の形態4に係る画像処理装置について説明する。
(Embodiment 4)
An image processing apparatus according to Embodiment 4 of the present invention will be described.

まず、本実施の形態の画像処理装置1200の構成について説明する。図12は、本実施の形態の画像処理装置1200の構成例を示すブロック図である。なお、図12において、実施の形態3と同様の構成については同一符号を付し、その詳細な説明は省略する。   First, the configuration of the image processing apparatus 1200 according to the present embodiment will be described. FIG. 12 is a block diagram illustrating a configuration example of the image processing apparatus 1200 according to the present embodiment. In FIG. 12, the same components as those in the third embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

モーションブラー算出部102は、算出したモーションブラーを、走行状態判定部903だけでなく、撮像制御部1204にも通知する。   The motion blur calculation unit 102 notifies the calculated motion blur not only to the traveling state determination unit 903 but also to the imaging control unit 1204.

撮像制御部1204は、モーションブラー算出部102が算出したモーションブラーに基づいて、車速を推定する。そして、撮像制御部1204は、推定した車速に応じてカメラの露光時間を決定する。そして、撮像制御部1204は、画像取得部901に対して露光時間を通知し、走行状態判定部903に対して車速および露光時間を通知する。   The imaging control unit 1204 estimates the vehicle speed based on the motion blur calculated by the motion blur calculation unit 102. Then, the imaging control unit 1204 determines the exposure time of the camera according to the estimated vehicle speed. Then, the imaging control unit 1204 notifies the image acquisition unit 901 of the exposure time, and notifies the traveling state determination unit 903 of the vehicle speed and the exposure time.

次に、本実施の形態の画像処理装置1200の動作について説明する。図13は、本実施の形態の画像処理装置1200の動作例を示すフローチャートである。なお、図13において、実施の形態3と同様の動作については同一符号を付し、その詳細な説明は省略する。   Next, the operation of the image processing apparatus 1200 according to the present embodiment will be described. FIG. 13 is a flowchart illustrating an operation example of the image processing apparatus 1200 according to the present embodiment. In FIG. 13, the same operations as those in the third embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

ステップS1001において、撮像制御部1204は、デフォルト値として第1の露光時間を設定し、画像取得部901に対して第1の露光時間を通知する。   In step S1001, the imaging control unit 1204 sets the first exposure time as a default value, and notifies the image acquisition unit 901 of the first exposure time.

ステップS302において、画像取得部901は、撮像制御部1204から通知された第1の露光時間を設定し、第1の露光時間で撮影された第1の路面画像を取得し、第1の路面画像をモーションブラー算出部102へ送る。   In step S302, the image acquisition unit 901 sets the first exposure time notified from the imaging control unit 1204, acquires the first road surface image photographed at the first exposure time, and the first road surface image. Is sent to the motion blur calculation unit 102.

ステップS303において、モーションブラー算出部102は、第1の露光時間で撮影された第1の路面画像から算出した第1のモーションブラーの幅を、撮像制御部1204へ通知する。   In step S303, the motion blur calculation unit 102 notifies the imaging control unit 1204 of the width of the first motion blur calculated from the first road surface image captured at the first exposure time.

ステップS1300において、撮像制御部1204は、第1の露光時間と、モーションブラー算出部102から通知された第1のモーションブラーの幅に基づいて、走行中の車両の車速を推定する。   In step S1300, the imaging control unit 1204 estimates the vehicle speed of the running vehicle based on the first exposure time and the width of the first motion blur notified from the motion blur calculation unit 102.

ステップS1001において、撮像制御部1204は、推定した車速に基づいて、第2の露光時間を設定する。具体的には、実測する複数の時速とモーションブラーの幅との組から近似多項式を求める。例えば、車両が基準直線から1度ずれていて、時速40kmのときのモーションブラーの幅が20、時速60kmのときのモーションブラーの幅が27、時速100kmのときのモーションブラーの幅が36、かつ時速0kmのときのモーションブラーの幅が0となる近似多項式は、推定する時速をy、算出するモーションブラーの幅をxとするとき、y=0.0019x−0.056x+2.377xとなる。次に、求めた近似多項式に、算出した第1のモーションブラーの幅を代入して車速を求める。例えば、モーションブラーの幅20を代入して車速時速40.2kmを求める。続いて、走行中の車両が基準直線からずれている度合い、つまり車両進行方向と基準直線(白線の方向)のなす角度、を算出する。例えば、撮像制御部1204は、モーションブラー算出部102により算出されたモーションブラーの幅をdとし、車両が1度ずれて走行する場合のモーションブラーの幅をΔdとするとき、ステップS1300において、車両が基準直線からずれている度合いd/Δdを算出する。具体的には、Δdを25画素とした場合、図11において、グラフ502が輝度値250から降下し始め150へ降下し終わるまでの横軸の値は、150から175まで25となり、車両が基準直線からずれている度合いd/Δdは1度と算出される。近似多項式を求めた際の車両が基準直線からずれている度合いが、算出した車両が基準直線からずれている度合いとほぼ同じである場合、推定した車速を有効な推定値とする。 In step S1001, the imaging control unit 1204 sets a second exposure time based on the estimated vehicle speed. Specifically, an approximate polynomial is obtained from a set of a plurality of measured speeds per hour and a motion blur width. For example, when the vehicle is deviated from the reference straight line by 1 degree, the width of the motion blur when the speed is 40 km is 20, the width of the motion blur when the speed is 60 km is 27, the width of the motion blur when the speed is 100 km is 36, and The approximate polynomial in which the width of the motion blur at 0 km / h is 0 is y = 0.0019x 3 −0.056x 2 + 2.377x, where y is the estimated hourly speed and x is the width of the motion blur to be calculated. Become. Next, the vehicle speed is obtained by substituting the calculated width of the first motion blur into the obtained approximate polynomial. For example, the motion blur width 20 is substituted to obtain the vehicle speed of 40.2 km / h. Subsequently, the degree of deviation of the traveling vehicle from the reference straight line, that is, the angle formed by the vehicle traveling direction and the reference straight line (the direction of the white line) is calculated. For example, when the imaging blur control unit 1204 sets the width of the motion blur calculated by the motion blur calculation unit 102 to d and the width of the motion blur when the vehicle travels once shifted by Δd, in step S1300, the vehicle Degree d / Δd deviating from the reference straight line is calculated. Specifically, when Δd is 25 pixels, in FIG. 11, the value on the horizontal axis until the graph 502 starts to decrease from the luminance value 250 and finishes decreasing to 150 is 25 from 150 to 175, and the vehicle is the reference. The degree d / Δd deviating from the straight line is calculated as 1 degree. If the degree of deviation of the vehicle when obtaining the approximate polynomial is substantially the same as the degree of deviation of the calculated vehicle from the reference line, the estimated vehicle speed is set as an effective estimated value.

ステップS1001において、撮像制御部1204は、画像取得部901に対して第2の露光時間を通知し、走行状態判定部903に対して車速および第2の露光時間を通知する。   In step S1001, the imaging control unit 1204 notifies the image acquisition unit 901 of the second exposure time, and notifies the traveling state determination unit 903 of the vehicle speed and the second exposure time.

ステップS302において、画像取得部901は、撮像制御部1204から通知された第2の露光時間を設定して第2の路面画像を取得し、第2の路面画像をモーションブラー算出部102へ送る。   In step S <b> 302, the image acquisition unit 901 sets the second exposure time notified from the imaging control unit 1204, acquires the second road surface image, and sends the second road surface image to the motion blur calculation unit 102.

ステップS303において、モーションブラー算出部102は、第2の路面画像から第2のモーションブラーの幅を算出し、第2のモーションブラーの幅を撮像制御部1204と走行状態判定部903へ通知する。撮像制御部1204へ通知された第2のモーションブラーの幅は、次の処理サイクルにおける車速の推定に用いられる。   In step S303, the motion blur calculation unit 102 calculates the width of the second motion blur from the second road surface image, and notifies the imaging control unit 1204 and the traveling state determination unit 903 of the width of the second motion blur. The width of the second motion blur notified to the imaging control unit 1204 is used for estimating the vehicle speed in the next processing cycle.

ステップS1002、S304〜S306の説明は省略する。   Description of steps S1002 and S304 to S306 is omitted.

以上のように、本実施の形態の画像処理装置1200によれば、実施の形態3の特徴に加え、露光時間およびモーションブラーの幅に基づいて車速を推定することを特徴とする。よって、画像処理装置1200は、車速取得部905を備える必要がないため、実施の形態3よりも簡易な構成で、任意の車速および露光時間に応じて、車両が白線に沿って走行していることを正確に判定できる。   As described above, according to the image processing apparatus 1200 of the present embodiment, in addition to the features of the third embodiment, the vehicle speed is estimated based on the exposure time and the width of motion blur. Therefore, since image processing apparatus 1200 does not need to include vehicle speed acquisition unit 905, the vehicle travels along a white line according to an arbitrary vehicle speed and exposure time with a simpler configuration than that of the third embodiment. Can be determined accurately.

(実施の形態5)
本発明の実施の形態5に係る画像処理装置について説明する。
(Embodiment 5)
An image processing apparatus according to Embodiment 5 of the present invention will be described.

まず、本実施の形態の画像処理装置1400の構成について説明する。図14は、本実施の形態の画像処理装置1400の構成例を示すブロック図である。なお、図14において、実施の形態3と同様の構成については同一符号を付し、その詳細な説明は省略する。   First, the configuration of the image processing apparatus 1400 of this embodiment will be described. FIG. 14 is a block diagram illustrating a configuration example of the image processing apparatus 1400 according to the present embodiment. In FIG. 14, the same components as those in the third embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

モーションブラー算出部1402は、画像取得部901が取得した路面画像から、2つの線分領域のそれぞれについてモーションブラーの幅を算出する。そして、モーションブラー算出部1402は、算出した2つのモーションブラーの幅を、走行状態判定部903と車両姿勢判定部1406へ通知する。   The motion blur calculation unit 1402 calculates the width of the motion blur for each of the two line segment regions from the road surface image acquired by the image acquisition unit 901. Then, the motion blur calculation unit 1402 notifies the travel state determination unit 903 and the vehicle posture determination unit 1406 of the calculated two motion blur widths.

車両姿勢判定部1406は、車両の姿勢にピッチ角方向の姿勢変動(以降、「ピッチ角変動」という)があるか否かを判定し、走行状態判定部903へ通知する。   The vehicle posture determination unit 1406 determines whether or not the vehicle posture has a posture variation in the pitch angle direction (hereinafter referred to as “pitch angle variation”), and notifies the traveling state determination unit 903.

走行状態判定部903は、車両姿勢判定部1406から通知された車両のピッチ角変動がない場合にのみ、モーションブラー算出部1402から通知された2つのモーションブラーの幅の少なくともいずれかひとつに基づいて、車両の走行状態の判定を行う。   The driving state determination unit 903 is based on at least one of the two motion blur widths notified from the motion blur calculation unit 1402 only when there is no change in the pitch angle of the vehicle notified from the vehicle posture determination unit 1406. Then, the traveling state of the vehicle is determined.

ここで、本実施の形態に係る車両の姿勢の例について説明する。図16は、車両が道路上を走行している様子を示す側面図である。なお、図16において、図2と共通する部分には、同一の符号を付している。   Here, an example of the posture of the vehicle according to the present embodiment will be described. FIG. 16 is a side view showing a state where the vehicle is traveling on a road. In FIG. 16, the same reference numerals are given to the portions common to FIG. 2.

図16Aは、車両の姿勢変動がない状態を示している。図16Aにおいて、車両202の進行方向を示すベクトル206は道路201の面と平行である。図16Aは、車両202が、図16Aの状態から、図16Aの状態へ時系列で変化している状態を示しており、車両202の進行方向を示すベクトル206は、道路201の面と平行の状態から、同様に道路201面と平行の状態へ変化し、ベクトル206と道路201の面とが成す角度の変動であるピッチ角変動は、0度である。   FIG. 16A shows a state where there is no change in the posture of the vehicle. In FIG. 16A, a vector 206 indicating the traveling direction of the vehicle 202 is parallel to the plane of the road 201. FIG. 16A shows a state in which the vehicle 202 is changing in time series from the state of FIG. 16A to the state of FIG. 16A, and a vector 206 indicating the traveling direction of the vehicle 202 is Similarly, the state changes from the state to the state parallel to the surface of the road 201, and the pitch angle variation, which is the variation of the angle formed by the vector 206 and the surface of the road 201, is 0 degree.

図16Bは、車両の姿勢変動がある第1の状態を示している。図16Bにおいて、ベクトル206は道路201の面に対して、進行方向に向かって下方へ1度ずれている。図16Bは、車両202が、図16Aの状態から、図16Bの状態へ時系列で変化している状態を示しており、車両202の進行方向を示すベクトル206は、道路201の面と平行の状態から、道路201面と進行方向に向かって下方へ1度ずれた状態へ変化し、ベクトル206と道路201の面とが成す角度の変動であるピッチ角変動は、−1度である。   FIG. 16B shows a first state where there is a change in the attitude of the vehicle. In FIG. 16B, the vector 206 is shifted once downward with respect to the plane of the road 201 in the traveling direction. FIG. 16B shows a state in which the vehicle 202 is changing from the state of FIG. 16A to the state of FIG. 16B in time series. The pitch angle variation, which is a variation in the angle formed by the vector 206 and the surface of the road 201, is -1 degree.

図16Cは、車両の姿勢変動がある第2の状態を示している。図16Cにおいて、ベクトル206は道路201の面に対して進行方向に向かって上方へ1度ずれている。図16Cは、車両202が、図16Aの状態から、図16Cの状態へ時系列で変化している状態を示しており、車両202の進行方向を示すベクトル206は、道路201の面と平行の状態から、道路201面と進行方向に向かって上方へ1度ずれた状態へ変化し、ベクトル206と道路201の面とが成す角度の変動であるピッチ角変動は、+1度である。   FIG. 16C shows a second state where there is a change in the attitude of the vehicle. In FIG. 16C, the vector 206 is offset once in the traveling direction with respect to the plane of the road 201. FIG. 16C shows a state in which the vehicle 202 is changing in time series from the state of FIG. 16A to the state of FIG. 16C, and a vector 206 indicating the traveling direction of the vehicle 202 is parallel to the plane of the road 201. The pitch angle variation, which is a variation in the angle formed by the vector 206 and the surface of the road 201, is +1 degree.

次に、図16A〜Cのそれぞれにおいて撮影された画像の例について説明する。図17Aは、図16Aの姿勢変動がない状態のときに撮影された路面画像と、その一部を拡大した画像の例を示す図である。図17Bは、図16Bの姿勢変動がある第1の状態のときに撮影された路面画像と、その一部を拡大した画像の例を示す図である。図17Cは、図16Cの姿勢変動がある第2の状態のときに撮影された路面画像と、その一部を拡大した画像の例を示す図である。なお、図17A〜Cに示す各画像は、カメラにて撮影された画像そのままとして説明するが、カメラにて撮影された画像に対して画像取得部901が所定の処理を施した画像であってもよい。   Next, examples of images taken in each of FIGS. FIG. 17A is a diagram illustrating an example of a road surface image captured in a state where there is no posture change of FIG. 16A and an image in which a part thereof is enlarged. FIG. 17B is a diagram illustrating an example of a road surface image photographed in the first state with the posture variation of FIG. 16B and an enlarged image of a part thereof. FIG. 17C is a diagram illustrating an example of a road surface image captured in the second state with the posture variation of FIG. 16C and an enlarged image of a part thereof. Each of the images shown in FIGS. 17A to 17C is described as an image captured by the camera as it is, but is an image obtained by performing a predetermined process on the image captured by the camera. Also good.

図17A〜Cに示す路面画像は、例として、車両202が時速60kmにて白線203、204に沿って走行しているときに露光時間300msで撮影された画像とする。   The road surface images shown in FIGS. 17A to 17C are, for example, images captured at an exposure time of 300 ms when the vehicle 202 is traveling along the white lines 203 and 204 at 60 km / h.

図17Aにおいて、路面画像1707aは、アスファルト領域401、白線領域403、および白線領域404を含む。矩形領域1705aは、路面画像1707aの一部分である矩形の領域であり、白線領域404の一部分とアスファルト領域1701aの一部分とを含む。一方、矩形領域1706aは、路面画像1707aの一部分である矩形の領域であり、白線領域303の一部分とアスファルト領域1701aの一部分とを含む。また、線分領域1708aは、矩形領域1705aの一部分である線分の領域であり、白線領域404の一部分とアスファルト領域1701aの一部分とを含む。一方、線分領域1709aは、矩形領域1706aの一部分である線分の領域であり、白線領域403の一部分とアスファルト領域1701aの一部分とを含む。   In FIG. 17A, the road surface image 1707a includes an asphalt area 401, a white line area 403, and a white line area 404. The rectangular area 1705a is a rectangular area that is a part of the road surface image 1707a, and includes a part of the white line area 404 and a part of the asphalt area 1701a. On the other hand, the rectangular area 1706a is a rectangular area that is a part of the road surface image 1707a, and includes a part of the white line area 303 and a part of the asphalt area 1701a. The line segment area 1708a is a line segment area that is a part of the rectangular area 1705a, and includes a part of the white line area 404 and a part of the asphalt area 1701a. On the other hand, the line segment area 1709a is a line segment area that is a part of the rectangular area 1706a, and includes a part of the white line area 403 and a part of the asphalt area 1701a.

また、路面画像1707aおよび矩形領域1705a、1706aにおいて、x軸およびy軸を定義している。各軸に示す数値は、画素の座標を示している。線分領域1708aは、y軸の270番目の画素のラインにおいて、x軸の40番目から130番目までの画素で構成される領域である。一方、線分領域1709aは、y軸の270番目の画素のラインにおいて、x軸の590番目から680番目までの画素で構成される領域である。   Further, the x-axis and the y-axis are defined in the road surface image 1707a and the rectangular areas 1705a and 1706a. The numerical value shown on each axis indicates the coordinates of the pixel. The line segment area 1708a is an area composed of pixels from the 40th pixel to the 130th pixel on the x axis in the line of the 270th pixel on the y axis. On the other hand, the line segment area 1709a is an area composed of the 590th to 680th pixels on the x axis in the line of the 270th pixel on the y axis.

また、矩形領域1705aおよび線分領域1708aと、矩形領域1706aおよび線分領域1709aとは、x軸の中央の画素ラインX1を基準として左右対称の位置関係(規定の位置関係の一例)にある。このように本実施の形態では、モーションブラー算出部1402によって、線分領域1708aと線分領域1709aとが抽出され、それぞれのモーションブラーの幅が算出される。   Further, the rectangular area 1705a and the line segment area 1708a, and the rectangular area 1706a and the line segment area 1709a are in a symmetric positional relationship (an example of a specified positional relationship) with respect to the pixel line X1 at the center of the x axis. As described above, in this embodiment, the motion blur calculation unit 1402 extracts the line segment region 1708a and the line segment region 1709a, and calculates the width of each motion blur.

なお、本実施の形態では、路面画像1707aから抽出される線分領域は、y軸の270番目の画素のラインとしたが、これに限定されない。上述したとおり、路面画像は車両により近い位置で撮影されたものが好ましいため、線分領域は、例えば、y軸の270番目以下の画素のラインにて抽出される画像であってもよい。   In the present embodiment, the line segment region extracted from the road surface image 1707a is the line of the 270th pixel on the y axis, but is not limited to this. As described above, since the road surface image is preferably taken at a position closer to the vehicle, the line segment area may be an image extracted by a line of the 270th pixel or less of the y axis, for example.

図17Bおよび図17Cの構成は、上述した図17Aと同様であるので、ここでの説明は省略する。なお、図17B、図17Cでは、図17Aに示す画素ラインX1の図示を省略しているが、線分領域1708bと線分領域1709b、および、線分領域1708cと線分領域1709cは、それぞれ、画素ラインx1を基準として左右対称の位置関係にある。   The configurations in FIGS. 17B and 17C are the same as those in FIG. 17A described above, and thus description thereof is omitted here. In FIG. 17B and FIG. 17C, the pixel line X1 shown in FIG. 17A is omitted, but the line segment region 1708b and the line segment region 1709b, and the line segment region 1708c and the line segment region 1709c are respectively The pixel line x1 has a symmetrical positional relationship with respect to the pixel line x1.

図17Bおよび図17Cからは、車両202が白線203、204に沿って走行している場合でも、車両202のピッチ角変動があれば、路面画像にモーションブラーが発生することがわかる。これは、露光時間の間に、ピッチ角変動により撮影画像が上下方向にぶれるため、被写体である白線の領域が、白線の延長線方向(撮像画面上では斜め方向)ではなく、撮影画像の上下方向へぶれて露光されるため(被写体ぶれではなく、カメラぶれによる影響が発生するため)である。よって、車両のピッチ角変動がある場合、車両202が白線203、204に沿って走行しているにもかかわらず、白線203、204に沿って走行していないと誤判定されるおそれがある。また、白線の位置がずれることにより、消失点などを求めて用いる画像処理を行う際には不具合が生じる。   From FIG. 17B and FIG. 17C, it can be seen that even if the vehicle 202 is traveling along the white lines 203 and 204, if the pitch angle of the vehicle 202 varies, motion blur will occur in the road surface image. This is because, during the exposure time, the shot image is shifted in the vertical direction due to fluctuations in the pitch angle, so the white line area that is the subject is not the extension line direction of the white line (diagonal direction on the imaging screen), but the top and bottom of the shot image. This is because the exposure is blurred in the direction (because the camera shakes, not the subject blur). Therefore, when there is a variation in the pitch angle of the vehicle, it may be erroneously determined that the vehicle 202 is not traveling along the white lines 203 and 204 even though the vehicle 202 is traveling along the white lines 203 and 204. In addition, when the position of the white line is shifted, a problem occurs when performing image processing that uses a vanishing point or the like.

そこで、本実施の形態の画像処理装置1400は、上記誤判定や不具合を防ぐため、車両のピッチ角変動がない場合にのみ走行状態判定を行うように動作する。以下、本実施の形態の画像処理装置1400の動作について説明する。図15は、本実施の形態の画像処理装置1400の動作例を示すフローチャートである。なお、図15において、実施の形態3と同様の動作については同一符号を付し、その詳細な説明は省略する。   Therefore, the image processing apparatus 1400 according to the present embodiment operates so as to perform the traveling state determination only when there is no change in the pitch angle of the vehicle in order to prevent the erroneous determination and the malfunction. Hereinafter, the operation of the image processing apparatus 1400 of the present embodiment will be described. FIG. 15 is a flowchart illustrating an operation example of the image processing apparatus 1400 according to the present embodiment. In FIG. 15, the same operations as those in the third embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

ステップS1000〜S1002、S302、S305〜S306の説明は省略する。   Description of steps S1000 to S1002, S302, and S305 to S306 is omitted.

ステップS1503において、モーションブラー算出部1402は、画像取得部901が取得した路面画像から、白線領域を含む領域を抽出する。例えば、路面画像1707aの場合、モーションブラー算出部1402は、線分領域1708a、1709aを抽出する。なお、路面画像1707bの場合または路面画像1707cの場合も同様に、2つの線分領域が抽出される。   In step S1503, the motion blur calculation unit 1402 extracts a region including a white line region from the road surface image acquired by the image acquisition unit 901. For example, in the case of a road surface image 1707a, the motion blur calculation unit 1402 extracts line segment areas 1708a and 1709a. Similarly, in the case of the road surface image 1707b or the road surface image 1707c, two line segment regions are extracted.

モーションブラー算出部1402は、抽出した領域から、それぞれ、モーションブラーの幅を算出する。ここではまず、モーションブラー算出部1402は、線分領域1708aにおいて、130番目の画素から40番目の画素まで順番に輝度値を算出する。また、モーションブラー算出部1402は、線分領域1709aにおいて、680番目の画素から590番目の画素まで順番に輝度値を算出する。この輝度値の算出結果の例を図18に示す。   The motion blur calculation unit 1402 calculates the width of the motion blur from each of the extracted regions. Here, first, the motion blur calculation unit 1402 calculates luminance values in order from the 130th pixel to the 40th pixel in the line segment region 1708a. In addition, the motion blur calculation unit 1402 calculates the luminance value in order from the 680th pixel to the 590th pixel in the line segment region 1709a. An example of the calculation result of the luminance value is shown in FIG.

図18は、モーションブラー算出部1402により算出された画素ごとの輝度値の変化を示すグラフである。図18において、横軸は、図17における線分領域1708aおよび1709aのx軸の画素番号を示し、縦軸は、各画素番号の画素の輝度値を示している。グラフ1801Rは線分領域1708aに含まれる画素の輝度値を、また、グラフ1801Lは線分領域1709aに含まれる画素の輝度値を、それぞれ、○でプロットしたグラフである。グラフ1802Rは線分領域1708bに含まれる画素の輝度値を、また、グラフ1802Lは線分領域1709bに含まれる画素の輝度値を、それぞれ、△でプロットしたグラフである。グラフ1803Rは線分領域1708cに含まれる画素の輝度値を、また、グラフ1803Lは線分領域1709cに含まれる画素の輝度値を、それぞれ、+でプロットしたグラフである。各グラフに基づくモーションブラーの幅の算出方法は、実施の形態1で説明したので、ここでの説明は省略する。   FIG. 18 is a graph showing a change in luminance value for each pixel calculated by the motion blur calculation unit 1402. In FIG. 18, the horizontal axis indicates the pixel numbers on the x-axis of the line segment regions 1708a and 1709a in FIG. 17, and the vertical axis indicates the luminance value of the pixel with each pixel number. A graph 1801R is a graph in which the luminance values of the pixels included in the line segment region 1708a are plotted, and a graph 1801L is a graph in which the luminance values of the pixels included in the line segment region 1709a are plotted with circles. A graph 1802R is a graph in which luminance values of pixels included in the line segment region 1708b are plotted, and a graph 1802L is a graph in which the luminance values of pixels included in the line segment region 1709b are plotted with Δ. A graph 1803R is a graph in which the luminance values of the pixels included in the line segment region 1708c are plotted, and a graph 1803L is a graph in which the luminance values of the pixels included in the line segment region 1709c are plotted with +. Since the method of calculating the motion blur width based on each graph has been described in the first embodiment, description thereof is omitted here.

そして、モーションブラー算出部1402は、線分領域ごとに算出した画素ごとの輝度値の変化を、車両姿勢判定部1406へ通知し、線分領域ごとに算出したモーションブラーの幅(第1のモーションブラーの幅、第2のモーションブラーの幅)の少なくともいずれか1つを、走行状態判定部903へ通知する。   Then, the motion blur calculation unit 1402 notifies the vehicle posture determination unit 1406 of the change in the luminance value for each pixel calculated for each line segment area, and the motion blur width (first motion) calculated for each line segment area. At least one of the width of the blur and the width of the second motion blur is notified to the traveling state determination unit 903.

なお、本実施の形態では、車両がレーンマーカに沿って走行しているときの例として図18を用いて説明したが、車両がレーンマーカに沿って走行していないときの例を、図19に示す。図19は、車両がレーンマーカに沿って走行していないときにおいて、モーションブラー算出部1402が2つの線分領域の輝度値を算出した結果を示すグラフである。   Although the present embodiment has been described with reference to FIG. 18 as an example when the vehicle is traveling along the lane marker, an example when the vehicle is not traveling along the lane marker is shown in FIG. . FIG. 19 is a graph showing the result of the motion blur calculation unit 1402 calculating the luminance values of the two line segment regions when the vehicle is not traveling along the lane marker.

図19において、横軸は、図17における線分領域1708aおよび1709aのx軸の画素番号を示し、縦軸は、各画素番号の画素の輝度値を示している。グラフ1901Rは線分領域1708aに含まれる画素の輝度値を、また、グラフ1901Lは線分領域1709aに含まれる画素の輝度値を、それぞれ、○でプロットしたグラフである。グラフ1902Rは線分領域1708bに含まれる画素の輝度値を、また、グラフ1902Lは線分領域1709bに含まれる画素の輝度値を、それぞれ、△でプロットしたグラフである。グラフ1903Rは線分領域1708cに含まれる画素の輝度値を、また、グラフ1903Lは線分領域1709cに含まれる画素の輝度値を、それぞれ、+でプロットしたグラフである。各グラフに基づくモーションブラーの幅の算出方法は、実施の形態1で説明したので、ここでの説明は省略する。   In FIG. 19, the horizontal axis indicates pixel numbers on the x-axis of the line segment regions 1708 a and 1709 a in FIG. 17, and the vertical axis indicates the luminance value of the pixel with each pixel number. A graph 1901R is a graph in which the luminance values of the pixels included in the line segment region 1708a are plotted, and a graph 1901L is a graph in which the luminance values of the pixels included in the line segment region 1709a are plotted with circles. A graph 1902R is a graph in which luminance values of pixels included in the line segment region 1708b are plotted, and a graph 1902L is a graph in which the luminance values of pixels included in the line segment region 1709b are plotted with Δ. A graph 1903R is a graph in which the luminance values of the pixels included in the line segment region 1708c are plotted, and a graph 1903L is a graph in which the luminance values of the pixels included in the line segment region 1709c are plotted with +. Since the method of calculating the motion blur width based on each graph has been described in the first embodiment, description thereof is omitted here.

ステップS1501において、車両姿勢判定部1406は、線分領域ごとに算出した画素ごとの輝度値の変化から、第1の線分領域1801L、1802L.1803Lにおいて輝度値が最大値を継続する範囲(以降、「ピーク範囲」という)と、第2の線分領域1801R、1802R、1803Rのピーク範囲とのそれぞれの差分(以降、「ピーク範囲間距離」という)を求め、ピーク範囲間距離が所定距離に近似であるか否か(すなわち、所定距離を基準として±nの範囲内にあるか否か)を判定する。ピーク範囲間距離は、2つの線分領域において左右対称の位置関係にある2つの画素間の距離である。2つの画素は、例えば図18において、グラフ1801Rのうち、ピーク範囲の中央(中間)である座標値85にある画素と、グラフ1801Lのうち、ピーク範囲の中央である座標値635にある画素である。この場合、座標値635と座標値85の差分550が、ピーク範囲間距離となる。所定距離は、例えば、550である。よって、グラフ1802R、1802Lの場合、それら2つのグラフは、グラフ1801R、1801Lと比べて互いに遠ざかっているので、ピーク範囲間距離は所定距離より長くなり、所定距離に近似ではないことになる。また、グラフ1803R、1803Lの場合、それら2つのグラフはグラフ1801R、1801Lと比べて互いに近づいているので、ピーク範囲間距離は所定距離より短くなり、所定距離に近似ではないことになる。   In step S1501, the vehicle posture determination unit 1406 calculates the first line segment regions 1801L, 1802L,... From the change in luminance value for each pixel calculated for each line segment region. The difference between the range in which the luminance value continues at the maximum value in 1803L (hereinafter referred to as “peak range”) and the peak range of the second line segment regions 1801R, 1802R, and 1803R (hereinafter referred to as “distance between peak ranges”). And determine whether or not the distance between the peak ranges is approximate to the predetermined distance (that is, whether or not the distance is within a range of ± n with reference to the predetermined distance). The distance between peak ranges is a distance between two pixels that are in a symmetrical positional relationship in two line segment regions. In FIG. 18, for example, the two pixels are a pixel at a coordinate value 85 that is the center (middle) of the peak range in the graph 1801R and a pixel at a coordinate value 635 that is the center of the peak range in the graph 1801L. is there. In this case, the difference 550 between the coordinate value 635 and the coordinate value 85 is the distance between the peak ranges. The predetermined distance is 550, for example. Therefore, in the case of the graphs 1802R and 1802L, the two graphs are farther from each other than the graphs 1801R and 1801L, and thus the distance between the peak ranges is longer than the predetermined distance and is not approximate to the predetermined distance. In the case of the graphs 1803R and 1803L, the two graphs are closer to each other than the graphs 1801R and 1801L. Therefore, the distance between the peak ranges is shorter than the predetermined distance and is not approximate to the predetermined distance.

ステップS1501の判定の結果、ピーク範囲間距離が所定距離に近似ではない場合(ステップS1501:NO)、フローはステップS1000へ戻る。一方、ステップS1501の判定の結果、ピーク範囲間距離が所定距離に近似である場合(ステップS1501:YES)、フローはステップS1502へ進む。   As a result of the determination in step S1501, when the distance between peak ranges is not approximate to the predetermined distance (step S1501: NO), the flow returns to step S1000. On the other hand, if the result of determination in step S1501 is that the distance between peak ranges is approximate to the predetermined distance (step S1501: YES), the flow proceeds to step S1502.

ステップS1502において、車両姿勢判定部1406は、第1の線分領域の輝度値の変化のグラフ形状と、第2の線分領域の輝度値の変化のグラフ形状とが、近似であるか否かを判定する。例えば、図19において、グラフ1901Lとグラフ1901Rの中央値を重ねて輝度値の差分面積が所定面積値より小さいことから、形状が近似であるとする。また、グラフ1902Lとグラフ1902Rの中央値を重ねて輝度値の差分面積が所定面積値より大きいことから、形状が近似でないとする。同様に、グラフ1903Lとグラフ1903Rの中央値を重ねて輝度値の差分面積が所定面積値より大きいことから、形状が近似でないとする。   In step S1502, the vehicle attitude determination unit 1406 determines whether or not the graph shape of the change in luminance value of the first line segment region and the graph shape of the change in luminance value of the second line segment region are approximate. Determine. For example, in FIG. 19, the median values of the graph 1901L and the graph 1901R are overlapped, and the difference area of the luminance value is smaller than the predetermined area value, so that the shape is approximate. Further, it is assumed that the shape is not approximate because the difference area of the luminance value is larger than the predetermined area value by superimposing the median values of the graph 1902L and the graph 1902R. Similarly, it is assumed that the shape is not approximate since the difference area of the luminance value is larger than the predetermined area value by superimposing the median values of the graphs 1903L and 1903R.

判定の結果、形状が近似ではない場合(ステップS1502:NO)、フローはステップS1000へ戻る。一方、判定の結果、形状が近似である場合(ステップS1502:YES)、フローはステップS1002へ進む。このように、本実施の形態では、ピーク範囲間距離が所定距離に近似であり(ステップS1501:YES)、かつ、2つの線分領域の輝度値の変化のグラフ形状が近似である場合(ステップS1502:YES)、車両姿勢判定部1406は、車両のピッチ角変動がないと判定する。そして、車両のピッチ角変動がないと判定した場合のみ、ステップS1002以降の走行状態判定へ進む。   As a result of the determination, when the shape is not approximate (step S1502: NO), the flow returns to step S1000. On the other hand, if the result of determination is that the shape is approximate (step S1502: YES), the flow proceeds to step S1002. Thus, in the present embodiment, when the distance between the peak ranges is approximate to the predetermined distance (step S1501: YES), and the graph shape of the change in the luminance values of the two line segment regions is approximate (step (S1502: YES), the vehicle posture determination unit 1406 determines that there is no variation in the pitch angle of the vehicle. And only when it determines with there being no pitch angle fluctuation | variation of a vehicle, it progresses to driving state determination after step S1002.

ステップS304において、走行状態判定部903は、モーションブラー算出部1402が算出した2つのモーションブラーの幅の少なくとも1つと、しきい値とに基づいて、車両の走行状態を判定する。   In step S304, the traveling state determination unit 903 determines the traveling state of the vehicle based on at least one of the two motion blur widths calculated by the motion blur calculation unit 1402 and a threshold value.

以上のように、本実施の形態の画像処理装置1400によれば、実施の形態3の特徴に加え、車両のピッチ角変動があるか否かを判定し、車両のピッチ角変動がない場合のみ走行状態判定を実行することを特徴とする。よって、画像処理装置1400は、車両のピッチ角変動により発生するカメラぶれの影響を受けたモーションブラーの幅に基づいて走行状態判定を行うことを防止できる。   As described above, according to the image processing apparatus 1400 of the present embodiment, in addition to the features of the third embodiment, it is determined whether or not there is a vehicle pitch angle variation, and only when there is no vehicle pitch angle variation. The running state determination is performed. Therefore, the image processing apparatus 1400 can prevent the running state determination based on the width of the motion blur affected by the camera shake caused by the pitch angle variation of the vehicle.

なお、上述した実施の形態1〜5において、画像処理装置の走行状態判定部103、603および903は、以下のように動作してもよい。すなわち、走行状態判定部103、603および903は、走行中の車両が基準直線からずれている度合い、つまり車両進行方向と基準直線(白線の方向)のなす角度、を判定(算出)してもよい。例えば、走行状態判定部103、603および903は、モーションブラー算出部1402により算出されたモーションブラーの幅をdとし、車両が1度ずれて走行する場合のモーションブラーの幅をΔdとするとき、ステップS304において、車両が基準直線からd/Δd度ずれていると判定する。具体的には、Δdを25画素とした場合、図8において、グラフ501が輝度値250から150へ降下し始めるx軸の値175に対し、グラフ502が輝度値250から150へ降下し始めるx軸の値150となり、x軸の値の差分25から進行方向と白線とのずれが1度と算出する。これにより、画像処理装置は、車両がレーンマーカに沿って走行しているかの判定に加えて、車両が基準直線(レーンマーカと言ってもよい)に対して何度ずれて走行しているかも判定できる。   In the first to fifth embodiments described above, the running state determination units 103, 603, and 903 of the image processing apparatus may operate as follows. That is, the traveling state determination units 103, 603, and 903 also determine (calculate) the degree to which the traveling vehicle deviates from the reference straight line, that is, the angle formed by the vehicle traveling direction and the reference straight line (white line direction). Good. For example, the traveling state determination units 103, 603, and 903 have the motion blur width calculated by the motion blur calculation unit 1402 as d, and the motion blur width when the vehicle travels once shifted as Δd, In step S304, it is determined that the vehicle is deviated by d / Δd degrees from the reference straight line. Specifically, when Δd is 25 pixels, in FIG. 8, the graph 502 starts to decrease from the luminance value 250 to 150 with respect to the x-axis value 175 in which the graph 501 starts to decrease from the luminance value 250 to 150 x. The axis value is 150, and the deviation between the traveling direction and the white line is calculated as 1 degree from the difference 25 between the x-axis values. Thereby, in addition to the determination of whether the vehicle is traveling along the lane marker, the image processing apparatus can also determine how many times the vehicle is traveling with respect to a reference straight line (which may be referred to as a lane marker). .

(実施の形態6)
本発明の実施の形態6に係る画像処理装置について説明する。
(Embodiment 6)
An image processing apparatus according to Embodiment 6 of the present invention will be described.

まず、本実施の形態の画像処理装置2000の構成について説明する。図20は、本実施の形態の画像処理装置2000の構成例を示すブロック図である。なお、図20において、実施の形態5と同様の構成については同一符号を付し、その詳細な説明は省略する。   First, the configuration of the image processing apparatus 2000 according to the present embodiment will be described. FIG. 20 is a block diagram illustrating a configuration example of the image processing apparatus 2000 according to the present embodiment. In FIG. 20, the same components as those in the fifth embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

走行状態判定部903は、上述したように、車両が基準直線からn度ずれているかを判定する。そして、走行状態判定部903は、判定したずれの度合いを、レーンマーカ検出部2007へ通知する。   As described above, the traveling state determination unit 903 determines whether the vehicle is deviated from the reference straight line by n degrees. Then, the traveling state determination unit 903 notifies the lane marker detection unit 2007 of the determined degree of deviation.

レーンマーカ検出部2007は、走行状態判定部903から通知されたずれの度合いが、所定範囲内であるかを判定する。この判定の結果、ずれの度合いが所定範囲内である場合、レーンマーカ検出部2007は、ずれの度合いに基づいてカメラの露光時間を決定し、撮像制御部904へ通知する。また、レーンマーカ検出部2007は、画像取得部901から路面画像を取得し、レーンマーカを検出する。   The lane marker detection unit 2007 determines whether the degree of deviation notified from the traveling state determination unit 903 is within a predetermined range. As a result of this determination, if the degree of deviation is within a predetermined range, the lane marker detection unit 2007 determines the exposure time of the camera based on the degree of deviation and notifies the imaging control unit 904 of it. The lane marker detection unit 2007 acquires a road surface image from the image acquisition unit 901 and detects a lane marker.

なお、図20では、レーンマーカ検出部2007が画像処理装置2000に含まれない例としたが、これに限定されない。すなわち、レーンマーカ検出部2007は、画像処理装置2000の内部に備えられる装置であってもよい。   In FIG. 20, the lane marker detection unit 2007 is not included in the image processing apparatus 2000, but the present invention is not limited to this. That is, the lane marker detection unit 2007 may be a device provided inside the image processing device 2000.

撮像制御部904は、レーンマーカ検出部2007から露光時間の通知を受けると、その露光時間を設定するように画像取得部901を制御する。   Upon receiving the exposure time notification from the lane marker detection unit 2007, the imaging control unit 904 controls the image acquisition unit 901 so as to set the exposure time.

画像取得部901は、撮像制御部904の制御により露光時間を設定する。また、画像取得部901は、路面画像および/または設定中の露光時間をレーンマーカ検出部2007へ通知する。   The image acquisition unit 901 sets the exposure time under the control of the imaging control unit 904. Further, the image acquisition unit 901 notifies the lane marker detection unit 2007 of the road surface image and / or the exposure time being set.

次に、本実施の形態の画像処理装置2000の動作について説明する。図21は、本実施の形態の画像処理装置2000の動作例を示すフローチャートである。図21は、実施の形態5の図15のフローの後に実行されるフローである。   Next, the operation of the image processing apparatus 2000 according to the present embodiment will be described. FIG. 21 is a flowchart illustrating an operation example of the image processing apparatus 2000 according to the present embodiment. FIG. 21 is a flow executed after the flow of FIG. 15 of the fifth embodiment.

また、図22は、本実施の形態の画像処理装置2000の動作を説明するための路面画像の例である。図22において、2201は、レーンマーカである白線がかすれている状態において、通常の撮影における路面画像の例である。2202は、本実施の形態の画像処理装置2000の画像取得部901が取得する撮影された路面画像の例である。2203は、本実施の形態の画像処理装置2000のレーンマーカ検出部2007が、路面画像からレーンマーカを検出する処理の前処理としてコントラストおよび明るさの補正処理を行った路面画像である。   FIG. 22 is an example of a road surface image for explaining the operation of the image processing apparatus 2000 of the present embodiment. In FIG. 22, reference numeral 2201 denotes an example of a road surface image in normal photographing in a state where a white line as a lane marker is blurred. 2202 is an example of a photographed road surface image acquired by the image acquisition unit 901 of the image processing apparatus 2000 according to the present embodiment. Reference numeral 2203 denotes a road surface image in which the lane marker detection unit 2007 of the image processing apparatus 2000 according to the present embodiment performs contrast and brightness correction processing as preprocessing of processing for detecting a lane marker from the road surface image.

ステップS2101において、レーンマーカ検出部2007は、走行状態判定部903からずれの度合いを取得する。   In step S <b> 2101, the lane marker detection unit 2007 acquires the degree of deviation from the traveling state determination unit 903.

ステップS2102において、レーンマーカ検出部2007は、ずれの度合いが所定範囲内であるか否かを判定する。判定の結果、ずれの度合いが所定範囲内ではない場合(ステップS2102:NO)、フローはステップS2101へ戻る。一方、判定の結果、ずれの度合いが所定範囲である場合(ステップS2102:YES)、フローはステップS2103へ進む。   In step S2102, the lane marker detection unit 2007 determines whether the degree of deviation is within a predetermined range. As a result of the determination, when the degree of deviation is not within the predetermined range (step S2102: NO), the flow returns to step S2101. On the other hand, if the result of determination is that the degree of deviation is within a predetermined range (step S2102: YES), the flow proceeds to step S2103.

ステップS2103において、レーンマーカ検出部2007は、ずれの度合いに基づいて、カメラの露光時間を、画像取得部901から通知された露光時間よりも短い露光時間に決定する。例えば、レーンマーカ検出部2007は、露光時間を50msに決定する。そして、レーンマーカ検出部2007は、決定した露光時間を撮像制御部904へ通知する。撮像制御部904は、レーンマーカ検出部2007から通知された露光時間を設定するように、画像取得部901を制御する。   In step S2103, the lane marker detection unit 2007 determines the exposure time of the camera to be shorter than the exposure time notified from the image acquisition unit 901 based on the degree of deviation. For example, the lane marker detection unit 2007 determines the exposure time to be 50 ms. The lane marker detection unit 2007 notifies the imaging control unit 904 of the determined exposure time. The imaging control unit 904 controls the image acquisition unit 901 so as to set the exposure time notified from the lane marker detection unit 2007.

ステップS2104において、画像取得部901は、撮像制御部904の制御により設定した露光時間で路面画像2202を取得する。そして、画像取得部901は、取得した路面画像2202をレーンマーカ検出部2007へ通知する。路面画像2202は、本来の路面画像2201に比べ、かすれた白線領域のモーションブラーが重畳されることにより、レーンマーカが検出しやすい画像となっている。   In step S2104, the image acquisition unit 901 acquires the road surface image 2202 with the exposure time set by the control of the imaging control unit 904. Then, the image acquisition unit 901 notifies the lane marker detection unit 2007 of the acquired road surface image 2202. The road surface image 2202 is an image in which a lane marker is easy to detect by superimposing a motion blur of a faint white line region compared to the original road surface image 2201.

ステップS2105において、レーンマーカ検出部2007は、画像取得部901から取得した路面画像2202に対して、さらに、コントラストおよび明るさ補正を行った路面画像2203を生成し、路面画像2203から輝度エッジを検出し、輝度エッジで囲まれた画像領域をレーンマーカとして検出する。   In step S2105, the lane marker detection unit 2007 generates a road surface image 2203 in which contrast and brightness correction is further performed on the road surface image 2202 acquired from the image acquisition unit 901, and detects a luminance edge from the road surface image 2203. Then, the image area surrounded by the luminance edge is detected as a lane marker.

以上のように、本実施の形態の画像処理装置2000によれば、実施の形態5の効果に加え、ずれの度合いがレーンマーカ検出に求められる精度に対し所定範囲内である場合に、レーンマーカ検出に適したカメラの露光時間を設定し、その露光時間で取得した路面画像に対してレーンマーカ検出を行うことができる。   As described above, according to the image processing apparatus 2000 of the present embodiment, in addition to the effects of the fifth embodiment, when the degree of deviation is within a predetermined range with respect to the accuracy required for lane marker detection, lane marker detection is performed. A suitable camera exposure time can be set, and lane marker detection can be performed on the road surface image acquired with the exposure time.

(実施の形態における変形例)
以上、本発明の各実施の形態について説明したが、上記説明は一例であり、種々の変形が可能である。以下、幾つかの変形例を説明する。
(Modification in the embodiment)
As mentioned above, although each embodiment of this invention was described, the said description is an example and various deformation | transformation are possible. Hereinafter, some modifications will be described.

例えば、実施の形態5において、車両の姿勢を判定するためのパラメータとして、2つの線分領域にそれぞれ対応する2つのピーク範囲間距離を用いたが、2つ以上のピーク範囲を用いてもよい。または、車両姿勢を判定するためのパラメータは、ピーク範囲間距離ではなく、輝度値の変化のグラフ形状の違い、または、輝度値を示すグラフの占める面積の違いなどを用いるようにしてもよい。   For example, in the fifth embodiment, the distance between two peak ranges corresponding to two line segment regions is used as a parameter for determining the attitude of the vehicle. However, two or more peak ranges may be used. . Alternatively, the parameter for determining the vehicle posture may use not the distance between peak ranges but a difference in graph shape of a change in luminance value or a difference in area occupied by a graph indicating the luminance value.

例えば、実施の形態5において、車両の姿勢を判定するためのパラメータとして、2つの線分領域にそれぞれ対応する2つの輝度値の変化グラフの面積の差分を用いたが、隣の画素の輝度値との差分グラフの形状や最大値と最小値の差分としてもよく、またこれら以外であってもよい。   For example, in Embodiment 5, the difference between the areas of the change graphs of two luminance values respectively corresponding to the two line segment regions is used as a parameter for determining the attitude of the vehicle. The difference graph shape may be the difference between the maximum value and the minimum value, or may be other than these.

例えば、実施の形態5において、車両の姿勢を判定するためのパラメータとして、2つの線分領域にそれぞれ対応する2つの「x軸の中央の座標値」の差分(距離)を用いたが、2つ以上の「横軸の中央の座標値」を用いてもよい。または、車両姿勢を判定するためのパラメータは、横軸の中央の座標値の差分以外であってもよい。   For example, in the fifth embodiment, the difference (distance) between two “coordinate values of the center of the x-axis” respectively corresponding to two line segment regions is used as a parameter for determining the attitude of the vehicle. Two or more “coordinate values of the center of the horizontal axis” may be used. Alternatively, the parameter for determining the vehicle posture may be other than the difference between the coordinate values at the center of the horizontal axis.

例えば、実施の形態5、6において、画像処理装置は、車速取得部905を備えない構成としてもよい。すなわち、画像処理装置は、実施の形態4の画像処理装置1200のように、撮像制御部1204において、モーションブラー算出部102からのモーションブラーの幅に基づいて、車速を推定するようにしてもよい。また、実施の形態4、5、6において、車速を推定する近似式は、白線に対して1度ずれている場合に限定されず、任意度数ずれている場合、所定範囲の度数ずれている場合や白線に沿って走行している場合、つまり白線に対してずれていない場合であってもよい。また、近似式は3次の多項式としたが、これ以外であってもよい。   For example, in Embodiments 5 and 6, the image processing apparatus may be configured not to include the vehicle speed acquisition unit 905. That is, the image processing apparatus may estimate the vehicle speed based on the width of the motion blur from the motion blur calculation unit 102 in the imaging control unit 1204 as in the image processing apparatus 1200 of the fourth embodiment. . In the fourth, fifth, and sixth embodiments, the approximate expression for estimating the vehicle speed is not limited to the case where the vehicle is shifted by 1 degree with respect to the white line. Or when traveling along a white line, that is, when it is not deviated from the white line. Although the approximate expression is a cubic polynomial, it may be other than this.

例えば、実施の形態1〜5において、通常のカメラの露光時間を16msとし、画像取得部101、901が設定する露光時間を300msとしたが、これらの値に限定されない。また、実施の形態6において、画像取得部901が設定する露光時間を50msとしたが、この値に限定されない。   For example, in Embodiments 1 to 5, the exposure time of a normal camera is set to 16 ms and the exposure time set by the image acquisition units 101 and 901 is set to 300 ms. However, the present invention is not limited to these values. In the sixth embodiment, the exposure time set by the image acquisition unit 901 is set to 50 ms, but is not limited to this value.

例えば、実施の形態1〜6において、カメラにより撮影される路面画像は、図4A、図4B、図17A、図17B、図17C、図22に示す画像に限定されない。   For example, in Embodiments 1 to 6, the road surface image captured by the camera is not limited to the images shown in FIGS. 4A, 4B, 17A, 17B, 17C, and 22.

例えば、実施の形態1〜6において、線分領域の抽出方法は、上記実施の形態で説明した方法に限定されず、また、複数の方法を組み合せた方法であってもよい。   For example, in the first to sixth embodiments, the line segment region extraction method is not limited to the method described in the above embodiment, and may be a method in which a plurality of methods are combined.

例えば、実施の形態1〜6において、線分領域は、上記実施の形態で説明した領域に限定されない。例えば、線分領域は、二次元の画像領域としてもよいし、または、画素空間とは異なる空間領域(例えば、周波数変換した画像領域)としてもよい。   For example, in Embodiments 1 to 6, the line segment region is not limited to the region described in the above embodiment. For example, the line segment region may be a two-dimensional image region, or may be a spatial region different from the pixel space (for example, a frequency-converted image region).

例えば、実施の形態1〜6において、車両が基準直線からずれる度合いは右方向に1度としたが、ずれの度合いおよびずれる方向は、これに限定されない。   For example, in the first to sixth embodiments, the degree of deviation of the vehicle from the reference straight line is 1 degree in the right direction, but the degree of deviation and the direction of deviation are not limited to this.

例えば、実施の形態1〜6において、モーションブラーの幅は輝度値の最大定常ピークと最低定常ピークの間の横軸上の画素数(距離)としたが、これに限定されない。例えば、モーションブラーの幅は、輝度値の最大定常ピークと最低定常ピーク間の傾き(縦軸上の距離/横軸上の距離)であってもよいし、または、車両が直進している場合の輝度値の変化のグラフ形状の差分領域の面積などでもよい。   For example, in Embodiments 1 to 6, the width of the motion blur is the number of pixels (distance) on the horizontal axis between the maximum steady peak and the minimum steady peak of the luminance value, but is not limited thereto. For example, the width of the motion blur may be the slope between the maximum steady peak and the minimum steady peak of brightness (distance on the vertical axis / distance on the horizontal axis), or when the vehicle is traveling straight It may be the area of the difference area of the graph shape of the change in the luminance value.

例えば、実施の形態1〜6において、モーションブラー算出部102、1402は、路面画像のx軸において座標値が小さい方から大きい方へ順に画素の輝度値を算出したが、これに限定されない。例えば、モーションブラー算出部102は、路面画像のx軸において座標値が大きい方から小さい方へ順に画素の輝度値を算出してもよいし、または、白線の周辺画素から順次算出してもよい。   For example, in Embodiments 1 to 6, the motion blur calculation units 102 and 1402 calculate the luminance values of the pixels in order from the smallest coordinate value on the x-axis of the road surface image, but the present invention is not limited to this. For example, the motion blur calculation unit 102 may calculate the luminance values of the pixels in order from the largest coordinate value on the x-axis of the road surface image to the smaller one, or may sequentially calculate from the surrounding pixels of the white line. .

例えば、実施の形態1〜4において、モーションブラーの幅の算出にあたり、白線領域404の一部分を含む線分領域のみを用いたが、これに限定されない。例えば、モーションブラー算出部102は、白線領域403の一部分を含む線分領域を用いてもよい。または、モーションブラー算出部102は、白線領域403の一部分および白線領域404の一部分の両方を用いてもよい。   For example, in the first to fourth embodiments, only the line segment area including a part of the white line area 404 is used for calculating the width of the motion blur. However, the present invention is not limited to this. For example, the motion blur calculation unit 102 may use a line segment area including a part of the white line area 403. Alternatively, the motion blur calculation unit 102 may use both a part of the white line area 403 and a part of the white line area 404.

例えば、実施の形態1〜6において、モーションブラーの幅の算出にあたり、部分領域の一例として線分領域を用いたが、部分領域は線分に限定されない。   For example, in Embodiments 1 to 6, the line segment area is used as an example of the partial area in calculating the motion blur width, but the partial area is not limited to the line segment.

例えば、実施の形態1〜6において、しきい値、しきい値を導出する式、所定距離、所定範囲は、上記実施の形態で説明した値に限定されない。   For example, in the first to sixth embodiments, the threshold value, the expression for deriving the threshold value, the predetermined distance, and the predetermined range are not limited to the values described in the above embodiment.

例えば、実施の形態1〜6において、走行状態判定部103、603、903は、図2に示すように直線の道路を走行する車両の走行状態を判定するとしたが、一定の曲率を持つカーブの道路を走行する車両の走行状態も判定できる。また、走行状態判定部103、603,903は、一定の曲率を持つカーブの道路を走行する車両のずれの度合い(曲率を有する白線に対して何Rずれているか)を判定してもよい。   For example, in the first to sixth embodiments, the traveling state determination units 103, 603, and 903 determine the traveling state of a vehicle traveling on a straight road as illustrated in FIG. The traveling state of the vehicle traveling on the road can also be determined. Further, the traveling state determination units 103, 603, and 903 may determine the degree of deviation of a vehicle traveling on a curved road having a certain curvature (how many R are deviated from a white line having a curvature).

例えば、実施の形態6において、レーンマーカ検出部は、車両検出部、車両認識部、歩行者検出部、歩行者認識部、交通標識検出部、交通標識認識部、路面状態検出部やその他の画像処理部であってもよい。また、露光時間は、50msとしたが、それぞれの検出部や認識部において適切な露光時間であってよい。レーンマーカ検出部において、路面画像のコントラストおよび明るさ補正を行ったが、行わなくても良い、またその他の補正処理、変換処理、画像処理を行っても良い。   For example, in the sixth embodiment, the lane marker detection unit includes a vehicle detection unit, a vehicle recognition unit, a pedestrian detection unit, a pedestrian recognition unit, a traffic sign detection unit, a traffic sign recognition unit, a road surface state detection unit, and other image processing. Part. Further, although the exposure time is 50 ms, it may be an appropriate exposure time in each detection unit and recognition unit. In the lane marker detection unit, the contrast and brightness of the road surface image are corrected. However, other correction processing, conversion processing, and image processing may be performed.

例えば、実施の形態5および6において、車両姿勢判定部1406は、車両のピッチ角変動の有無を判定したが、車両のロール角変動の有無を判定してもよく、車両のピッチ角変動とロール角変動の両方の有無を判定してもよい。   For example, in the fifth and sixth embodiments, the vehicle attitude determination unit 1406 determines whether or not there is a variation in the pitch angle of the vehicle, but may determine whether or not there is a variation in the roll angle of the vehicle. The presence or absence of both angular variations may be determined.

例えば、実施の形態5および6において、ピーク範囲間距離が所定距離に近似であり、かつ、2つの線分領域の輝度値の変化のグラフ形状が近似である場合、車両姿勢判定部1406は、車両のピッチ角変動がないと判定するとしたが、ピーク範囲間距離が所定距離に近似である場合、または、2つの線分領域の輝度値の変化のグラフ形状が近似である場合、どちらか一方の判定のみで車両姿勢判定部1406が、車両のピッチ角変動がないと判定するとしてもよい。   For example, in Embodiments 5 and 6, when the distance between peak ranges is approximate to a predetermined distance, and the graph shape of the change in luminance value of two line segment regions is approximate, the vehicle posture determination unit 1406 When it is determined that there is no fluctuation in the pitch angle of the vehicle, either when the distance between peak ranges is approximate to a predetermined distance, or when the graph shape of the change in luminance value of two line segment areas is approximate, either The vehicle posture determination unit 1406 may determine that there is no fluctuation in the pitch angle of the vehicle by only determining the above.

本発明は、例えば、車両の走行中に車載カメラで撮影した路面画像に基づいて車両の運転を支援する技術全般、車載カメラのキャリブレーション、自動運転および隊列走行に関するシステムに適用することができる。   The present invention can be applied to, for example, a general technique for supporting driving of a vehicle based on a road surface image taken by a vehicle-mounted camera while the vehicle is traveling, a system related to calibration of a vehicle-mounted camera, automatic driving, and platooning.

100、600、900、1200、1400、2000 画像処理装置
101、901 画像取得部
102、1402 モーションブラー算出部
103、603、903 走行状態判定部
904、1204 撮像制御部
905 車速取得部
1406 車両姿勢判定部
2007 レーンマーカ検出部
100, 600, 900, 1200, 1400, 2000 Image processing apparatus 101, 901 Image acquisition unit 102, 1402 Motion blur calculation unit 103, 603, 903 Running state determination unit 904, 1204 Imaging control unit 905 Vehicle speed acquisition unit 1406 Vehicle posture determination 2007 lane marker detector

Claims (9)

走行中の車両からの撮影により、レーンマーカを含む道路の画像である第1の路面画像を取得する画像取得部と、
前記第1の路面画像から、前記レーンマーカに基づいて発生するモーションブラーの幅を算出するモーションブラー算出部と、
前記モーションブラーの幅がしきい値より小さいとき、前記車両が前記レーンマーカに沿って走行していると判定する走行状態判定部と、
を有する画像処理装置。
An image acquisition unit that acquires a first road surface image that is an image of a road including a lane marker by photographing from a traveling vehicle;
A motion blur calculation unit for calculating a width of a motion blur generated based on the lane marker from the first road surface image;
When the width of the motion blur is smaller than a threshold value, a traveling state determination unit that determines that the vehicle is traveling along the lane marker;
An image processing apparatus.
前記画像取得部は、前記第1の路面画像を撮影するときの第1の露光時間を前記走行状態判定部へ通知し、
前記走行状態判定部は、前記画像取得部から通知された第1の露光時間に基づいて、前記しきい値を選択する、
請求項1記載の画像処理装置。
The image acquisition unit notifies the traveling state determination unit of a first exposure time when shooting the first road surface image,
The traveling state determination unit selects the threshold based on the first exposure time notified from the image acquisition unit,
The image processing apparatus according to claim 1.
前記車両の車速に基づいて前記第1の路面画像を撮影するときの第1の露光時間を決定し、前記画像取得部および前記走行状態判定部へ通知する撮像制御部をさらに有し、
前記画像取得部は、前記撮像制御部から通知された第1の露光時間に基づいて、前記第1の路面画像を取得し、
前記走行状態判定部は、前記撮像制御部から通知された第1の露光時間に基づいて、前記しきい値を選択する、
請求項1記載の画像処理装置。
An image capturing control unit that determines a first exposure time when capturing the first road surface image based on a vehicle speed of the vehicle and notifies the image acquisition unit and the traveling state determination unit;
The image acquisition unit acquires the first road surface image based on the first exposure time notified from the imaging control unit,
The traveling state determination unit selects the threshold value based on the first exposure time notified from the imaging control unit.
The image processing apparatus according to claim 1.
前記車両の車速を取得し、前記撮像制御部および前記走行状態判定部へ通知する車速取得部をさらに有し、
前記撮像制御部は、前記車速取得部から通知された車速に基づいて、前記第1の路面画像を撮影するときの第1の露光時間を決定し、
前記走行状態判定部は、前記車速取得部から通知された車速および前記撮像制御部から通知された第1の露光時間に基づいて、前記しきい値を選択する、
請求項3記載の画像処理装置。
A vehicle speed acquisition unit that acquires the vehicle speed of the vehicle and notifies the imaging control unit and the traveling state determination unit;
The imaging control unit determines a first exposure time when shooting the first road surface image based on the vehicle speed notified from the vehicle speed acquisition unit,
The traveling state determination unit selects the threshold based on the vehicle speed notified from the vehicle speed acquisition unit and the first exposure time notified from the imaging control unit.
The image processing apparatus according to claim 3.
前記モーションブラー算出部は、前記モーションブラーの幅を前記撮像制御部へ通知し、
前記撮像制御部は、前記第1の露光時間と、前記モーションブラー算出部から通知されたモーションブラーの幅に基づいて、前記車両の車速を推定し、前記車両の車速に基づいて第2の路面画像を撮影するときの第2の露光時間を決定し、前記車速および前記第2の露光時間を前記走行状態判定部へ通知し、第2の露光時間を前記画像取得部へ通知し、
前記画像取得部は、前記撮像制御部から通知された第2の露光時間に基づいて、前記第2の路面画像を取得し、
前記モーションブラー算出部は、第2のモーションブラーの幅を前記走行状態判定部へ通知し、
前記走行状態判定部は、前記第2のモーションブラーの幅に対し、前記撮像制御部から通知された車速および第2の露光時間に基づいて、前記しきい値を選択する、
請求項3記載の画像処理装置。
The motion blur calculation unit notifies the imaging control unit of the width of the motion blur,
The imaging control unit estimates a vehicle speed of the vehicle based on the first exposure time and a width of a motion blur notified from the motion blur calculation unit, and a second road surface based on the vehicle speed of the vehicle. Determining a second exposure time when taking an image, notifying the vehicle speed and the second exposure time to the running state determination unit, notifying the image acquisition unit of the second exposure time,
The image acquisition unit acquires the second road surface image based on the second exposure time notified from the imaging control unit,
The motion blur calculation unit notifies the travel state determination unit of the width of the second motion blur,
The traveling state determination unit selects the threshold value based on the vehicle speed and the second exposure time notified from the imaging control unit with respect to the width of the second motion blur.
The image processing apparatus according to claim 3.
前記車両の車体のピッチ変動があるか否かを判定する車両姿勢判定部をさらに有し、
前記モーションブラー算出部は、前記路面画像の複数の部分領域ごとに複数のモーションブラーの幅を算出し、前記複数のモーションブラーの幅を前記車両姿勢判定部へ通知し、
前記車両姿勢判定部は、前記複数のモーションブラーの幅に基づいて、前記車両のピッチ変動があるか否かを判定し、前記車両のピッチ変動があるか否かを示す車両姿勢を前記車両走行状態判定部へ通知し、
前記走行状態判定部は、前記車両姿勢が前記車両のピッチ変動がない姿勢の場合、前記複数のモーションブラーの幅の少なくとも1つが前記しきい値より小さいとき、前記車両が前記レーンマーカに沿って走行していると判定する、
請求項1から5のいずれか1項に記載の画像処理装置。
A vehicle posture determination unit for determining whether there is a pitch variation of the vehicle body of the vehicle;
The motion blur calculation unit calculates a width of a plurality of motion blurs for each of a plurality of partial areas of the road surface image, notifies the vehicle posture determination unit of the widths of the plurality of motion blurs,
The vehicle posture determination unit determines whether or not there is a pitch variation of the vehicle based on the widths of the plurality of motion blurs, and indicates the vehicle posture indicating whether or not the vehicle has a pitch variation. Notify the state determination unit
When the vehicle posture is a posture in which there is no pitch fluctuation of the vehicle, the traveling state determination unit is configured to travel along the lane marker when at least one of the plurality of motion blur widths is smaller than the threshold value. It is determined that
The image processing apparatus according to claim 1.
所定の画像処理を行う画像処理部をさらに有し、
前記走行状態判定部は、前記車両が前記レーンマーカに沿って走行しているか否かを示す走行状態を前記画像処理部へ通知し、
前記画像処理部は、前記走行状態判定部から通知された前記走行状態が、前記車両が前記レーンマーカに沿って走行している状態である場合、前記画像処理に応じた第3の露光時間を決定し、前記第3の露光時間を前記撮像制御部へ通知し、
前記画像取得部は、前記画像処理部によって決定された第3の露光時間に基づいて前記路面画像を取得し、前記画像処理部へ送り、
前記画像処理部は、前記画像取得部から受け取った路面画像に対して所定の画像処理を施す、
請求項1から6のいずれか1項に記載の画像処理装置。
An image processing unit for performing predetermined image processing;
The traveling state determination unit notifies the image processing unit of a traveling state indicating whether the vehicle is traveling along the lane marker,
The image processing unit determines a third exposure time corresponding to the image processing when the traveling state notified from the traveling state determining unit is a state where the vehicle is traveling along the lane marker. And notifying the imaging control unit of the third exposure time,
The image acquisition unit acquires the road surface image based on a third exposure time determined by the image processing unit, and sends the road image to the image processing unit,
The image processing unit performs predetermined image processing on the road surface image received from the image acquisition unit.
The image processing apparatus according to claim 1.
走行中の車両からの撮影により、レーンマーカを含む道路の画像である路面画像を取得するステップと、
前記路面画像から、前記レーンマーカに基づいて発生するモーションブラーの幅を算出するステップと、
前記モーションブラーの幅がしきい値より小さいとき、前記車両が前記レーンマーカに沿って走行していると判定するステップと、
を含む画像処理方法。
Acquiring a road surface image that is an image of a road including a lane marker by photographing from a traveling vehicle; and
Calculating a width of a motion blur generated based on the lane marker from the road surface image;
Determining that the vehicle is traveling along the lane marker when the width of the motion blur is less than a threshold;
An image processing method including:
走行中の車両からの撮影により、レーンマーカを含む道路の画像である路面画像を取得する処理と、
前記路面画像から、前記レーンマーカに基づいて発生するモーションブラーの幅を算出する処理と、
前記モーションブラーの幅がしきい値より小さいとき、前記車両が前記レーンマーカに沿って走行していると判定する処理と、
をコンピュータに実行させる画像処理プログラム。
A process of acquiring a road surface image that is an image of a road including a lane marker by photographing from a traveling vehicle;
From the road surface image, processing to calculate the width of the motion blur that occurs based on the lane marker,
When the width of the motion blur is smaller than a threshold value, a process for determining that the vehicle is traveling along the lane marker;
An image processing program for causing a computer to execute.
JP2013125660A 2013-06-14 2013-06-14 Image processing device, image processing method and image processing program Pending JP2015001812A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013125660A JP2015001812A (en) 2013-06-14 2013-06-14 Image processing device, image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013125660A JP2015001812A (en) 2013-06-14 2013-06-14 Image processing device, image processing method and image processing program

Publications (1)

Publication Number Publication Date
JP2015001812A true JP2015001812A (en) 2015-01-05

Family

ID=52296314

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013125660A Pending JP2015001812A (en) 2013-06-14 2013-06-14 Image processing device, image processing method and image processing program

Country Status (1)

Country Link
JP (1) JP2015001812A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109643447A (en) * 2016-09-28 2019-04-16 日立汽车系统株式会社 Image processing apparatus, photographic device
JPWO2020213649A1 (en) * 2019-04-17 2020-10-22

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109643447A (en) * 2016-09-28 2019-04-16 日立汽车系统株式会社 Image processing apparatus, photographic device
CN109643447B (en) * 2016-09-28 2023-10-13 日立安斯泰莫株式会社 Image processing apparatus and image pickup apparatus
JPWO2020213649A1 (en) * 2019-04-17 2020-10-22
WO2020213649A1 (en) * 2019-04-17 2020-10-22 株式会社スマートドライブ Information processing device, program, and information processing method
JP7079041B2 (en) 2019-04-17 2022-06-01 株式会社スマートドライブ Information processing equipment, programs, and information processing methods

Similar Documents

Publication Publication Date Title
JP6896044B2 (en) Road vertical contour detection
WO2018225446A1 (en) Map points-of-change detection device
JP6532229B2 (en) Object detection apparatus, object detection system, object detection method and program
JP5949861B2 (en) Vehicle approaching object detection device and vehicle approaching object detection method
KR101611194B1 (en) Apparatus and method for peripheral image generation of vehicle
US9902341B2 (en) Image processing apparatus and image processing method including area setting and perspective conversion
WO2019156072A1 (en) Attitude estimating device
JP4894771B2 (en) Calibration apparatus and calibration method
JP5539250B2 (en) Approaching object detection device and approaching object detection method
JP2011100174A (en) Apparatus and method for detecting vehicle on lane
US9827906B2 (en) Image processing apparatus
JP2005318568A (en) Image compensation device and image compensation method
JP2015001812A (en) Image processing device, image processing method and image processing program
JP6184447B2 (en) Estimation apparatus and estimation program
EP3435286B1 (en) Imaging control device and imaging control method
CN111316322B (en) Road surface area detection device
JP6032141B2 (en) Travel road marking detection device and travel road marking detection method
JP2005170290A (en) Obstacle detecting device
JP2017102634A (en) Image processing apparatus and image processing system
CN112513573B (en) Stereo camera device
JP2008042759A (en) Image processing apparatus
US9519833B2 (en) Lane detection method and system using photographing unit
JP2005301892A (en) Lane recognition device by a plurality of cameras
JP5682266B2 (en) Movement amount estimation apparatus and movement amount estimation method
JP6564682B2 (en) Object detection device, object detection method, and object detection program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150312