JP5724859B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP5724859B2
JP5724859B2 JP2011267207A JP2011267207A JP5724859B2 JP 5724859 B2 JP5724859 B2 JP 5724859B2 JP 2011267207 A JP2011267207 A JP 2011267207A JP 2011267207 A JP2011267207 A JP 2011267207A JP 5724859 B2 JP5724859 B2 JP 5724859B2
Authority
JP
Japan
Prior art keywords
image data
vehicle
acceleration
vehicle state
acquisition means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011267207A
Other languages
Japanese (ja)
Other versions
JP2013120446A (en
Inventor
諭 高田
諭 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2011267207A priority Critical patent/JP5724859B2/en
Publication of JP2013120446A publication Critical patent/JP2013120446A/en
Application granted granted Critical
Publication of JP5724859B2 publication Critical patent/JP5724859B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車両に設置された撮像装置で撮像された画像データに基づいて、オプティカルフローを生成する画像処理装置に関するものである。   The present invention relates to an image processing apparatus that generates an optical flow based on image data captured by an imaging apparatus installed in a vehicle.

従来、撮像装置で撮像された画像データの画像処理を行う画像処理装置の一例として、特許文献1に記載された画像情報補正装置がある。   Conventionally, as an example of an image processing apparatus that performs image processing of image data captured by an imaging apparatus, there is an image information correction apparatus described in Patent Document 1.

この画像情報補正装置によると、撮像装置によって検出された画素情報が画素毎に順次、異常判定処理部、正常判定処理部、補間処理部に入力される。異常判定処理部では、入力される全ての画素情報が画素配列順に補正対象の画素情報となる。そして、異常判定処理部では、補正対象の画素情報をその周辺画素の画素情報と比較することによって、これが異常な情報(ノイズを含んだ情報)で有るか否かが順次判定され、異常な情報であると判定された場合に異常判定出力信号が出力される。   According to this image information correction device, pixel information detected by the imaging device is sequentially input to the abnormality determination processing unit, normality determination processing unit, and interpolation processing unit for each pixel. In the abnormality determination processing unit, all input pixel information becomes pixel information to be corrected in the pixel arrangement order. The abnormality determination processing unit sequentially determines whether or not the correction target pixel information is abnormal information (information including noise) by comparing the pixel information to be corrected with the pixel information of the surrounding pixels. When it is determined that the error is detected, an abnormality determination output signal is output.

また、正常判定処理部では、異常判定処理部で補正対象の画素情報に対して異常判定がなされている際に、その補正対象の画素情報における周辺の画素が正常な情報(ノイズを含んでいない情報)で有るか否かが順次判定され、正常な情報であると判定された場合に正常判定出力信号が出力される。そして、異常判定処理部から異常判定出力信号が出力され且つ正常判定処理部から正常判定出力信号が出力された場合に補間制御信号が出力され、補間処理部が補正対象の画素情報に対して補間処理を実行して、補間された画素情報が出力される。   In addition, in the normal determination processing unit, when the abnormality determination is performed on the pixel information to be corrected by the abnormality determination processing unit, peripheral pixels in the correction target pixel information are normal information (not including noise). Information) is sequentially determined, and when it is determined that the information is normal, a normal determination output signal is output. Then, when an abnormality determination output signal is output from the abnormality determination processing unit and a normal determination output signal is output from the normality determination processing unit, an interpolation control signal is output, and the interpolation processing unit interpolates the pixel information to be corrected. Processing is executed, and the interpolated pixel information is output.

特開2005−284355号公報JP 2005-284355 A

なお、画像処理装置としては、車両に搭載された撮像装置で撮像された複数の画素のデータからなる画像データの画像処理を行うものもある。例えば、車両に搭載された撮像装置で撮像された時間的に連続する複数の画像データからオプティカルフローを生成するものなどがある。   As an image processing apparatus, there is an image processing apparatus that performs image processing of image data including data of a plurality of pixels imaged by an imaging device mounted on a vehicle. For example, there is one that generates an optical flow from a plurality of temporally continuous image data captured by an imaging device mounted on a vehicle.

ところで、車両は、車両の周辺環境(道路上の異物(石など)、道路形状、トンネルなど)によって、運転者の意図に反して突発的に車両状態が変化することがある。例えば、車両は、道路上の石などの異物を踏んでその異物を跳ね飛ばしたり(石跳ね)、窪んだ道路を走行したりした場合、車体が突発的(瞬間的)に傾くことがある。また、車両は、トンネルを通過する際には、車体周辺の明るさが突発的(瞬間的)に変化することになる。   By the way, the vehicle state may suddenly change against the driver's intention due to the surrounding environment of the vehicle (foreign matter on the road (stone etc.), road shape, tunnel, etc.). For example, when a vehicle steps on a foreign object such as a stone on a road to jump the foreign object (stone jump) or travels on a depressed road, the vehicle body may tilt suddenly (instantly). Further, when the vehicle passes through the tunnel, the brightness around the vehicle body changes suddenly (instantaneously).

このように、車両状態が突発的に変化した場合、車両に搭載された撮像装置で撮像された画像データは、突発的に所定値を超えて変化(すなわち、画像データにおける各画素の輝度データが突発的に所定値を超えて変化)することがある。この車両状態が突発的に変化したときに撮像された画像データは、撮像装置で撮像された時間的に連続する複数の画像データからオプティカルフローを生成する際にはノイズとみなす。つまり、車両状態が突発的に変化したときに撮像された画像データに含まれる全ての画素のデータがノイズ(ノイズ画像データ)となる。よって、時間的に連続する複数の画像データにノイズ画像データが含まれていた場合、ノイズ画像データの影響を受けた(ノイズ画像データが反映された)オプティカルフローとなってしまう。   In this way, when the vehicle state changes suddenly, the image data captured by the imaging device mounted on the vehicle changes suddenly exceeding a predetermined value (that is, the luminance data of each pixel in the image data is changed). (Suddenly changing beyond a predetermined value). The image data captured when the vehicle state suddenly changes is regarded as noise when generating an optical flow from a plurality of temporally continuous image data captured by the imaging device. That is, the data of all pixels included in the image data captured when the vehicle state suddenly changes becomes noise (noise image data). Therefore, when noise image data is included in a plurality of temporally continuous image data, the optical flow is affected by the noise image data (the noise image data is reflected).

しかしながら、上述の画像情報補正装置では、補正対象の画素情報をその周辺画素の画素情報と比較することによって、異常な画素情報で有るか否かを判定し、異常である画素情報を補完するものである。よって、上述のように画像データ全体がノイズであるノイズ画像データを補完することができない。つまり、オプティカルフローを生成する際に、ノイズ画像データによる影響を抑制することができない。   However, in the above-described image information correction device, the pixel information to be corrected is compared with the pixel information of the surrounding pixels to determine whether or not the pixel information is abnormal, and the abnormal pixel information is complemented. It is. Therefore, as described above, noise image data whose entire image data is noise cannot be complemented. That is, the influence of noise image data cannot be suppressed when generating an optical flow.

本発明は、上記問題点に鑑みなされたものであり、オプティカルフローを生成する際に、車両状態が突発的に変化したことに伴うノイズ画像データによる影響を抑制することができる画像処理装置を提供することを目的とする。   The present invention has been made in view of the above problems, and provides an image processing apparatus capable of suppressing the influence of noise image data caused by a sudden change in the vehicle state when generating an optical flow. The purpose is to do.

上記目的を達成するために請求項1に記載の画像処理装置は、
車両に設置された撮像装置(20)で撮像された複数の画素のデータからなる画像データに基づいて、オプティカルフローを生成する画像処理装置であって、
撮像装置(20)で時系列的に撮像された複数の画像データを取得する画像データ取得手段(S10)と、
車両状態が突発的に変化したことを推定する車両状態推定手段(S20)と、
車両状態推定手段(S20)の推定結果に基づいて、画像データ取得手段(S10)にて取得された画像データにおいて、車両状態が突発的に変化したと推定されたときの画像データをノイズ画像データ、車両状態が突発的に変化したと推定されてないときの画像データを正常画像データに区分けする区分手段(S30)と、
正常画像データに基づいて補完画像データを生成し、ノイズ画像データを補完画像データに置き換える(S50)と、
正常画像データと補完画像データとから特徴点を抽出する特徴点抽出手段(S60)と、
正常画像データ及び補完画像データにおける時間的に連続する画像データおいて、特徴点の位置を追跡処理することによって複数のオプティカルフローを生成するオプティカルフロー生成手段(S70)と、を備えることを特徴とするものである。
In order to achieve the above object, an image processing apparatus according to claim 1,
An image processing device that generates an optical flow based on image data composed of data of a plurality of pixels imaged by an imaging device (20) installed in a vehicle,
Image data acquisition means (S10) for acquiring a plurality of image data imaged in time series by the imaging device (20);
Vehicle state estimating means (S20) for estimating that the vehicle state has suddenly changed;
Based on the estimation result of the vehicle state estimation means (S20), the image data obtained when the vehicle state is estimated to be suddenly changed in the image data acquired by the image data acquisition means (S10) is represented as noise image data. Sorting means (S30) for classifying image data when it is not estimated that the vehicle state has suddenly changed into normal image data;
Generating complementary image data based on the normal image data and replacing the noise image data with the complementary image data (S50);
Feature point extraction means (S60) for extracting feature points from normal image data and complementary image data;
Optical flow generation means (S70) for generating a plurality of optical flows by tracking the positions of feature points in temporally continuous image data in normal image data and complementary image data, To do.

このようにすることによって、取得された複数の画像データにノイズ画像データが含まれていた場合であっても、オプティカルフローを生成する際には、ノイズ画像データを補完した補完画像データと正常画像データとが用いられる。よって、オプティカルフローを生成する際に、車両状態が突発的に変化したことに伴うノイズ画像データによる影響を抑制することができる。   In this way, even when noise image data is included in a plurality of acquired image data, when generating an optical flow, complementary image data supplemented with noise image data and a normal image Data is used. Therefore, when generating an optical flow, it is possible to suppress the influence of noise image data that accompanies a sudden change in the vehicle state.

また、請求項2に示すように、車両状態推定手段(S20)は、
車両の鉛直方向の加速度を示す加速度情報を取得する第1取得手段(S201)と、
車両の外部の音情報を取得する第2取得手段(S202)と、を備え、
加速度が所定値以上で且つ衝突音がない場合、車両状態が突発的に変化したと推定するようにしてもよい。
Further, as shown in claim 2, the vehicle state estimating means (S20)
First acquisition means (S201) for acquiring acceleration information indicating the acceleration in the vertical direction of the vehicle;
Second acquisition means (S202) for acquiring sound information outside the vehicle,
When the acceleration is equal to or higher than a predetermined value and there is no collision sound, it may be estimated that the vehicle state has suddenly changed.

車体が石跳ねした場合や、坂道を走行する際に車体が上下方向にうねった場合、車両の外部における衝突音はなく、且つ鉛直方向の加速度が所定値以上となる。よって、請求項2に示すようにすることによって、車体が石跳ねした場合や、坂道を走行する際に車体が上下方向にうねった場合に、車両状態が突発的に変化したと推定することができる。なお、鉛直方向とは、車両における地面に対して垂直方向への加速度である。   When the vehicle bouncing stones or when the vehicle undulates when traveling on a slope, there is no collision sound outside the vehicle and the vertical acceleration becomes a predetermined value or more. Therefore, it is possible to estimate that the vehicle state has suddenly changed when the vehicle body jumps stones or when the vehicle body undulates when traveling on a slope. it can. The vertical direction is acceleration in a direction perpendicular to the ground in the vehicle.

また、請求項3に示すように、
車両状態推定手段(S20)は、
車両の鉛直方向の加速度を示す加速度情報を取得する第3取得手段(S203)と、
車両の車速を示す車速情報を取得する第4取得手段(S204)と、を備え、
加速度が所定値以上で且つ車速が所定範囲内である場合、車両状態が突発的に変化したと推定するようにしてもよい。
As shown in claim 3,
The vehicle state estimating means (S20)
Third acquisition means (S203) for acquiring acceleration information indicating vertical acceleration of the vehicle;
Fourth acquisition means (S204) for acquiring vehicle speed information indicating the vehicle speed of the vehicle,
When the acceleration is equal to or higher than a predetermined value and the vehicle speed is within a predetermined range, it may be estimated that the vehicle state has suddenly changed.

このようにすることによって、車両の外部の音情報を取得できない場合であっても、車体が石跳ねした場合や、坂道を走行する際に車体が上下方向にうねった場合に、車両状態が突発的に変化したと推定することができる。   In this way, even when sound information outside the vehicle cannot be acquired, the vehicle state may suddenly occur when the vehicle body jumps stones or when the vehicle body undulates when traveling on a slope. Can be estimated to have changed.

また、請求項4に示すように、
車両状態推定手段(S20)は、
車両に照射される日射量を示す日射情報を取得する第5取得手段(S205)と、
車両の車速を示す車速情報を取得する第6取得手段(S206)と、を備え、
車速が所定値以上で、日射量の変化量が所定値以上、且つ日射量が一定時間後に変化する前の値に戻った場合、車両状態が突発的に変化したと推定するようにしてもよい。
As shown in claim 4,
The vehicle state estimating means (S20)
Fifth acquisition means (S205) for acquiring solar radiation information indicating the amount of solar radiation irradiated to the vehicle;
Sixth acquisition means (S206) for acquiring vehicle speed information indicating the vehicle speed of the vehicle,
When the vehicle speed is equal to or higher than a predetermined value, the amount of change in solar radiation is equal to or higher than a predetermined value, and the solar radiation amount returns to a value before changing after a certain time, it may be estimated that the vehicle state has suddenly changed. .

車両がトンネルを通過した場合、車速が所定値以上で、日射量の変化量が所定値以上、且つ日射量が一定時間後に変化する前の値に戻ることになる。よって、請求項4に示すようにすることによって、車両がトンネルを通過した場合に、車両状態が突発的に変化したと推定することができる。   When the vehicle passes through the tunnel, the vehicle speed is equal to or higher than a predetermined value, the change amount of the solar radiation amount is equal to or higher than the predetermined value, and the solar radiation amount returns to the value before the change after a certain time. Therefore, by making it as shown in Claim 4, when a vehicle passes a tunnel, it can be estimated that the vehicle state changed suddenly.

また、請求項5に示すように、
車両状態推定手段(S20)は、
車両の鉛直方向、進行方向、及び鉛直方向と進行方向に対する直交方向の夫々の加速度を示す加速度情報を取得する第7取得手段(S207)と、
車両の車速を示す車速情報を取得する第8取得手段(S208)と、を備え、
少なくとも一つの加速度が所定値以上で且つ車速がゼロの場合、車両状態が突発的に変化したと推定するようにしてもよい。
As shown in claim 5,
The vehicle state estimating means (S20)
Seventh acquisition means (S207) for acquiring acceleration information indicating the vertical direction of the vehicle, the traveling direction, and the acceleration in the direction orthogonal to the vertical direction and the traveling direction;
An eighth acquisition means (S208) for acquiring vehicle speed information indicating the vehicle speed of the vehicle,
When at least one acceleration is equal to or higher than a predetermined value and the vehicle speed is zero, it may be estimated that the vehicle state has suddenly changed.

車両が停車中に、撮像装置(20)若しくは車体に衝撃が印加(例えば、車体への追突、又は車両若しくは撮像装置(20)の盗難などのために衝撃が印加)された場合、車速がゼロで且つ鉛直方向、進行方向、及び鉛直方向と進行方向に対する直交方向の少なくとも一つの加速度が所定値以上となる。よって、請求項5に示すようにすることによって、車両が停車中に、撮像装置(20)若しくは車体に衝撃が印加された場合に、車両状態が突発的に変化したと推定することができる。   When an impact is applied to the imaging device (20) or the vehicle body while the vehicle is stopped (for example, an impact is applied due to a collision with the vehicle body or the vehicle or the imaging device (20) being stolen), the vehicle speed is zero. In addition, at least one acceleration in the vertical direction, the traveling direction, and the direction perpendicular to the traveling direction is equal to or greater than a predetermined value. Therefore, according to the fifth aspect, it can be estimated that the vehicle state suddenly changes when an impact is applied to the imaging device (20) or the vehicle body while the vehicle is stopped.

また、請求項6に示すように、
車両状態推定手段(S20)は、
車両の鉛直方向、進行方向、及び鉛直方向と進行方向に対する直交方向の夫々の加速度を示す加速度情報を取得する第9取得手段(S209)と、
車両の外部の音情報を取得する第10取得手段(S210)と、を備え、
少なくとも一つの加速度が所定値以上で且つ衝突音があった場合、車両状態が突発的に変化したと推定するようにしてもよい。
As shown in claim 6,
The vehicle state estimating means (S20)
Ninth acquisition means (S209) for acquiring acceleration information indicating the vertical direction of the vehicle, the traveling direction, and the acceleration in the direction perpendicular to the vertical direction and the traveling direction;
Tenth acquisition means (S210) for acquiring sound information outside the vehicle,
When at least one acceleration is equal to or higher than a predetermined value and there is a collision sound, it may be estimated that the vehicle state has suddenly changed.

車両が走行中に、他車両などに追突された場合、車両の外部における衝突音があり、且つ鉛直方向、進行方向、及び鉛直方向と進行方向に対する直交方向の少なくとも一つの加速度が所定値以上となる。よって、請求項6に示すようにすることによって、車両が走行中に、他車両などに追突された場合に、車両状態が突発的に変化したと推定することができる。   When a vehicle collides with another vehicle while traveling, there is a collision sound outside the vehicle, and at least one acceleration in the vertical direction, the traveling direction, and the vertical direction and the direction orthogonal to the traveling direction is greater than or equal to a predetermined value. Become. Therefore, according to the sixth aspect, it is possible to estimate that the vehicle state has suddenly changed when the vehicle is collided with another vehicle or the like while the vehicle is traveling.

また、請求項7に示すように、
画像データにおける複数の画素のデータは、各画素の輝度を示す輝度値データを含むものであり、
補完手段(S50)は、ノイズ画像データの直前に撮像された正常画像データと、直後に撮像された正常画像データとを用いて補完画像データを生成するものであり、直前に撮像された正常画像データと直後に撮像された正常画像データとにける互いに対応する画素同士の輝度値データの平均値である平均輝度値データを算出し、平均輝度値データを各画素の輝度値データとして、補完画像データを生成するようにしてもよい。
As shown in claim 7,
The plurality of pixel data in the image data includes luminance value data indicating the luminance of each pixel,
The complementing means (S50) generates complementary image data using normal image data captured immediately before the noise image data and normal image data captured immediately after the noise image data. The average luminance value data, which is the average value of the luminance value data of the pixels corresponding to each other in the data and the normal image data captured immediately thereafter, is calculated, and the average luminance value data is used as the luminance value data of each pixel to obtain a complementary image. Data may be generated.

このようにすることによって、画像データ取得手段(S10)にて取得された画像データ以外に特別なデータを用いることなく、補完画像データを生成することができる。   By doing in this way, complementary image data can be generated without using special data other than the image data acquired by the image data acquisition means (S10).

実施形態における制御装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the control apparatus in embodiment. 実施形態における制御装置の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the control apparatus in embodiment. 実施形態における制御装置の推定処理動作を示すフローチャートである。It is a flowchart which shows the estimation process operation | movement of the control apparatus in embodiment. 時間的に連続する画像データの一例を示すイメージ図である。It is an image figure which shows an example of the image data continuous in time. (a)は各撮像タイミングと印加加速度との関係を示すグラフであり、(b)は図5(a)における各撮像タイミングと輝度値との関係を示すグラフであり、(c)は補完後の各撮像タイミングと輝度値との関係を示すグラフである。(A) is a graph which shows the relationship between each imaging timing and applied acceleration, (b) is a graph which shows the relationship between each imaging timing and luminance value in Fig.5 (a), (c) is after a complement. It is a graph which shows the relationship between each imaging timing of this, and a luminance value. 変形例1における制御装置の推定処理動作を示すフローチャートである。10 is a flowchart showing an estimation processing operation of a control device in Modification 1; 変形例2における制御装置の推定処理動作を示すフローチャートである。10 is a flowchart illustrating an estimation processing operation of a control device according to Modification 2. 変形例3における制御装置の推定処理動作を示すフローチャートである。10 is a flowchart illustrating an estimation processing operation of a control device according to Modification 3. 変形例4における制御装置の推定処理動作を示すフローチャートである。10 is a flowchart illustrating an estimation processing operation of a control device according to Modification 4.

以下、本発明の実施形態を図に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1に示す、制御装置10は、特許請求の範囲における画像処理装置に相当するものである。この制御装置10は、車両に設置されるとともに自身(制御装置10)に電気的に接続された車載カメラ20(以下の説明及び図面では、単にカメラと記載する)からの画像データを所定時間毎に取得する。そして、取得した画像データに基づいて、オプティカルフロー(以下、OFとも称する)を生成するものである。なお、オプティカルフローとは、時間的に連続するデジタル画像の中で物体の動きをベクトルで表したものである。また、カメラ20は、特許請求の範囲における撮像装置に相当するものである。   A control device 10 shown in FIG. 1 corresponds to the image processing device in the claims. The control device 10 receives image data from a vehicle-mounted camera 20 (simply described as “camera” in the following description and drawings) that is installed in a vehicle and electrically connected to itself (the control device 10) every predetermined time. To get to. Based on the acquired image data, an optical flow (hereinafter also referred to as OF) is generated. The optical flow is a vector representing the motion of an object in a temporally continuous digital image. The camera 20 corresponds to the imaging device in the claims.

さらに、制御装置10は、生成したOFに基づいて、歩行者検知や各種の車両制御を行う。例えば、車両制御としては、VSC(Vehicle Stability Control)制御などを行う。なお、OFに基づいた歩行者検知や車両制御に関しては、周知技術であるため詳しい説明を省略する。   Further, the control device 10 performs pedestrian detection and various vehicle controls based on the generated OF. For example, as vehicle control, VSC (Vehicle Stability Control) control or the like is performed. Note that pedestrian detection and vehicle control based on the OF are well-known techniques and will not be described in detail.

なお、制御装置10が所定時間毎に取得する各画像データは、複数の画素のデータからなるものである。また、各画像データにおける複数の画素のデータは、各画素の位置を示す位置データと、各画素の輝度を示す輝度値データとを含むものである。また、この位置データと輝度値データとは関連付けられている。   In addition, each image data which the control apparatus 10 acquires every predetermined time consists of data of a plurality of pixels. The data of a plurality of pixels in each image data includes position data indicating the position of each pixel and luminance value data indicating the luminance of each pixel. The position data and the brightness value data are associated with each other.

この制御装置10は、例えば、車載LAN(Local Area Network)に接続されて、第1ECU(Electronic Control Unit)30、第2ECU40、第3ECU50などの制御装置と通信可能な構成とすることができる。そして、制御装置10は、この第1ECU30、第2ECU40、第3ECU50を用いて各種車両制御を行うようにしてもよい。また、制御装置10は、第1ECU30〜第3ECU50のいずれかから、車両の鉛直方向の加速度を示す加速度情報を取得するとともに、車両の外部の音情報を取得する。ここでは、制御装置10は、加速度情報を第1ECU30から取得し、音情報を第2ECU40から取得する例を採用する。   For example, the control device 10 is connected to an in-vehicle LAN (Local Area Network) and can be configured to be able to communicate with a control device such as a first ECU (Electronic Control Unit) 30, a second ECU 40, and a third ECU 50. Then, the control device 10 may perform various vehicle controls using the first ECU 30, the second ECU 40, and the third ECU 50. In addition, the control device 10 acquires acceleration information indicating acceleration in the vertical direction of the vehicle and sound information outside the vehicle from any of the first ECU 30 to the third ECU 50. Here, the control apparatus 10 employs an example in which acceleration information is acquired from the first ECU 30 and sound information is acquired from the second ECU 40.

制御装置10は、図1に示すように、CPU(CentralProcessing Unit)11、RAM(Random Access Memory)12、ROM(Read Only Memory)13、I/F(interface)14などを含むマイクロコンピュータを主体として構成されている。この制御装置10は、CPU11が予めROM13などに格納されたプログラムをRAM12に読出して実行することによって、カメラ20で撮像された画像データの取得など所定の処理動作を実行する。なお、カメラ20は、制御装置10とともに車両に搭載されており、自車両の前方などの所定範囲(所定の撮像範囲)を撮像するものである。   As shown in FIG. 1, the control device 10 is mainly composed of a microcomputer including a CPU (Central Processing Unit) 11, a RAM (Random Access Memory) 12, a ROM (Read Only Memory) 13, an I / F (interface) 14, and the like. It is configured. In the control device 10, the CPU 11 reads out a program stored in advance in the ROM 13 or the like to the RAM 12 and executes it, thereby executing a predetermined processing operation such as acquisition of image data captured by the camera 20. The camera 20 is mounted on the vehicle together with the control device 10, and images a predetermined range (predetermined imaging range) such as the front of the host vehicle.

ここで、図2,図3に基づいて、制御装置10の処理動作に関して説明する。制御装置10は、自車両に搭載された電源(図示省略、例えば、バッテリー)から電源供給されている間、所定時間毎に図2に示すフローチャートを実行する。   Here, the processing operation of the control device 10 will be described with reference to FIGS. The control device 10 executes the flowchart shown in FIG. 2 every predetermined time while power is supplied from a power source (not shown, for example, a battery) mounted on the host vehicle.

まず、図2のステップS10では、画像データ取得処理を実行する。制御装置10(CPU11)は、カメラ20で時系列的(例えば所定の撮像間隔Δt毎)に撮像された複数の画像データを取得する(画像データ取得手段)。換言すると、一定時間Δt毎に、カメラ20からの画像データ(画像信号)を取り入れる。なお、CPU11は、この画像データを時系列でRAM12などに記憶する。また、カメラ20は、制御装置10とともに車両に搭載されており、自車両の前方などの所定範囲(所定の撮像範囲)を撮像するものである。つまり、カメラ20は、所定の撮像間隔Δt毎に自車両前方などを撮像し、その画像データ(撮像画像情報)を制御装置10に出力する。よって、制御装置10で取得する各画像データは、一定時間毎のフレームの画像である。   First, in step S10 of FIG. 2, an image data acquisition process is executed. The control device 10 (CPU 11) acquires a plurality of image data imaged by the camera 20 in time series (for example, every predetermined imaging interval Δt) (image data acquisition means). In other words, the image data (image signal) from the camera 20 is taken in every fixed time Δt. The CPU 11 stores the image data in the RAM 12 or the like in time series. The camera 20 is mounted on the vehicle together with the control device 10 and captures a predetermined range (predetermined imaging range) such as the front of the host vehicle. That is, the camera 20 captures the front of the host vehicle at predetermined imaging intervals Δt and outputs the image data (captured image information) to the control device 10. Therefore, each image data acquired by the control device 10 is an image of a frame every certain time.

次に、図2のステップS20では、車両状態推定処理を実行する。制御装置10(CPU11)は、車両状態が突発的に変化したことを推定する(車両状態推定手段)。このように、車両状態が突発的に変化したことを推定するのは、ステップS10で取得した画像データが、車両状態が突発的に変化したときに撮像された画像データであるか否かを判定(つまり、ノイズ画像データか正常画像データであるかを判定)するためである。   Next, in step S20 of FIG. 2, a vehicle state estimation process is executed. The control device 10 (CPU 11) estimates that the vehicle state has suddenly changed (vehicle state estimation means). Thus, it is determined whether or not the vehicle state has suddenly changed is determined by whether or not the image data acquired in step S10 is image data captured when the vehicle state has suddenly changed. This is to determine whether the image data is noise image data or normal image data.

この車両状態推定処理の一例に関して、図3に示すフローチャートを用いて説明する。なお、この車両状態の突発的な変化とは、車両の周辺環境(道路上の異物(石など)、道路形状)によって、運転者の意図に反した突発的な車両状態の変化を示すものである。   An example of this vehicle state estimation process will be described with reference to the flowchart shown in FIG. The sudden change in the vehicle state indicates a sudden change in the vehicle state contrary to the driver's intention due to the surrounding environment of the vehicle (foreign matter on the road (stone etc.), road shape). is there.

図3のステップS201では、車両状態が突発的に変化したか否かを推定するために、加速度情報取得処理を実行する。制御装置10(CPU11)は、第1ECU30から加速度情報を取得する(第1取得手段)。   In step S201 in FIG. 3, an acceleration information acquisition process is executed in order to estimate whether or not the vehicle state has suddenly changed. The control device 10 (CPU 11) acquires acceleration information from the first ECU 30 (first acquisition means).

図3のステップS202では、車両状態が突発的に変化したか否かを推定するために、音情報取得処理を実行する。制御装置10(CPU11)は、第2ECU40から音情報を取得する(第2取得手段)。   In step S202 of FIG. 3, sound information acquisition processing is executed in order to estimate whether or not the vehicle state has suddenly changed. The control device 10 (CPU 11) acquires sound information from the second ECU 40 (second acquisition means).

図3のステップS21では、加速度が所定値以上且つ衝突音無しであるか否かを判定する。制御装置10(CPU11)は、ステップS201で取得した加速度情報が示す加速度が所定値(予めROM13に記憶された所定値(閾値))以上であるか否か、及び、ステップS202で取得した音情報に衝突音が含まれているか否かを判定する。そして、制御装置10(CPU11)は、加速度が所定値以上且つ衝突音無しであると判定した場合はステップS22へ進み、加速度が所定値以上且つ衝突音無しであると判定しなかった場合はステップS23へ進む。   In step S21 of FIG. 3, it is determined whether or not the acceleration is equal to or greater than a predetermined value and there is no collision sound. The control device 10 (CPU 11) determines whether or not the acceleration indicated by the acceleration information acquired in step S201 is equal to or greater than a predetermined value (predetermined value (threshold value) stored in the ROM 13), and the sound information acquired in step S202. It is determined whether or not a collision sound is included. If the control device 10 (CPU 11) determines that the acceleration is equal to or greater than the predetermined value and no collision sound, the control device 10 (CPU 11) proceeds to step S22, and if it is not determined that the acceleration is equal to or greater than the predetermined value and no collision sound, the step. Proceed to S23.

なお、ここでの所定値は、石跳ねしたときの車体に印加される鉛直方向(地面に対して垂直な方向)の加速度、坂道を走行するときに車体に印加される鉛直方向の加速度に基づいて設定される値である。車両が石跳ねしたり、坂道を走行したりしたことを判定可能な値である。   The predetermined value here is based on the acceleration in the vertical direction (direction perpendicular to the ground) applied to the vehicle body when the stone jumps, and the acceleration in the vertical direction applied to the vehicle body when traveling on a slope. This is the value that is set. It is a value by which it can be determined that the vehicle has bounced off a stone or traveled on a slope.

図3のステップS22では、制御装置10(CPU11)は、車両状態が突発的に変化したと判定する。つまり、車両が石跳ねしたり、坂道を走行したりしたときに印加される加速度以上の加速度が印加され、そのときに衝突音がなかった場合に、車両状態が突発的に変化したと判定する。一方、図3のステップS23では、制御装置10(CPU11)は、車両状態が突発的に変化してないと判定する。このように、車両状態が突発的に変化したか否かの判定を行うと、図2のフローチャートにおけるステップS30へ戻る。   In step S22 of FIG. 3, the control device 10 (CPU 11) determines that the vehicle state has suddenly changed. In other words, it is determined that the vehicle state has suddenly changed when acceleration higher than the acceleration applied when the vehicle jumps on a stone or travels on a slope is applied, and there is no collision sound at that time. . On the other hand, in step S23 of FIG. 3, the control device 10 (CPU 11) determines that the vehicle state has not changed suddenly. Thus, when it is determined whether or not the vehicle state has suddenly changed, the process returns to step S30 in the flowchart of FIG.

なお、車体が石跳ねした場合や、坂道を走行する際に車体が上下方向にうねった場合、車両の外部における衝突音はなく、且つ鉛直方向の加速度が所定値以上となることがある。よって、このようにすることによって、車体が石跳ねした場合や、坂道を走行する際に車体が上下方向にうねって鉛直方向の加速度が所定値以上となった場合に、車両状態が突発的に変化したと推定することができる。   In addition, when the vehicle body is rocked or when the vehicle body undulates when traveling on a slope, there is no collision sound outside the vehicle, and the vertical acceleration may be a predetermined value or more. Therefore, in this way, the vehicle state suddenly changes when the vehicle bouncing stones or when the vehicle body undulates vertically and the vertical acceleration exceeds a predetermined value when traveling on a slope. It can be estimated that it has changed.

図2のステップS30では、フィルタ処置(区分手段、区分処理)を実行する。制御装置10(CPU11)は、ステップS20での推定結果に基づいて、ステップS10で取得した画像データを、ノイズ画像データと正常画像データとに区分けする。換言すると、ここでの処理は、画像データをイズ画像データと正常画像データとにフィルタリングする処理である。   In step S30 of FIG. 2, filter processing (sorting means, sorting process) is executed. The control device 10 (CPU 11) classifies the image data acquired in step S10 into noise image data and normal image data based on the estimation result in step S20. In other words, the process here is a process of filtering the image data into noise image data and normal image data.

そして、制御装置10(CPU11)は、ステップS20において、車両状態が突発的に変化したと推定したときの画像データをノイズ画像データに区分けし、車両状態が突発的に変化したと推定されてないときの画像データを正常画像データに区分けする。つまり、ノイズ画像データとは、車両状態が突発的に変化したと推定されたときの画像データを示すものである。一方、正常画像データは、車両状態が突発的に変化したと推定されてないときの画像データを示すものである。   Then, in step S20, the control device 10 (CPU 11) classifies the image data when it is estimated that the vehicle state has suddenly changed into noise image data, and it is not estimated that the vehicle state has suddenly changed. The current image data is divided into normal image data. That is, the noise image data indicates image data when it is estimated that the vehicle state has suddenly changed. On the other hand, normal image data indicates image data when it is not estimated that the vehicle state has suddenly changed.

言い換えると、本発明におけるノイズ画像データとは、車両制御を実施するにあたって不必要な車両状態によって生じる画像全体にわたる輝度の変動であって、かつ非定常なものであり、時系列の画像データの一部(一部のフレーム)に存在する。例えば、車両が段差、坂道等を走行することによって、カメラ20が揺らされる。また、車両が石を跳ねることによって、車体全体が瞬間的に上下し、カメラ20も上下する。ノイズ画像データとは、このようなときに撮像された画像データを示す。つまり、車両状態が突発的に変化したときに撮像された画像データ(フレーム)に含まれる全ての画素のデータがノイズとなる。言い換えると、ノイズ画像データは、各画像データにおけるいずれかの画素のデータに異常が生じているものとは異なる。また、電磁波の影響や電気的な故障(カメラ20における回路の故障など)によって一つの画像データにおけるいずれかの画素のデータに異常が生じているものなどとも異なる。   In other words, the noise image data in the present invention is a variation in luminance over the entire image caused by a vehicle state that is unnecessary for performing vehicle control, and is non-stationary, and is one of time-series image data. Part (some frames). For example, the camera 20 is shaken when the vehicle travels on a step, a slope, or the like. Further, when the vehicle jumps a stone, the entire vehicle body instantaneously moves up and down, and the camera 20 also moves up and down. The noise image data indicates image data captured at such a time. That is, the data of all pixels included in the image data (frame) captured when the vehicle state suddenly changes becomes noise. In other words, the noise image data is different from that in which any pixel data in each image data is abnormal. Further, it is different from that in which any pixel data in one image data is abnormal due to the influence of electromagnetic waves or electrical failure (circuit failure in the camera 20 or the like).

図2のステップS40では、補完が必要であるか否かを判定する。制御装置10(CPU11)は、ステップS30にてノイズ画像データに区分けされた場合は補完必要であると判定し、ステップS30にて正常画像データに区分けされた場合は補完必要なしであると判定する。つまり、ノイズ画像データに区分けされた画像データに関しては補完の必要があり、正常画像データに区分けされた画像データに関しては補完の必要がない。   In step S40 of FIG. 2, it is determined whether complementation is necessary. The control device 10 (CPU 11) determines that complementation is necessary when it is classified into noise image data in step S30, and determines that complementation is not necessary when it is classified into normal image data in step S30. . In other words, the image data divided into noise image data needs to be complemented, and the image data divided into normal image data need not be complemented.

図2のステップS50では、補完処理を実行する。制御装置10(CPU11)は、ステップS40で補完必要ありと判定された画像データ(つまり、ノイズ画像データ)を補完して、補完画像データを生成する(補完手段)。なお、この補完画像データの生成方法の一例としては、ノイズ画像データの直前に撮像された正常画像データと、直後に撮像された正常画像データとを用いて補完画像データを生成する。例えば、ノイズ画像データの直前に撮像された正常画像データと、直後に撮像された正常画像データとにおける、互いに対応する画素同士(対応する位置同士の画素同士)の輝度値データの平均値である平均輝度値データを算出する。そして、ノイズ画像データを削除して、この平均輝度値データを各画素の輝度値データとして、補完画像データを生成する。つまり、ノイズ画像データを補完画像データに置き換える。このようにすることによって、ステップS10にて取得した画像データ以外に特別なデータを用いることなく、補完画像データを生成することができる。   In step S50 of FIG. 2, a complement process is executed. The control device 10 (CPU 11) complements the image data (that is, noise image data) determined to be necessary for complementation in step S40, and generates complement image data (complementing means). Note that, as an example of the method of generating the complementary image data, the complementary image data is generated using the normal image data captured immediately before the noise image data and the normal image data captured immediately after the noise image data. For example, it is an average value of luminance value data of pixels corresponding to each other (pixels at corresponding positions) in normal image data captured immediately before the noise image data and normal image data captured immediately after the noise image data. Average brightness value data is calculated. Then, the noise image data is deleted, and complementary image data is generated using the average luminance value data as the luminance value data of each pixel. That is, the noise image data is replaced with complementary image data. By doing in this way, complementary image data can be generated without using special data other than the image data acquired in step S10.

このように、制御装置10(CPU11)は、取得した画像データに関して、順次ノイズ画像データと正常画像データとの区分けを行うとともに、ノイズ画像データを補完画像データに置き換える。つまり、制御装置10(CPU11)は、リアルタイムにノイズ画像データの特定を行うとともに、ノイズ画像データを補完画像データに置き換える。   As described above, the control device 10 (CPU 11) sequentially classifies the noise image data and the normal image data with respect to the acquired image data, and replaces the noise image data with complementary image data. That is, the control device 10 (CPU 11) specifies the noise image data in real time and replaces the noise image data with complementary image data.

次に、ステップS60では、特徴点抽出処理を実行する。制御装置10(CPU11)は、正常画像データと補完画像データとから特徴点を抽出する(特徴点抽出手段)。換言すると、制御装置10(CPU11)は、カメラ20で撮像された各画像データのうち、正常画像データと補完画像データにおいて特徴点を抽出する。   Next, in step S60, feature point extraction processing is executed. The control device 10 (CPU 11) extracts feature points from normal image data and complementary image data (feature point extraction means). In other words, the control device 10 (CPU 11) extracts feature points in the normal image data and the complementary image data from among the image data captured by the camera 20.

なお、この特徴点の抽出する際には、特徴点には公知のSIFT(Scale-Invariant Feature Transform)特徴量を用い、特徴点の密度が一様となるように、特定の画像範囲内で特徴量の個数を1つと決める。換言すると、この特徴点の抽出には、公知のSIFTを利用する。また、画像データにおける特徴点の密度が一様になるように、この画像データを同じ広さの複数の領域に区分けして、各領域から特徴点を一つ抽出する(つまり、画像データの全範囲から満遍なく特徴点を抽出する)。具体的には、まず、キーポイント検出し、スケール決定する。このとき、平滑化パラメータ極大値をスケールとする(スケール不変)。次に、特徴量記述(特徴ベクトル)する。このとき、多次元特徴ベクトルにより記述することで、照明変化に頑健な特徴量となる。従って、スケール変化に不変で照明変化に頑健な特徴点を抽出することができる。   When extracting the feature points, a known SIFT (Scale-Invariant Feature Transform) feature amount is used for the feature points, and the feature points are featured within a specific image range so that the density of the feature points is uniform. Decide the number of quantities as one. In other words, a known SIFT is used for extracting the feature points. In addition, the image data is divided into a plurality of regions having the same area so that the density of the feature points in the image data is uniform, and one feature point is extracted from each region (that is, all of the image data is extracted). Extract feature points evenly from the range). Specifically, first, key points are detected and the scale is determined. At this time, the smoothing parameter maximum is used as a scale (scale invariant). Next, feature amount description (feature vector) is described. At this time, the feature amount is robust against a change in illumination by describing with a multidimensional feature vector. Therefore, it is possible to extract feature points that are invariant to scale changes and robust to illumination changes.

次に、ステップS70では、オプティカルフロー生成処理を実行する。制御装置10(CPU11)は、正常画像データ及び補完画像データにおける時間的に連続する画像データ(複数の画像データ)おいて、特徴点の位置を追跡処理することによってOFを生成する(オプティカルフロー生成手段)。このOFによって、画像データ全体における各特徴点の動きをベクトルとして取得できる。   Next, in step S70, an optical flow generation process is executed. The control device 10 (CPU 11) generates OF by tracking the position of the feature point in temporally continuous image data (a plurality of image data) in the normal image data and the complementary image data (optical flow generation). means). With this OF, the motion of each feature point in the entire image data can be acquired as a vector.

なお、オプティカルフロー生成処理に関しては、周知技術であるため詳しい説明は省略する。また、OFを生成する際には、制御装置10(CPU11)は、ステレオマッチングにより自車両(カメラ20)から各特徴点までの距離を求める(正規化手段)。そして、特徴点までの距離と消失点との方向によりOFを正規化する(正規化手段)と好ましい。   The optical flow generation process is a well-known technique and will not be described in detail. Further, when generating the OF, the control device 10 (CPU 11) obtains the distance from the own vehicle (camera 20) to each feature point by stereo matching (normalization means). Then, it is preferable to normalize the OF (normalization means) based on the distance to the feature point and the direction of the vanishing point.

そして、ステップS80では、車両制御を実行する。制御装置10(CPU11)は、ステップS70で生成したOFに基づいて車両制御を実行する。なお、このステップS80では、ステップS70で生成したOFに基づいて歩行者検知を実行するようにしてもよい。   In step S80, vehicle control is executed. The control device 10 (CPU 11) executes vehicle control based on the OF generated in step S70. In this step S80, pedestrian detection may be executed based on the OF generated in step S70.

ここで、図4,図5に示すように、タイミングt=0、タイミングt=0のΔt後のタイミングt=1、タイミングt=1のΔt後のタイミングt=2で撮像された画像、及び各タイミングでの印加加速度、輝度値データを用いて説明する。図4は、カメラ20によって、撮像タイミングt=0,1,2で撮像された各画像を示している。なお、図4においては、説明を分かりやすくするために、各画像に特徴点60とOF70を図示している。   Here, as shown in FIG. 4 and FIG. 5, an image captured at timing t = 0, timing t = 1 after Δt of timing t = 0, timing t = 2 after Δt of timing t = 1, and A description will be given using applied acceleration and luminance value data at each timing. FIG. 4 shows images captured by the camera 20 at the imaging timings t = 0, 1, and 2. In FIG. 4, the feature point 60 and the OF 70 are shown in each image for easy understanding.

図5(a)に示すように、撮像タイミングt=0,2の画像は、車両状態が突発的に変化してないときにカメラ20で撮像されたものである。一方、タイミングt=1の画像は、車両状態が突発的に変化したときにカメラ20で撮像されたものである。なお、図5のデータは、図4の点1からとったもである。   As shown in FIG. 5A, the image at the imaging timing t = 0, 2 is an image captured by the camera 20 when the vehicle state has not changed suddenly. On the other hand, the image at timing t = 1 is captured by the camera 20 when the vehicle state suddenly changes. The data in FIG. 5 is taken from point 1 in FIG.

図5(b)に示すように、車両状態が突発的に変化したときにカメラ20で撮像されたときの画像データ(t=1)は、車両状態が突発的に変化してないときにカメラ20で撮像されたときの画像データ(t=0,2)と比べると、明らかに輝度(輝度値データ)が異常であることがわかる。また、図4に示すように、車両状態が突発的に変化したときは(t=1)、車両状態が突発的に変化してないときに(t=0,2)に比べて、OF70の方向が異なることになる。   As shown in FIG. 5B, the image data (t = 1) captured by the camera 20 when the vehicle state suddenly changes is obtained when the vehicle state is not suddenly changed. Compared with the image data (t = 0, 2) when imaged at 20, the luminance (luminance value data) is clearly abnormal. In addition, as shown in FIG. 4, when the vehicle state suddenly changes (t = 1), compared to when the vehicle state does not suddenly change (t = 0, 2), the OF 70 The direction will be different.

そこで、ステップS50で説明したように、補完画像データを作成し、車両状態が突発的に変化したときにカメラ20で撮像されたときの画像データであるノイズ画像データを補完画像データに置き換える。   Therefore, as described in step S50, complementary image data is created, and noise image data that is image data captured by the camera 20 when the vehicle state suddenly changes is replaced with complementary image data.

ここまで説明したように、制御装置10では、取得した複数の画像データをノイズ画像データと正常画像データとに区分けする。そして、取得した複数の画像データにノイズ画像データが含まれていた場合であっても、OFを生成する際には、ノイズ画像データを補完した補完画像データと正常画像データとを用いる。よって、OFを生成する際に、車両状態が突発的に変化したことに伴うノイズ画像データによる影響を抑制することができる。なお、このように、OFを生成する際にノイズ画像データによる影響を抑制することによって、OFに基づいて実行される車両制御の誤動作を抑制することもできる。同様に、歩行者検知の誤検知を抑制することもできる。   As described so far, the control device 10 divides the acquired plurality of image data into noise image data and normal image data. Even when noise image data is included in a plurality of acquired image data, complementary image data supplemented with noise image data and normal image data are used when generating an OF. Therefore, when generating OF, the influence by noise image data accompanying the sudden change in the vehicle state can be suppressed. As described above, by suppressing the influence of the noise image data when generating the OF, it is possible to suppress malfunction of the vehicle control executed based on the OF. Similarly, erroneous detection of pedestrian detection can be suppressed.

さらに、制御装置10では、リアルタイムにノイズ画像データを特定し、特徴点の抽出前にノイズ画像データを補完するので、特徴点の抽出からOFの生成までの画像処理アルゴリズムを簡略化することができる。よって、制御装置10は、車両状態の突発的な変化によってノイズ画像データが発生した場合であっても、ノイズ画像データに対して頑健、且つ高速処理可能とすることができる。   Furthermore, since the control device 10 identifies noise image data in real time and complements the noise image data before extracting feature points, the image processing algorithm from feature point extraction to OF generation can be simplified. . Therefore, even if noise image data is generated due to a sudden change in the vehicle state, the control device 10 can be robust with respect to the noise image data and can be processed at high speed.

以上、本発明の好ましい実施形態について説明したが、本発明は上述した実施形態に何ら制限されることはなく、本発明の趣旨を逸脱しない範囲において、種々の変形が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not restrict | limited to the embodiment mentioned above at all, and various deformation | transformation are possible in the range which does not deviate from the meaning of this invention.

(変形例1)
なお、上述の実施形態においては、車両状態を推定する際に(車両状態推定処理)、加速度情報と音情報とを用いる例を採用したが、本発明はこれに限定されるものではない。例えば、加速度情報と車速情報とを用いることもできる(変形例1)。なお、変形例1の構成や基本的な処理動作は、上述の実施形態と略同じであるため詳しい説明は省略する。よって、変形例1の制御装置10は、上述の実施形態と同様に、図2のフローチャートに示す処理を行う。変形例1における制御装置10は、音情報を取得する代わりに、車両の車速を示す車速情報を取得する点で、上述の実施形態と異なるものである。例えば、制御装置10は、第3ECU50から車速情報を取得する。
(Modification 1)
In the above-described embodiment, an example in which acceleration information and sound information are used when estimating the vehicle state (vehicle state estimation processing) is adopted, but the present invention is not limited to this. For example, acceleration information and vehicle speed information can also be used (Modification 1). Note that the configuration and basic processing operations of Modification 1 are substantially the same as those in the above-described embodiment, and thus detailed description thereof is omitted. Therefore, the control apparatus 10 of the modification 1 performs the process shown to the flowchart of FIG. 2 similarly to the above-mentioned embodiment. The control device 10 in Modification 1 is different from the above-described embodiment in that it acquires vehicle speed information indicating the vehicle speed of the vehicle instead of acquiring sound information. For example, the control device 10 acquires vehicle speed information from the third ECU 50.

ここで、図6に基づいて、変形例1の制御装置10が実行する車両状態推定処理に関して説明する。変形例1の制御装置10は、図2のステップS10での画像データ取得処理が終わると、図6に示す車両状態推定処理を実行する。   Here, based on FIG. 6, the vehicle state estimation process which the control apparatus 10 of the modification 1 performs is demonstrated. When the image data acquisition process in step S10 of FIG. 2 is completed, the control device 10 of Modification 1 executes the vehicle state estimation process shown in FIG.

図6のステップS203では、車両状態が突発的に変化したか否かを推定するために、加速度情報取得処理を実行する。制御装置10(CPU11)は、第1ECU30から加速度情報を取得する(第3取得手段)。   In step S203 of FIG. 6, an acceleration information acquisition process is executed in order to estimate whether or not the vehicle state has suddenly changed. The control device 10 (CPU 11) acquires acceleration information from the first ECU 30 (third acquisition means).

図6のステップS204では、車両状態が突発的に変化したか否かを推定するために、車速情報取得処理を実行する。制御装置10(CPU11)は、第3ECU50から車速情報を取得する(第4取得手段)。   In step S204 in FIG. 6, a vehicle speed information acquisition process is executed to estimate whether or not the vehicle state has suddenly changed. The control device 10 (CPU 11) acquires vehicle speed information from the third ECU 50 (fourth acquisition means).

図6のステップS21aでは、加速度が所定値以上且つ車速が所定範囲内であるか否かを判定する。制御装置10(CPU11)は、ステップS203で取得した加速度情報が示す加速度が所定値(予めROM13に記憶された所定値(閾値))以上であるか否か、及び、ステップS204で取得した車速情報が所定範囲(予めROM13に記憶された所定範囲)内であるか否かを判定する。そして、制御装置10(CPU11)は、加速度が所定値以上且つ車速が所定範囲内である判定した場合はステップS22へ進み、加速度が所定値以上且つ車速が所定範囲内であると判定しなかった場合はステップS23へ進む。   In step S21a of FIG. 6, it is determined whether or not the acceleration is equal to or greater than a predetermined value and the vehicle speed is within a predetermined range. The control device 10 (CPU 11) determines whether or not the acceleration indicated by the acceleration information acquired in step S203 is equal to or greater than a predetermined value (predetermined value (threshold value) stored in the ROM 13 in advance), and the vehicle speed information acquired in step S204. Is within a predetermined range (predetermined range stored in the ROM 13 in advance). Then, when the control device 10 (CPU 11) determines that the acceleration is equal to or greater than the predetermined value and the vehicle speed is within the predetermined range, the control device 10 (CPU 11) proceeds to step S22 and does not determine that the acceleration is equal to or greater than the predetermined value and the vehicle speed is within the predetermined range. If so, the process proceeds to step S23.

なお、加速度情報の比較対象である所定値は、上述の実施形態におけるものと同じである。一方、車速情報の比較対象である所定範囲は、車両が走行中であることが判定可能な範囲である。   The predetermined value that is the comparison target of the acceleration information is the same as that in the above-described embodiment. On the other hand, the predetermined range that is a comparison target of the vehicle speed information is a range in which it can be determined that the vehicle is traveling.

図6のステップS22では、制御装置10(CPU11)は、車両状態が突発的に変化したと判定する。一方、図6のステップS23では、制御装置10(CPU11)は、車両状態が突発的に変化してないと判定する。このように、車両状態が突発的に変化したか否かの判定を行うと、図2のフローチャートにおけるステップS30へ戻る。   In step S22 of FIG. 6, the control device 10 (CPU 11) determines that the vehicle state has suddenly changed. On the other hand, in step S23 of FIG. 6, the control device 10 (CPU 11) determines that the vehicle state has not changed suddenly. Thus, when it is determined whether or not the vehicle state has suddenly changed, the process returns to step S30 in the flowchart of FIG.

このようにすることによって、車両の外部の音情報を取得できない場合(例えば、音を周音するマイクが設けられていなかったり、エンジン音しか取得できなかったり)であっても、車体が石跳ねした場合や、坂道を走行する際に車体が上下方向にうねった場合に、車両状態が突発的に変化したと推定することができる。   In this way, even when sound information outside the vehicle cannot be acquired (for example, a microphone that circulates the sound is not provided or only engine sound can be acquired), the vehicle body jumps off the stone. It can be estimated that the vehicle state has suddenly changed when the vehicle body undulates in a vertical direction when traveling on a slope.

(変形例2)
また、上述の実施形態においては、車両状態を推定する際に(車両状態推定処理)、加速度情報と音情報とを用いる例を採用したが、本発明はこれに限定されるものではない。例えば、日射情報と車速情報とを用いることもできる(変形例2)。なお、変形例2の構成や基本的な処理動作は、上述の実施形態と略同じであるため詳しい説明は省略する。よって、変形例2の制御装置10は、上述の実施形態と同様に、図2のフローチャートに示す処理を行う。変形例2における制御装置10は、車両に照射される日射量を示す日射情報と車両の車速を示す車速情報を取得する点で、上述の実施形態と異なるものである。例えば、制御装置10は、第2ECU40から日射情報を取得するとともに、第3ECU50から車速情報を取得する。なお、制御装置10は、第2ECU40から日射情報を取得すると、この日射情報をRAMなどに所定時間記憶しておくようにしてもよい。
(Modification 2)
Moreover, in the above-mentioned embodiment, when estimating a vehicle state (vehicle state estimation process), the example which uses acceleration information and sound information was employ | adopted, However, This invention is not limited to this. For example, solar radiation information and vehicle speed information can also be used (Modification 2). Note that the configuration and basic processing operations of the modified example 2 are substantially the same as those of the above-described embodiment, and thus detailed description thereof is omitted. Therefore, the control apparatus 10 of the modification 2 performs the process shown to the flowchart of FIG. 2 similarly to the above-mentioned embodiment. The control device 10 in Modification 2 is different from the above-described embodiment in that it acquires solar radiation information indicating the amount of solar radiation irradiated on the vehicle and vehicle speed information indicating the vehicle speed of the vehicle. For example, the control device 10 acquires solar radiation information from the second ECU 40 and acquires vehicle speed information from the third ECU 50. Note that when the solar radiation information is acquired from the second ECU 40, the control device 10 may store the solar radiation information in a RAM or the like for a predetermined time.

ここで、図7に基づいて、変形例2の制御装置10が実行する車両状態推定処理に関して説明する。変形例2の制御装置10は、図2のステップS10での画像データ取得処理が終わると、図7に示す車両状態推定処理を実行する。   Here, based on FIG. 7, the vehicle state estimation process which the control apparatus 10 of the modification 2 performs is demonstrated. The control apparatus 10 of the modification 2 performs the vehicle state estimation process shown in FIG. 7 after the image data acquisition process in step S10 of FIG.

図7のステップS205では、車両状態が突発的に変化したか否かを推定するために、日射情報取得処理を実行する。制御装置10(CPU11)は、第2ECU40から加日射情報を取得する(第5取得手段)。   In step S205 in FIG. 7, a solar radiation information acquisition process is executed to estimate whether or not the vehicle state has suddenly changed. The control device 10 (CPU 11) acquires solar radiation information from the second ECU 40 (fifth acquisition means).

図7のステップS206では、車両状態が突発的に変化したか否かを推定するために、車速情報取得処理を実行する。制御装置10(CPU11)は、第3ECU50から車速情報を取得する(第6取得手段)。   In step S206 in FIG. 7, a vehicle speed information acquisition process is executed to estimate whether or not the vehicle state has suddenly changed. The control device 10 (CPU 11) acquires vehicle speed information from the third ECU 50 (sixth acquisition means).

図7のステップS21bでは、車速が所定値以上で、日射量が条件を満たすか否かを判定する。なお、この日射量の条件とは、日射量の変化量が所定値(例えば日の出時の日射量と日没後の日射量との差)以上、且つ日射量が一定時間後に変化する前の値(定常値)に戻ったことである。制御装置10(CPU11)は、ステップS206で取得した車速情報が所定値(予めROM13に記憶された所定値(閾値))以上であるか否かを判定する。さらに、制御装置10(CPU11)は、ステップS205で取得した日射情報が示す日射量の変化量が所定値(予めROM13に記憶された所定値(閾値))以上、且つ、日射量が一定時間後に変化する前の値に戻ったか否かを判定する。そして、制御装置10(CPU11)は、車速が所定値以上且つ日射量が条件を満たしたと判定した場合はステップS22へ進み、車速が所定値以上且つ日射量が条件を満たしたと判定しなかった場合はステップS23へ進む。   In step S21b of FIG. 7, it is determined whether the vehicle speed is equal to or higher than a predetermined value and the amount of solar radiation satisfies a condition. The condition of the amount of solar radiation is a value before the amount of change in solar radiation is a predetermined value (for example, the difference between the amount of solar radiation at sunrise and the amount of solar radiation after sunset) and before the amount of solar radiation changes after a certain time ( (Steady value). The control device 10 (CPU 11) determines whether or not the vehicle speed information acquired in step S206 is greater than or equal to a predetermined value (predetermined value (threshold value) stored in the ROM 13 in advance). Further, the control device 10 (CPU 11) determines that the amount of change in the amount of solar radiation indicated by the solar radiation information acquired in step S205 is greater than or equal to a predetermined value (predetermined value (threshold value) stored in the ROM 13 in advance) and the amount of solar radiation is after a certain time. It is determined whether or not the value has returned to the value before the change. When the control device 10 (CPU 11) determines that the vehicle speed is equal to or greater than the predetermined value and the solar radiation amount satisfies the condition, the process proceeds to step S22, and when the vehicle speed is equal to or greater than the predetermined value and the solar radiation amount does not determine that the condition is satisfied. Advances to step S23.

車両がトンネルを通過した場合、車速が所定値以上で、日射量の変化量が所定値以上、且つ日射量が一定時間後に変化する前の値に戻ることになる。また、自車両の前方の障害物は、日射量が定常値に戻ることから除外できる。   When the vehicle passes through the tunnel, the vehicle speed is equal to or higher than a predetermined value, the change amount of the solar radiation amount is equal to or higher than the predetermined value, and the solar radiation amount returns to the value before the change after a certain time. In addition, obstacles ahead of the host vehicle can be excluded because the amount of solar radiation returns to a steady value.

このようにすることによって、車両がトンネルを通過した場合に、車両状態(車両周辺の明るさ)が突発的に変化したと推定することができる。また、これによって、トンネル通過時の日射量(光量)変化による輝度ズレからの特徴点の誤追跡を防ぎ、車両制御の誤動作を防ぐことができる。なお、ここでは、日射量の条件として、日射量の変化量が所定値(例えば日の出時の日射量と日没後の日射量との差)以上、且つ日射量が一定時間後に変化する前の値(定常値)に戻ったことを一例として採用した。しかしながら、この他にも、車両がトンネルを通過したことを判定可能な条件であれば採用することができる。   In this way, when the vehicle passes through the tunnel, it can be estimated that the vehicle state (brightness around the vehicle) has suddenly changed. In addition, this makes it possible to prevent erroneous tracking of feature points from luminance deviation due to changes in the amount of solar radiation (light quantity) when passing through the tunnel, and to prevent malfunction of vehicle control. Here, as a condition for the amount of solar radiation, the amount of change in the amount of solar radiation is a predetermined value (for example, the difference between the amount of solar radiation at sunrise and the amount of solar radiation after sunset), and the value before the amount of solar radiation changes after a certain period of time. The return to (steady value) was adopted as an example. However, in addition to this, any conditions that can determine that the vehicle has passed through the tunnel can be adopted.

(変形例3)
なお、上述の実施形態においては、車両状態を推定する際に(車両状態推定処理)、加速度情報と音情報とを用いる例を採用したが、本発明はこれに限定されるものではない。例えば、3軸加速度情報と車速情報とを用いることもできる(変形例3)。なお、変形例3の構成や基本的な処理動作は、上述の実施形態と略同じであるため詳しい説明は省略する。よって、変形例3の制御装置10は、上述の実施形態と同様に、図2のフローチャートに示す処理を行う。変形例3における制御装置10は、鉛直方向、進行方向、及び鉛直方向と進行方向に対する直交方向(3軸方向)の夫々の加速度を示す加速度情報と、車両の車速を示す車速情報を取得する点で、上述の実施形態と異なるものである。例えば、制御装置10は、第1ECU30から加速度情報を取得するとともに、第3ECU50から車速情報を取得する。
(Modification 3)
In the above-described embodiment, an example in which acceleration information and sound information are used when estimating the vehicle state (vehicle state estimation processing) is adopted, but the present invention is not limited to this. For example, triaxial acceleration information and vehicle speed information can also be used (Modification 3). Note that the configuration and basic processing operations of Modification 3 are substantially the same as those in the above-described embodiment, and thus detailed description thereof is omitted. Therefore, the control apparatus 10 of the modification 3 performs the process shown to the flowchart of FIG. 2 similarly to the above-mentioned embodiment. The control device 10 in Modification 3 acquires acceleration information indicating acceleration in the vertical direction, the traveling direction, and the orthogonal direction (three-axis direction) with respect to the vertical direction and the traveling direction, and vehicle speed information indicating the vehicle speed of the vehicle. Thus, this embodiment is different from the above-described embodiment. For example, the control device 10 acquires acceleration information from the first ECU 30 and also acquires vehicle speed information from the third ECU 50.

ここで、図8に基づいて、変形例3の制御装置10が実行する車両状態推定処理に関して説明する。変形例3の制御装置10は、図2のステップS10での画像データ取得処理が終わると、図8に示す車両状態推定処理を実行する。   Here, based on FIG. 8, the vehicle state estimation process which the control apparatus 10 of the modification 3 performs is demonstrated. The control apparatus 10 of the modification 3 will perform the vehicle state estimation process shown in FIG. 8, after the image data acquisition process in step S10 of FIG.

図8のステップS207では、車両状態が突発的に変化したか否かを推定するために、加速度情報取得処理を実行する。制御装置10(CPU11)は、第1ECU30から3軸方向の夫々の加速度情報を取得する(第7取得手段)。   In step S207 of FIG. 8, an acceleration information acquisition process is executed to estimate whether or not the vehicle state has suddenly changed. The control device 10 (CPU 11) acquires each acceleration information in the three-axis directions from the first ECU 30 (seventh acquisition means).

図8のステップS208では、車両状態が突発的に変化したか否かを推定するために、車速情報取得処理を実行する。制御装置10(CPU11)は、第3ECU50から車速情報を取得する(第8取得手段)。   In step S208 of FIG. 8, vehicle speed information acquisition processing is executed to estimate whether or not the vehicle state has suddenly changed. The control device 10 (CPU 11) acquires vehicle speed information from the third ECU 50 (eighth acquisition means).

図8のステップS21cでは、加速度が所定値(例えば地球G)以上且つ車速が0(ゼロ)であるか否かを判定する。制御装置10(CPU11)は、ステップS207で取得した加速度情報が示す加速度が所定値(予めROM13に記憶された所定値(閾値))以上であるか否か、及び、ステップS208で取得した車速情報がゼロであるか否かを判定する。そして、制御装置10(CPU11)は、3軸方向の加速度のうちいずれか一つの加速度が所定値以上且つ車速がゼロである判定した場合はステップS22へ進み、3軸方向の加速度のうちいずれか一つの加速度が所定値以上且つ車速がゼロであると判定しなかった場合はステップS23へ進む。なお、加速度情報の比較対象である所定値は、車体への追突、又は車両若しくはカメラ20の盗難などのために衝撃が印加されたことを判定可能な値である。   In step S21c of FIG. 8, it is determined whether or not the acceleration is equal to or higher than a predetermined value (for example, Earth G) and the vehicle speed is 0 (zero). The control device 10 (CPU 11) determines whether or not the acceleration indicated by the acceleration information acquired in step S207 is equal to or greater than a predetermined value (predetermined value (threshold value) stored in the ROM 13 in advance), and the vehicle speed information acquired in step S208. Whether or not is zero. When the controller 10 (CPU 11) determines that any one of the accelerations in the three-axis directions is equal to or greater than the predetermined value and the vehicle speed is zero, the control device 10 (CPU 11) proceeds to step S22 and selects one of the accelerations in the three-axis directions. If it is not determined that one acceleration is equal to or greater than a predetermined value and the vehicle speed is zero, the process proceeds to step S23. The predetermined value, which is a comparison target of acceleration information, is a value that can determine that an impact has been applied due to a rear-end collision with the vehicle body or the vehicle or the camera 20 being stolen.

図8のステップS22では、制御装置10(CPU11)は、車両状態が突発的に変化したと判定する。一方、図8のステップS23では、制御装置10(CPU11)は、車両状態が突発的に変化してないと判定する。このように、車両状態が突発的に変化したか否かの判定を行うと、図2のフローチャートにおけるステップS30へ戻る。   In step S22 of FIG. 8, the control device 10 (CPU 11) determines that the vehicle state has suddenly changed. On the other hand, in step S23 of FIG. 8, the control device 10 (CPU 11) determines that the vehicle state has not changed suddenly. Thus, when it is determined whether or not the vehicle state has suddenly changed, the process returns to step S30 in the flowchart of FIG.

車両が停車中に、カメラ20若しくは車体に衝撃が印加(例えば、車体への追突、又は車両若しくはカメラ20の盗難などのために衝撃が印加)された場合、車速がゼロで且つ鉛直方向、進行方向、及び鉛直方向と進行方向に対する直交方向の少なくとも一つの方向への加速度が所定値以上となる。よって、このようにすることによって、車両が停車中に、カメラ20若しくは車体に衝撃が印加された場合に、車両状態が突発的に変化したと推定することができる。また、これによって、車両が停車中に車両制御の誤動作を抑制することができる。   When the vehicle is stopped, if an impact is applied to the camera 20 or the vehicle body (for example, an impact is applied due to a collision with the vehicle body or the vehicle or the camera 20 being stolen), the vehicle speed is zero and the vehicle travels in the vertical direction. The acceleration in the direction and at least one direction perpendicular to the vertical direction and the traveling direction is a predetermined value or more. Therefore, by doing in this way, when an impact is applied to the camera 20 or the vehicle body while the vehicle is stopped, it can be estimated that the vehicle state has suddenly changed. In addition, this makes it possible to suppress malfunction of vehicle control while the vehicle is stopped.

(変形例4)
なお、上述の実施形態においては、車両状態を推定する際に(車両状態推定処理)、加速度情報と音情報とを用いる例を採用したが、本発明はこれに限定されるものではない。例えば、3軸加速度情報と音速情報とを用いることもできる(変形例4)。なお、変形例4の構成や基本的な処理動作は、上述の実施形態と略同じであるため詳しい説明は省略する。よって、変形例4の制御装置10は、上述の実施形態と同様に、図2のフローチャートに示す処理を行う。変形例4における制御装置10は、車両の鉛直方向、進行方向、及び鉛直方向と進行方向に対する直交方向(3軸方向)の夫々の加速度を示す加速度情報を取得する点で、上述の実施形態と異なるものである。例えば、制御装置10は、第1ECU30から加速度情報を取得する。
(Modification 4)
In the above-described embodiment, an example in which acceleration information and sound information are used when estimating the vehicle state (vehicle state estimation processing) is adopted, but the present invention is not limited to this. For example, triaxial acceleration information and sound speed information can also be used (Modification 4). Note that the configuration and basic processing operations of the modification 4 are substantially the same as those in the above-described embodiment, and thus detailed description thereof is omitted. Therefore, the control apparatus 10 of the modification 4 performs the process shown to the flowchart of FIG. 2 similarly to the above-mentioned embodiment. The control device 10 according to the modified example 4 obtains acceleration information indicating the acceleration in the vertical direction of the vehicle, the traveling direction, and each of the vertical direction and the direction orthogonal to the traveling direction (three-axis direction). Is different. For example, the control device 10 acquires acceleration information from the first ECU 30.

ここで、図9に基づいて、変形例3の制御装置10が実行する車両状態推定処理に関して説明する。変形例4の制御装置10は、図2のステップS10での画像データ取得処理が終わると、図9に示す車両状態推定処理を実行する。   Here, based on FIG. 9, the vehicle state estimation process which the control apparatus 10 of the modification 3 performs is demonstrated. The control apparatus 10 of the modification 4 will perform the vehicle state estimation process shown in FIG. 9, if the image data acquisition process in step S10 of FIG. 2 is completed.

図9のステップS209では、車両状態が突発的に変化したか否かを推定するために、加速度情報取得処理を実行する。制御装置10(CPU11)は、第1ECU30から3軸方向の夫々の加速度情報を取得する(第9取得手段)。   In step S209 of FIG. 9, an acceleration information acquisition process is executed in order to estimate whether or not the vehicle state has suddenly changed. The control device 10 (CPU 11) acquires each acceleration information in the three-axis directions from the first ECU 30 (ninth acquisition means).

図9のステップS210では、車両状態が突発的に変化したか否かを推定するために、音情報取得処理を実行する。制御装置10(CPU11)は、第2ECU40から音情報を取得する(第10取得手段)。   In step S210 of FIG. 9, sound information acquisition processing is executed to estimate whether or not the vehicle state has suddenly changed. The control device 10 (CPU 11) acquires sound information from the second ECU 40 (tenth acquisition means).

図9のステップS21dでは、加速度が所定値以上且つ衝突音があるか否かを判定する。制御装置10(CPU11)は、ステップS209で取得した加速度情報が示す加速度が所定値(予めROM13に記憶された所定値(閾値))以上であるか否か、及び、ステップS210で取得した音情報に衝突音が含まれているか否かを判定する。そして、制御装置10(CPU11)は、3軸方向の加速度のうちいずれか一つの加速度が所定値以上且つ衝突音がある判定した場合はステップS22へ進み、3軸方向の加速度のうちいずれか一つの加速度が所定値以上且つ衝突音があると判定しなかった場合はステップS23へ進む。なお、加速度情報の比較対象である所定値は、車体への追突されたことを判定可能な値である。   In step S21d of FIG. 9, it is determined whether or not the acceleration is equal to or greater than a predetermined value and there is a collision sound. The control device 10 (CPU 11) determines whether or not the acceleration indicated by the acceleration information acquired in step S209 is greater than or equal to a predetermined value (predetermined value (threshold value) previously stored in the ROM 13), and the sound information acquired in step S210. It is determined whether or not a collision sound is included. If the control device 10 (CPU 11) determines that any one of the accelerations in the three-axis directions is equal to or greater than the predetermined value and that there is a collision sound, the control device 10 (CPU 11) proceeds to step S22, and any one of the accelerations in the three-axis directions. If it is not determined that one acceleration is equal to or greater than the predetermined value and there is a collision sound, the process proceeds to step S23. The predetermined value, which is a comparison target of acceleration information, is a value that can determine that the vehicle has collided with the vehicle body.

図9のステップS22では、制御装置10(CPU11)は、車両状態が突発的に変化したと判定する。一方、図9のステップS23では、制御装置10(CPU11)は、車両状態が突発的に変化してないと判定する。このように、車両状態が突発的に変化したか否かの判定を行うと、図2のフローチャートにおけるステップS30へ戻る。   In step S22 of FIG. 9, the control device 10 (CPU 11) determines that the vehicle state has suddenly changed. On the other hand, in step S23 of FIG. 9, the control device 10 (CPU 11) determines that the vehicle state has not changed suddenly. Thus, when it is determined whether or not the vehicle state has suddenly changed, the process returns to step S30 in the flowchart of FIG.

車両が走行中に、他車両などに追突された場合、車両の外部における衝突音があり、且つ鉛直方向、進行方向、及び鉛直方向と進行方向に対する直交方向の少なくとも一つの方向への加速度が所定値以上となる。よって、このようにすることによって、車両が走行中に、他車両などに追突された場合に、車両状態が突発的に変化したと推定することができる。また、これによって、車両が停走行中に車両制御の誤動作を抑制することができる。   When a vehicle collides with another vehicle while traveling, there is a collision sound outside the vehicle, and acceleration in a vertical direction, a traveling direction, and at least one direction perpendicular to the traveling direction is predetermined. More than the value. Therefore, by doing in this way, when the vehicle is collided with another vehicle or the like while traveling, it can be estimated that the vehicle state has suddenly changed. In addition, this makes it possible to suppress malfunction of vehicle control while the vehicle is stopped.

この変形例4では、制御装置10は、車両の鉛直方向と進行方向に対する直交方向の加速度を示す加速度情報のみが所定値以上で、且つ衝突音があると判定しなかった場合、車両状態が突発的に変化したと判定するようにしてもよい。これによって、ロールによる車両の傾きと層別することができる。   In the fourth modification, when the control device 10 determines that only the acceleration information indicating the acceleration in the direction orthogonal to the vertical direction and the traveling direction of the vehicle is equal to or greater than the predetermined value and that there is a collision sound, the vehicle state suddenly occurs. It may be determined that the change has occurred. This makes it possible to stratify the inclination of the vehicle by the roll.

なお、上述の実施形態においては、ノイズ画像データを補完画像データに置き換える例を採用したが、削除したノイズ画像データの前後の画像データのみを用いて特徴点を抽出するようにしてもよい。   In the above-described embodiment, an example in which noise image data is replaced with complementary image data is used. However, feature points may be extracted using only image data before and after the deleted noise image data.

また、車両に対する鉛直方向、進行方向、鉛直方向と進行方向に対する直交方向、ピッチ方向、ロール方向、ヨー方向のいずれか一つの方向の加速度が、所定値に達した場合に、車両状態が突発的に変化したと判定するようにしてもよい。なお、ピッチ方向とは、車両の左右方向(車幅方向)に伸びる軸(ピッチ軸)を中心軸とした回転方向への加速度である。また、ロール方向とは、車両の進行方向(車両の全長幅方向)に伸びる軸(ロール軸)を中心軸とした回転方向への加速度である。また、ヨー方向とは、地面に対して垂直方向(車両の車高方向)に伸びる軸(ヨー軸)を中心軸とした回転方向への加速度である。ここでの所定値とは、車両が通常走行しているとき、又は、停止しているときに、印加されることがない大きさの加速度(上記複数の方向のうちのいずれか一つの方向の加速度)を示しものである。通常走行とは、異物(石、段差、窪み)を踏んだり、坂道で上下にうねったり、他車両に衝突されたり、障害物に衝突したりすることなく走行している状態。   Also, when the acceleration in any one of the vertical direction with respect to the vehicle, the traveling direction, the orthogonal direction with respect to the vertical direction and the traveling direction, the pitch direction, the roll direction, and the yaw direction reaches a predetermined value, the vehicle state suddenly occurs. You may make it determine with having changed to. The pitch direction is acceleration in the rotational direction with the axis (pitch axis) extending in the left-right direction (vehicle width direction) of the vehicle as the central axis. The roll direction is acceleration in a rotational direction with an axis (roll axis) extending in the traveling direction of the vehicle (the full width direction of the vehicle) as the central axis. The yaw direction is an acceleration in a rotational direction with an axis (yaw axis) extending in a direction perpendicular to the ground (vehicle height direction) as a central axis. The predetermined value here is an acceleration of a magnitude that is not applied when the vehicle is traveling normally or is stopped (in any one of the above directions). Acceleration). Normal travel is a state where the vehicle is traveling without stepping on foreign objects (stones, steps, dents), swelling up and down on a slope, colliding with another vehicle, or colliding with an obstacle.

10 制御装置、11 CPU、12 RAM、13 ROM、14 I/F、20 カメラ、30 第1ECU、40 第2ECU、50 第3ECU   DESCRIPTION OF SYMBOLS 10 Control apparatus, 11 CPU, 12 RAM, 13 ROM, 14 I / F, 20 Camera, 30 1st ECU, 40 2ECU, 50 3ECU

Claims (7)

車両に設置された撮像装置(20)で撮像された複数の画素のデータからなる画像データに基づいて、オプティカルフローを生成する画像処理装置であって、
前記撮像装置(20)で時系列的に撮像された複数の前記画像データを取得する画像データ取得手段(S10)と、
前記車両状態が突発的に変化したことを推定する車両状態推定手段(S20)と、
前記車両状態推定手段(S20)の推定結果に基づいて、前記画像データ取得手段(S10)にて取得された画像データにおいて、前記車両状態が突発的に変化したと推定されたときの画像データをノイズ画像データ、前記車両状態が突発的に変化したと推定されてないときの画像データを正常画像データに区分けする区分手段(S30)と、
正常画像データに基づいて補完画像データを生成し、ノイズ画像データを補完画像データに置き換える補完手段(S50)と、
正常画像データと補完画像データとから特徴点を抽出する特徴点抽出手段(S60)と、
正常画像データ及び補完画像データにおける時間的に連続する画像データおいて、特徴点の位置を追跡処理することによってオプティカルフローを生成するオプティカルフロー生成手段(S70)と、
を備えることを特徴とする画像処理装置。
An image processing device that generates an optical flow based on image data composed of data of a plurality of pixels imaged by an imaging device (20) installed in a vehicle,
Image data acquisition means (S10) for acquiring a plurality of the image data imaged in time series by the imaging device (20);
Vehicle state estimation means (S20) for estimating that the vehicle state has suddenly changed;
Based on the estimation result of the vehicle state estimation means (S20), image data when it is estimated that the vehicle state has suddenly changed in the image data acquired by the image data acquisition means (S10). Noise image data, and classification means (S30) for classifying image data when it is not estimated that the vehicle state has suddenly changed into normal image data;
Complementary means (S50) for generating complementary image data based on the normal image data and replacing the noise image data with the complementary image data;
Feature point extraction means (S60) for extracting feature points from normal image data and complementary image data;
Optical flow generation means (S70) for generating an optical flow by tracking the position of the feature point in the temporally continuous image data in the normal image data and the complementary image data;
An image processing apparatus comprising:
前記車両状態推定手段(S20)は、
前記車両の鉛直方向の加速度を示す加速度情報を取得する第1取得手段(S201)と、
前記車両の外部の音情報を取得する第2取得手段(S202)と、を備え、
加速度が所定値以上で且つ衝突音がない場合、前記車両状態が突発的に変化したと推定することを特徴とする請求項1に記載の画像処理装置。
The vehicle state estimating means (S20)
First acquisition means (S201) for acquiring acceleration information indicating vertical acceleration of the vehicle;
Second acquisition means (S202) for acquiring sound information outside the vehicle,
The image processing apparatus according to claim 1, wherein when the acceleration is equal to or greater than a predetermined value and there is no collision sound, it is estimated that the vehicle state has suddenly changed.
前記車両状態推定手段(S20)は、
前記車両の鉛直方向の加速度を示す加速度情報を取得する第3取得手段(S203)と、
前記車両の車速を示す車速情報を取得する第4取得手段(S204)と、を備え、
加速度が所定値以上で且つ車速が所定範囲内である場合、前記車両状態が突発的に変化したと推定することを特徴とする請求項1に記載の画像処理装置。
The vehicle state estimating means (S20)
Third acquisition means (S203) for acquiring acceleration information indicating the vertical acceleration of the vehicle;
Fourth acquisition means (S204) for acquiring vehicle speed information indicating the vehicle speed of the vehicle,
The image processing apparatus according to claim 1, wherein when the acceleration is equal to or greater than a predetermined value and the vehicle speed is within a predetermined range, it is estimated that the vehicle state has suddenly changed.
前記車両状態推定手段(S20)は、
前記車両に照射される日射量を示す日射情報を取得する第5取得手段(S205)と、
前記車両の車速を示す車速情報を取得する第6取得手段(S206)と、を備え、
車速が所定値以上で、日射量の変化量が所定値以上、且つ日射量が一定時間後に変化する前の値に戻った場合、前記車両状態が突発的に変化したと推定することを特徴とする請求項1に記載の画像処理装置。
The vehicle state estimating means (S20)
Fifth acquisition means (S205) for acquiring solar radiation information indicating the amount of solar radiation irradiated to the vehicle;
Sixth acquisition means (S206) for acquiring vehicle speed information indicating the vehicle speed of the vehicle,
When the vehicle speed is equal to or higher than a predetermined value, the amount of change in the solar radiation amount is equal to or higher than the predetermined value, and the solar radiation amount returns to a value before changing after a certain time, it is estimated that the vehicle state has suddenly changed. The image processing apparatus according to claim 1.
前記車両状態推定手段(S20)は、
前記車両の鉛直方向、進行方向、及び鉛直方向と進行方向に対する直交方向の夫々の加速度を示す加速度情報を取得する第7取得手段(S207)と、
前記車両の車速を示す車速情報を取得する第8取得手段(S208)と、を備え、
少なくとも一つの加速度が所定値以上で且つ車速がゼロの場合、前記車両状態が突発的に変化したと推定することを特徴とする請求項1に記載の画像処理装置。
The vehicle state estimating means (S20)
Seventh acquisition means (S207) for acquiring acceleration information indicating the vertical direction of the vehicle, the traveling direction, and the acceleration in the direction perpendicular to the vertical direction and the traveling direction;
And eighth acquisition means (S208) for acquiring vehicle speed information indicating the vehicle speed of the vehicle,
The image processing apparatus according to claim 1, wherein when at least one acceleration is equal to or greater than a predetermined value and the vehicle speed is zero, it is estimated that the vehicle state has suddenly changed.
前記車両状態推定手段(S20)は、
前記車両の鉛直方向、進行方向、及び鉛直方向と進行方向に対する直交方向の夫々の加速度を示す加速度情報を取得する第9取得手段(S209)と、
前記車両の外部の音情報を取得する第10取得手段(S210)と、を備え、
少なくとも一つの加速度が所定値以上で且つ衝突音があった場合、前記車両状態が突発的に変化したと推定することを特徴とする請求項1に記載の画像処理装置。
The vehicle state estimating means (S20)
Ninth acquisition means (S209) for acquiring acceleration information indicating the vertical direction of the vehicle, the traveling direction, and the acceleration in the direction orthogonal to the vertical direction and the traveling direction;
Tenth acquisition means (S210) for acquiring sound information outside the vehicle,
The image processing apparatus according to claim 1, wherein when at least one acceleration is equal to or greater than a predetermined value and there is a collision sound, it is estimated that the vehicle state has suddenly changed.
前記画像データにおける複数の画素のデータは、各画素の輝度を示す輝度値データを含むものであり、
前記補完手段(S50)は、前記ノイズ画像データの直前に撮像された正常画像データと、直後に撮像された正常画像データとを用いて補完画像データを生成するものであり、直前に撮像された正常画像データと直後に撮像された正常画像データとにける互いに対応する画素同士の輝度値データの平均値である平均輝度値データを算出し、該平均輝度値データを各画素の輝度値データとして、補完画像データを生成することを特徴とする請求項1乃至6のいずれか一項に記載の画像処理装置。
The data of a plurality of pixels in the image data includes luminance value data indicating the luminance of each pixel,
The complementary means (S50) generates complementary image data using normal image data captured immediately before the noise image data and normal image data captured immediately after, and was captured immediately before. Average luminance value data, which is an average value of luminance value data of pixels corresponding to each other in normal image data and normal image data captured immediately after, is calculated, and the average luminance value data is used as luminance value data of each pixel. The image processing apparatus according to claim 1, wherein complementary image data is generated.
JP2011267207A 2011-12-06 2011-12-06 Image processing device Active JP5724859B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011267207A JP5724859B2 (en) 2011-12-06 2011-12-06 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011267207A JP5724859B2 (en) 2011-12-06 2011-12-06 Image processing device

Publications (2)

Publication Number Publication Date
JP2013120446A JP2013120446A (en) 2013-06-17
JP5724859B2 true JP5724859B2 (en) 2015-05-27

Family

ID=48773068

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011267207A Active JP5724859B2 (en) 2011-12-06 2011-12-06 Image processing device

Country Status (1)

Country Link
JP (1) JP5724859B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019220572A1 (en) * 2018-05-16 2019-11-21 三菱電機株式会社 Driving inability detection device and driving inability detection method
CN113361388B (en) * 2021-06-03 2023-11-24 北京百度网讯科技有限公司 Image data correction method and device, electronic equipment and automatic driving vehicle

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3818044B2 (en) * 2000-10-18 2006-09-06 ヤマハ株式会社 Noise removing apparatus, noise removing method, and computer-readable recording medium
JP5251460B2 (en) * 2008-11-28 2013-07-31 富士通株式会社 Approaching object detection device, approaching object detection program, approaching object detection method
JP2011130262A (en) * 2009-12-18 2011-06-30 Honda Motor Co Ltd Apparatus for monitoring surroundings of vehicle

Also Published As

Publication number Publication date
JP2013120446A (en) 2013-06-17

Similar Documents

Publication Publication Date Title
JP5689907B2 (en) Method for improving the detection of a moving object in a vehicle
JP4967666B2 (en) Image processing apparatus and method, and program
US20150367781A1 (en) Lane boundary estimation device and lane boundary estimation method
US7068815B2 (en) Method and apparatus for ground detection and removal in vision systems
US7263209B2 (en) Vehicular vision system
JP5999127B2 (en) Image processing device
JP2008203992A (en) Detection device, method, and program thereof
CN107845290B (en) Intersection warning method, processing system, intersection warning system and vehicle
US20100021010A1 (en) System and Method for detecting pedestrians
JP7091686B2 (en) 3D object recognition device, image pickup device and vehicle
JP2012174117A (en) Mobile object detection device
CN110730966A (en) System and method for pedestrian detection
JP2016194925A (en) Method and device of detecting road boundary object
JP2013003110A (en) Vehicle state detection apparatus
JP2013140515A (en) Solid object detection device and program
JP5516561B2 (en) Vehicle driving support device
JP2008158640A (en) Moving object detection apparatus
JP6069938B2 (en) Pop-up detection device
JP5724859B2 (en) Image processing device
JP7196999B2 (en) Object detection and tracking device, method and program
JP7165353B2 (en) Image feature output device, image recognition device, image feature output program, and image recognition program
JP2008171141A (en) Image processor, method, and program
JP2017182139A (en) Determination apparatus, determination method, and determination program
JP7052265B2 (en) Information processing device, image pickup device, device control system, mobile body, information processing method, and information processing program
JP4151631B2 (en) Object detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140616

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150316

R151 Written notification of patent or utility model registration

Ref document number: 5724859

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250