JP2013147114A - Surrounding environment acquisition device and suspension control device - Google Patents

Surrounding environment acquisition device and suspension control device Download PDF

Info

Publication number
JP2013147114A
JP2013147114A JP2012008355A JP2012008355A JP2013147114A JP 2013147114 A JP2013147114 A JP 2013147114A JP 2012008355 A JP2012008355 A JP 2012008355A JP 2012008355 A JP2012008355 A JP 2012008355A JP 2013147114 A JP2013147114 A JP 2013147114A
Authority
JP
Japan
Prior art keywords
region
road surface
vehicle
imaging
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012008355A
Other languages
Japanese (ja)
Inventor
Haruhiko Sugai
晴彦 菅井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2012008355A priority Critical patent/JP2013147114A/en
Publication of JP2013147114A publication Critical patent/JP2013147114A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Vehicle Body Suspensions (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To quickly acquire a road surface state forward of a vehicle in a road surface state detection device.SOLUTION: A lot of time is required for performing processing on all imaging devices corresponding to a subject to be captured in an imaging region SR to form images. When a vehicle body is in a reference attitude, processing is performed on imaging devices belonging to a reference region R0. When the vehicle body is inclined forward, processing is performed on imaging devices belonging to braking regions Ru, Rua. When the vehicle body is inclined backward, processing is performed on imaging devices belonging to driving regions Rd, Rda. As a result, the time required for forming images can be shortened, and the road surface state can be quickly acquired as compared with a case where processing is always performed on all the imaging devices belonging to the imaging region SR.

Description

本発明は、撮像装置によって撮像され、形成された画像に基づいて車両の周辺の環境を取得する周辺環境取得装置に関するものである。   The present invention relates to a surrounding environment acquisition device that acquires an environment around a vehicle based on an image captured and formed by an imaging device.

特許文献1に記載の路面状態検出装置においては、照射体によって格子状のレーザ光が照射され、カメラによって格子状のパターンが撮像される。そして、その撮像された画像が処理され、格子の歪みに基づいて路面の凹凸の状態が検出される。
しかし、特許文献1には、車両の状態に基づいて撮像領域や処理領域が決定される旨の記載はない。
In the road surface state detection device described in Patent Document 1, a lattice-shaped laser beam is irradiated by an irradiation body, and a lattice-shaped pattern is imaged by a camera. Then, the captured image is processed, and the road surface unevenness state is detected based on the distortion of the grid.
However, Patent Document 1 does not describe that the imaging region and the processing region are determined based on the state of the vehicle.

特開2008−217267号公報JP 2008-217267 A

本発明の課題は、周辺環境取得装置の改良であり、例えば、車両の周辺の環境を速やかに検出することである。   An object of the present invention is to improve a surrounding environment acquisition device, for example, to quickly detect an environment around a vehicle.

課題を解決するための手段および効果Means and effects for solving the problem

本発明に係る周辺環境取得装置においては、撮像装置の撮像領域と処理領域との少なくとも一方の領域が、車両の状態に基づいて決定される。
例えば、撮像装置がCCDカメラである場合において、撮像領域で決まる被撮像対象物が撮像されると、レンズを経て多数個の撮像素子(CCD)の上に結像され、光学的な画像が形成される。そして、多数個の撮像素子の各々において、光電変換が行われ、変換された電気的信号が読み出されて処理されることにより、被撮像対象物に対応する画像が形成される。被撮像対象物は、多数個の撮像素子に対応する多数個の画素から構成される。
しかし、被撮像対象物に対応する多数個の撮像素子のすべてについて処理が行われるようにすると長時間を要する。
一方、車両の状態によっては、周辺の環境を取得するのに、少なくとも一方の領域が広い方がよい場合や、狭くても差し支えない場合がある。また、撮像領域や処理領域が狭くても、少なくとも一方の領域を移動させることによって周辺の環境を良好に取得できる場合がある。
そこで、車両の状態に基づいて少なくとも一方の領域が拡大、縮小させられるようにしたり、移動させられるようにしたりすれば、周辺の環境を良好に取得しつつ、環境の取得に要する時間をできる限り短くすることができる。
周辺の環境には、車両の前方、側方、後方の少なくとも一部における物体の有無、物体の形状、路面の状態等が該当する。
また、周辺環境取得装置は、(a)自車両の前方の物体の有無、自車両と先行車両との相対速度等を取得して、車両の走行状態(加速、減速)を制御する走行状態制御装置(追従制御装置、衝突防止装置)、(b)自車両の前方の路面の状態を取得して、被制御対象車輪のサスペンションを制御するプレビュー制御、(c)自車両の後方の物体、路面の状態を取得して、運転者のパーキング操作をアシストするパーキングアシスト装置、(d)自車両のコーナー周辺の物体の有無、物体の形状等を取得して、運転者に報知する接近報知装置等に適用することができる。
In the surrounding environment acquisition device according to the present invention, at least one of the imaging region and the processing region of the imaging device is determined based on the state of the vehicle.
For example, in the case where the imaging device is a CCD camera, when an object to be imaged determined by the imaging area is imaged, the image is formed on a large number of imaging elements (CCDs) via a lens to form an optical image. Is done. Then, photoelectric conversion is performed in each of a large number of imaging elements, and the converted electrical signal is read and processed, thereby forming an image corresponding to the object to be imaged. The object to be imaged is composed of a large number of pixels corresponding to a large number of image sensors.
However, it takes a long time if processing is performed for all of a large number of image sensors corresponding to the object to be imaged.
On the other hand, depending on the state of the vehicle, there may be a case where it is preferable that at least one of the regions is wide or a narrow region may be obtained in order to acquire the surrounding environment. Even if the imaging region or the processing region is small, there may be a case where the surrounding environment can be favorably acquired by moving at least one of the regions.
Therefore, if at least one area can be enlarged or reduced or moved based on the state of the vehicle, the time required to acquire the environment can be obtained as much as possible while acquiring the surrounding environment satisfactorily. Can be shortened.
The surrounding environment includes the presence / absence of an object in at least a part of the front, side, and rear of the vehicle, the shape of the object, the road surface condition, and the like.
In addition, the surrounding environment acquisition device (a) acquires the presence / absence of an object ahead of the host vehicle, the relative speed between the host vehicle and the preceding vehicle, and the like, and controls the driving state (acceleration, deceleration) of the vehicle. Devices (follow-up control devices, anti-collision devices), (b) preview control that acquires the condition of the road surface ahead of the host vehicle and controls the suspension of the controlled wheel, (c) objects behind the host vehicle, road surface A parking assist device that assists the driver's parking operation, (d) an approach notification device that acquires the presence or absence of an object around the corner of the host vehicle, the shape of the object, etc., and notifies the driver Can be applied to.

特許請求可能な発明Patentable invention

以下に、本願において特許請求が可能と認識されている発明について説明する。
(1)車両の車体に取り付けられ、撮像領域で決まる被撮像対象物を撮像して、画像を形成する撮像装置を含み、その形成された画像に基づいて前記車両の周辺の環境を取得する周辺環境取得装置であって、
前記撮像装置が、前記被撮像対象物に対応する撮像素子のうち処理領域に属するものについて処理を行って、画像を形成する画像形成部を含み、
当該周辺環境取得装置が、前記撮像領域と前記処理領域との少なくとも一方の領域を、前記車両の状態に基づいて決定する領域決定部を含むことを特徴とする周辺環境取得装置。
車両の状態は、車両の走行状態で表したり、車両の姿勢で表したり、車両に搭載された装置の作動状態や操作部材の操作状態で表したり、路面の状態で表したりすること等ができる。車両の走行状態は、車両に搭載された装置の作動状態、操作部材の操作状態に基づいて決まる場合や、車両が走行する路面の状態に基づいて決まる場合等がある。また、車両の姿勢は、車両の状態で決まることが多い。
撮像領域と処理領域との少なくとも一方の領域が決定されるのであり、(a)決定された撮像領域に属する撮像素子のすべてについて処理が行われる場合、(b)決定された撮像領域のうちの決定された処理領域に属する撮像素子について処理が行われる場合、(c)予め定められた撮像領域のうちの決定された処理領域に属する撮像素子についての処理が行われる場合等がある。
領域決定部は、撮像装置の内部に設けても、撮像装置の外部に設けてもよい。外部に設けられた場合には、領域決定部によって決定された領域を表す情報が撮像装置に供給されて、撮像装置において、その決定された領域で撮像、あるいは、処理が行われる。領域決定部が撮像装置に含まれる場合には、撮像装置に車両の状態を表す情報が供給され、領域が決定される。
(2)前記領域決定部が、前記車両の状態に基づいて前記画像形成部の処理領域を決定する画像処理領域決定部を含む(1)項に記載の周辺環境取得装置。
撮像装置は、撮像領域を変更可能なものであっても、変更不能なものであってもよく、いずれにしても、画像処理領域決定部によって決定された処理領域に属する撮像素子についての処理が行われる。
(3)前記撮像装置が、それの撮像領域を変更不能なものであり、前記画像形成部が、前記撮像領域のうちの前記画像処理領域決定部によって決定された処理領域に属する撮像素子についての処理を行う部分的処理部を含む(2)項に記載の周辺環境取得装置。
撮像領域が変更不能である場合には、画像処理領域決定部によって決定された処理領域に基づいて処理が行われる。
(4)前記撮像装置が、それの撮像領域を変更可能な撮像領域変更部を含み、当該周辺環境取得装置が、前記撮像領域変更部を制御することにより、前記撮像領域を前記領域決定部によって決定された領域に制御する撮像領域制御部を含む(1)項ないし(3)項のいずれか1つに記載の周辺環境取得装置。
撮像領域の変更は、画角の変更と、レンズの向きの変更との少なくとも一方が該当する。
(5)前記領域決定部が、前記少なくとも一方の領域を、前記車両の状態に基づいて、前回決定された少なくとも一方の領域を、(a)面積を同じに保ったまま移動させて得られる領域に決定する手段と、(b)拡大、縮小させて得られる領域に決定する手段と、(c)形状を変えて得られる領域に決定する手段との少なくとも1つを含む(1)項ないし(4)項のいずれか1つに記載の周辺環境取得装置。
面積を保ったまま移動すること、拡大・縮小すること、形状を変えること(例えば、長方形状の領域を台形状の領域に変更すること)等のうちの、1つ、あるいは、2つ以上を組み合わせて、少なくとも一方の領域が決定される。以下、領域の移動、拡大,縮小、形状の変更のうちの少なくとも1つを領域の変更と称する。
また、前回決定された少なくとも一方の領域は、現時点の領域であり、後述する基準領域である場合もある。
(6)前記領域決定部が、前記車両が予め定められた設定範囲内の状態である基準状態である場合に、前記少なくとも一方の領域を基準領域に決定する基準状態時領域決定部を含む(1)項ないし(5)項のいずれか1つに記載の周辺環境取得装置。
車両の基準状態とは、例えば、車両がほぼ定速で、ほぼ平坦な路面をほぼ直進走行している状態とすることができる。すなわち、車体の前後方向の傾斜角度の絶対値が設定ピッチ角度以下(前後方向の加速度の絶対値が設定前後G以下)であり、かつ、横方向の傾斜角度の絶対値が設定ロール角度以下(横加速度の絶対値が設定横G以下)である状態とすることができる。設定前後Gは、通常走行中に行われる駆動、制動によって生じる前後加速度、減速度に基づいて決まる値とすることができ、設定横Gは、通常の旋回により生じる横加速度に基づいて決まる値とすることができる。
基準領域は、例えば、車両の基準状態の範囲内における車体の姿勢の変化、路面の凹凸の変化等に起因して撮像装置のレンズの垂直線が前後方向、左右方向に変化しても、所望の画像が得られる、すなわち、周辺の環境を取得できる領域とすることができる。
(7)前記領域決定部が、前記車体の前後方向の傾斜角度が設定角度以上である場合における前記少なくとも一方の領域を、前記基準領域を前後方向に変更した領域に決定する前後傾斜時領域決定部を含む(6)項に記載の周辺環境取得装置。
撮像装置が車両の前方を撮像可能な姿勢で、車両の前部に搭載され、周辺環境取得装置によって車両の前方の環境が取得される。車体が前後方向に傾斜すると、撮像装置のレンズの垂直線が前方の被撮像対象物に当たる位置が、車両が基準状態にある場合の位置から前後方向にずれる。そのため、撮像領域を前後方向に変更したり、処理領域を撮像領域の前後方向に対応する方向(以下、前後方向と略称する場合がある)に変更したりすれば、姿勢が変化しても、周辺の環境を良好に検出することができる。
少なくとも一方の領域が、基準領域を前方と後方とのいずれか一方に変更して得られた領域としても、前方と後方との両方に変更して得られた領域としてもよい。前方、後方は、それぞれ、車両から遠い方向、車両に近い方向である。
(8)前記前後傾斜時領域決定部が、前記基準領域の前記前方への変更量Δsuを後方への変更量Δsdより小さくする手段を含む(7)項に記載の周辺環境取得装置。
遠近法により、車両から遠い側(前側)と車両に近い側(後側)とで、遠い側は近い側より被撮像対象物が小さく見える。そのため、遠い側への変更量を近い側への変更量より小さくすれば、被撮像対象物についての遠い側への変更量と近い側への変更量との差を小さくすることができる。
(9)前記領域決定部が、前記車両の旋回状態を表す値が設定値以上である場合における前記少なくとも一方の領域を、前記基準領域を左右方向に変更した領域に決定する旋回時領域決定部を含む(6)項ないし(8)項のいずれか1つに記載の周辺環境取得装置。
撮像装置が車両の前方を撮像可能な姿勢で、車両の前部に搭載された場合には、周辺環境取得装置によって車両の前方の環境が取得される。旋回時には遠心力が作用し、車体は旋回外側に傾いた姿勢となる。その結果、撮像装置のレンズの垂直線の被撮像対象物に当たる位置が基準状態における場合の位置から横方向(左右方向)にずれる。そのため、少なくとも一方の領域を、基準領域を横方向に変更して得られる領域とすれば、良好に周辺の環境を取得することができる。
(10)前記撮像装置が、前記車体の、前記車両の左前輪、右前輪にそれぞれ対応する位置に設けられ、前記2つの撮像装置の各々の前記基準領域が、それぞれ、左右方向の幅が、前記左前輪、右前輪の幅に対応する領域とされた(6)項ないし(9)項のいずれか1つに記載の周辺環境取得装置。
基準領域を狭くしておけば、車両の基準状態における画像処理時間を短くすることができ、速やかに周辺の環境を取得することができる。例えば、周辺環境取得装置によって取得された周辺環境がプレビュー制御に利用される場合には、タイヤの幅の路面の状態が取得されるようにすればよい。
(11)当該周辺環境取得装置が、マーカを照射する照射装置を含み、前記撮像領域についての前記基準領域が、前記車両の走行中の予め定められた設定時間の間に前記撮像領域内に前記マーカが位置する比率が設定比率となる最小の領域とされた(6)項ないし(10)項のいずれか1つに記載の周辺環境取得装置。
(12)当該周辺環境取得装置が、マーカを照射する照射装置を含み、前記処理領域についての前記基準領域が、前記車両の走行中の予め定められた設定時間の間に前記画像形成部によって形成された画像中に、前記マーカを表す画像が含まれる比率が設定比率となる最小の領域とされた(6)項ないし(11)項のいずれか1つに記載の周辺環境取得装置。
周辺環境取得装置において、被撮像対象物に対応する画像中のマーカ画像の位置、形状等に基づいて周辺の環境が取得される。そのため、撮像領域内にマーカが位置する比率が設定比率となるように撮像領域の基準領域が決定されること、形成された画像中にマーカ画像が含まれる比率が設定比率となるように処理領域の基準領域が決定されることは望ましい。
マーカは、スポット状を成したものであっても、格子状を成したものであっても、互いに平行な複数のライン状を成したもの等であってもよい。
設定比率は、0.6〜0.9の間の値とすることができる。望ましくは、0.7〜0.85の間の値とすることができ、さらに望ましくは、0.75〜0.8の間の値とすることができる。
(13)当該周辺環境取得装置が、前記車両の状態を、前記車体の姿勢に基づいて取得する姿勢検出装置を含む(1)項ないし(12)項のいずれか1つに記載の周辺環境取得装置。
(14)当該周辺環境取得装置が、前記車両の状態を、前記車両の走行状態に基づいて取得する走行状態検出装置を含む(1)項ないし(13)項のいずれか1つに記載の周辺環境取得装置。
(15)当該周辺環境取得装置が、前記車両の状態を、前記車両に設けられた運転操作部材の操作状態と、前記車両に設けられた車載装置の作動状態との少なくとも一方に基づいて検出する操作・作動状態検出装置を含む(1)項ないし(14)項のいずれか1つに記載の周辺環境取得装置。
例えば、アクセル操作部材の操作に伴い、アクセル開度が設定開度以上である場合には、車両(駆動輪)には駆動装置により設定値以上の駆動力が作用し、前後加速度が設定前後Gより大きい状態にあると考えられる。また、前後方向に傾斜した姿勢(後傾姿勢)にあり、その傾斜角度は設定ピッチ角度より大きい。
ブレーキ操作部材の操作ストロークが設定ストローク以上である場合には、車両には、制動装置により設定値以上の制動力が加えられ、減速度が設定前後Gより大きい(負の加速度の絶対値が設定前後Gより大きい)と考えられる。また、前傾姿勢にあり、その傾斜角度が設定ピッチ角度より大きい。
ステアリング操作部材の操作角度の絶対値が設定操舵角度より大きい場合には、車両には遠心力が作用し、横加速度が設定横Gより大きくなる。また、横方向に傾斜した姿勢にあり、その傾斜角度は設定ロール角度より大きい。
なお、前後方向の加速度は前後Gセンサによって検出することができる。また、前後方向の傾斜角度は、ピッチレイトセンサに基づいて取得したり、前輪側、後輪側のばね上変位に基づいて取得したりすること等ができる。
また、旋回状態にあることは、ヨーレイトセンサの検出値、前輪舵角センサの検出値に基づいて取得することもでき、横方向の傾斜角度は、ロールレイトセンサの検出値に基づいて取得することもできる。
(16)当該周辺環境取得装置が、前記車両の状態を、前記車両が存在する路面の状態に基づいて取得する路面状態取得部を含む(1)項ないし(15)項のいずれか1つに記載の周辺環境取得装置。
車両が走行している路面が悪路であるか良路であるかは、ナビゲーション装置を介して取得することができる。悪路である場合は良路である場合より、車体の姿勢の変化が大きいため、少なくとも一方の領域を広くすることができる。
(17)前記(1)項ないし(16)項のいずれか1つに記載の周辺環境取得装置を含み、その周辺環境取得装置によって取得された前記周辺の環境に基づいて、前記車両の車輪のサスペンションを制御するサスペンション制御装置であって、
前記周辺環境取得装置が、前記車両の前方の路面の状態を検出する路面状態検出装置であり、
当該サスペンション制御装置が、前記路面状態検出装置によって検出された路面の状態に基づいて、その状態が検出された路面の部分より後方に位置する被制御対象車輪のサスペンションを制御するプレビュー制御部を含むことを特徴とするサスペンション制御装置。
周辺環境取得装置によって取得された路面状態に基づいて、後方の被制御対象車輪のサスペンションの制御が行われる場合には、路面状態を速やかに、正確に取得する必要性が高い。それに対して、撮像領域と処理領域との少なくとも一方が車両の状態に基づいて決定されるようにすれば、路面状態を速やかに、正確に取得することができるのであり、プレビュー制御に適している。
(18)前記(1)項ないし(16)項のいずれか1つに記載の周辺環境取得装置を含み、その周辺環境取得装置によって取得された周辺の環境に基づいて、前記車両の走行状態を制御する走行状態制御装置であって、
前記領域決定部が、前記走行状態制御装置の制御に基づいて前記少なくとも一方の領域を決定する制御依拠決定部を含むことを特徴とする走行状態制御装置。
走行状態の制御には、前方車両追従制御、緊急時ブレーキアシスト制御、パーキングアシスト制御、衝突防止制御、サスペンション制御等が該当し、それぞれの制御の目的に基づき、必要な領域について環境が取得される。
(19)レンズを介して撮像された被撮像対象物に対応する撮像素子のうち処理領域に属するものについて処理を行って画像を形成する画像処理装置であって、
前記レンズの向きに基づいて、前記処理領域を決定する処理領域決定部を含むことを特徴とする画像処理装置。
本発明は、広く画像処理装置に適用することができる。被撮像対象物に対するレンズの向きが変わると、所望の画像が得られない場合があるが、それに応じて処理領域が決定されるようにすれば、速やかに、所望の画像を取得することができる。
本項に記載の画像処理装置には、(1)項ないし(18)項に記載の技術的特徴のうち画像処理領域の決定に関する特徴を採用することができる。
(20)撮像領域で決まる被撮像対象物を撮像して、画像を形成する撮像装置を制御する撮像装置制御装置であって、
前記撮像装置が、前記被撮像対象物に対応する撮像素子のうち処理領域に属するものについて処理を行って、画像を形成する画像形成部を含み、
当該撮像装置制御装置が、前記撮像領域と前記処理領域との少なくとも一方の領域を、前記車両の状態に基づいて決定する領域決定部を含むことを特徴とする撮像装置制御装置。
本項に記載の撮像装置制御装置には、(1)項ないし(19)項に記載の技術的特徴のうち画像処理領域の決定に関する特徴を採用することができる。
In the following, the invention recognized as being able to be claimed in the present application will be described.
(1) A periphery that is attached to a vehicle body and includes an imaging device that images an object to be imaged determined by an imaging region and forms an image, and acquires an environment around the vehicle based on the formed image An environment acquisition device,
The imaging apparatus includes an image forming unit that performs processing on an imaging element corresponding to the imaging target object and belongs to a processing region to form an image,
The surrounding environment acquisition apparatus includes an area determination unit that determines at least one of the imaging area and the processing area based on a state of the vehicle.
The state of the vehicle can be represented by the running state of the vehicle, the posture of the vehicle, the operation state of the device mounted on the vehicle, the operation state of the operation member, the state of the road surface, etc. . The traveling state of the vehicle may be determined based on the operating state of the device mounted on the vehicle, the operating state of the operation member, or may be determined based on the state of the road surface on which the vehicle travels. Further, the posture of the vehicle is often determined by the state of the vehicle.
When at least one of the imaging region and the processing region is determined, and (a) when processing is performed for all of the imaging elements belonging to the determined imaging region, (b) of the determined imaging regions When processing is performed for an image sensor belonging to the determined processing area, (c) processing may be performed for an image sensor belonging to the determined processing area among predetermined imaging areas.
The area determination unit may be provided inside the imaging apparatus or outside the imaging apparatus. When provided outside, information representing the region determined by the region determination unit is supplied to the imaging device, and the imaging device performs imaging or processing in the determined region. When the area determination unit is included in the imaging apparatus, information indicating the state of the vehicle is supplied to the imaging apparatus, and the area is determined.
(2) The surrounding environment acquisition device according to (1), wherein the region determination unit includes an image processing region determination unit that determines a processing region of the image forming unit based on a state of the vehicle.
The imaging device may or may not be able to change the imaging area, and in any case, the processing for the imaging elements belonging to the processing area determined by the image processing area determination unit is performed. Done.
(3) The imaging device cannot change its imaging region, and the image forming unit has an imaging element belonging to a processing region determined by the image processing region determination unit of the imaging region. The surrounding environment acquisition device according to item (2), including a partial processing unit that performs processing.
If the imaging area cannot be changed, the process is performed based on the processing area determined by the image processing area determination unit.
(4) The imaging device includes an imaging region changing unit capable of changing an imaging region thereof, and the surrounding environment acquisition device controls the imaging region changing unit, whereby the imaging region is determined by the region determining unit. The surrounding environment acquisition apparatus according to any one of (1) to (3), including an imaging area control unit that controls the determined area.
The change of the imaging region corresponds to at least one of a change of the angle of view and a change of the direction of the lens.
(5) An area obtained by moving the at least one area based on the state of the vehicle, the area determining section moving at least one area previously determined while keeping the area the same. (B) means for determining an area obtained by enlargement or reduction, and (c) means for determining an area obtained by changing the shape. The surrounding environment acquisition device according to any one of items 4).
One or more of moving, expanding / reducing, changing shape (for example, changing a rectangular area to a trapezoidal area), etc. while maintaining the area In combination, at least one region is determined. Hereinafter, at least one of movement, enlargement, reduction, and shape change of an area is referred to as an area change.
Further, at least one of the previously determined areas is a current area, and may be a reference area described later.
(6) The region determination unit includes a reference state time region determination unit that determines the at least one region as a reference region when the vehicle is in a reference state that is in a predetermined setting range. The surrounding environment acquisition device according to any one of items 1) to (5).
The reference state of the vehicle can be, for example, a state in which the vehicle is traveling substantially straight on a substantially flat road surface at a substantially constant speed. That is, the absolute value of the tilt angle in the front-rear direction of the vehicle body is equal to or less than the set pitch angle (the absolute value of acceleration in the front-rear direction is equal to or less than G before and after setting), and the absolute value of the lateral tilt angle is equal to or less than the set roll angle ( The absolute value of the lateral acceleration can be set to a state equal to or less than the set lateral G). The set longitudinal G can be a value determined based on the longitudinal acceleration and deceleration generated by driving and braking performed during normal traveling, and the set lateral G is a value determined based on the lateral acceleration generated by normal turning. can do.
The reference area is desired even if the vertical line of the lens of the imaging device changes in the front-rear direction and the left-right direction due to, for example, a change in the posture of the vehicle body within the range of the reference state of the vehicle, a change in the unevenness of the road surface, etc. That is, it is possible to obtain an area where the surrounding environment can be obtained.
(7) Area determination at the time of front / rear inclination in which the area determination unit determines the at least one area when the inclination angle in the front / rear direction of the vehicle body is equal to or larger than a set angle as an area in which the reference area is changed in the front / rear direction. The surrounding environment acquisition device according to item (6) including a section.
The imaging device is mounted on the front portion of the vehicle in a posture capable of imaging the front of the vehicle, and the environment in front of the vehicle is acquired by the surrounding environment acquisition device. When the vehicle body is tilted in the front-rear direction, the position where the vertical line of the lens of the imaging device hits the front object to be imaged is shifted in the front-rear direction from the position when the vehicle is in the reference state. Therefore, even if the posture is changed by changing the imaging region in the front-rear direction, or changing the processing region in a direction corresponding to the front-rear direction of the imaging region (hereinafter sometimes referred to as the front-rear direction), The surrounding environment can be detected well.
At least one of the regions may be a region obtained by changing the reference region to one of the front and the rear, or a region obtained by changing both the front and the rear. The front and rear are respectively a direction far from the vehicle and a direction close to the vehicle.
(8) The surrounding environment acquisition apparatus according to (7), wherein the forward / backward tilt area determination unit includes means for making the forward change amount Δsu of the reference area smaller than the backward change amount Δsd.
By the perspective method, on the far side (front side) from the vehicle and the side close to the vehicle (rear side), the object to be imaged looks smaller on the far side than on the near side. Therefore, if the amount of change to the far side is made smaller than the amount of change to the near side, the difference between the change amount to the far side and the change amount to the near side of the object to be imaged can be reduced.
(9) A turning time region determining unit that determines the at least one region when the value representing the turning state of the vehicle is greater than or equal to a set value as a region in which the reference region is changed in the left-right direction. The surrounding environment acquisition device according to any one of (6) to (8).
When the imaging device is mounted in the front part of the vehicle in a posture capable of imaging the front of the vehicle, the environment in front of the vehicle is acquired by the surrounding environment acquisition device. Centrifugal force acts during turning, and the vehicle body is inclined to the outside of the turning. As a result, the position where the vertical line of the lens of the image capturing apparatus hits the object to be imaged is shifted laterally (left and right) from the position in the reference state. Therefore, if at least one of the areas is an area obtained by changing the reference area in the horizontal direction, the surrounding environment can be obtained satisfactorily.
(10) The imaging device is provided at a position of the vehicle body corresponding to the left front wheel and the right front wheel of the vehicle, and the reference regions of the two imaging devices have widths in the left-right direction, The surrounding environment acquisition device according to any one of (6) to (9), wherein the area corresponds to a width of the left front wheel and the right front wheel.
If the reference area is narrowed, the image processing time in the reference state of the vehicle can be shortened, and the surrounding environment can be acquired quickly. For example, when the surrounding environment acquired by the surrounding environment acquisition apparatus is used for preview control, the road surface state of the tire width may be acquired.
(11) The surrounding environment acquisition device includes an irradiation device that irradiates a marker, and the reference region for the imaging region is within the imaging region during a predetermined set time during travel of the vehicle. The surrounding environment acquisition device according to any one of items (6) to (10), wherein a ratio in which the marker is positioned is a minimum region in which the setting ratio is set.
(12) The surrounding environment acquisition device includes an irradiation device that irradiates a marker, and the reference region for the processing region is formed by the image forming unit during a predetermined set time during traveling of the vehicle. The surrounding environment acquisition device according to any one of items (6) to (11), wherein a ratio in which the image representing the marker is included in the set image is a minimum region in which the setting ratio is set.
In the surrounding environment acquisition device, the surrounding environment is acquired based on the position, shape, and the like of the marker image in the image corresponding to the object to be imaged. Therefore, the reference area of the imaging area is determined so that the ratio of the marker located in the imaging area becomes the setting ratio, and the processing area so that the ratio of the marker image included in the formed image becomes the setting ratio. It is desirable that the reference region of
The marker may have a spot shape, a lattice shape, or a plurality of parallel lines.
The setting ratio can be a value between 0.6 and 0.9. Desirably, it can be a value between 0.7 and 0.85, and more desirably, it can be a value between 0.75 and 0.8.
(13) The surrounding environment acquisition device according to any one of (1) to (12), wherein the surrounding environment acquisition device includes an attitude detection device that acquires the state of the vehicle based on an attitude of the vehicle body. apparatus.
(14) The surroundings according to any one of (1) to (13), wherein the surrounding environment acquisition device includes a traveling state detection device that acquires the state of the vehicle based on the traveling state of the vehicle. Environment acquisition device.
(15) The surrounding environment acquisition device detects the state of the vehicle based on at least one of an operation state of a driving operation member provided in the vehicle and an operation state of an in-vehicle device provided in the vehicle. The surrounding environment acquisition device according to any one of items (1) to (14), including an operation / operation state detection device.
For example, when the accelerator opening is greater than or equal to a set opening as the accelerator operating member is operated, a driving force greater than a set value is applied to the vehicle (driving wheel) by the driving device, and the longitudinal acceleration is set to It is considered to be in a larger state. Moreover, it exists in the attitude | position inclined in the front-back direction (backward inclination attitude | position), and the inclination angle is larger than a setting pitch angle.
When the operation stroke of the brake operation member is equal to or greater than the set stroke, the braking force greater than the set value is applied to the vehicle by the braking device, and the deceleration is greater than before and after the set G (the absolute value of the negative acceleration is set). It is thought that it is larger than front and rear G). Moreover, it is in a forward tilting posture, and the tilt angle is larger than the set pitch angle.
When the absolute value of the operation angle of the steering operation member is larger than the set steering angle, centrifugal force acts on the vehicle, and the lateral acceleration becomes larger than the set lateral G. Moreover, it exists in the attitude | position inclined in the horizontal direction, and the inclination angle is larger than a setting roll angle.
The longitudinal acceleration can be detected by a longitudinal G sensor. In addition, the inclination angle in the front-rear direction can be acquired based on a pitch rate sensor, or can be acquired based on front-side and rear-wheel sprung displacements.
Further, the fact that the vehicle is in a turning state can also be acquired based on the detection value of the yaw rate sensor and the detection value of the front wheel steering angle sensor, and the inclination angle in the horizontal direction can be acquired based on the detection value of the roll rate sensor. You can also.
(16) The surrounding environment acquisition device includes a road surface state acquisition unit that acquires the state of the vehicle based on a state of a road surface on which the vehicle exists. The ambient environment acquisition device described.
Whether the road surface on which the vehicle is traveling is a bad road or a good road can be acquired via the navigation device. Since the change in the posture of the vehicle body is larger when the road is rough than when the road is good, at least one area can be widened.
(17) including the surrounding environment acquisition device according to any one of (1) to (16), and based on the surrounding environment acquired by the surrounding environment acquisition device, A suspension control device for controlling a suspension,
The surrounding environment acquisition device is a road surface state detection device that detects a state of a road surface in front of the vehicle,
The suspension control device includes a preview control unit that controls the suspension of the wheel to be controlled located behind the portion of the road surface where the state is detected based on the road surface state detected by the road surface state detection device. A suspension control apparatus characterized by the above.
When the suspension of the rear controlled wheel is controlled based on the road surface state acquired by the surrounding environment acquisition device, it is highly necessary to quickly and accurately acquire the road surface state. On the other hand, if at least one of the imaging region and the processing region is determined based on the state of the vehicle, the road surface state can be acquired quickly and accurately, which is suitable for preview control. .
(18) The surrounding environment acquisition device according to any one of (1) to (16) is included, and the traveling state of the vehicle is determined based on the surrounding environment acquired by the surrounding environment acquisition device. A running state control device for controlling,
The travel state control device, wherein the region determination unit includes a control dependence determination unit that determines the at least one region based on control of the travel state control device.
Driving state control includes forward vehicle following control, emergency brake assist control, parking assist control, anti-collision control, suspension control, etc., and the environment is acquired for the necessary area based on the purpose of each control. .
(19) An image processing apparatus that forms an image by performing processing on an image sensor corresponding to an object to be imaged imaged through a lens and belonging to a processing region,
An image processing apparatus comprising: a processing region determining unit that determines the processing region based on an orientation of the lens.
The present invention can be widely applied to image processing apparatuses. If the orientation of the lens relative to the object to be imaged changes, a desired image may not be obtained. However, if the processing area is determined accordingly, the desired image can be acquired quickly. .
In the image processing apparatus described in this section, it is possible to employ the characteristics relating to the determination of the image processing area among the technical characteristics described in the sections (1) to (18).
(20) An imaging apparatus control apparatus that controls an imaging apparatus that images an object to be imaged determined by an imaging area and forms an image,
The imaging apparatus includes an image forming unit that performs processing on an imaging element corresponding to the imaging target object and belongs to a processing region to form an image,
The imaging apparatus control apparatus includes an area determination unit that determines at least one of the imaging area and the processing area based on a state of the vehicle.
The imaging device control apparatus described in this section can employ the characteristics relating to the determination of the image processing area among the technical characteristics described in the sections (1) to (19).

実施例1に係るサスペンション制御装置が搭載された車両全体を概念的に示す図である。上記サスペンション制御装置には、周辺環境取得装置としての路面状態検出装置が含まれる。1 is a diagram conceptually illustrating an entire vehicle on which a suspension control device according to a first embodiment is mounted. FIG. The suspension control device includes a road surface state detection device as a surrounding environment acquisition device. (a)上記車両の平面図である。(b)上記サスペンション制御装置を概念的に示す図である。(a) It is a top view of the said vehicle. (b) It is a figure which shows notionally the said suspension control apparatus. 上記車両の側面図であり、上記路面状態検出装置に含まれる照射装置、撮像装置の取付位置、取付角度を説明するための図である。(a)適切な取付状態を示す図である。(b)不適切な取付状態を示す図である。It is a side view of the said vehicle, and is a figure for demonstrating the irradiation apparatus contained in the said road surface state detection apparatus, the attachment position of an imaging device, and an attachment angle. (a) It is a figure which shows an appropriate attachment state. (b) It is a figure which shows an improper attachment state. 太陽光に含まれる光の波長とエネルギとの関係を示す図である。It is a figure which shows the relationship between the wavelength of the light contained in sunlight, and energy. (a)地球に届く太陽光の状態を示す図である。(b)車両が存在する緯度と上記照射装置のゲインとの関係であるゲイン決定テーブルを表すマップである。(a) It is a figure which shows the state of the sunlight which reaches the earth. (b) It is a map showing the gain determination table which is the relationship between the latitude in which a vehicle exists, and the gain of the said irradiation apparatus. (a)上記照射装置の構造を概念的に示す図である。(b)上記サスペンション制御装置のサスペンションECUの記憶部に記憶された照射装置制御プログラムを表すフローチャートである。(c)上記照射装置のマーカ出力制御部の記憶部に記憶されたレーザ光出力プログラムを表すフローチャートである。(a) It is a figure which shows notionally the structure of the said irradiation apparatus. (b) It is a flowchart showing the irradiation apparatus control program memorize | stored in the memory | storage part of suspension ECU of the said suspension control apparatus. (c) It is a flowchart showing the laser beam output program memorize | stored in the memory | storage part of the marker output control part of the said irradiation apparatus. 上記路面状態検出装置における路面状態の検出原理を説明するための図である。(a)車両の姿勢が基準姿勢にある場合の照射装置の光軸、カメラの垂直軸とを示す図である。(b)レーザ光が点Pに当たった場合にカメラから見えるマーカの位置、形成された画像中のマーカ画像の位置を示す図である。(c)レーザ光が点P1に当たった場合のカメラから見えるマーカの位置、形成された画像中のマーカ画像の位置を示す図である。(d)レーザ光が点P2に当たった場合のカメラから見えるマーカの位置、形成された画像中のマーカ画像の位置を示す図である。It is a figure for demonstrating the detection principle of the road surface state in the said road surface state detection apparatus. (a) It is a figure which shows the optical axis of the irradiation apparatus in case the attitude | position of a vehicle is in a reference | standard attitude | position, and the vertical axis | shaft of a camera. (b) It is a figure which shows the position of the marker seen from a camera when a laser beam hits the point P, and the position of the marker image in the formed image. (c) It is a figure which shows the position of the marker seen from a camera when a laser beam hits the point P1, and the position of the marker image in the formed image. (d) It is a figure which shows the position of the marker seen from a camera when a laser beam hits the point P2, and the position of the marker image in the formed image. (a)WD(ワーキングディスタンス)とマーカ画像の直径との関係を表すWD決定テーブルを表すマップであり、(b)WDと比率kとの関係を表す比率決定テーブルを表すマップである。(a) A map representing a WD determination table representing the relationship between WD (working distance) and the diameter of the marker image, and (b) a map representing a ratio determining table representing the relationship between WD and ratio k. 上記路面状態検出装置において、ばね上部の変位、前後方向の傾斜に起因して照射装置、カメラの路面からの取付高さ、取付角度が変化した場合の、路面状態の検出原理を説明するための図である。In the above road surface state detection device, for explaining the detection principle of the road surface state when the mounting height from the road surface of the irradiation device, the camera, and the mounting angle change due to the displacement of the upper part of the spring and the inclination in the front-rear direction. FIG. (a)上記サスペンションECUの記憶部に記憶された路面状態検出プログラムを表すフローチャートである。(b)上記カメラの画像形成部の記憶部に記憶された画像形成プログラムを表すフローチャートである。(a) It is a flowchart showing the road surface state detection program memorize | stored in the memory | storage part of the said suspension ECU. (b) It is a flowchart showing the image formation program memorize | stored in the memory | storage part of the image formation part of the said camera. 上記サスペンションECUの記憶部に記憶されたプレビュー制御プログラムを表すフローチャートである。It is a flowchart showing the preview control program memorize | stored in the memory | storage part of the said suspension ECU. (a)上記カメラの構造を概念的に示す図である。(b)上記カメラによる撮像領域を示す図である。(c)上記撮像領域で決まる被撮像対象物に対応する画像の大きさを示す図である。(a) It is a figure which shows notionally the structure of the said camera. (b) It is a figure which shows the imaging area by the said camera. (c) It is a figure which shows the magnitude | size of the image corresponding to the to-be-photographed target object decided by the said imaging area. 車両が基準姿勢にある場合の(a)撮像領域を示す図である。(b)処理領域を示す図である。It is a figure which shows the (a) imaging region in case a vehicle exists in a reference attitude. (b) It is a figure which shows a process area | region. (a)車両が前後方向に傾斜した姿勢にある場合のマーカの位置を示す図である。(b)前傾姿勢の場合の処理領域を示す図である。(c)後傾姿勢にある場合の処理領域を示す図である。(a) It is a figure which shows the position of the marker when a vehicle exists in the attitude | position inclined in the front-back direction. (b) It is a figure which shows the process area | region in the case of a forward leaning attitude | position. (c) It is a figure which shows the process area | region in the case of being in a back leaning posture. (a)車両が旋回時している場合のマーカの位置を示す図である。(b)右旋回時の処理領域を示す図である。(c)左旋回時の処理領域を示す図である。(a) It is a figure which shows the position of the marker when the vehicle is turning. (b) It is a figure which shows the process area | region at the time of right turn. (c) It is a figure which shows the process area | region at the time of left turn. 上記路面状態検出プログラムの一部(処理領域決定)を表すフローチャートである。It is a flowchart showing a part (processing area determination) of the said road surface state detection program. (a)上記路面状態検出装置の照射装置やカメラのレンズが汚れた場合にマーカ画像の面積が変化する状態を示した図である。(b)面積の正常範囲を示す図である。(a) It is the figure which showed the state from which the area of a marker image changes, when the irradiation apparatus of the said road surface state detection apparatus and the lens of a camera become dirty. (b) It is a figure which shows the normal range of an area. 上記照射装置やカメラのレンズが汚れた場合に生じるマーカ画像の形状のゆがみを示す図である。It is a figure which shows the distortion of the shape of the marker image produced when the lens of the said irradiation apparatus or a camera becomes dirty. 上記照射装置やカメラのレンズが汚れた場合に、色に関連する値が変化する状態を示す図である。It is a figure which shows the state from which the value relevant to a color changes, when the lens of the said irradiation apparatus or a camera becomes dirty. 上記サスペンションECUの記憶部に記憶された汚れ検出プログラムを表すフローチャートである。It is a flowchart showing the dirt detection program memorize | stored in the memory | storage part of the said suspension ECU. (a)実施例2に係るサスペンション制御装置に含まれるばね上変位取得部の構造およびばね上変位を検出するのに用いられる行列式の内容を示す図である。(b)ばね上変位を取得するために用いられるオブザーバの構造を示す図である。(a) It is a figure which shows the content of the determinant used for detecting the structure of the sprung displacement acquisition part contained in the suspension control apparatus based on Example 2, and a sprung displacement. (b) It is a figure which shows the structure of the observer used in order to acquire a sprung displacement. 実施例3に係るサスペンション制御装置に含まれる照射装置から照射されるレーザ光線のスポット形状を示す図である。It is a figure which shows the spot shape of the laser beam irradiated from the irradiation apparatus contained in the suspension control apparatus which concerns on Example 3. FIG. (a)実施例4に係るサスペンション制御装置のサスペンションECUの記憶部に記憶された照射装置制御プログラムを表すフローチャートである。(b)上記サスペンションECUの記憶部に記憶された別のゲイン決定テーブルを表すマップである。(a) It is a flowchart showing the irradiation apparatus control program memorize | stored in the memory | storage part of suspension ECU of the suspension control apparatus which concerns on Example 4. FIG. (b) A map showing another gain determination table stored in the storage unit of the suspension ECU. 実施例5に係るサスペンション制御装置のサスペンションECUの記憶部に記憶された路面状態検出プログラムの一部を表すフローチャートである(処理領域決定)。It is a flowchart showing a part of road surface condition detection program memorize | stored in the memory | storage part of suspension ECU of the suspension control apparatus which concerns on Example 5 (processing area determination). 実施例6に係るサスペンション制御装置に含まれる撮像装置の構造を示す図である。FIG. 10 is a diagram illustrating a structure of an imaging device included in a suspension control device according to a sixth embodiment. (a)上記サスペンション制御装置のサスペンションECUの記憶部に記憶された路面状態検出プログラムを表すフローチャートである。(b)上記撮像装置の画像形成部の記憶部に記憶された画像形成プログラムを表すフローチャートである。(a) It is a flowchart showing the road surface state detection program memorize | stored in the memory | storage part of suspension ECU of the said suspension control apparatus. (b) It is a flowchart showing the image formation program memorize | stored in the memory | storage part of the image formation part of the said imaging device. 上記路面状態検出プログラムの一部を表すフローチャートである(撮像領域決定)。It is a flowchart showing a part of the said road surface state detection program (imaging area determination). 上記路面状態検出プログラムが実行された場合の撮像領域を示す図である。(a)制動時の撮像領域を示す図である。(b)駆動時の撮像領域を示す図である。(c)右旋回時の撮像領域を示す図である。(d)左旋回時の撮像領域を示す図である。It is a figure which shows the imaging region when the said road surface state detection program is performed. (a) It is a figure which shows the imaging area at the time of braking. (b) It is a figure which shows the imaging area at the time of a drive. (c) It is a figure which shows the imaging area at the time of right turn. (d) It is a figure which shows the imaging region at the time of left turn.

発明の実施の形態BEST MODE FOR CARRYING OUT THE INVENTION

以下、本発明の一実施形態であるサスペンション制御装置について図面に基づいて詳細に説明する。本サスペンション制御装置には、本発明の一実施形態である周辺環境取得装置が含まれる。
サスペンション制御装置によって、車両の前輪、後輪のサスペンションについて、路面状態検出装置によって検出された路面状態に基づいてプレビュー制御が行われ、路面状態検出装置によって、車両の前輪より前方の路面状態が検出される。
路面状態検出装置において、マーカが照射され、そのマーカを含む路面が撮像されて、画像が形成される。そして、形成された画像に基づいて路面の状態が検出される。マーカは、スポット状の光であっても、格子状の光等であってもよい。
Hereinafter, a suspension control apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings. The suspension control device includes a surrounding environment acquisition device that is an embodiment of the present invention.
The suspension control device performs preview control on the suspension of the front and rear wheels of the vehicle based on the road surface state detected by the road surface state detection device, and the road surface state detection device detects the road surface state ahead of the front wheels of the vehicle. Is done.
In the road surface state detection device, a marker is irradiated, and a road surface including the marker is imaged to form an image. Then, the state of the road surface is detected based on the formed image. The marker may be spot-shaped light, lattice-shaped light, or the like.

実施例1における路面状態検出装置は、図2(a)に示すように、車両の左右前輪10FL,FRに対応してそれぞれ設けられた路面画像取得部11L,Rを含む。路面画像取得部11L,Rは、車両の前輪10FL,FRの前方の路面の状態を検出するものであり、互いに同じ構造を成したものである。路面画像取得部11L,Rは、それぞれ、図1に示すように、(i)マーカを照射する照射装置12L、12R(図1には、照射装置12Lを記載し、照射装置12Rの記載を省略した)と、(ii)少なくとも照射装置12L(12R)から照射されたマーカを撮像する撮像装置としてのカメラ14L、14R(図1には、カメラ14Lを記載し、カメラ14Rの記載を省略した)とを含む。これら照射装置12L,12Rとカメラ14L,14Rとは、車体18の正面(例えば、バンパ付近)の互いに上下方向に隔たった位置に取り付けられる。   The road surface condition detection apparatus according to the first embodiment includes road surface image acquisition units 11L and R provided corresponding to the left and right front wheels 10FL and FR of the vehicle, respectively, as shown in FIG. The road surface image acquisition units 11L, R detect the state of the road surface in front of the front wheels 10FL, FR of the vehicle, and have the same structure. As shown in FIG. 1, the road surface image acquisition units 11L and 11R respectively (i) Irradiation devices 12L and 12R that irradiate a marker (in FIG. 1, the irradiation device 12L is described, and the description of the irradiation device 12R is omitted). And (ii) cameras 14L and 14R as imaging devices that image at least the marker irradiated from the irradiation device 12L (12R) (the camera 14L is shown in FIG. 1, and the description of the camera 14R is omitted) Including. The irradiation devices 12L and 12R and the cameras 14L and 14R are attached to the front surface of the vehicle body 18 (for example, near the bumper) at positions separated from each other in the vertical direction.

照射装置12は、図6(a)に示すように、光源12p,増幅器12a,レンズ12r,汚れ除去装置12c、マーカ出力制御部12e等を含み、マーカとして、円形(真円)スポット状のレーザ光線を照射する。スポットの直径は、第1設定値より大きく第2設定値より小さいものである。
光源12pから出力されたレーザ光の強度が増幅器12aにおいて決められたゲインで増幅されて、レンズ12rを経て前方に照射される。汚れ除去装置12c(クリーナ)は、レンズ12rの汚れを除去するものである。マーカ出力制御部12eは、コンピュータを主体とするものであり、光源12p、増幅器12a、汚れ除去装置12c等を制御する。
As shown in FIG. 6A, the irradiation device 12 includes a light source 12p, an amplifier 12a, a lens 12r, a dirt removal device 12c, a marker output control unit 12e, and the like, and a circular (perfect circle) spot laser as a marker. Irradiate light. The diameter of the spot is larger than the first set value and smaller than the second set value.
The intensity of the laser beam output from the light source 12p is amplified with a gain determined by the amplifier 12a, and irradiated forward through the lens 12r. The dirt removing device 12c (cleaner) removes dirt from the lens 12r. The marker output control unit 12e mainly includes a computer and controls the light source 12p, the amplifier 12a, the dirt removing device 12c, and the like.

カメラ14は、CCD(Charge Coupled Device )カメラであり、図12(a)に示すように、レンズ14r,フィルタ14f,撮像素子としてのCCD14s,画像形成部14d,汚れ除去装置14c,色等評価装置14m等を含む。マーカ等の被撮像対象物はレンズ14rを介してCCD14s上に結像されて光学的な画像が得られる。そして、CCD14sの各々において、光の信号が電気的信号に変換されて画像形成部14dに供給される。以下、本明細書において、「CCD14s」は、撮像素子各々を表す場合と、多数個の撮像素子全体を表す場合とがある。画像形成部14dにおいて、処理領域に属するCCD14sの1つ1つの電気信号に基づいて処理が行われ、被撮像対象物のうちの処理領域で決まる少なくとも一部に対応する画像が形成される。フィルタ14fは帯域フィルタであり、少なくとも照射装置12から照射されたレーザ光の通過を許容する。汚れ除去装置14cは、レンズ14rの汚れを除去するものであり、色等評価装置14mは、形成された画像の色を評価する装置であり、画像の色をRGB(赤、緑、青)に分析して、それぞれの値を求めるとともに、HSV(色相、彩度、明度)の各々の値を求める機能を有する。画像形成部14dにおいて処理が行われるCCD14sの領域(処理領域)は、後述するように、サスペンション制御装置20において決定される。
カメラ14は、撮像領域内の被撮像対象物を撮像可能なものであるが、帯域フィルタ14fが設けられているため、撮像される被撮像対象物は、帯域フィルタ14fによって通過が許容される波長の範囲で決まる。帯域フィルタ14fによって通過が許容される波長の範囲は、上述のように、照射装置12によって照射されるレーザ光の波長を含む範囲に設定される。
カメラ14は、レンズ14rが車両の前方に向いた姿勢で取り付けられ、図12(b)に示すように破線で囲まれた撮像領域SR内の被撮像対象物(少なくともマーカM)を撮像する。また、撮像領域SRに対応する撮像画像Jは、図12(c)に示すように(Na×Nb)個(例えば、192万個)の画素から構成される。
なお、カメラ14は、CMOS(Complementary Metal-Oxide Semiconductor)を用いたカメラとすることもできる。
The camera 14 is a CCD (Charge Coupled Device) camera, and as shown in FIG. 12A, a lens 14r, a filter 14f, a CCD 14s as an image sensor, an image forming unit 14d, a dirt removing device 14c, and a color evaluation device. Including 14m. An object to be imaged such as a marker is imaged on the CCD 14s through the lens 14r to obtain an optical image. In each CCD 14s, the light signal is converted into an electrical signal and supplied to the image forming unit 14d. Hereinafter, in this specification, “CCD 14s” may represent each of the image sensors or may represent the entire number of image sensors. In the image forming unit 14d, processing is performed based on each electrical signal of the CCD 14s belonging to the processing area, and an image corresponding to at least a part determined by the processing area of the object to be imaged is formed. The filter 14f is a bandpass filter and allows at least the passage of the laser light emitted from the irradiation device 12. The dirt removing device 14c removes dirt from the lens 14r, and the color evaluation device 14m is a device that evaluates the color of the formed image, and changes the color of the image to RGB (red, green, blue). It has a function of obtaining each value by analyzing and obtaining each value of HSV (hue, saturation, brightness). The area (processing area) of the CCD 14s that is processed in the image forming unit 14d is determined by the suspension control device 20 as described later.
The camera 14 is capable of imaging an object to be imaged in the imaging area, but since the band filter 14f is provided, the imaged object to be imaged has a wavelength that is allowed to pass by the band filter 14f. Determined by the range. The range of wavelengths allowed to pass by the band-pass filter 14f is set to a range including the wavelength of the laser light irradiated by the irradiation device 12 as described above.
The camera 14 is attached in a posture in which the lens 14r faces the front of the vehicle, and images an object to be imaged (at least the marker M) in the imaging region SR surrounded by a broken line as shown in FIG. The captured image J corresponding to the imaging region SR is composed of (Na × Nb) (for example, 1.92 million) pixels as shown in FIG.
The camera 14 may be a camera using CMOS (Complementary Metal-Oxide Semiconductor).

サスペンション制御装置20は、図1に示すように、左右前輪10FL,FRのサスペンション22FL,FR(サスペンション22FRの図示を省略する)、左右後輪24RL,RRのサスペンション25RL,RR(サスペンションション25RRの図示を省略する)を制御する。
サスペンション22FL,FR,25RL,RRは、それぞれ、ばね下部とばね上部との間に互いに並列に設けられたスプリング26FL,FR,RL,RR、ショックアブソーバ27FL,FR,RL,RR、アクチュエータとしての上下力制御装置28FL,FR,RL,RRを含む。
上下力制御装置28FL,FR,RL,RRは、例えば、図示を省略するスタビライザバーの弾性力を制御することによりばね下部とばね上部との間に作用する上下方向の力を制御可能なものとすることができる。上下方向の力は、変位に比例する弾性力であっても、変位速度に比例する減衰力であってもよい。
なお、アクチュエータは、ショックアブソーバ27の減衰係数を制御することによりばね下部とばね上部との間に作用する減衰力を制御する減衰力制御装置とすることもできる。
以下、本明細書において、上下力制御装置、サスペンション等について、対応する車輪位置を明らかにする必要がある場合には、車輪の位置を表す添え字FL,FR,RL,RR、右側、左側を表す添え字R,Lを付して記載し、車輪位置を明らかにする必要がない場合には添え字を付さないで記載する場合がある。
As shown in FIG. 1, the suspension control device 20 includes suspensions 22FL and FR for left and right front wheels 10FL and FR (illustration of the suspension 22FR is omitted), suspensions 25RL and RR for left and right rear wheels 24RL and RR (illustration of a suspension 25RR). Is omitted).
The suspensions 22FL, FR, 25RL, and RR include springs 26FL, FR, RL, and RR, shock absorbers 27FL, FR, RL, and RR that are provided in parallel with each other between the unsprung portion and the unsprung portion. Includes force control devices 28FL, FR, RL, RR.
The vertical force control devices 28FL, FR, RL, RR can control the vertical force acting between the unsprung portion and the unsprung portion by controlling the elastic force of a stabilizer bar (not shown), for example. can do. The vertical force may be an elastic force proportional to the displacement or a damping force proportional to the displacement speed.
The actuator may be a damping force control device that controls the damping force acting between the unsprung portion and the unsprung portion by controlling the damping coefficient of the shock absorber 27.
Hereinafter, in the present specification, when it is necessary to clarify the corresponding wheel position for the vertical force control device, the suspension, etc., the subscripts FL, FR, RL, RR, the right side and the left side indicating the wheel position are indicated. In some cases, subscripts R and L are used, and when it is not necessary to clarify the wheel position, the subscripts may be given without subscripts.

サスペンション制御装置20は、コンピュータと主体とするサスペンションECU30を含む。サスペンションECU30は、CAN(Car Area Network)32を介して、ステアリングECU34,ブレーキECU36,エンジン等ECU38、ナビゲーション装置39等に接続される。ステアリングECU34には、ステアリングホイールの操舵角を検出する操舵角センサ40等が接続され、ブレーキECU36には、図示しないブレーキ操作部材の操作ストロークを検出する操作ストロークセンサ42、各車輪10FL,FR,24RL,RRの回転速度をそれぞれ検出する車輪速度センサ43等が接続され、エンジン等ECU38には、図示しないアクセル操作部材の開度を検出するアクセル開度センサ44等が接続される。ブレーキECU36においては、前後左右の各輪10FL,FR,24RL,RRの回転速度に基づいて車両の走行速度Vが求められる。ナビゲーション装置39は、図示しない通信装置を備えており、現在位置に関する情報、天気に関する情報等を取得する。
サスペンションECU30は、CAN32を介して、ステアリングホイールの操舵角を表す情報、ブレーキ操作部材の操作ストロークを表す情報、車速を表す情報、アクセル操作部材の開度を表す情報、車両が存在する位置に関する情報等を取得することができる。
The suspension control device 20 includes a computer and a suspension ECU 30 as a main body. The suspension ECU 30 is connected to a steering ECU 34, a brake ECU 36, an ECU 38 such as an engine, a navigation device 39, etc. via a CAN (Car Area Network) 32. A steering angle sensor 40 for detecting the steering angle of the steering wheel is connected to the steering ECU 34, and an operation stroke sensor 42 for detecting an operation stroke of a brake operation member (not shown) and the wheels 10FL, FR, 24RL are connected to the brake ECU 36. A wheel speed sensor 43 and the like for detecting the rotational speed of RR are connected, and an accelerator opening sensor 44 and the like for detecting the opening of an accelerator operation member (not shown) are connected to the ECU 38 and the like. In the brake ECU 36, the traveling speed V of the vehicle is obtained based on the rotational speeds of the front and rear wheels 10FL, FR, 24RL, and RR. The navigation device 39 includes a communication device (not shown), and acquires information on the current position, information on the weather, and the like.
The suspension ECU 30 receives information indicating the steering angle of the steering wheel, information indicating the operation stroke of the brake operation member, information indicating the vehicle speed, information indicating the opening of the accelerator operation member, and information regarding the position where the vehicle exists via the CAN 32. Etc. can be obtained.

サスペンションECU30には、各車輪10FL,FR,24RL,RRの各々に対応して設けられ、ばね上部の上下方向の加速度を検出するばね上上下Gセンサ50,ばね下部とばね上部との間の距離である車高を検出する車高センサ52(ストロークセンサと称することもできる),車両の前後方向の加速度を検出する前後Gセンサ54,横方向の加速度を検出する横Gセンサ56等が接続されるとともに、上下力制御装置28,照射装置12,カメラ14,報知装置58等が接続される。
報知装置58は、システムの異常(例えば、照射装置12,カメラ14の汚れ)が検出された場合に、そのことを報知する。報知装置58は、音声を合成して出力する音声合成・出力装置を含むものであっても、情報を表示するディスプレイを含むものであってもよい。
また、サスペンション制御装置20は、図2(b)に示すように、概念的に、照射装置制御部60,路面状態検出部62,ばね上変位取得部64,プレビュー制御部66を含むとともに、領域決定部68,汚れ検出部70等を含むと考えることができる。
The suspension ECU 30 is provided corresponding to each of the wheels 10FL, FR, 24RL, RR, and detects the acceleration in the vertical direction of the spring top and the distance between the spring bottom and the spring top. A vehicle height sensor 52 (also referred to as a stroke sensor) for detecting the vehicle height, a longitudinal G sensor 54 for detecting the longitudinal acceleration of the vehicle, a lateral G sensor 56 for detecting the lateral acceleration, and the like are connected. In addition, the vertical force control device 28, the irradiation device 12, the camera 14, the notification device 58 and the like are connected.
The notification device 58 notifies that when a system abnormality (for example, contamination of the irradiation device 12 or the camera 14) is detected. The notification device 58 may include a speech synthesis / output device that synthesizes and outputs speech, or may include a display that displays information.
The suspension control device 20 conceptually includes an irradiation device control unit 60, a road surface state detection unit 62, a sprung displacement acquisition unit 64, and a preview control unit 66 as shown in FIG. It can be considered to include the determination unit 68, the dirt detection unit 70, and the like.

<路面画像取得部11の取付>
照射装置12、カメラ14は、図1,3(a)、7等に示すように、カメラ14が照射装置12より下方に設けられる。また、照射装置12,カメラ14は、それぞれ、車体(ばね上部)18に対して傾いた姿勢で設けられる。すなわち、基準路面に垂直な線(以下、路面法線と称する)Aに対して、照射装置12のレーザ光の照射方向(以下、単に光軸と称する)B,カメラ14のレンズに垂直な線(以下、カメラ14の垂直線と略称する)Cが傾斜した姿勢で取り付けられるのである。路面法線Aと、光軸B、カメラ14の垂直線Cとの成す角度を、それぞれ、θb、θcとした場合に、傾斜角度θb、θcは,0より大きく、90°(π/2)より小さい値であって、かつ、互いに異なる値とされる。
0<θb<90°、0<θc<90°
θb≠θc
仮に、光軸Bと、カメラ14の垂直軸Cとが平行である場合には、照射装置12によって照射されたマーカのカメラ14の撮像位置(撮像領域SRにおけるマーカMの基準点0sに対する相対位置)は、路面が平坦であっても凹凸があっても同じ(マーカMが基準点0s上に位置すること)になる。換言すれば、撮像画像Jにおけるマーカを表す画像G(以下、マーカ画像と略称する)の基準点0jに対応する相対位置も同じ(マーカ画像Gが基準点0j上に位置すること)になる。
それに対して、光軸Bとカメラ14の垂直軸Cとが平行ではない場合には、路面の凹凸の状態に基づいて、撮像領域SRにおけるマーカMの基準点0sに対する相対位置、すなわち、撮像画像Jにおけるマーカ画像Gの基準点0jに対する相対位置が変化する。そのため、相対位置が変化しない場合に比較して、路面の凹凸の状態を良好に検出することができる。
基準路面とは、車両の前輪10の接地点と後輪24の接地点とを通り、かつ、平坦であると仮定した路面をいう。路面法線Aとは、基準路面に垂直な線をいう。
<Installation of the road surface image acquisition unit 11>
The irradiation device 12 and the camera 14 are provided below the irradiation device 12 as shown in FIGS. Further, the irradiation device 12 and the camera 14 are each provided in a posture inclined with respect to the vehicle body (spring top) 18. That is, with respect to a line A (hereinafter referred to as a road surface normal) A perpendicular to the reference road surface, a laser beam irradiation direction (hereinafter simply referred to as an optical axis) B of the irradiation device 12 and a line perpendicular to the lens of the camera 14 (Hereinafter, abbreviated as the vertical line of the camera 14) C is attached in an inclined posture. When the angles formed by the road surface normal A, the optical axis B, and the vertical line C of the camera 14 are θb and θc, respectively, the inclination angles θb and θc are larger than 0 and 90 ° (π / 2). The values are smaller and different from each other.
0 <θb <90 °, 0 <θc <90 °
θb ≠ θc
If the optical axis B and the vertical axis C of the camera 14 are parallel, the imaging position of the marker irradiated by the irradiation device 12 (relative position of the marker M in the imaging region SR with respect to the reference point 0s). ) Is the same whether the road surface is flat or uneven (the marker M is positioned on the reference point 0s). In other words, the relative position corresponding to the reference point 0j of the image G representing the marker in the captured image J (hereinafter abbreviated as the marker image) is the same (the marker image G is located on the reference point 0j).
On the other hand, when the optical axis B and the vertical axis C of the camera 14 are not parallel, the relative position of the marker M with respect to the reference point 0s in the imaging region SR, that is, the captured image, based on the unevenness of the road surface. The relative position of the marker image G at J with respect to the reference point 0j changes. For this reason, it is possible to detect the unevenness of the road surface better than when the relative position does not change.
The reference road surface is a road surface that passes through the grounding point of the front wheel 10 and the grounding point of the rear wheel 24 and is assumed to be flat. The road surface normal A is a line perpendicular to the reference road surface.

また、照射装置12,カメラ14の車体18の取付高さ、取付角度の一例を、図3(a)の実線で示す。取付高さは、基準路面からの高さZb、Zcであり、取付角度は、路面法線Aと光軸B、カメラ14の垂直軸Cとの成す角度θb、θcである。
この場合には、二点鎖線が示すように、車体18が前後方向に設定角度θstで傾斜した場合であっても、予め定められた形状(例えば、路面勾配θrの形状をいう)の路面を検出できる。
路面勾配θrは、例えば、サスペンション制御装置20によって車体18の振動を抑制可能な最大の勾配としたり、車両が走行する路面の最大の勾配としたりすることができる。また、車体18の前後方向の傾斜角度の設定角度θstは、例えば、車両の走行中に生じ得る(大きな駆動力が加えられた場合)最大の傾斜角度とすることができる。
なお、前後方向の傾斜角度とは、車両の重心を通り、かつ、幅方向に延びる軸線回りの回動角度をいい、横方向の傾斜角度とは、車両の重心を通り、かつ、前後方向に延びる軸線回りの回動角度をいう。
Moreover, an example of the attachment height and the attachment angle of the vehicle body 18 of the irradiation apparatus 12 and the camera 14 is shown by the solid line in FIG. The mounting height is the height Zb, Zc from the reference road surface, and the mounting angle is the angle θb, θc formed by the road surface normal A, the optical axis B, and the vertical axis C of the camera 14.
In this case, as indicated by the two-dot chain line, even when the vehicle body 18 is inclined in the front-rear direction at the set angle θst, the road surface having a predetermined shape (for example, the shape of the road surface gradient θr) is used. It can be detected.
The road surface gradient θr can be, for example, the maximum gradient that can suppress the vibration of the vehicle body 18 by the suspension control device 20, or the maximum gradient of the road surface on which the vehicle travels. Further, the set angle θst of the tilt angle in the front-rear direction of the vehicle body 18 can be, for example, the maximum tilt angle that can occur during travel of the vehicle (when a large driving force is applied).
The tilt angle in the front-rear direction refers to the rotation angle around the axis that passes through the center of gravity of the vehicle and extends in the width direction, and the tilt angle in the lateral direction refers to the center of gravity of the vehicle in the front-rear direction. The rotation angle around the extending axis.

一方、照射装置12、カメラ14が、図3(b)の実線が示す状態(取付高さ、取付角度)で取り付けられた場合には、図3(b)の二点鎖線が示すように車両が設定角度θstで前後方向に傾斜した場合に、勾配θrの路面の状態を検出することができない。
そこで、本実施例においては、図3(a)の実線が示す相対位置関係で、照射装置12,カメラ14が車体18に取り付けられるのであり、車体18が設定角度θsで傾斜した場合のカメラ14の垂直線Cと基準路面との成す角度(θxc−θst)が、路面勾配θrより大きくなる状態で取り付けられる。換言すれば、カメラ14の垂直線Cと基準路面との成す角度(θxc−θst)と、照射装置12の光軸Bと基準路面との成す角度(θxb−θst)との小さい方が、路面勾配θrより大きくなる状態で取り付けられるのであり、それにより、必ず、路面上にマーカMが照射され、そのマーカMを含む路面が撮像されることになる。
なお、角度θxc、θxbは、それぞれ、車体18が基準姿勢にある場合のカメラ14の垂直線C、光軸Bと基準路面との成す角度である。基準姿勢とは、予め定められた範囲内の姿勢をいい、ほぼ水平な姿勢をいう。すなわち、前後方向の傾斜角度が設定範囲内にあり、横方向の傾斜角度が設定範囲内にある姿勢をいう。
On the other hand, when the irradiation device 12 and the camera 14 are mounted in the state (mounting height, mounting angle) indicated by the solid line in FIG. 3B, the vehicle as shown by the two-dot chain line in FIG. Is inclined in the front-rear direction at the set angle θst, the road surface state with the gradient θr cannot be detected.
Therefore, in this embodiment, the irradiation device 12 and the camera 14 are attached to the vehicle body 18 in the relative positional relationship indicated by the solid line in FIG. 3A, and the camera 14 when the vehicle body 18 is inclined at the set angle θs. The angle (θxc−θst) formed between the vertical line C and the reference road surface is larger than the road surface gradient θr. In other words, the smaller the angle (θxc−θst) formed between the vertical line C of the camera 14 and the reference road surface and the angle (θxb−θst) formed between the optical axis B of the irradiation device 12 and the reference road surface, the road surface is smaller. It is attached in a state where it is larger than the gradient θr, so that the marker M is always irradiated on the road surface, and the road surface including the marker M is imaged.
The angles θxc and θxb are angles formed by the vertical line C and the optical axis B of the camera 14 and the reference road surface when the vehicle body 18 is in the reference posture, respectively. The reference posture refers to a posture within a predetermined range and a substantially horizontal posture. That is, it refers to an attitude in which the tilt angle in the front-rear direction is within the set range and the tilt angle in the horizontal direction is within the set range.

以上の事情から、照射装置12,撮像装置14は、車体18が基準姿勢にある場合のカメラ14の垂直線Cと基準路面との成す角度θxc、車体18の前後方向の傾斜角度(設定角度)θst、路面勾配θrとした場合に、式
θxc−θst>θr
で表される大きさを満たす状態で取り付けられるのであり、その結果、車体18が設定角度θstで前後方向に傾斜した場合であっても、勾配θrの路面の状態を検出することが可能となる。
また、角度θxcは、(π/2−θc)で表されるため、上式は、
π/2>θc+θst+θr
と、表すことができる。
From the above circumstances, the irradiation device 12 and the imaging device 14 are configured such that the angle θxc formed between the vertical line C of the camera 14 and the reference road surface when the vehicle body 18 is in the reference posture, and the inclination angle (set angle) of the vehicle body 18 in the front-rear direction. In the case of θst and road surface gradient θr, the formula θxc−θst> θr
As a result, even if the vehicle body 18 is tilted in the front-rear direction at the set angle θst, it is possible to detect the road surface state with the gradient θr. .
Further, since the angle θxc is expressed by (π / 2−θc), the above equation is
π / 2> θc + θst + θr
It can be expressed as.

なお、カメラ14を照射装置12より下方に取り付けることは不可欠ではなく、カメラ14を照射装置12より上方に設けてもよい。その場合には、下式を満たすことが条件となる。
θxb−θst>θr
π/2>θb+θst+θr
Note that it is not essential to attach the camera 14 below the irradiation device 12, and the camera 14 may be provided above the irradiation device 12. In that case, the condition is that the following expression is satisfied.
θxb−θst> θr
π / 2> θb + θst + θr

<照射装置12の制御>
照射装置12が照射するレーザ光の波長は、750nm付近、900nm付近、1100nm付近、1400nm付近、1800nm付近のうちの1つの波長とすることができる。
図4には、大気圏外の太陽光のスペクトル(破線)と太陽光が地表に対して傾き42°で入射した場合の地表での太陽光のスペクトル(実線)とを示す。図4に示すように、太陽光には、赤外線、可視光、紫外線等広い範囲の波長の光が含まれるが、上述の波長(750nm付近、900nm付近、1100nm付近、1400nm付近、1800nm付近)の光は大気圏において二酸化炭素、水蒸気等により吸収され易く、地表に届き難い。
すなわち、上述の波長の光は、大気圏を通過することによるエネルギ低減量が設定低減量以上のものである。また、そのため、上述の波長の光の地表におけるエネルギ(太陽光の強度を表す一態様)は設定値以下となる。
そこで、照射装置12から照射されるレーザ光を、上述の地表に届き難い波長(例えば、750nm付近)のものとすれば、照射装置12によって照射されたレーザ光が太陽光の影響を受け難くすることができるのであり、マーカMを太陽光と区別して良好に撮像することができる。
なお、照射装置12から波長750nmのレーザ光が照射されるようにされている場合には、カメラ14において、帯域フィルタ14fが、750nmを含む波長の範囲の光の通過を許容するものとされる。それにより、マーカMが可視光でなくても(赤外線や紫外線であっても)、撮像することが可能となる。
<Control of irradiation apparatus 12>
The wavelength of the laser beam irradiated by the irradiation device 12 can be one of the wavelengths near 750 nm, 900 nm, 1100 nm, 1400 nm, and 1800 nm.
FIG. 4 shows a spectrum (broken line) of sunlight outside the atmosphere and a spectrum (solid line) of sunlight on the ground surface when sunlight is incident on the ground surface at an inclination of 42 °. As shown in FIG. 4, sunlight includes light in a wide range of wavelengths such as infrared rays, visible light, and ultraviolet rays, but the above wavelengths (near 750 nm, 900 nm, 1100 nm, 1400 nm, 1800 nm). Light is easily absorbed in the atmosphere by carbon dioxide, water vapor, etc., and difficult to reach the earth's surface.
That is, in the light having the above-described wavelength, the energy reduction amount by passing through the atmosphere is greater than the set reduction amount. For this reason, the energy (one aspect representing the intensity of sunlight) on the ground surface of the light having the above wavelength is equal to or less than the set value.
Therefore, if the laser light emitted from the irradiation device 12 has a wavelength that is difficult to reach the above-described ground surface (for example, around 750 nm), the laser light emitted by the irradiation device 12 is less likely to be affected by sunlight. Therefore, the marker M can be distinguished from sunlight and can be imaged well.
In the case where laser light having a wavelength of 750 nm is emitted from the irradiation device 12, the bandpass filter 14f in the camera 14 is allowed to pass light in a wavelength range including 750 nm. . Thereby, even if the marker M is not visible light (even if it is infrared rays or ultraviolet rays), it becomes possible to image.

また、照射装置12によって照射されるレーザ光の強さは、車両が存在する地球上の緯度に基づいて決定される。
地球上の地表に届く太陽光のエネルギは、図5(a)に示すように、通過する大気圏の距離(太陽光が接する大気の量であり、エアマスと称する)が長い場合は短い場合より小さくなる。そのため、緯度が高い場合は低い場合より地表に届く太陽光のエネルギは小さくなる。
一方、照射装置12によって照射されるレーザ光が太陽光より弱くなると、カメラ14によってマーカMを太陽光と区別して撮像できない場合があるため、レーザ光の強度を大きくすることが望ましいが、レーザ光の強度を大きくすると、消費エネルギ量が多くなるという別の問題が生じる。また、太陽光が弱い場合にはレーザ光の強度を大きくする必要性は低い。
そこで、図5(b)に示すように、緯度が高い場合は低い場合よりゲインが小さくされて、照射されるレーザ光の強度が小さくされる。
このように、太陽光のエネルギが大きい(太陽光が強い)場合にゲインが大きくされて、照射されるレーザ光の強度が太陽光より大きくされるため、S/N比(外乱パワーに対する信号パワーの比、すなわち、太陽光の強度に対するレーザ光の強度の比)を大きくすることができ、カメラ14によってマーカMを太陽光と区別して良好に撮像できる。
また、太陽光のエネルギが小さい(太陽光が弱い)場合には、レーザ光を太陽光と区別して検出可能な程度にゲインが小さくされるため、マーカMを良好に撮像し得、かつ、消費エネルギ量の低減を図ることができる。本実施例においては、サスペンションECU30の記憶部に、図5(b)のマップで表されるゲイン決定テーブルが予め記憶されている。
Further, the intensity of the laser light irradiated by the irradiation device 12 is determined based on the latitude on the earth where the vehicle exists.
As shown in Fig. 5 (a), the energy of sunlight that reaches the earth's surface is smaller when the distance of the passing atmosphere (the amount of the atmosphere that sunlight is in contact with, called air mass) is longer than when it is short. Become. Therefore, when the latitude is high, the energy of sunlight reaching the ground surface is smaller than when the latitude is low.
On the other hand, if the laser light emitted by the irradiation device 12 is weaker than sunlight, the camera 14 may not be able to capture the marker M separately from sunlight, so it is desirable to increase the intensity of the laser light. Increasing the intensity of this causes another problem that the amount of energy consumption increases. Moreover, when sunlight is weak, the necessity for increasing the intensity of laser light is low.
Therefore, as shown in FIG. 5B, when the latitude is high, the gain is made smaller than when the latitude is low, and the intensity of the irradiated laser light is reduced.
Thus, when the energy of sunlight is large (sunlight is strong), the gain is increased, and the intensity of the irradiated laser light is made larger than that of sunlight, so the S / N ratio (signal power with respect to disturbance power). , That is, the ratio of the intensity of the laser light to the intensity of sunlight), and the camera 14 can distinguish the sunlight from the sunlight and image it well.
Further, when the energy of sunlight is small (sunlight is weak), the gain is reduced to such an extent that the laser light can be detected separately from sunlight, so that the marker M can be imaged well and consumed. The amount of energy can be reduced. In the present embodiment, a gain determination table represented by the map of FIG. 5B is stored in advance in the storage unit of the suspension ECU 30.

照射装置12を制御する照射装置制御プログラムを図6(b)のフローチャートで表す。照射装置制御プログラムは、予め定められた設定時間毎に実行される。
ステップ1(以下、S1と略称する。他のステップについても同様とする)において、ナビゲーション装置39の情報に基づいて、車両が現在存在する緯度が取得される。そして、S2において、図5(b)に示すゲイン決定テーブルに従ってゲインが決定され、S3において、決定されたゲインを表す情報が照射装置12に供給される。
照射装置12においては、図6(c)のフローチャートで表されるレーザ光出力プログラムが予め定められた設定時間毎に実行される。
S4において、サスペンションECU30からのゲインを表す情報が読み込まれ、S5において、レーザ光源12pから照射されたレーザ光がそのゲインで増幅されて、出力される。
An irradiation apparatus control program for controlling the irradiation apparatus 12 is represented by the flowchart of FIG. The irradiation device control program is executed at predetermined time intervals.
In step 1 (hereinafter abbreviated as S1. The same applies to other steps), the latitude at which the vehicle currently exists is acquired based on information from the navigation device 39. In S2, the gain is determined in accordance with the gain determination table shown in FIG. 5B, and in S3, information representing the determined gain is supplied to the irradiation device 12.
In the irradiation apparatus 12, the laser beam output program represented by the flowchart of FIG. 6C is executed at predetermined time intervals.
In S4, information representing the gain from the suspension ECU 30 is read. In S5, the laser light emitted from the laser light source 12p is amplified by the gain and output.

本実施例においては、サスペンションECU30の照射装置制御プログラムを記憶する部分、実行する部分、ナビゲーション装置39からの情報を取得する部分等により照射装置制御部60が構成される。照射装置制御部60のうち、照射装置制御プログラムのS1,2を記憶する部分、実行する部分等により出力レベル決定部が構成される。出力レベル決定部は、緯度依拠レベル決定部、強度依拠レベル決定部でもある。また、サスペンションECU30のナビゲーション装置39からの情報を取得する部分等により緯度検出部、強度検出部が構成される。さらに、カメラ14が照射光検出装置に対応する。
なお、ナビゲーション装置39は照射装置制御部60,緯度検出部、強度検出部の構成要素であると考えることもできる。
In the present embodiment, the irradiation device control unit 60 is configured by a portion that stores the irradiation device control program of the suspension ECU 30, a portion that executes the program, a portion that acquires information from the navigation device 39, and the like. In the irradiation device control unit 60, an output level determination unit is configured by a portion for storing S1 and S2 of the irradiation device control program, a portion for execution, and the like. The output level determining unit is also a latitude-based level determining unit and a strength-based level determining unit. In addition, a latitude detecting unit and an intensity detecting unit are configured by a part that acquires information from the navigation device 39 of the suspension ECU 30. Furthermore, the camera 14 corresponds to an irradiation light detection device.
The navigation device 39 can also be considered as a component of the irradiation device control unit 60, the latitude detection unit, and the intensity detection unit.

なお、この照射装置12の制御は、レーザ光がカメラ14で撮像される場合に限らず、路面で反射したレーザ光を受光する受光部を含む路面状態検出装置に適用することもできる。
また、路面状態検出装置に限らず、照射対象物に照射したレーザ光をカメラ14で撮像して、あるいは、照射対象物において反射したレーザ光を受光して、照射装置12(カメラ14)の周辺にある物体の形状を検出する周辺環境取得装置に適用すること等もできる。
さらに、照射装置12の制御は、受光部、カメラ14と組み合わせることなく、広く、照射装置12から照射された光を太陽光から区別する必要がある場合に、適用することができる。
また、上記実施例においては、照射装置12がサスペンションECU30の指令に基づいて制御されるようにされていたが、そのようにすることは不可欠ではない。レーザ光出力制御部12eにおいて、ゲインが決定され、そのゲインで増幅されたレーザ光が出力されるようにすることもできる。その場合には、レーザ光出力制御部12eに緯度に関する情報が供給される。
さらに、照射装置12から照射されるレーザ光の波長は、1500nm以上の赤外線とすることもできる。1500nm以上の赤外線の地表に届くエネルギが小さいからである。
The control of the irradiation device 12 is not limited to the case where the laser beam is captured by the camera 14, but can also be applied to a road surface state detection device including a light receiving unit that receives the laser beam reflected on the road surface.
Further, the present invention is not limited to the road surface state detection device, and the laser beam irradiated to the irradiation object is imaged by the camera 14 or the laser beam reflected by the irradiation object is received to surround the irradiation device 12 (camera 14). The present invention can also be applied to a surrounding environment acquisition device that detects the shape of an object in the area.
Furthermore, the control of the irradiation device 12 can be widely applied when it is necessary to distinguish the light emitted from the irradiation device 12 from sunlight without being combined with the light receiving unit and the camera 14.
Moreover, in the said Example, although the irradiation apparatus 12 was controlled based on the instruction | command of suspension ECU30, it is not essential to do so. The laser light output control unit 12e can determine the gain and output the laser light amplified with the gain. In that case, information relating to the latitude is supplied to the laser light output controller 12e.
Furthermore, the wavelength of the laser light emitted from the irradiation device 12 can be infrared rays of 1500 nm or more. This is because the energy reaching the infrared surface of 1500 nm or more is small.

<路面状態の検出>
[検出原理]
図7(a)に示すように、路面法線Aと光軸Bとの成す角度θb、路面法線Aとカメラ14の垂直軸Cとの成す角度θc、照射装置12,カメラ14の取付高さZb、Zcは、基準路面上の、照射装置12より距離Lp(以下、プレビュー距離と称する)だけ前方の点P(被検出対象部)において光軸Bとカメラ14の垂直軸Cとが交差するように設計される。
このように、基準路面上の点Pにおいて光軸Bとカメラ14の垂直軸Cとが交差する状態においては、図7(b)に示すように、カメラ14の撮像領域SRの基準点0sにマーカ(スポット光)M0が位置する。すなわち、カメラ14において形成された撮像画像Jの基準点0jにマーカ画像G0が位置し、被検出対象部Pの路面高さZr(基準路面から被検出対象部Pまでの高さをいう。以下、同様とする)は0である。基準点0sは、カメラ14の垂直線Cが通る点であり、基準点0jは、撮像画像J上の基準点0sに対応する点である。
<Detection of road surface condition>
[Detection principle]
As shown in FIG. 7A, the angle θb formed by the road surface normal A and the optical axis B, the angle θc formed by the road surface normal A and the vertical axis C of the camera 14, the mounting height of the irradiation device 12 and the camera 14 The optical axis B intersects with the vertical axis C of the camera 14 at a point P (detection target portion) ahead of the irradiation device 12 by a distance Lp (hereinafter referred to as a preview distance) on the reference road surface. Designed to do.
Thus, in a state where the optical axis B and the vertical axis C of the camera 14 intersect at the point P on the reference road surface, the reference point 0s of the imaging region SR of the camera 14 is obtained as shown in FIG. A marker (spot light) M0 is located. That is, the marker image G0 is positioned at the reference point 0j of the captured image J formed by the camera 14, and the road surface height Zr of the detection target portion P (the height from the reference road surface to the detection target portion P is referred to below). , The same). The reference point 0s is a point through which the vertical line C of the camera 14 passes, and the reference point 0j is a point corresponding to the reference point 0s on the captured image J.

図7(a)が示すように、破線が示す突部80があると、照射装置12から照射されたレーザ光は路面上の点P1に当たるが、カメラ14の垂直線Cは、点P1において光軸Bと交差しない。そのため、図7(c)に示すように、撮像領域SRにおいて、マーカM1は基準点0sからX+方向(カメラ14の垂直線Cを基準にして車両から遠い方向であり、より前方)に外れた点に位置する。すなわち、撮像画像J1の基準点0jからX+方向へΔx1外れた点にマーカ画像G1が位置する。この基準点0jからのずれΔx1(画素数で表される)は、カメラ14の垂直線Cと点P1との間の距離Δh1に比例する。
また、点P1の、路面高さZr1は、距離Δh1を用いて、式(1)に従って求めることができる。
Zr1=Δh1・cosθb/sin(θc−θb)・・・(1)
式(1)において、比例定数{cosθb/sin(θc−θb)}は、一定の値であるため、路面高さZr1は、距離Δh1に比例することがわかる。また、比例係数{cosθb/sin(θc−θb)}は大きい方が望ましい。比例係数が大きい場合は小さい場合より、Δhの変化に対する路面の高さZrの変化を大きくすることができ、路面高さZrの変化を精度よく求めることができる。このように、光軸B,カメラ14の垂直線Cの路面法線Aに対する傾斜角度θb、θcは、比例係数が大きくなるように設定される。
As shown in FIG. 7A, when there is a projection 80 indicated by a broken line, the laser light emitted from the irradiation device 12 hits the point P1 on the road surface, but the vertical line C of the camera 14 is light at the point P1. Do not intersect axis B. Therefore, as shown in FIG. 7C, in the imaging region SR, the marker M1 has deviated from the reference point 0s in the X + direction (a direction far from the vehicle with respect to the vertical line C of the camera 14 and further forward). Located at a point. That is, the marker image G1 is located at a point that is Δx1 away from the reference point 0j in the captured image J1 in the X + direction. The deviation Δx1 (expressed by the number of pixels) from the reference point 0j is proportional to the distance Δh1 between the vertical line C of the camera 14 and the point P1.
Further, the road surface height Zr1 of the point P1 can be obtained according to the equation (1) using the distance Δh1.
Zr1 = Δh1 · cos θb / sin (θc−θb) (1)
In the equation (1), since the proportionality constant {cos θb / sin (θc−θb)} is a constant value, it can be seen that the road surface height Zr1 is proportional to the distance Δh1. Further, it is desirable that the proportionality coefficient {cos θb / sin (θc−θb)} is larger. When the proportionality coefficient is large, the change in the road surface height Zr with respect to the change in Δh can be made larger than when the proportionality coefficient is small, and the change in the road surface height Zr can be obtained with high accuracy. As described above, the inclination angles θb and θc of the optical axis B and the vertical line C of the camera 14 with respect to the road surface normal A are set so that the proportionality coefficient becomes large.

図7(a)に示すように、一点鎖線が示す凹部82があると、路面上の点P2においてレーザ光が当たるため、図7(d)に示すように、マーカM2は、撮像領域SRの基準点0sからX−方向(カメラ14の垂直線Cを基準にして車両に近い方であり、より後方)に外れた点に位置する。また、マーカ画像G2は撮像画像J2の基準点0jからX−方向へΔx2ずれた位置にある。この場合の路面高さZr2は、下式に従って求めることができる。
Zr2=Δh2・cosθb/sin(θc−θb)
(1)においてΔh1の代わりに(Δh2)を代入することによって求められるが、Δh2は負の値であり(Δh2<0)、凹部の路面高さZr2は負の値(Zr2<0)となる。
As shown in FIG. 7 (a), if there is a concave portion 82 indicated by the alternate long and short dash line, the laser beam hits at a point P2 on the road surface. Therefore, as shown in FIG. It is located at a point deviated from the reference point 0s in the X-direction (closer to the vehicle with respect to the vertical line C of the camera 14 and further rearward). Further, the marker image G2 is located at a position shifted by Δx2 in the X-direction from the reference point 0j of the captured image J2. The road surface height Zr2 in this case can be obtained according to the following equation.
Zr2 = Δh2 · cos θb / sin (θc−θb)
In (1), it is obtained by substituting (Δh2) instead of Δh1, but Δh2 is a negative value (Δh2 <0), and the road surface height Zr2 of the recess is a negative value (Zr2 <0). .

[ワーキングディスタンスの考慮]
一方、被検出対象部Pとカメラ14の垂直線Cとの間の距離Δhと画像J上の基準点0jとマーカ画像Gとの間の長さΔxとの関係は、カメラ14のレンズ14rと被検出対象部Pとの間の距離(図7参照:ワーキングディスタンスと称する。以下、WDと記載する)で決まる。
図8(a)に示すように、カメラ14のレンズ14rの特性により、路面にレーザ光が照射されることによって形成されたスポット(マーカ)の大きさが同じであっても、WDが短い場合は長い場合より画像J上のそのマーカ画像Gが大きくなる(例えば、画像Gの直径φで表すことができ、スポット径と称することができる)のであり(WDa>WDb,φa<φb)、図8(b)に示すように、実際の距離Δhの画像J上の長さΔxに対する比率k(=Δh/Δx)が小さくなる(ka>kb)。比率kは、画像Jを構成する画素の各々と、その画素に対応する被撮像対象物の部分の実際の大きさとの比率であると考えることができる。
図8(a)のマップで表されるWD決定テーブル、図8(b)のマップで表される係数決定テーブルは、予め作成されて、サスペンションECU30の記憶部に記憶されている。
[Consideration of working distance]
On the other hand, the relationship between the distance Δh between the detection target part P and the vertical line C of the camera 14 and the length Δx between the reference point 0j on the image J and the marker image G is as follows: It is determined by the distance to the detection target part P (see FIG. 7: referred to as working distance; hereinafter referred to as WD).
As shown in FIG. 8A, due to the characteristics of the lens 14r of the camera 14, the WD is short even if the size of the spot (marker) formed by irradiating the road surface with laser light is the same. Is larger than the marker image G on the image J (for example, it can be expressed by the diameter φ of the image G and can be referred to as a spot diameter) (WDa> WDb, φa <φb). As shown in FIG. 8B, the ratio k (= Δh / Δx) of the actual distance Δh to the length Δx on the image J is small (ka> kb). The ratio k can be considered as a ratio between each of the pixels constituting the image J and the actual size of the portion of the object to be imaged corresponding to the pixel.
The WD determination table represented by the map of FIG. 8A and the coefficient determination table represented by the map of FIG. 8B are created in advance and stored in the storage unit of the suspension ECU 30.

本実施例において、画像Jにおけるマーカ画像Gの直径φが求められる。そして、直径φと図8(a)のWD決定テーブルとから実際のWDが求められ、WDと図8(b)の比率決定テーブルとから比率kが求められる。そして、画像J上の基準点0jとマーカ画像Gとの間の距離Δxが求められ、比率kを掛けることにより、実際の距離Δhが求められる。
このように、実際のWDが検出され、比率kが求められて、距離Δhが求められるため、路面高さZrを正確に取得することができる。
In this embodiment, the diameter φ of the marker image G in the image J is obtained. Then, the actual WD is obtained from the diameter φ and the WD determination table in FIG. 8A, and the ratio k is obtained from the WD and the ratio determination table in FIG. 8B. Then, the distance Δx between the reference point 0j on the image J and the marker image G is obtained, and the actual distance Δh is obtained by multiplying by the ratio k.
Thus, the actual WD is detected, the ratio k is obtained, and the distance Δh is obtained, so that the road surface height Zr can be accurately obtained.

なお、照射装置12,カメラ14の相対位置関係によっては、WDの変化が小さい場合があり、その場合には、比率kの値を一定とすることもできる。それに対して、WDの変化が大きい場合には、比率kを取得し、比率kに基づいてΔhを求めることが望ましい。
また、照射装置12等が路面に反射したレーザ光を受光して、照射装置12と路面の照射点Pとの間の距離を検出可能なものである場合には、その値を利用することができ、マーカ画像Gの大きさに基づいてWDを求める必要はない。
Depending on the relative positional relationship between the irradiation device 12 and the camera 14, there may be a small change in WD. In this case, the value of the ratio k may be constant. On the other hand, when the change in WD is large, it is desirable to obtain the ratio k and obtain Δh based on the ratio k.
Further, when the irradiation device 12 or the like receives the laser beam reflected on the road surface and can detect the distance between the irradiation device 12 and the irradiation point P on the road surface, the value can be used. The WD need not be obtained based on the size of the marker image G.

[車体18の姿勢の考慮]
[1]路面高さ
走行中の車体18の姿勢の変化に起因して、照射装置12,カメラ14の取付高さZb、Zc、光軸B,カメラ14の垂直線Cと路面法線Aとの成す角度(取付角度)θb、θcは変化する。そして、取付高さ、取付角度が変化すると、図9に示すように、基準路面上で、光軸Bとカメラ14の垂直軸Cとが交差しないことがある。
例えば、照射装置12によって照射されたレーザ光が、破線で表される突部84の路面上の点Pで当たる場合を考える。マーカMがカメラ14によって撮像されて、撮像画像Jが形成される。撮像画像Jにおいてマーカ画像Gの位置に基づいて距離Δhが求められ、点Pの基準路面からの高さZr′が、式(2)に従って求められる。
Zr′=Δh・cosθb0/sin(θc0−θb0)+cosθc0・cosθb0
×(Zc0tanθc0−Zb0tanθb0−Lc0)/sin(θc0−θb0)・・・(2)
詳細には、図9に示すように、点Pの路面高さZr′は、部分高さZr1′と部分高さZr2′との和(=Zr1′+Zr2′)であり、部分高さZr1′は、下式に従って求めることができ、
Zr1′=Δh・cosθb0/sin(θc0−θb0
部分高さZr2′は、基準路面と、光軸Bとの交点と、カメラ14の垂直軸Cとの交点との間の前後方向の距離Lxを用いて、下式に従って求められる。
Zr2′=Lx/(tanθc0−tanθb0
また、距離Lxは、図9に示すように、照射装置12とカメラ14との前後方向の隔たりΔLを用いて、下式のように表される。
Lx=Zc0tanθc0−Zb0tanθb0−ΔL
このLxを上式に代入すると、下式のようになる。
Zr2′=(Zc0tanθc0−Zb0tanθb0−Lc0)/(tanθc0−tanθb0
また、(tanθc0−tanθb0)は、{sin(θc0−θb0)/cosθc0cosθb0}であるため、上式に代入すると、Zr2′が(2)式の第2項で表されることがわかる。
Zr2′=cosθc0・cosθb0×(Zc0tanθc0−Zb0tanθb0−Lc0
/sin(θc0−θb0
また、姿勢変化後の取付高さZb0、Zc0の、車体18が基準姿勢にある場合の取付け高さ(以下、基準取付高さと称する)Zb、Zcからの変位ΔZu
ΔZu=Zb0−Zb=Zc0−Zc
は、左右前輪10FL,FRのばね上部(車体18)の変位xuとしたり、あるいは、4輪10FL,FR,24RL,RRの変位の平均値としたりすることができる(ΔZu=xu)。
また、取付角度θb0、θc0の、車体18が基準姿勢にある場合の取付角度(以下、基準取付角度と称する)θb、θcからの変化角度Δθ
Δθ=θb0−θb≒θc0−θc
は、車体18の前後方向の傾斜角度{車体の基準姿勢からの前後方向の傾斜角度であり、ピッチ角と称することができる}θsであると考えることができる(Δθ=θs)。
[Consideration of the posture of the vehicle body 18]
[1] Road surface height Due to a change in the posture of the vehicle body 18 during traveling, the mounting heights Zb and Zc of the irradiation device 12 and the camera 14, the optical axis B, the vertical line C of the camera 14 and the road surface normal A The angles (mounting angles) θb and θc formed by the angle change. If the mounting height and the mounting angle change, the optical axis B and the vertical axis C of the camera 14 may not intersect on the reference road surface as shown in FIG.
For example, consider a case where the laser light emitted by the irradiation device 12 hits the point P on the road surface of the protrusion 84 represented by a broken line. The marker M is imaged by the camera 14, and the captured image J is formed. In the captured image J, the distance Δh is obtained based on the position of the marker image G, and the height Zr ′ of the point P from the reference road surface is obtained according to the equation (2).
Zr ′ = Δh · cos θb 0 / sin (θc 0 −θb 0 ) + cos θc 0 · cos θb 0
× (Zc 0 tanθc 0 −Zb 0 tanθb 0 −Lc 0 ) / sin (θc 0 −θb 0 ) (2)
Specifically, as shown in FIG. 9, the road surface height Zr ′ at the point P is the sum of the partial height Zr1 ′ and the partial height Zr2 ′ (= Zr1 ′ + Zr2 ′), and the partial height Zr1 ′. Can be determined according to the following equation:
Zr1 ′ = Δh · cos θb 0 / sin (θc 0 −θb 0 )
The partial height Zr2 ′ is obtained according to the following equation using the distance Lx in the front-rear direction between the intersection of the reference road surface, the optical axis B, and the intersection of the vertical axis C of the camera 14.
Zr2 ′ = Lx / (tan θc 0 −tan θb 0 )
Further, as shown in FIG. 9, the distance Lx is expressed by the following equation using a distance ΔL between the irradiation device 12 and the camera 14 in the front-rear direction.
Lx = Zc 0 tanθc 0 −Zb 0 tanθb 0 −ΔL
Substituting this Lx into the above equation yields the following equation.
Zr2 '= (Zc 0 tanθc 0 -Zb 0 tanθb 0 -Lc 0) / (tanθc 0 -tanθb 0)
Further, (tanθc 0 -tanθb 0) is, {sin (θc 0 -θb 0 ) / cosθc 0 cosθb 0} because it is, substituting the above equation is represented by the second term Zr2 'is (2) I understand that
Zr2 '= cosθc 0 · cosθb 0 × (Zc 0 tanθc 0 -Zb 0 tanθb 0 -Lc 0)
/ Sin (θc 0 −θb 0 )
Also, the displacements ΔZu from the mounting heights Zb 0 and Zc 0 when the vehicle body 18 is in the reference posture (hereinafter referred to as reference mounting heights) Zb and Zc after the posture change.
ΔZu = Zb 0 −Zb = Zc 0 −Zc
Can be the displacement xu of the unsprung parts (vehicle body 18) of the left and right front wheels 10FL, FR, or the average value of the displacements of the four wheels 10FL, FR, 24RL, RR (ΔZu = xu).
Further, the mounting angles θb 0 and θc 0 , the change angles Δθ from the mounting angles (hereinafter referred to as reference mounting angles) θb and θc when the vehicle body 18 is in the reference posture.
Δθ = θb 0 −θb≈θc 0 −θc
Can be considered to be θs (Δθ = θs), which is the inclination angle of the vehicle body 18 in the front-rear direction {the inclination angle in the front-rear direction from the reference posture of the vehicle body and can be referred to as the pitch angle}.

例えば、前輪側のばね上部の変位xuf、後輪側のばね上部の変位xur、ホイールベースLrに基づいて車体のピッチ角θsを求め、そのピッチ角θsと、基準取付角度θb、θcとに基づいて、姿勢変化後の光軸B、カメラ14の垂直線Cの路面法線Aに対する取付角度θb0、θc0を求めることができる。
θ=sin-1{(xuf−xur)/Lr}
θb0=θb+θs
θc0=θc+θs
ばね上部の変位xuは、ばね上上下加速度センサ50の検出値を2階積分することによって取得することができる。
なお、ピッチ角θsは、ピッチレイトセンサを設け、それの検出値に基づいて取得することもできる。
For example, the pitch angle θs of the vehicle body is obtained on the basis of the displacement x uf of the front-wheel-side sprung, the displacement x ur of the rear-spring-side sprung, and the wheel base Lr. The mounting angles θb 0 and θc 0 with respect to the road surface normal A of the optical axis B after the posture change and the vertical line C of the camera 14 can be obtained.
θ = sin −1 {(x uf −x ur ) / Lr}
θb 0 = θb + θs
θc 0 = θc + θs
The displacement xu of the sprung portion can be obtained by integrating the detection value of the sprung vertical acceleration sensor 50 by the second order.
Note that the pitch angle θs can also be obtained based on a detected value provided with a pitch rate sensor.

このように、被検出対象部Pの路面高さZrは路面状態の一態様である。また、互いに時間を隔てて求められた複数の路面高さZrに基づけば、路面の凹凸の形状,坂道である場合の勾配(路面状態の一態様である)を求めることもできる。
また、路面状態が、車体18の実際の姿勢に基づいて取得されるため、実際の姿勢に基づかないで取得される場合に比較して、正確に取得することができる。
Thus, the road surface height Zr of the detection target part P is an aspect of the road surface state. Further, based on a plurality of road surface heights Zr obtained at intervals from each other, the shape of the road surface unevenness and the gradient in the case of a slope (which is one aspect of the road surface state) can also be obtained.
Further, since the road surface state is acquired based on the actual posture of the vehicle body 18, it can be accurately acquired as compared with the case where the road surface state is acquired without being based on the actual posture.

[2]プレビュー距離
プレビュー距離は、路面上の被検出対象部Pとプレビュー制御の被制御対象輪(前輪10,あるいは、後輪24)との間の前後方向の距離をいう。また、プレビュー距離は、被検出対象部Pと照射装置12(カメラ14でもよい)との間の前後方向の距離である第1距離Lpと、照射装置12と被制御対象輪(前輪10,後輪24)との間の前後方向の距離である第2距離(Lf、Lf+Lr)との和となる。Lfは、前輪10の接地点と照射装置12のレンズ12rとの間の前後方向の距離である。
ここで、第1距離Lpは、図7に示すように、基準路面において車両が基準姿勢にある場合には、下式に従って求められる。
Lp=Zb・tanθb=Zc・tanθc−ΔL
しかし、第1距離Lpは、図7,9に示すように、路面の凹凸の状態、照射装置12,撮像装置14の取付位置、取付角度等によって変化する(Lp1,Lp2,Lp′)。
そして、図9における第1距離Lp′は、式(3)に従って求められる。
Lp′=Zb0・tanθb0−Zr′・tanθb0・・・(3)
路面高さZr′には、式(2)で求められた値が代入される。
(3)式から、第1距離Lpは、車体の実際の姿勢と被検出対象部Pの路面高さとに基づいて取得されることがわかる。
そして、第2距離(Lf、Lf+Lr)が一定の値とされる場合には、第1距離Lpが取得されれば、図1に示すように、前輪10,後輪24の各々についてプレビュー距離{(Lp+Lf)、(Lp+Lf+Lr)}が取得される。
なお、第1距離Lp,プレビュー距離は、左側車輪10FL,24RL、右側車輪10FR、24RRについて、それぞれ、求められる。
また、第2距離(Lf、Lf+Lr)は、予め定められた一定の値とすることもできるが、車体18の前後方向の傾斜角度θsに基づいて決まる値とすることもできる。
[2] Preview distance The preview distance is a distance in the front-rear direction between the detection target part P on the road surface and the control target wheel (the front wheel 10 or the rear wheel 24) for preview control. The preview distance includes the first distance Lp, which is the distance in the front-rear direction between the detection target part P and the irradiation device 12 (or the camera 14), and the irradiation device 12 and the control target wheel (front wheel 10, rear wheel). It is the sum of the second distance (Lf, Lf + Lr), which is the distance in the front-rear direction between the wheel 24). Lf is the distance in the front-rear direction between the ground point of the front wheel 10 and the lens 12r of the irradiation device 12.
Here, as shown in FIG. 7, the first distance Lp is obtained according to the following expression when the vehicle is in the reference posture on the reference road surface.
Lp = Zb · tan θb = Zc · tan θc−ΔL
However, as shown in FIGS. 7 and 9, the first distance Lp varies depending on the unevenness of the road surface, the mounting positions of the irradiation device 12 and the imaging device 14, the mounting angle, etc. (Lp1, Lp2, Lp ′).
And the 1st distance Lp 'in FIG. 9 is calculated | required according to Formula (3).
Lp ′ = Zb 0 · tan θb 0 −Zr ′ · tan θb 0 (3)
The value obtained by the equation (2) is substituted into the road surface height Zr ′.
From the equation (3), it can be seen that the first distance Lp is acquired based on the actual posture of the vehicle body and the road surface height of the detection target portion P.
If the second distance (Lf, Lf + Lr) is a constant value and the first distance Lp is acquired, as shown in FIG. 1, the preview distance { (Lp + Lf), (Lp + Lf + Lr)} is acquired.
The first distance Lp and the preview distance are obtained for the left wheels 10FL and 24RL and the right wheels 10FR and 24RR, respectively.
Further, the second distance (Lf, Lf + Lr) can be a predetermined constant value, or can be a value determined based on the inclination angle θs of the vehicle body 18 in the front-rear direction.

<プレビュー制御>
プレビュー距離が求められると、それを車速Vで割った時間Tf,Tr(以下、余裕時間と称することがある)が求められる。余裕時間Tf,Trは、被検出対象部Pを前輪10、後輪24が通過するまでの時間であり、制御指令値の作成等を行い得る時間である。
プレビュー制御においては、被検出対象部Pを、前輪10、後輪24が通過するのに合わせて、アクチュエータ28が、その路面状態に起因する振動を抑制し得るタイミングで制御指令値が出力される。アクチュエータ28の作動遅れが小さい場合には、余裕時間Tf、Trが経過した時に制御指令値が出力されればよいが、作動遅れが大きい場合には、余裕時間より遅れ時間ΔTだけ前に、すなわち、時間(Tf−ΔT),(Tr−ΔT)が経過した時に、制御指令値が出力されるようにすることが望ましい。
上述のように、本実施例においては、プレビュー距離が正確に求められるため、被制御対象輪と被検出対象部Pとの間の距離を正確に求めることができる。また、制御指令値が、被検出対象部Pの路面高さZr、路面勾配dZr等に基づいて取得されるが、路面高さZr、路面勾配dZr等が正確に求められるため、プレビュー制御を良好に行うことができ、車体18の振動を良好に抑制することができる。
<Preview control>
When the preview distance is obtained, times Tf and Tr (hereinafter sometimes referred to as margin time) obtained by dividing the preview distance by the vehicle speed V are obtained. The margin times Tf and Tr are the time until the front wheel 10 and the rear wheel 24 pass through the detection target part P, and are the times when the control command value can be created.
In the preview control, the control command value is output at a timing at which the actuator 28 can suppress the vibration caused by the road surface condition as the front wheel 10 and the rear wheel 24 pass through the detection target portion P. . When the operation delay of the actuator 28 is small, the control command value may be output when the allowance times Tf and Tr have elapsed. However, when the operation delay is large, the delay time ΔT before the allowance time, that is, It is desirable to output the control command value when the times (Tf−ΔT) and (Tr−ΔT) have elapsed.
As described above, in the present embodiment, since the preview distance is accurately obtained, the distance between the controlled wheel and the detection target part P can be accurately obtained. Further, the control command value is acquired based on the road surface height Zr, road surface gradient dZr, etc. of the detection target part P, but the preview control is good because the road surface height Zr, road surface gradient dZr, etc. are accurately obtained. Thus, vibration of the vehicle body 18 can be satisfactorily suppressed.

図10(a)のフローチャートで表される路面状態検出プログラムは、予め定められた設定時間毎に実行される。
S11において、実際のばね上変位xu、車体の傾斜角度θsが求められ、S12において、照射装置12,カメラ14の実際の取付高さZb0、Zc0、光軸B、カメラ14の垂直軸Cの実際の取付角度θb0、θc0が求められる。S13において、後述するように処理領域が決定されてカメラ14に出力される。S14において、カメラ14において形成された画像(撮像画像の一部であるため部分画像と称する)が取得され、S15において、部分画像上のマーカ画像Gの大きさφが求められて、WDが求められ、比率kが求められる。また、S16において、部分画像において、マーカ画像Gと基準点0jとの間の長さΔxが求められ、比率kを掛けることにより距離Δhが求められる。そして、S17において、式(2)にΔh、Zb0、Zc0、θb0、θc0を代入することにより、路面高さZr′が取得され、S18において、式(3)に代入することにより第1距離Lp′が求められる。
なお、車体18が基準姿勢にある場合には、Zb0、Zc0、θb0、θc0はそれぞれ基準取付高さZb、Zc、基準取付角度θb、θcとなる。
The road surface state detection program represented by the flowchart in FIG. 10A is executed at predetermined time intervals.
In S11, the actual sprung displacement xu and the inclination angle θs of the vehicle body are obtained. In S12, the actual mounting heights Zb 0 , Zc 0 , the optical axis B, and the vertical axis C of the camera 14 are determined. The actual mounting angles θb 0 and θc 0 are obtained. In S13, a processing area is determined and output to the camera 14 as described later. In S14, an image formed by the camera 14 (referred to as a partial image because it is a part of the captured image) is acquired. In S15, the size φ of the marker image G on the partial image is obtained, and the WD is obtained. And the ratio k is determined. In S16, in the partial image, the length Δx between the marker image G and the reference point 0j is obtained, and the distance Δh is obtained by multiplying by the ratio k. In S17, Δh, Zb 0 , Zc 0 , θb 0 , and θc 0 are substituted into Equation (2) to obtain the road surface height Zr ′. In S18, substitution into Equation (3) is performed. A first distance Lp ′ is determined.
When the vehicle body 18 is in the reference posture, Zb 0 , Zc 0 , θb 0 , and θc 0 are the reference attachment heights Zb and Zc and the reference attachment angles θb and θc, respectively.

図10(b)のフローチャートで表される画像形成プログラムは、カメラ14において、照射装置12によってマーカとしてのレーザ光が出力される毎に実行される。
S21において、撮像領域SRで決まる被撮像対象物(マーカMを含む)が撮像される。それにより、CCD14sにおいて光学的な画像が形成され、光信号が電気信号に変換される。S22において、処理領域に関する情報が取得され、S23において、その処理領域内のCCD14sの電気信号が処理され、画像が形成される。ここで形成される画像は、撮像画像Jの一部である。また、形成された部分画像は、サスペンションECU30に供給される(S14)。
The image forming program represented by the flowchart of FIG. 10B is executed each time laser light as a marker is output by the irradiation device 12 in the camera 14.
In S21, an object to be imaged (including the marker M) determined by the imaging region SR is imaged. Thereby, an optical image is formed in the CCD 14s, and the optical signal is converted into an electric signal. In S22, information regarding the processing area is acquired, and in S23, the electrical signal of the CCD 14s in the processing area is processed to form an image. The image formed here is a part of the captured image J. Further, the formed partial image is supplied to the suspension ECU 30 (S14).

図11のフローチャートで表されるプレビュー制御プログラムは予め定められた設定時間毎に実行される。
S25において、前輪10についてのプレビュー距離Lpf(=Lp+Lf)、後輪24についてのプレビュー距離Lpr(=Lp+Lf+Lr)が求められる。S26において、これらのプレビュー距離Lpf、Lprを車速Vで割ることにより、余裕時間Tf、Trが求められる。また、S27において、路面高さZr′、路面勾配dZr′等に基づいて、車輪10,24が路面高さZr′の部分を通過する際に生じるばね上部(車体18)の振動を抑制し得る目標上下力(制御指令値に対応)が求められる。そして、S28において、時間(Tf−ΔT)が経過した時に、前輪10FL,FRのアクチュエータ28FL,FRへの制御指令値が出力され、時間(Tr−ΔT)が経過した時に、後輪24RL,RRのアクチュエータ28RL,RRへの制御指令値が出力される。
The preview control program represented by the flowchart of FIG. 11 is executed at predetermined time intervals.
In S25, the preview distance Lpf (= Lp + Lf) for the front wheel 10 and the preview distance Lpr (= Lp + Lf + Lr) for the rear wheel 24 are obtained. In S26, margin times Tf and Tr are obtained by dividing the preview distances Lpf and Lpr by the vehicle speed V. Further, in S27, the vibration of the upper part of the spring (vehicle body 18) generated when the wheels 10, 24 pass the portion of the road surface height Zr 'can be suppressed based on the road surface height Zr', the road surface gradient dZr ', and the like. A target vertical force (corresponding to the control command value) is obtained. In S28, when the time (Tf−ΔT) elapses, the control command values to the actuators 28FL, FR of the front wheels 10FL, FR are output, and when the time (Tr−ΔT) elapses, the rear wheels 24RL, RR. The control command value to the actuators 28RL and RR is output.

以上のように、本実施例においては、路面画像取得部11L,RおよびサスペンションECU30の図10(a)のフローチャートで表される路面状態検出プログラムを記憶する部分、実行する部分等により路面状態検出部62が構成される。路面状態検出部62は姿勢依拠路面状態検出部、取付高さ依拠検出部、取付角度依拠検出部、WD依拠検出部でもある。また、アクチュエータ28、サスペンションECU30の図11のフローチャートで表されるプレビュー制御プログラムを記憶する部分、実行する部分、図10のフローチャートで表される路面状態検出プログラムのS17,18を記憶する部分、実行する部分等によりプレビュー制御部66が構成される。そのうちの、S18、S25を記憶する部分、実行する部分等によりプレビュー距離取得部が構成される。
また、ばね上上下Gセンサ50,サスペンションECU30のS11を記憶する部分、実行する部分等によりばね上変位取得部64が構成され、ばね上上下Gセンサ50,S12の一部(取付高さを求める部分)を記憶する部分、実行する部分等により取付高さ取得部が構成される。また、ばね上上下Gセンサ50,S11の一部(車体18の傾斜角度を求める部分)を記憶する部分、実行する部分等により車体傾斜角度検出部が構成され、S12の一部(車体18の傾斜角度に基づいて取付角度を求める部分)を記憶する部分、実行する部分等により取付角度取得部が構成される。
さらに、サスペンションECU30のS15を記憶する部分、実行する部分等によりWD取得部が構成される。
As described above, in the present embodiment, the road surface state detection is performed by the part that stores the road surface state detection program represented by the flowchart of FIG. Part 62 is configured. The road surface state detection unit 62 is also a posture-dependent road surface state detection unit, an attachment height dependency detection unit, an attachment angle dependency detection unit, and a WD dependency detection unit. In addition, the actuator 28, the part that stores the preview control program shown in the flowchart of FIG. 11 of the suspension ECU 30, the part that executes it, the part that stores S17 and 18 of the road surface condition detection program shown in the flowchart of FIG. The preview control unit 66 is configured by the parts to be performed. Of these, the preview distance acquisition unit is configured by the part that stores S18 and S25, the part that executes S18, and the like.
Further, a sprung displacement acquisition unit 64 is configured by the sprung vertical G sensor 50, the part that stores S11 of the suspension ECU 30, and the part that executes it, and a part of the sprung vertical G sensor 50, S12 (determining the mounting height). The mounting height acquisition unit is configured by a part that stores (part), a part that executes the part, and the like. Further, a part of the sprung vertical G sensor 50, S11 (part for obtaining the inclination angle of the vehicle body 18), a part for executing the part, etc. constitute a vehicle body inclination angle detection unit. A part for storing the part for obtaining the attachment angle based on the inclination angle, a part for executing the part, and the like constitute an attachment angle acquisition unit.
Furthermore, a WD acquisition unit is configured by a part that stores S15 of the suspension ECU 30, a part that executes S15, and the like.

<処理領域の決定>
カメラ14は、図12(b)に示すように撮像領域SRで決まる被撮像対象物を撮像するが、図12(c)に示すように、撮像領域SRに対応する撮像画像Jに対してマーカ画像Gは非常に小さい。また、撮像画像Jを構成する画素数は多く(本実施例においては、Na×Nbヶ)、撮像領域SR内のすべてのCCD14sについて処理を行うと長時間を要する。
一方、プレビュー制御においては、被検出対象部Pを前輪10が通過するまでの間に、被検出対象部Pの路面状態を検出し、制御指令値を作成しなければならず、速やかに画像を形成する必要がある。
それに対して、路面が平坦である場合において、車体18が基準姿勢にある場合には、マーカMは、図13(a)に示すように、撮像領域RSの予め定められた基準点0sの近傍に位置するはずである。
また、制動時、すなわち、前傾姿勢にある場合には、マーカMuは、図14(a)に示すように、基準点0sよりX+方向(車両の前後方向の前方)にずれた点に位置し、駆動時、すなわち、後傾姿勢にある場合にはX−方向(車両の前後方向の後方)にずれた点に位置(Md)する。
さらに、旋回中には、マーカMr、Mlは、図15(a)に示すように、基準点0sよりY方向(車両の横方向)へずれた点に位置する。車体18は、遠心力により旋回外側に傾斜するため、カメラ14の垂直線Cに対して照射装置12の光軸Bが旋回外側に位置するため、マーカMは基準点0sより旋回外側にずれる。
なお、図には記載されていないが、前後方向の姿勢の変化、横方向の姿勢の変化が生じた場合には、カメラ14の取付角度θcが変化するため、実際には、撮像領域SRも変化する。また、旋回時には、車体18は横方向へ傾斜するのに伴って上下方向に移動するため、実際には、マーカMr,Mlは、X+、X−方向にもずれる。
<Determination of processing area>
The camera 14 captures an object to be imaged determined by the imaging region SR as shown in FIG. 12 (b), but as shown in FIG. 12 (c), a marker is used for the captured image J corresponding to the imaging region SR. Image G is very small. Further, the number of pixels constituting the captured image J is large (in this embodiment, Na × Nb), and it takes a long time to process all the CCDs 14s in the imaging region SR.
On the other hand, in preview control, until the front wheel 10 passes through the detection target part P, the road surface state of the detection target part P must be detected and a control command value must be created, and the image can be quickly displayed. Need to form.
On the other hand, when the road surface is flat and the vehicle body 18 is in the reference posture, the marker M is in the vicinity of the predetermined reference point 0s in the imaging region RS as shown in FIG. Should be located at.
Further, at the time of braking, that is, when the vehicle is in a forward leaning posture, the marker Mu is positioned at a point shifted in the X + direction (forward in the front-rear direction of the vehicle) from the reference point 0s as shown in FIG. During driving, that is, when the vehicle is in a tilted posture, it is positioned (Md) at a point shifted in the X-direction (backward in the front-rear direction of the vehicle).
Further, during turning, the markers Mr and Ml are located at points shifted from the reference point 0s in the Y direction (lateral direction of the vehicle) as shown in FIG. 15 (a). Since the vehicle body 18 is tilted outward due to centrifugal force, the optical axis B of the irradiation device 12 is located on the outer side of the rotation with respect to the vertical line C of the camera 14, and therefore the marker M is shifted outward from the reference point 0s.
Although not shown in the figure, the mounting angle θc of the camera 14 changes when a change in posture in the front-rear direction or a change in posture in the horizontal direction occurs. Change. Further, at the time of turning, the vehicle body 18 moves in the vertical direction as it tilts in the lateral direction, so that the markers Mr and Ml are actually shifted in the X + and X− directions.

このように、車体18の姿勢の変化により、路面が平坦である場合のマーカMの位置が基準点0sからずれる。そして、この点を中心として、路面の凹凸の変化、通常範囲の走行状態の変化等に伴ってマーカの位置がX方向、Y方向へ移動する。したがって、本実施例においては、処理領域を、マーカMが、マーカ(Mu,Md,Mr,Ml)の位置を中心にして、X方向、Y方向にずれても、内部に位置するように決定される。
例えば、車両が基準姿勢にある場合には、図13(b)に示すように、処理領域が基準領域Roとされる。基準領域Roは撮像領域SRの一部であり、基準領域Roに対応する部分画像JRoは撮像画像Jの一部である。
基準領域Roは、例えば、Y方向(車両の幅方向に対応)の長さ(画素数で表すことができる)dyを、前輪10,後輪24のタイヤの幅より多少大きい長さとすることができ、X方向(前後方向に対応)の長さdxは、通常走行中の加速、減速に起因してマーカMがX方向に移動しても基準領域Roに含まれ、かつ、予め定められた形状の路面を検出可能な長さとすることができる。このように、基準領域Roをできる限り狭くすれば、基準姿勢にある場合の処理時間(画像形成時間)を短くすることができる。
Thus, due to the change in the posture of the vehicle body 18, the position of the marker M when the road surface is flat deviates from the reference point 0s. Then, with this point as the center, the position of the marker moves in the X direction and the Y direction in accordance with a change in road surface unevenness, a change in driving condition in the normal range, and the like. Therefore, in the present embodiment, the processing region is determined so that the marker M is positioned inside even if the marker M is shifted in the X direction or the Y direction with the marker (Mu, Md, Mr, Ml) as the center. Is done.
For example, when the vehicle is in the reference posture, the processing area is set as the reference area Ro as shown in FIG. The reference area Ro is a part of the imaging area SR, and the partial image JRo corresponding to the reference area Ro is a part of the captured image J.
For example, the reference region Ro may have a length dy in the Y direction (corresponding to the width direction of the vehicle) (which can be expressed by the number of pixels) dy slightly longer than the tire width of the front wheels 10 and the rear wheels 24. The length dx in the X direction (corresponding to the front-rear direction) is included in the reference region Ro even if the marker M moves in the X direction due to acceleration and deceleration during normal traveling, and is determined in advance. The length of the road surface can be detected. In this way, if the reference area Ro is made as narrow as possible, the processing time (image formation time) in the reference posture can be shortened.

設定値以上の制動力が加えられた場合、あるいは、減速度が設定値より大きい場合には、処理領域を、図14(b)の一点鎖線が示すように、基準領域RoをX+方向にΔquだけ移動させた領域Ruとしたり、破線が示すように基準領域RoをΔquに対応する領域だけ広くした領域Ruaとしたりすることができる。また、制動時領域Ru,Ruaについて処理が行われると、部分画像JRu,JRuaが得られる。部分画像JRu,JRuaには、マーカ画像Guおよび基準点0jが含まれる。
なお、図14(b)において、破線と一点鎖線とをずらして書いたが、これは、基準領域Ro,制動時領域Ru,Ruaの差を明確にするためである。また、基準領域Roを移動して制動時領域Ruとすることと、基準領域Roを拡大して制動時領域Ruaとすることとの両方を合わせて、基準領域Roを変更すると称する。図14(c)、図15(b)、(c)についても同様である。
When a braking force equal to or greater than the set value is applied, or when the deceleration is greater than the set value, the reference area Ro is set to Δqu in the X + direction as indicated by the one-dot chain line in FIG. It is possible to make the region Ru moved only by the region Ru, or as shown by the broken line, the reference region Ro can be made a region Rua widened by a region corresponding to Δqu. Further, when the processing is performed for the braking time regions Ru and Rua, partial images JRu and JRua are obtained. The partial images JRu and JRua include a marker image Gu and a reference point 0j.
In FIG. 14B, the broken line and the alternate long and short dash line are drawn in order to clarify the difference between the reference region Ro and the braking time regions Ru and Rua. The reference region Ro is referred to as changing the reference region Ro by moving both of the reference region Ro to the braking time region Ru and expanding the reference region Ro to the braking time region Rua. The same applies to FIGS. 14 (c), 15 (b), and (c).

設定値以上の駆動力が加えられた場合、あるいは、加速度が設定値より大きい場合には、図14(c)の一点鎖線が示すように、基準領域RoをX−方向にΔqdだけ移動させた駆動時領域Rdとしたり、破線が示すようにX−方向にΔqdに対応する領域だけ広くした駆動時領域Rdaとしたりすることができる。また、駆動時領域Rd,Rdaについて処理が行われると、マーカ画像Gdおよび基準点0jを含む部分画像JRd,JRdaが得られる。
本実施例においては、図14(a)が示すように、遠近法により、前後方向の距離が同じであっても、遠い側(X+)が近い側(X−)より、撮像領域SR上の長さが短くなる。そのため、制動時領域を決定する際の変更幅Δquを駆動時領域を決定する際の変更幅Δqdより小さくすれば(Δqu<Δqd)、変更幅に対応する路面上の面積をほぼ同じにすることができる。
When a driving force exceeding the set value is applied, or when the acceleration is greater than the set value, the reference region Ro is moved by Δqd in the X-direction as indicated by the alternate long and short dash line in FIG. The driving time region Rd can be used, or, as indicated by the broken line, the driving time region Rda can be made wide by a region corresponding to Δqd in the X-direction. Further, when the processing is performed on the driving time regions Rd and Rda, partial images JRd and JRda including the marker image Gd and the reference point 0j are obtained.
In the present embodiment, as shown in FIG. 14A, the far side (X +) is closer to the near side (X−) than the near side (X−) by the perspective method even if the distance in the front-rear direction is the same. The length is shortened. Therefore, if the change width Δqu when determining the braking time region is made smaller than the change width Δqd when determining the driving time region (Δqu <Δqd), the area on the road surface corresponding to the change width is made substantially the same. Can do.

右方向へのステアリングホイールの操舵角Φが設定角度より大きい場合、あるいは、左方向(旋回外方)に加えられる横加速度が設定値より大きい場合には、図15(b)の一点鎖線が示すように、基準領域RoをY−方向(左方向、すなわち、旋回外方)にΔqrだけ移動させた右旋回時領域Rrとしたり、破線が示すように、Y−方向にΔqrに対応する面積だけ広げた右旋回時領域Rraとしたりすることができる。右旋回時領域Rr,Rraについて処理が行われると、マーカ画像Gr、基準点0jを含む部分画像JRr,JRraが得られる。
左方向への操舵角度Φが設定角度より大きい場合、あるいは、右方向に加えられる横加速度が設定値より大きい場合には、図15(c)の一点鎖線が示すように、Y+方向にΔqlだけ移動させた左旋回時領域Rlとしたり、破線が示すように、Y+方向にΔqlに対応する面積だけ広げた左旋回時領域Rlaとしたりすることができる。左旋回時領域Rl,Rlaについて処理が行われると、マーカ画像Gl、基準点0jを含む部分画像JRl,JRlaが得られる。
なお、部分画像JRが基準点0jを含むのは、マーカ画像Gと基準点0jとの間の長さΔxを求める必要があるからである。
また、車両の走行状態は、CAN32を介して得られるアクセル開度、ブレーキ操作部材のストローク、ステアリングホイールの操舵角の大きさを表す情報に基づいて取得したり、前後Gセンサ54,横Gセンサ56の検出値に基づいて取得したりすることができる。さらに、ピッチレイトセンサ、ヨーレイトセンサ、舵角センサ、ロールレイトセンサ等を設け、これらの検出値に基づいて取得することもできる。
When the steering angle Φ of the steering wheel in the right direction is larger than the set angle, or when the lateral acceleration applied in the left direction (outward of turning) is larger than the set value, a one-dot chain line in FIG. As described above, the reference region Ro is a right turn region Rr moved by Δqr in the Y-direction (left direction, that is, outward of the turn), or an area corresponding to Δqr in the Y-direction as indicated by a broken line. It is possible to make the region Rra when turning right just widened. When processing is performed for the right-turn regions Rr and Rra, partial images JRr and JRra including the marker image Gr and the reference point 0j are obtained.
When the steering angle Φ in the left direction is larger than the set angle, or when the lateral acceleration applied in the right direction is larger than the set value, as indicated by the one-dot chain line in FIG. The left turn area R1 can be used, or, as indicated by the broken line, the left turn area Rla can be expanded in the Y + direction by an area corresponding to Δql. When the processing is performed for the left turning regions Rl and Rla, the partial images JRl and JRla including the marker image Gl and the reference point 0j are obtained.
The partial image JR includes the reference point 0j because it is necessary to obtain the length Δx between the marker image G and the reference point 0j.
In addition, the traveling state of the vehicle can be acquired based on information indicating the accelerator opening obtained through the CAN 32, the stroke of the brake operation member, the magnitude of the steering angle of the steering wheel, the front / rear G sensor 54, and the lateral G sensor. Or obtained based on 56 detection values. Furthermore, a pitch rate sensor, a yaw rate sensor, a rudder angle sensor, a roll rate sensor, and the like can be provided and acquired based on these detection values.

図16のフローチャートで表される処理領域決定ルーチン(S13)は予め定められた設定時間毎に実行される。
S41〜43において、アクセル開度Aが設定値Athより大きいか否か(駆動力が設定値より大きいか否か)、ブレーキペダルの操作ストロークBSが設定ストロークBSthより大きいか否か(制動力が設定値より大きいか否か)、ステアリングホイールの操舵角Φの絶対値|Φ|が設定角度Φthより大きいか否かが判定される。すべての判定結果がNOである場合には、S44において、処理領域が基準領域Roとされる。
それに対してアクセル開度Aが設定値Athより大きい場合には、S45において、基準領域RoがX−方向へΔqd変更されて、駆動時領域(Rd,Rda)に決定される。また、ブレーキ操作ストロークBSが設定ストロークBSthより大きい場合には、S46において、基準領域RoがX+方向へΔqu変更されて、制動時領域(Ru,Rua)に決定される。
さらに、ステアリングホイールの操舵角の絶対値|Φ|が設定角度Φthより大きい場合には、その操舵角Φの符号に基づいて旋回方向が決定される。S47において右旋回であるか否かが判定され、右旋回時には、S48において、処理領域が右旋回時領域(Rr,Rra)に決定されるのであり、基準領域RoがY−方向へΔqr変更される。左旋回時には、S49において、左旋回時領域(Rl,Rla)に決定される(基準領域RoがY+方向へΔql変更される)。
また、S45,46が実行された場合には、S50において、操舵角の絶対値|Φ|が設定角度Φthより大きいか否かが判定される。設定角度Φth以下である場合には、判定がNOとなり、S45,46において決定された処理領域とされる。それに対して、設定角度Φthより大きい場合には、S47〜49が実行される。S45,46において変更されるととともに、S48,49においても変更されるのであり、基準領域Roが、X、Yの両方向に変更されることになる。
また、処理領域が基準領域Roより拡大される場合(Rua,Rda,Rra,Rla)には、S45,46,48,49の実行後にS44が実行された場合に、処理領域が縮小されることになる。
このように、処理領域が走行状態に基づいて変更されるようにすれば、マーカ画像Gを良好に認識することができ(路面状態を良好に検出することができ)、しかも、処理時間を短くできる。また、スポット状のマーカを利用して路面状態が検出されるため、処理領域を狭くすることができ、それによっても、処理時間の短縮を図ることができる。
The processing area determination routine (S13) represented by the flowchart of FIG. 16 is executed at predetermined time intervals.
In S41 to 43, whether or not the accelerator opening A is larger than the set value Ath (whether the driving force is larger than the set value), or whether the operation stroke BS of the brake pedal is larger than the set stroke BSth (the braking force is It is determined whether or not the absolute value | Φ | of the steering angle Φ of the steering wheel is greater than the set angle Φth. If all the determination results are NO, in S44, the processing area is set as the reference area Ro.
On the other hand, if the accelerator opening A is larger than the set value Ath, in S45, the reference region Ro is changed by Δqd in the X-direction and determined as the drive time region (Rd, Rda). On the other hand, if the brake operation stroke BS is larger than the set stroke BSth, the reference area Ro is changed by Δcu in the X + direction in S46 and determined as the braking time area (Ru, Rua).
Further, when the absolute value | Φ | of the steering angle of the steering wheel is larger than the set angle Φth, the turning direction is determined based on the sign of the steering angle Φ. In S47, it is determined whether or not the vehicle is turning right. When turning right, the processing area is determined as the right turning area (Rr, Rra) in S48, and the reference area Ro is in the Y-direction. Δqr is changed. When turning left, in S49, the left turning region (Rl, Rla) is determined (the reference region Ro is changed by Δql in the Y + direction).
When S45 and 46 are executed, it is determined in S50 whether or not the absolute value | Φ | of the steering angle is larger than the set angle Φth. If the angle is equal to or smaller than the set angle Φth, the determination is no and the processing area determined in S45 and 46 is set. On the other hand, when it is larger than the set angle Φth, S47 to 49 are executed. Since it is changed in S45, 46 and also in S48, 49, the reference region Ro is changed in both the X and Y directions.
Further, when the processing area is enlarged from the reference area Ro (Rua, Rda, Rra, Rla), the processing area is reduced when S44 is executed after the execution of S45, 46, 48, 49. become.
Thus, if the processing area is changed based on the running state, the marker image G can be recognized well (the road surface state can be detected well), and the processing time can be shortened. it can. Further, since the road surface state is detected using spot-like markers, the processing region can be narrowed, and the processing time can be shortened accordingly.

なお、制動時領域Ru(Rua),駆動時領域Rd(Rda)の基準領域Roに対する変更量Δqu,Δqdは、前後Gの絶対値が大きい場合は小さい場合より大きくすることができる。旋回時領域についても同様であり、横Gの絶対値が大きい場合は小さい場合より変更量Δqr,Δqlを大きくすることができる。
また、本実施例においては、処理領域Rが長方形状である場合について説明したが、台形状とすることもできる。遠近法に基づくと、処理領域を台形状とした場合に撮像領域を長方形状の領域とすることができる。
さらに、処理領域Rを長方形で表される領域と台形で表される領域との間で変更することもできる。
また、基準領域Roは、予め定められた設定時間内に車両が走行した場合の、カメラ14の撮像領域SR内のマーカMの位置を記憶し、それに応じて基準領域Roを決めることができる。例えば、記憶されたマーカMの80%(60%〜90%の間の値とすることができる)が含まれる最小の領域とすることができる。
また、処理領域の基準領域からの変更の向きは、照射装置12とカメラ14との相対位置関係で決まる。例えば、カメラ14が照射装置12より上方にある場合には、制動時にX−方向へ変更することが望ましく、右旋回時には、Y+方向へ変更することが望ましい。
さらに、坂道を走行している場合には、処理領域をX+方(遠い方)へ変更することもできる。より遠くの路面状態を検出することができるからである。
また、処理領域を変更することは不可欠ではない。常に一定の大きさ、位置の領域とすることもできる。
It should be noted that the change amounts Δqu and Δqd of the braking time region Ru (Rua) and the driving time region Rd (Rda) with respect to the reference region Ro can be made larger when the absolute values of the front and rear G are large than when they are small. The same applies to the turning region. When the absolute value of the lateral G is large, the change amounts Δqr and Δql can be made larger than when the absolute value is small.
In the present embodiment, the case where the processing region R has a rectangular shape has been described. However, the processing region R may have a trapezoidal shape. Based on the perspective method, when the processing area is trapezoidal, the imaging area can be a rectangular area.
Further, the processing area R can be changed between a rectangular area and a trapezoidal area.
Further, the reference area Ro stores the position of the marker M in the imaging area SR of the camera 14 when the vehicle travels within a predetermined set time, and the reference area Ro can be determined accordingly. For example, it may be a minimum area including 80% of the stored marker M (which may be a value between 60% and 90%).
Further, the direction of change of the processing area from the reference area is determined by the relative positional relationship between the irradiation device 12 and the camera 14. For example, when the camera 14 is above the irradiation device 12, it is desirable to change to the X-direction during braking, and it is desirable to change to the Y + direction when turning right.
Further, when the vehicle is traveling on a slope, the processing area can be changed to the X + direction (the far side). This is because a far road surface state can be detected.
Moreover, it is not essential to change the processing area. It can always be a region of a certain size and position.

本実施例においては、前後Gセンサ54,横Gセンサ56、サスペンションECU30の図10のフローチャートで表される路面状態検出プログラムのS13を記憶する部分、実行する部分(図16のフローチャートで表される画像処理領域決定ルーチンを記憶する部分、実行する部分),アクセル開度,操作ストローク,操舵角を取得する部分等により領域決定部68が構成される。領域決定部は処理領域決定部でもある。また、そのうちの処理領域決定ルーチンのS41,42,45,46を記憶する部分、実行する部分等により前後傾斜時領域決定部が構成され、S43,47〜49を記憶する部分、実行する部分等により旋回時領域決定部が構成され、S44を記憶する部分、実行する部分等により基準状態時基準領域決定部が構成される。これらにより、前回決定された領域を移動させる手段や、拡大、縮小する手段が構成される場合がある。
さらに、サスペンションECU30のアクセル開度,操作ストローク,操舵角等を取得する部分,前後Gセンサ54,横Gセンサ56等により姿勢検出装置、走行状態検出装置が構成される。
なお、アクセル開度センサ44、操作ストロークセンサ42、操舵角センサ40等が姿勢検出装置、走行状態検出装置、領域決定部の構成要素であると考えることもできる。
In the present embodiment, the front / rear G sensor 54, the lateral G sensor 56, and the suspension ECU 30 that stores and executes S13 of the road surface condition detection program represented by the flowchart of FIG. 10 (represented by the flowchart of FIG. 16). The area determination unit 68 is configured by a part for storing an image processing area determination routine, a part for executing the routine, a part for acquiring an accelerator opening, an operation stroke, a steering angle, and the like. The region determination unit is also a processing region determination unit. In addition, the part for storing and executing S41, 42, 45, and 46 of the processing area determination routine includes a part for executing the forward / backward tilt area determining unit, and the part for storing and executing S43, 47 to 49. The turning time region determining unit is configured, and the reference state determining region determining unit is configured by the portion that stores S44, the portion that executes S44, and the like. These may constitute means for moving the previously determined area and means for enlarging or reducing.
Further, a portion for acquiring the accelerator opening, operation stroke, steering angle, etc. of the suspension ECU 30, the front / rear G sensor 54, the lateral G sensor 56, etc. constitute an attitude detection device and a traveling state detection device.
The accelerator opening sensor 44, the operation stroke sensor 42, the steering angle sensor 40, and the like can also be considered as components of the attitude detection device, the travel state detection device, and the region determination unit.

なお、本実施例に係る領域決定部68は、マーカMを撮像する場合に限らず、車両の周辺の物体を撮像する場合に適用することもできる。例えば、照射装置12を含まない周辺環境取得装置に適用することができる。
また、衝突防止制御装置、前方車両追従制御装置等において前方物体を検出する場合のカメラ14の処理領域を決定するのに適用することもできる。この場合には、衝突防止制御、前方車両追従制御、プレビュー制御(路面状態検出)において、カメラ14を共通とすることもでき、制御(カメラ14の使用目的)に応じて処理領域が変更されるようにすることもできる。パーキングアシスト制御装置に適用することもでき、その場合には、車両の後方の物体が検出される。
In addition, the area | region determination part 68 which concerns on a present Example is applicable not only when imaging the marker M but when imaging the object around a vehicle. For example, the present invention can be applied to a surrounding environment acquisition device that does not include the irradiation device 12.
Further, the present invention can be applied to determining the processing area of the camera 14 when detecting a forward object in a collision prevention control device, a forward vehicle tracking control device, or the like. In this case, the camera 14 can be shared in the collision prevention control, the forward vehicle follow-up control, and the preview control (road surface state detection), and the processing area is changed according to the control (purpose of use of the camera 14). It can also be done. The present invention can also be applied to a parking assist control device, in which case an object behind the vehicle is detected.

さらに、路面状態検出部は、車両の後方、側方の路面状態を検出するのに用いることもできる。
また、(i)照射装置12を複数個設けたり、(ii)照射装置12を複数の光源を含むものとし、複数のスポット状のレーザ光を照射するものとしたり、(iii)照射装置12を格子状(あるいは、網目状)のレーザ光を照射するものとしたりすること等もできる。
さらに、路面状態の検出方法は、上記実施例における方法に限定されない。例えば、車体18の姿勢が一定である場合におけるWDの変化に基づいて路面の凹凸の変化状態を取得することができる。WDが短い場合は凸部があると考えられ、WDが長い場合には、凹部があると考えられる。このように、WDの変化に基づいても、路面の凹凸の状態を取得することができるのである。車体18の姿勢が変化した場合には、車体18の姿勢が一定であるとした場合のWDを求めれば、同様に比較して、凹凸の状態を取得することができる。
また、上記実施例においては、実際のプレビュー距離のうちの第1距離Lpが、その都度求められるようにされていたが、第1距離の前回値からの変化量、車体18が基準姿勢にある場合の第1距離(基準第1距離)との差が求められるようにすることもできる。車速Vの変化が小さい場合には、第1距離の変化量や、基準第1距離との差が求められ、それに基づいて余裕時間の差を取得すれば、その余裕時間の差に応じて制御指令値の出力タイミングをずらすことができる。
さらに、光軸Bとカメラ14の垂直軸Cとを車体18の横方向に隔てて取り付けた場合には、路面の幅(左右方向)方向の凹凸の状態を検出することもできる。例えば、幅方向の路面状態の変化に基づいて車体の姿勢の制御を行うことができる。また、旋回時には、車体18が横方向に傾斜し、光軸Bとカメラ14の垂直軸Cとが横方向にずれるため、前後方向の路面の凹凸の変化と幅方向の路面の凹凸の変化との両方を取得することができる。
Furthermore, the road surface state detection unit can also be used to detect the road surface state on the rear and side of the vehicle.
Further, (i) a plurality of irradiation devices 12 are provided, (ii) the irradiation devices 12 include a plurality of light sources, and a plurality of spot-shaped laser beams are irradiated, or (iii) the irradiation devices 12 are latticed. It is also possible to irradiate a laser beam having a shape (or mesh shape).
Furthermore, the road surface state detection method is not limited to the method in the above embodiment. For example, it is possible to acquire a change state of road surface unevenness based on a change in WD when the posture of the vehicle body 18 is constant. When the WD is short, it is considered that there is a convex portion, and when the WD is long, it is considered that there is a concave portion. As described above, the uneven state of the road surface can also be acquired based on the change in WD. When the posture of the vehicle body 18 is changed, if the WD when the posture of the vehicle body 18 is assumed to be constant is obtained, the uneven state can be obtained in the same way.
In the above embodiment, the first distance Lp of the actual preview distance is obtained each time, but the amount of change from the previous value of the first distance and the vehicle body 18 is in the reference posture. It is also possible to obtain a difference from the first distance (reference first distance). When the change in the vehicle speed V is small, the amount of change in the first distance and the difference from the reference first distance are obtained, and if the difference in the margin time is acquired based on that, the control is performed according to the difference in the margin time. The output timing of the command value can be shifted.
Further, when the optical axis B and the vertical axis C of the camera 14 are mounted apart from each other in the lateral direction of the vehicle body 18, it is possible to detect the uneven state in the road surface width (left-right direction) direction. For example, the posture of the vehicle body can be controlled based on a change in the road surface state in the width direction. Further, when turning, the vehicle body 18 is inclined in the horizontal direction, and the optical axis B and the vertical axis C of the camera 14 are shifted in the horizontal direction. Can get both.

<汚れの検出>
照射装置12,カメラ14の汚れの検出について説明する。
照射装置12のレンズ12r,カメラ14のレンズ14rが汚れると、(a)マーカ画像Gの面積βが、路面の形状、車体18の姿勢で決まる範囲から外れたり、路面の凹凸、姿勢の変化に伴う変化以上に変化したりする。また、(b)マーカ画像Gがゆがむことがある。さらに、(c)マーカ画像Gの色に関連する値が太陽光、照明、対向車のヘッドライト等の影響に起因して決まる範囲から外れたり、これらの影響に起因する変化以上に変化したりする。前述のようにカメラ14において形成された画像はサスペンションECU30に供給されるため、サスペンションECU30において、汚れの検出が行われる。また、マーカ画像の色に関連する値は、カメラ14の色等評価装置14cにおいて取得され、サスペンションECU30に供給される。
具体的に、図17(a)に示すように、照射装置12のレンズ12rもカメラ14のレンジ14rも汚れていない場合には、マーカ画像G0の面積がβであるのに対して、汚れがカメラ14のレンズ14rに付着したり、照射装置12のレンズ12rに付着したりすると、マーカ画像Gsの面積βが小さくなる(βs<β0)ことがある。カメラ14のレンズ14rの汚れやくもりに起因して、マーカ画像GLの輪郭がぼやけたり、乱反射したりすることにより面積βが大きくなること(βL>β0)がある。また、レンズ14rに水滴が付着して、マーカ画像Gの大きさが変化することもある。
一方、マーカ画像Gの面積βは路面の凹凸、車体18の姿勢の変化に伴って変化する。そこで、マーカ画像Gの面積βが路面の凹凸、車体18の姿勢の変化等に伴う変化以上に変化した場合、あるいは、図17(b)に示すように、路面の凹凸、車体18の姿勢で決まる面積βの範囲(βtha〜βthb)から外れた場合{大きすぎる場合(Gb)、小さすぎる場合(Gs)}に、照射装置12のレンズ12rやカメラ14のレンズ14rが汚れていると検出される。
<Detection of dirt>
The detection of dirt on the irradiation device 12 and the camera 14 will be described.
When the lens 12r of the irradiation device 12 and the lens 14r of the camera 14 are soiled, (a) the area β of the marker image G deviates from the range determined by the shape of the road surface and the posture of the vehicle body 18, and the road surface is uneven and changes in posture. Change more than the accompanying change. In addition, (b) the marker image G may be distorted. Furthermore, (c) the value related to the color of the marker image G is out of the range determined due to the influence of sunlight, illumination, headlights of oncoming vehicles, etc., or changes more than the change due to these influences. To do. Since the image formed in the camera 14 as described above is supplied to the suspension ECU 30, the suspension ECU 30 detects dirt. In addition, the value related to the color of the marker image is acquired by the color evaluation device 14c of the camera 14 and supplied to the suspension ECU 30.
Specifically, as shown in FIG. 17A, when neither the lens 12r of the irradiation device 12 nor the range 14r of the camera 14 is dirty, the marker image G0 has an area of β, whereas the dirt is When attached to the lens 14r of the camera 14 or attached to the lens 12r of the irradiation device 12, the area β of the marker image Gs may be reduced (βs <β0). Due to the dirt and cloudiness of the lens 14r of the camera 14, the contour β of the marker image GL may be blurred or irregularly reflected, resulting in an increase in the area β (βL> β0). In addition, water droplets may adhere to the lens 14r, and the size of the marker image G may change.
On the other hand, the area β of the marker image G changes as the road surface unevenness and the posture of the vehicle body 18 change. Therefore, when the area β of the marker image G changes more than the change due to the road surface unevenness, the change in the posture of the vehicle body 18 or the like, or as shown in FIG. When deviating from the determined range β (βtha to βthb) {too large (Gb), too small (Gs)}, it is detected that the lens 12r of the irradiation device 12 and the lens 14r of the camera 14 are dirty. The

図18に示すように、カメラ14のレンズ14rや照射装置12のレンズ12rに水滴が付着した場合には、それに起因して、マーカ画像Gyの形状がゆがむことがある。具体的には、レーザ光のスポット形状が、真円であり、真円度γが設定値γthより高いマーカ画像Gが得られるはずであるのに対して、マーカ画像Gyの真円度γが設定値γth以下になることがある。そこで、マーカ画像Gの真円度γが設定値γth以下である場合に、照射装置12,カメラ14の汚れであると検出することができる。   As shown in FIG. 18, when water droplets adhere to the lens 14r of the camera 14 or the lens 12r of the irradiation device 12, the shape of the marker image Gy may be distorted due to this. Specifically, while the spot shape of the laser beam is a perfect circle and the marker image G whose roundness γ is higher than the set value γth should be obtained, the roundness γ of the marker image Gy is It may be lower than the set value γth. Therefore, when the roundness γ of the marker image G is equal to or less than the set value γth, it can be detected that the irradiation device 12 and the camera 14 are dirty.

図19に示すように、照射装置12のレンズ12r汚れに起因して、照射されたレーザ光の色が変化し、マーカ画像Gcの色等(色に関連する種々の値であり、例えば、RGB,HGVの値をいう。以下、同様とする)が変化することがある。また、カメラ14のレンズ14rの汚れに起因してマーカ画像Gcの色等が変化することもある。色等評価装置14mにおいては、画像の色が、RGB(赤、緑、青)に分解され、それぞれの値が取得される。また、HSV(色相、彩度、明度)について評価され、それぞれの評価値が取得される。例えば、マーカ画像Gcの色が赤色系である場合において、色相:H≦0.08、H≧0.9、彩度:S≧0.15、明度:V≧0.1を正常範囲とすることができる。
したがって、色に関連する値に基づけば、マーカ画像Gの色等の異常を取得することができ、それに基づいて、カメラ14、照射装置12の汚れを検出することができる。
本実施例においては、照射装置12,カメラ14が正常であり、かつ、汚れていない場合のマーカ画像Gの色等を予め取得するとともに、太陽光の有無、照明の有無、照明の色、ヘッドライトの有無等を考慮して、マーカ画像Gの色等の範囲を取得して、汚れていない場合のこれらの色に関連する値の範囲を記憶しておく。そして、実際のマーカ画像Gの色に関連する値が範囲から外れている場合に、汚れであると検出される。
また、本実施例においては、汚れが検出された場合には、そのことが報知され、汚れ除去装置12c、14cが作動させられる。
As shown in FIG. 19, due to the contamination of the lens 12r of the irradiation device 12, the color of the irradiated laser light changes, and the color or the like of the marker image Gc (various values related to the color, such as RGB , The value of HGV (hereinafter the same). Further, the color or the like of the marker image Gc may change due to the dirt on the lens 14r of the camera 14. In the color evaluation device 14m, the color of the image is decomposed into RGB (red, green, blue), and respective values are acquired. Further, HSV (hue, saturation, brightness) is evaluated, and each evaluation value is acquired. For example, when the color of the marker image Gc is red, hue: H ≦ 0.08, H ≧ 0.9, saturation: S ≧ 0.15, brightness: V ≧ 0.1 is set as a normal range. be able to.
Therefore, based on the value related to the color, an abnormality such as the color of the marker image G can be acquired, and based on this, the contamination of the camera 14 and the irradiation device 12 can be detected.
In this embodiment, the color and the like of the marker image G when the irradiation device 12 and the camera 14 are normal and not dirty are acquired in advance, and the presence / absence of sunlight, the presence / absence of illumination, the color of illumination, and the head Taking into account the presence or absence of light or the like, a range of colors or the like of the marker image G is acquired, and a range of values related to these colors when not dirty is stored. Then, when the value related to the color of the actual marker image G is out of the range, it is detected as dirty.
In this embodiment, when dirt is detected, this is notified and the dirt removing devices 12c and 14c are operated.

図20のフローチャートで表される汚れ検出プログラムは、予め定められた設定時間毎に実行される。
S50において、マーカ画像Gの面積β(画像Gが占める画素数で表すことができる)が取得され、S51において、設定範囲内にある(βtha<β<βthb)か否か、S52において、過去の検出値(例えば、前回の検出値、あるいは、数回前の検出値)からの面積βの変化量Δβの絶対値|Δβ|が設定値Δβthより大きいか否かが判定される。S51の判定がYES,S52の判定がNOである場合には、マーカ画像Gの面積βは正常な大きさであるが、S51の判定がNO,あるは、S52の判定がYESである場合には、面積βが異常な大きさであるため、S53において、異常フラグ1がセットされる。
次に、S54において、真円度γが取得され、S55において、真円度γが設定値γthより高いか否かが判定される。真円度γが設定値γtより高い場合には、形状は正常であるが、設定値γth以下である場合には、S56において、異常フラグ2がセットされる。
次に、S57において、色に関連する値(RGB値,HGV値)が取得され、S58,59において、RGB,HSVの値がそれぞれ正常範囲内にあるか否かが判定される。少なくとも1つの値が正常範囲内にない場合には、S60において異常フラグ3がセットされる。すべての値が正常範囲内にある場合には異常フラグ3がセットされることはない。
そして、S61において、異常フラグ1,2,3のうちの2つ以上がセットされているか否かが判定される。2つ以上がセットされている場合には、汚れがあると検出されて、S62において、そのことが報知される。また、S63において、汚れ除去装置12c、14cの作動指令が、照射装置12,カメラ14の少なくとも一方に出力される。それに応じて、照射装置12、カメラ14の少なくとも一方において、それに対応する汚れ除去装置12c,汚れ除去装置14cの少なくとも一方が作動させられる。
例えば、汚れ除去装置12c、14cの両方を同時に作動させたり、予め定められた順番で1つずつ作動させたりすることができる。また、カメラ14が車体18の照射装置12より下方に取り付けられているため、カメラ14の方が汚れ易いと考えられる。そのため、カメラ14の汚れ除去装置14cが優先的に作動させられるようにすることもできる。
それに対して、異常フラグ1,2,3のうちセットされているフラグが1つ以下である場合には、S64において、正常であると判定される。
The stain detection program represented by the flowchart of FIG. 20 is executed at predetermined time intervals.
In S50, the area β of the marker image G (which can be expressed by the number of pixels occupied by the image G) is acquired, and in S51, whether or not it is within the set range (βtha <β <βthb). It is determined whether or not the absolute value | Δβ | of the change amount Δβ of the area β from the detection value (for example, the previous detection value or the detection value several times before) is larger than the set value Δβth. When the determination of S51 is YES and the determination of S52 is NO, the area β of the marker image G is a normal size, but the determination of S51 is NO, or the determination of S52 is YES. Since the area β has an abnormal size, the abnormality flag 1 is set in S53.
Next, in S54, the roundness γ is acquired. In S55, it is determined whether the roundness γ is higher than the set value γth. When the roundness γ is higher than the set value γt, the shape is normal, but when it is equal to or less than the set value γth, the abnormality flag 2 is set in S56.
Next, in S57, values (RGB value, HGV value) related to the color are acquired, and in S58 and 59, it is determined whether or not the RGB and HSV values are within the normal range. If at least one value is not within the normal range, the abnormality flag 3 is set in S60. When all the values are within the normal range, the abnormality flag 3 is not set.
In S61, it is determined whether or not two or more of the abnormality flags 1, 2, and 3 are set. If two or more are set, it is detected that there is dirt, and this is notified in S62. In S63, an operation command for the dirt removing devices 12c and 14c is output to at least one of the irradiation device 12 and the camera 14. Accordingly, at least one of the dirt removing device 12c and the dirt removing device 14c corresponding to the irradiation device 12 and the camera 14 is operated.
For example, both the dirt removing devices 12c and 14c can be operated simultaneously, or can be operated one by one in a predetermined order. Moreover, since the camera 14 is attached below the irradiation device 12 of the vehicle body 18, it is considered that the camera 14 is more easily soiled. Therefore, the dirt removing device 14c of the camera 14 can be operated with priority.
On the other hand, when one or less of the abnormality flags 1, 2, and 3 is set, it is determined that the state is normal in S64.

このように、本実施例においては、3つの評価方法に基づいて汚れの有無が複合的に評価されるため、汚れの有無を正確に検出することができる。
また、3つの異常フラグのうちの2つ以上がセットされている場合に汚れであると判定され、1つの場合には検出されないようにされている。そのため、汚れであるか否かを正確に検出することができる。
さらに、マーカ画像Gの面積、形状、色等に基づいて汚れの有無が判断されるのであるが、前述のように、スポットの直径が第2設定値より小さいレーザ光線が照射されるため、マーカ画像Gが占める画素数は少ない。そのため、汚れの有無を判断するのに要する時間を短くすることができる。
As described above, in this embodiment, since the presence / absence of dirt is evaluated based on the three evaluation methods, the presence / absence of dirt can be accurately detected.
In addition, when two or more of the three abnormality flags are set, it is determined that it is dirty, and in the case of one, it is not detected. Therefore, it can be accurately detected whether or not it is dirty.
Further, the presence / absence of contamination is determined based on the area, shape, color, etc. of the marker image G. As described above, since the spot diameter is irradiated with the laser beam smaller than the second set value, the marker is irradiated. The number of pixels occupied by the image G is small. Therefore, the time required to determine the presence or absence of dirt can be shortened.

なお、上記実施例においては、RGBの値,HVSの値のうちの少なくとも1つの値が設定範囲内にない場合に異常フラグ3がセットされるようにされていたが、2つの値、3つ以上の値が正常範囲内にない場合に異常フラグ3がセットされるようにすることもできる。
また、異常フラグ1,2,3のうちの2つ以上がセットされている場合に汚れであると検出されるようにするのではなく、少なくとも1つがセットされている場合に汚れであると検出されるようにすることもできる。
さらに、異常フラグ1,2,3のうちの予め定められた特定のフラグ、あるいは、特定の組み合わせのフラグがセットされている場合に、汚れであると検出されるようにすることもできる。例えば、異常フラグ1,2の両方がセットされている場合には、汚れであると検出されるようにしたり、異常フラグ3がセットされている場合に、異常フラグ1,2がセットされていなくても、汚れであると検出されるようにしたりすることができる。
また、3つの評価方法すべてに基づく必要はなく、このうちの1つ、あるいは、2つの評価方法が実行されるようにすることもできる。
さらに、カメラ14と照射装置12とのうち汚れ易い方が決まっている場合には、汚れ易い方が汚れたと検出することができる。例えば、カメラ14が車室内に設けられた場合には、照射装置12のレンズ12rの汚れであると判定されるようにしたり、カメラ14が照射装置12より車体18のより下方に取り付けられているため、カメラ14のレンズ14rの汚れであると判定されるようにしたりすることができる。
In the above embodiment, the abnormality flag 3 is set when at least one of the RGB value and the HVS value is not within the setting range. It is also possible to set the abnormality flag 3 when the above values are not within the normal range.
In addition, when two or more of the abnormality flags 1, 2, and 3 are set, it is not detected that it is dirty, but when it is set at least one, it is detected that it is dirty. It can also be made.
Furthermore, when a predetermined specific flag or a specific combination of the abnormal flags 1, 2, and 3 is set, it can be detected that the flag is dirty. For example, when both the abnormality flags 1 and 2 are set, it is detected that it is dirty, or when the abnormality flag 3 is set, the abnormality flags 1 and 2 are not set. Even if it is dirty, it can be detected.
Further, it is not necessary to be based on all three evaluation methods, and one or two of these evaluation methods can be executed.
Furthermore, when the camera 14 and the irradiation device 12 are determined to be more easily soiled, it is possible to detect that the more easily soiled is soiled. For example, when the camera 14 is provided in the passenger compartment, it is determined that the lens 12r of the irradiation device 12 is dirty, or the camera 14 is attached below the vehicle body 18 from the irradiation device 12. Therefore, it can be determined that the lens 14r of the camera 14 is dirty.

また、汚れに限定せず、これらの場合には異常であると検出することもできる。照射装置12,カメラ14,サスペンション制御装置20等に異常がある場合があるからである。
さらに、マーカの画像Gの色等の評価値を、照射装置12の汚れ、カメラ14の汚れ、照射装置12の異常、カメラ14の異常等との関係で取得して、これらを記憶しておけば、実際の評価値に基づいて、汚れの場所、異常の原因等を取得することも可能である。
また、マーカ画像Gの面積βに基づく評価においては、面積βの変化比率(Δβ/β)が設定比率以上である場合に異常フラグ1がセットされるようにすることもできる。
さらに、格子状、網目状等のマーカが照射される場合にも同様に適用することができる。
また、前方の路面状態を検出する場合に限らず、車両の側方、後方の環境を検出する車両周辺環境取得装置にも適用することができる。
さらに、異常が検出された場合に、汚れ除去装置12c,14cの作動と、報知との両方を行うことは不可欠ではなく、いずれか一方が行われるだけでもよい。
また、汚れ検出部70,報知装置58,汚れ除去装置12c、14cのうちの1つ以上を設けることは不可欠ではない。
Moreover, it is not limited to dirt, In these cases, it can also be detected as abnormal. This is because there may be an abnormality in the irradiation device 12, the camera 14, the suspension control device 20, and the like.
Furthermore, evaluation values such as the color of the marker image G can be acquired in relation to the contamination of the irradiation device 12, the contamination of the camera 14, the abnormality of the irradiation device 12, the abnormality of the camera 14, and the like. For example, based on the actual evaluation value, it is possible to acquire the location of the dirt, the cause of the abnormality, and the like.
Further, in the evaluation based on the area β of the marker image G, the abnormality flag 1 can be set when the change ratio (Δβ / β) of the area β is equal to or larger than the set ratio.
Furthermore, the present invention can be similarly applied when a grid-like or mesh-like marker is irradiated.
Further, the present invention is not limited to the case of detecting the front road surface state, but can also be applied to a vehicle surrounding environment acquisition device that detects the environment of the side and rear of the vehicle.
Furthermore, when an abnormality is detected, it is not essential to perform both the operation of the dirt removing devices 12c and 14c and the notification, and only one of them may be performed.
It is not essential to provide one or more of the dirt detection unit 70, the notification device 58, and the dirt removal devices 12c and 14c.

本実施例においては、画像形成部14d、色等評価装置14c、サスペンションECU30の図20のフローチャートで表される汚れ検出プログラムを記憶する部分、実行する部分等により汚れ検出部70が構成される。汚れ検出部70は、マーカ依拠異常検出部でもある。また、マーカ依拠異常検出部のうちのS50〜53を記憶する部分、実行する部分等により面積依拠異常検出部が構成され、S54〜56を記憶する部分、実行する部分等により形状依拠異常検出部が構成され、S57〜60を記憶する部分、実行する部分等により色関連値依拠異常検出部が構成される。
また、S63を記憶する部分、実行する部分等により汚れ除去装置制御部が構成される。さらに、レーザ光源12pは、レーザ光照射部、スポット光照射部でもある。
In the present embodiment, the image forming unit 14d, the color evaluation device 14c, the part for storing the dirt detection program represented by the flowchart of FIG. The dirt detection unit 70 is also a marker-based abnormality detection unit. Moreover, an area-based abnormality detection unit is configured by a portion that stores S50 to 53 of the marker-based abnormality detection unit, a portion that executes S50 to 53, and the like, and a shape-based abnormality detection unit that includes a portion that stores S54 to 56 and a portion that executes S54-56 The color-related value-based abnormality detection unit is configured by the part that stores S57 to 60, the part that executes S57-60, and the like.
Further, the part for storing S63, the part for executing S63, and the like constitute a dirt removing device control unit. Furthermore, the laser light source 12p is also a laser light irradiation part and a spot light irradiation part.

ばね上部の変位は、オブザーバの理論を用いて取得することもできる。オブザーバを利用した方が、ばね上変位を正確に取得することができる。
図21(a)に示す1輪モデルを考える。ばね上部(車体18)の質量m2,変位x2,ばね下部(車輪10,24等)の質量m1,変位x1,ばね上部とばね下部との間に設けられたサスペンション22,25のうちのスプリング26のばね定数をk2,ショックアブソーバ27の減衰係数をc2,路面入力をx0,タイヤのばね定数をk1,上下方向力制御装置28によって加えられる力(制御力)をFactとする。
このモデルにおいて、式
22”(t)+c2{x2(t)′−x1(t)′}+k2{x2(t)−x1(t)}
=−Fact(t)・・・(4)
11”(t)
=c2{x2(t)′−x1(t)′}+k2{x2(t)−x1(t)}
−k1{x1(t)−x0(t)}+Fact(t)・・・(5)
が成立する。(4)式、(5)式において、「′」は1階微分を、「”」は2階微分を表す。
例えば、(4)式から、プレビュー制御によって上下方向力制御装置28によって加えられる力Fact(t)を、
Fact(t)=c2・x0(t)′+k2・x0(t)
とすれば、m22”(t)は、タイヤの変形に伴う加振力のみとなる。そして、タイヤの変形に伴う加振力は非常に小さく、無視できると考えれば、理論的に、ばね上に伝達される路面入力は0となる。
The unsprung displacement can also be obtained using observer theory. If the observer is used, the sprung displacement can be obtained more accurately.
Consider the one-wheel model shown in FIG. The mass m 2 and displacement x 2 of the unsprung portion (vehicle body 18), the mass m 1 and the displacement x 1 of the unsprung portion (wheels 10, 24, etc.), and the suspensions 22 and 25 provided between the unsprung portion and the unsprung portion. The spring constant of the spring 26 is k 2 , the damping coefficient of the shock absorber 27 is c 2 , the road surface input is x 0 , the tire spring constant is k 1 , and the force applied by the vertical force control device 28 (control force). Let it be Fact.
In this model, the expression m 2 x 2 ″ (t) + c 2 {x 2 (t) ′ − x 1 (t) ′} + k 2 {x 2 (t) −x 1 (t)}
= -Fact (t) (4)
m 1 x 1 "(t)
= C 2 {x 2 (t) ′ − x 1 (t) ′} + k 2 {x 2 (t) −x 1 (t)}
−k 1 {x 1 (t) −x 0 (t)} + Fact (t) (5)
Is established. In the equations (4) and (5), “′” represents the first derivative and “” ”represents the second derivative.
For example, from equation (4), the force Fact (t) applied by the vertical force control device 28 by the preview control is expressed as follows:
Fact (t) = c 2 · x 0 (t) ′ + k 2 · x 0 (t)
Then, m 2 x 2 ″ (t) is only the excitation force accompanying the deformation of the tire. And if the excitation force accompanying the deformation of the tire is very small and can be ignored, theoretically The road surface input transmitted to the spring is zero.

また、ロールが生じた場合の力FR、ピッチが生じた場合の力FP、アーティキュレーションが生じた場合に加えられる力FAの合計をFw(t)とした場合に、以下の運動方程式(4)が成立する。
22”(t)+c2{x2(t)′−x1(t)′}+k2{x2(t)−x1(t)}
=Fw(t)−Fact(t)・・・(6)
Fw(t)=FR(t)+FP(t)+FA(t)
左旋回時(ロールが生じた場合)に各輪に加えられるロール慣性力は、以下のようになる。ARは横加速度であり、hRF、hRrは、車両重心と前輪側、後輪側のロール中心との間の鉛直方向の距離であり、Tf、Trは、前輪側、後輪側のトレッドである。
R-FL(t)=(m2-FL+m2-FR)AR(t)hRf/Tf
R-FR(t)=−(m2-FL+m2-FR)AR(t)hRf/Tf
R-RL(t)=(m2-RL+m2-RR)AR(t)hRr/Tr
R-RR(t)=−(m2-RL+m2-RR)AR(t)hRr/Tr
加速時(ピッチが生じた場合)に各輪に加えられるピッチ慣性力は、以下のようになる。Apは前後加速度であり、hPR、hPLは、車両重心と右側輪、左側輪のピッチ中心との間の距離であり、LL、LRは、左側の前輪10FL、後輪24RLの間の前後方向の距離(ホイールベース)、右側の前輪10RL、後輪24RLの間の前後方向の距離である。
P-FL(t)=(m2-FL+m2-RL)AP(t)hPL/LL
P-FR(t)=(m2-FR+m2-RR)AP(t)hPR/LR
P-RL(t)=−(m2-FL+m2-RL)AP(t)hPL/LL
P-RR(t)=−(m2-FR+m2-RR)AP(t)hPR/LR
アーティキュレーションが生じた場合に各輪に加えられるねじり反力は、以下のようになる。ばね上部のねじり剛性をKtとする。また、ばね上部のワープ量x2w(t)を、
2w(t)=x2-FL(t)−x2-FR(t)−x2-RL(t)+x2-RR(t)
と定義する。
A-FL(t)=−x2w(t)Kt/Tf
A-FR(t)=x2w(t)Kt/Tf
A-RL(t)=−x2w(t)Kt/Tr
A-RR(t)=x2w(t)Kt/Tr
Further, when the total of the force F R when the roll is generated, the force F P when the pitch is generated, and the force F A applied when the articulation occurs is Fw (t), the following motion Equation (4) holds.
m 2 x 2 ″ (t) + c 2 {x 2 (t) ′ − x 1 (t) ′} + k 2 {x 2 (t) −x 1 (t)}
= Fw (t) -Fact (t) (6)
Fw (t) = F R (t) + F P (t) + F A (t)
The roll inertia force applied to each wheel during a left turn (when a roll is generated) is as follows. A R is the lateral acceleration, h RF and h Rr are the vertical distances between the center of gravity of the vehicle and the roll center on the front wheel side and the rear wheel side, and T f and Tr are the front wheel side and the rear wheel side, respectively. The tread.
F R-FL (t) = (m 2−FL + m 2−FR ) A R (t) h Rf / T f
F R-FR (t) = − (m 2−FL + m 2−FR ) A R (t) h Rf / T f
F R-RL (t) = (m 2−RL + m 2−RR ) A R (t) h Rr / T r
F R−RR (t) = − (m 2−RL + m 2−RR ) A R (t) h Rr / T r
The pitch inertia force applied to each wheel during acceleration (when a pitch occurs) is as follows. Ap is the longitudinal acceleration, h PR and h PL are the distances between the center of gravity of the vehicle and the pitch center of the right and left wheels, L L and L R are the left front wheel 10FL and the rear wheel 24RL. The distance in the front-rear direction (wheel base) between the front wheel 10RL on the right side and the distance in the front-rear direction between the rear wheel 24RL.
F P-FL (t) = (m 2−FL + m 2−RL ) A P (t) h PL / L L
FP-FR (t) = (m2 -FR + m2 -RR ) AP (t) hPR / LR
F P-RL (t) = − (m 2−FL + m 2−RL ) A P (t) h PL / L L
FP-RR (t) =-(m2 -FR + m2 -RR ) AP (t) hPR / LR
The torsional reaction force applied to each wheel when articulation occurs is as follows. Let Kt be the torsional rigidity of the spring top. Further, the warp amount x 2w (t) of the sprung portion is
x 2w (t) = x 2−FL (t) −x 2−FR (t) −x 2−RL (t) + x 2−RR (t)
It is defined as
F A-FL (t) = − x 2w (t) Kt / T f
F A-FR (t) = x 2w (t) Kt / T f
F A-RL (t) = − x 2w (t) Kt / T r
F A-RR (t) = x 2w (t) Kt / T r

そして、入力を、
u(t)=[Fact(t) Fw(t)]T
とし、状態変数x(t)を、
x(t)=[x2(t) x2(t)′ x1(t) x1(t)′]T
とし、外乱入力w(t)を
w(t)=x0(t)
とし、出力y(t)を、
y(t)=x2(t)”
とした場合に、(5)式、(6)式は状態方程式
x(t)′=Ax(t)+Bu(t)+Ew(t)
y(t)=Cx(t)+Du(t)・・・・・・・・(7)
で表すことができる。
上式において、行列A,B,C,D,Eを、図21の式(8)〜(12)で表す。
And input
u (t) = [Fact (t) Fw (t)] T
And the state variable x (t) is
x (t) = [x 2 (t) x 2 (t) ′ x 1 (t) x 1 (t) ′] T
And the disturbance input w (t) is w (t) = x 0 (t)
And the output y (t) is
y (t) = x 2 (t) "
(5) and (6) represent the state equation x (t) ′ = Ax (t) + Bu (t) + Ew (t)
y (t) = Cx (t) + Du (t) (7)
It can be expressed as
In the above equation, matrices A, B, C, D, and E are represented by equations (8) to (12) in FIG.

また、状態変数x(t)、出力y(t)の推定値x*(t)、y(t)*とした場合に、図21(b)のオブザーバモデルを構成すると、状態方程式は、式
x(t)′*=Ax(t)*+Bu(t)+L{y(t)−y(t)*}
y(t)*=Cx(t)*+Du(t)・・・(13)
で表される。行列Lは、オブザーバゲイン行列であり、式
L=[l1234
で表される。
L{y(t)−y(t)*}により、出力誤差を補正値としてフィードバックすることで、モデル化誤差を補正し、状態変数の誤差{x(t)−x(t)*}を小さくすることができる。出力誤差方程式は、(7)式、(13)式から、式
ε(t)′=(A−LC)ε(t)+Ew(t)・・・(14)
で表すことができる。また、式(14)において、w(t)=0として、積分すれば、
ε(t)=ε(0)exp{(A−LC)t}
が得られる。この式から、誤差を収束させることが可能となることが明らかである。
上述のように、オブザーバを利用して、状態変数の推定値x(t)*が得られ、ばね上変位x2(t)が得られる。
本実施例においては、サスペンションECU30のうちの、オブザーバの理論を用いてばね上部の変位x2(=xu)を取得する部分によりばね上変位取得部64が構成される。
Further, when the observer model in FIG. 21B is configured with the state variable x (t) and the estimated values x * (t) and y (t) * of the output y (t), the state equation is expressed by the following equation: x (t) ′ * = Ax (t) * + Bu (t) + L {y (t) −y (t) *}
y (t) * = Cx (t) * + Du (t) (13)
It is represented by The matrix L is an observer gain matrix, and the expression L = [l 1 l 2 l 3 l 4 ]
It is represented by
L {y (t) −y (t) *} is used to correct the modeling error by feeding back the output error as a correction value, and the error {x (t) −x (t) *} of the state variable is corrected. Can be small. The output error equation is obtained from the equations (7) and (13): ε (t) ′ = (A−LC) ε (t) + Ew (t) (14)
It can be expressed as Also, in equation (14), if w (t) = 0 is integrated,
ε (t) = ε (0) exp {(A-LC) t}
Is obtained. From this equation, it is clear that the error can be converged.
As described above, the estimated value x (t) * of the state variable is obtained using the observer, and the sprung displacement x 2 (t) is obtained.
In the present embodiment, the sprung displacement acquisition unit 64 is configured by a portion of the suspension ECU 30 that acquires the displacement x 2 (= xu) of the sprung portion using the observer theory.

照射装置12から照射されるレーザ光のスポット形状は円形でなくてもよく、例えば、図22に示すように、正方形を成したもの(マーカMs)としたり、菱形を成したもの(マーカMh)としたりすること等ができる。
このように、正方形、ひし形のスポット形状を成したレーザ光が照射されるようにすれば、円形のスポット形状を成したレーザ光が照射される場合に比較して、大きさ(例えば、幅)を正確に取得することができ、WDの取得精度を向上させることができる。
The spot shape of the laser light emitted from the irradiation device 12 may not be circular. For example, as shown in FIG. 22, the spot shape is a square (marker Ms) or a diamond (marker Mh). And so on.
As described above, when the laser beam having a square or rhombus spot shape is irradiated, the size (for example, width) is larger than that when the laser beam having a circular spot shape is irradiated. Can be acquired accurately, and the WD acquisition accuracy can be improved.

照射装置12におけるゲインは、一日における時刻に基づいて決定することができる。例えば、図23(b)に示すように、8時〜17時の間は、ゲインを大きくし、17時〜24時、0時〜8時の間はゲインを小さくすることもできる。太陽高度が低く、地表に届くエネルギが小さい間はゲインは小さくてもよいと考えられる。
図23(a)のフローチャートで表される照射装置制御プログラムは予め定められた設定時間毎に実行される。
S1′において、サスペンションECU30のタイマから時刻が取得され、S2′において、図23(b)のゲイン決定テーブルに従ってゲインが決定され、S3′において、ゲインを表す情報が照射装置12に出力される。
このように、一日のうち太陽高度が高い場合にゲインが大きい値に決定され、低い場合に小さい値に決定されるため、消費エネルギ量の低減を図ることができる。
また、ゲインを、季節(夏、冬等)に基づいて決定したり、天気(晴れ、曇り等)に基づいて決定したりすることができる。また、緯度、時刻、季節、天気のうちの2つ以上に基づいてゲインを決定することもでき、その場合には、より細かにレーザ光の出力レベルを制御することができ、消費エネルギの低減を図ることができる。
本実施例においては、サスペンションECU30のS1′を記憶する部分、実行する部分等により強度検出部が構成され、S2′を記憶する部分、実行する部分等により強度依拠レベル決定部が構成される。
The gain in the irradiation device 12 can be determined based on the time of the day. For example, as shown in FIG. 23B, the gain can be increased between 8:00 and 17:00, and the gain can be decreased between 17:00 and 24:00, and between 0:00 and 8:00. The gain may be small while the solar altitude is low and the energy reaching the ground is small.
The irradiation apparatus control program represented by the flowchart of FIG. 23 (a) is executed at predetermined time intervals.
In S1 ′, the time is acquired from the timer of the suspension ECU 30, and in S2 ′, the gain is determined according to the gain determination table of FIG. 23 (b). In S3 ′, information representing the gain is output to the irradiation device 12.
In this way, when the solar altitude is high during the day, the gain is determined to be a large value, and when the solar altitude is low, the value is determined to be a small value, so that the amount of energy consumption can be reduced.
Further, the gain can be determined based on the season (summer, winter, etc.) or can be determined based on the weather (sunny, cloudy, etc.). In addition, the gain can be determined based on two or more of latitude, time, season, and weather. In this case, the output level of the laser beam can be controlled more finely, and energy consumption can be reduced. Can be achieved.
In the present embodiment, a portion that stores S1 ′ of the suspension ECU 30 and a portion that executes S1 ′ constitute an intensity detecting portion, and a portion that stores S2 ′ and a portion that executes S2 ′ constitute a strength-dependent level determining portion.

なお、時刻に基づいてゲインを決定する場合において、ゲインが大きい値に決定される時刻を8時〜17時とすることに限定されない。ゲインが大きい値に決定される時間帯は適宜(例えば、地域、季節等に基づいて)決めることができる。
また、ゲインを2段階以上で変化させることもできる。
In the case where the gain is determined based on the time, the time when the gain is determined to be a large value is not limited to 8:00 to 17:00. The time zone in which the gain is determined to be a large value can be determined as appropriate (for example, based on the region, season, etc.).
Also, the gain can be changed in two or more steps.

処理領域は、図24のフローチャートで表される処理領域決定ルーチンに従って決定することもできる。
S71において、前後方向の加速度Gxの絶対値|Gx|が設定値Gxthより大きいか否かが判定される。すなわち、制動、あるいは、駆動により設定値Gxthより大きい減速度、あるいは、加速度が生じたか否かが判定されるのである。前後加速度の絶対値|Gx|が設定値Gxthより大きい場合には、S72において、基準領域RoがX+、X−の両方向に拡大された前後力作用時領域(基準領域Ro+Δqd+Δqu)とされる。 S73において、横加速度Gyの絶対値|Gy|が設定値Gythより大きいか否かが判定される。右方向あるいは左方向の旋回により、設定値Gythより大きい横加速度が生じたか否かが判定されるのである。横加速度の絶対値|Gy|が設定値Gythより大きい場合には、S74において、基準領域RoがY+、Y−の両方向に拡大されて、横力作用時領域(基準領域Ro+Δqr+Δql)とされる。
いずれでもない場合には、S75において、基準領域Roとされる。
The processing area can be determined according to a processing area determination routine represented by the flowchart of FIG.
In S71, it is determined whether or not the absolute value | Gx | of the longitudinal acceleration Gx is larger than a set value Gxth. That is, it is determined whether deceleration or acceleration greater than the set value Gxth has occurred due to braking or driving. If the absolute value | Gx | of the longitudinal acceleration is larger than the set value Gxth, in S72, the reference region Ro is defined as a region acting upon the longitudinal force (reference region Ro + Δqd + Δqu) expanded in both the X + and X− directions. In S73, it is determined whether or not the absolute value | Gy | of the lateral acceleration Gy is larger than the set value Gyth. It is determined whether or not a lateral acceleration greater than the set value Gyth has been generated by turning rightward or leftward. When the absolute value | Gy | of the lateral acceleration is larger than the set value Gyth, in S74, the reference region Ro is expanded in both directions of Y + and Y− to be a lateral force acting region (reference region Ro + Δqr + Δql).
If it is neither of these, the reference region Ro is set in S75.

このように、前後力(あるいは横力)が作用した場合に、基準領域Roが前方向、後方向(あるいは、左方向、右方向)の両方に拡大されるため、車両に作用する前後方向の力(あるいは、左右方向の力)に起因して車体18が前後方向(あるいは、左右方向)に振動しても、マーカ画像Gを良好に得ることができ、良好に路面状態を取得することができる。   As described above, when the longitudinal force (or lateral force) is applied, the reference region Ro is expanded in both the forward direction and the backward direction (or the left direction and the right direction). Even if the vehicle body 18 vibrates in the front-rear direction (or left-right direction) due to force (or left-right direction force), the marker image G can be obtained satisfactorily and the road surface state can be obtained satisfactorily. it can.

カメラ14が撮像領域を変更可能なものである場合には、車体18の姿勢に基づいて撮像領域が決定されるようにすることもできる。
カメラ100は、図25に示すように、レンズ14r、フィルタ14f、CCD14s、画像形成部14d、汚れ除去装置14c、色等評価装置14mに加えて、撮像領域変更部14gを含む。
また、図26(a)のフローチャートで表される路面状態検出プログラムは、予め定められた設定時間毎に実行される。図10のフローチャートで表される路面状態検出プログラムと同じ実行が行われるステップについては同じステップ番号を付した。
S81において撮像領域が決定されて、カメラ100に出力される。S11,12において、車体18の姿勢が検出され、照射装置12,カメラ100の取付高さ、取付角度が取得され、S14において、カメラ100において形成された画像が取得される。そして、S15以降において、図10(a)の路面状態検出プログラムにおける場合と同様に実行される。
S81の撮像領域の決定ルーチンは、図27のフローチャートで表される。
車体18が基準姿勢にある場合には、S44′において、撮像領域は基準撮像領域SRo(図28参照)とされる。基準撮像領域SRoは、例えば、予め定められた設定時間内に車両が走行した場合の、カメラ14の撮像領域Sr内のマーカMの80%(70%〜90%の間の値とすることができる。)が含まれる最小の領域とすることができる。
また、アクセル開度Aが設定開度Athより大きい場合には、S45′において、図28(a)に示すように基準撮像領域SRoがX−方向へ変更され、駆動時撮像領域SRd,SRdaとされる。
ブレーキ操作部材の操作ストロークBSが設定ストロークBSthより大きい場合には、S46′において、図28(b)に示すように基準撮像領域SRoがX+方向へ変更されて、制動時撮像領域SRu,SRuaに決定される。
そして、右旋回時には、S48′において、図28(c)に示すようにY−方向へ変更されて、右旋回時撮像領域SRr,SRraに決定され、左旋回時には、S49′において、図28(d)に示すようにY+方向へ変更されて、左旋回時撮像領域SRl,SRlaに決定される。
When the camera 14 can change the imaging area, the imaging area can be determined based on the posture of the vehicle body 18.
As shown in FIG. 25, the camera 100 includes an imaging region changing unit 14g in addition to a lens 14r, a filter 14f, a CCD 14s, an image forming unit 14d, a dirt removing device 14c, and a color evaluation device 14m.
Further, the road surface condition detection program represented by the flowchart of FIG. 26 (a) is executed at predetermined time intervals. Steps that are executed in the same manner as the road surface condition detection program shown in the flowchart of FIG. 10 are assigned the same step numbers.
In S <b> 81, the imaging area is determined and output to the camera 100. In S11 and 12, the posture of the vehicle body 18 is detected, the mounting height and mounting angle of the irradiation device 12 and the camera 100 are acquired, and in S14, the image formed in the camera 100 is acquired. Then, after S15, the process is executed in the same manner as in the road surface condition detection program of FIG.
The imaging region determination routine in S81 is represented by the flowchart in FIG.
When the vehicle body 18 is in the reference posture, in S44 ′, the imaging region is set as a reference imaging region SRo (see FIG. 28). For example, the reference imaging area SRo may be set to a value between 80% (70% to 90%) of the marker M in the imaging area Sr of the camera 14 when the vehicle travels within a predetermined set time. )) Can be made the smallest area.
If the accelerator opening A is larger than the set opening Ath, the reference imaging area SRo is changed in the X-direction in S45 ′ as shown in FIG. 28 (a), and the driving imaging areas SRd, SRda Is done.
When the operation stroke BS of the brake operation member is larger than the set stroke BSth, the reference imaging area SRo is changed in the X + direction as shown in FIG. 28 (b) in S46 ′, and the braking imaging areas SRu and SRua are changed. It is determined.
Then, when turning right, in S48 ', the direction is changed to the Y-direction as shown in FIG. 28 (c) and determined as the right-turn imaging regions SRr and SRra. As shown in FIG. 28 (d), the direction is changed to the Y + direction, and the left-turn imaging regions SRl and SRla are determined.

カメラ100においては、図26(b)のフローチャートで表される画像形成プログラムが照射装置12からレーザ光が照射される毎に実行される。
S85、86において、撮像領域が読み込まれ、それに応じて画角、カメラ14rの向き等が制御される。その後、S87において、撮像が行われ、S88において、撮像領域で決まる画像が形成されて、サスペンションECU30に供給される。
このように車体18の姿勢に基づいて撮像領域が決定される場合であっても、上記実施例における場合と同様に、路面状態を正確に検出しつつ、処理時間を短くすることができる。
本実施例において、サスペンションECU30の図27のフローチャートで表される撮像領域決定ルーチンを記憶する部分、実行する部分および図26(a)のフローチャートで表される路面状態検出プログラムのS81を記憶する部分、実行する部分等により撮像領域制御部が構成される。
また、S81,S88を記憶する部分、実行する部分等により画像形成部が構成される。
In the camera 100, the image forming program represented by the flowchart of FIG. 26B is executed every time the laser beam is irradiated from the irradiation device 12.
In S85 and 86, the imaging area is read, and the angle of view, the direction of the camera 14r, and the like are controlled accordingly. Thereafter, in S87, imaging is performed, and in S88, an image determined by the imaging area is formed and supplied to the suspension ECU 30.
As described above, even when the imaging region is determined based on the posture of the vehicle body 18, the processing time can be shortened while accurately detecting the road surface state, as in the above-described embodiment.
In the present embodiment, the part of the suspension ECU 30 that stores the imaging region determination routine represented by the flowchart of FIG. 27, the part that executes the routine, and the part that stores S81 of the road surface condition detection program represented by the flowchart of FIG. The imaging region control unit is configured by the part to be executed.
In addition, the image forming unit is configured by a part that stores S81 and S88, a part that executes S81, and S88.

上記複数の実施例について説明したが、これら実施例の2つ以上を組み合わせて実行することができる。
また、本発明は、前記に記載の態様の他、当業者の知識に基づいて種々の変更、改良を施した態様で実施することができる。
Although the above embodiments have been described, two or more of these embodiments can be executed in combination.
Further, the present invention can be carried out in a mode in which various changes and improvements are made based on the knowledge of those skilled in the art, in addition to the modes described above.

11:路面画像取得部 12:照射装置 12p:光源 12a:増幅器 12c:汚れ除去装置 12e:レーザ光出力部 14、100:カメラ 14f:フィルタ 14s:CCD 14d:画像形成部 14m:色等評価装置 14c:汚れ除去装置 14g:撮像領域変更部 22:サスペンション 27:ショックアブソーバ 28:上下力制御装置 39:ナビゲーション装置 50:ばね上上下Gセンサ 58:報知装置 60:照射装置制御部 62:路面状態検出部 64:ばね上変位取得部 66:プレビュー制御部 68:領域決定部 70:汚れ検出部   DESCRIPTION OF SYMBOLS 11: Road surface image acquisition part 12: Irradiation apparatus 12p: Light source 12a: Amplifier 12c: Dirt removal apparatus 12e: Laser beam output part 14, 100: Camera 14f: Filter 14s: CCD 14d: Image formation part 14m: Color etc. evaluation apparatus 14c : Dirt removing device 14g: Imaging region changing unit 22: Suspension 27: Shock absorber 28: Vertical force control device 39: Navigation device 50: Spring top and bottom G sensor 58: Notification device 60: Irradiation device control unit 62: Road surface state detection unit 64: Sprung displacement acquisition unit 66: Preview control unit 68: Area determination unit 70: Dirt detection unit

Claims (8)

車両の車体に取り付けられ、撮像領域で決まる被撮像対象物を撮像して、画像を形成する撮像装置を含み、その形成された画像に基づいて前記車両の周辺の環境を取得する周辺環境取得装置であって、
前記撮像装置が、前記被撮像対象物に対応する撮像素子のうち処理領域に属するものについて処理を行って、画像を形成する画像形成部を含み、
当該周辺環境取得装置が、前記撮像領域と前記処理領域との少なくとも一方の領域を、前記車両の状態に基づいて決定する領域決定部を含むことを特徴とする周辺環境取得装置。
An ambient environment acquisition device that includes an imaging device that is attached to a vehicle body and images an object to be imaged determined by an imaging region and forms an image, and acquires an environment around the vehicle based on the formed image Because
The imaging apparatus includes an image forming unit that performs processing on an imaging element corresponding to the imaging target object and belongs to a processing region to form an image,
The surrounding environment acquisition apparatus includes an area determination unit that determines at least one of the imaging area and the processing area based on a state of the vehicle.
前記領域決定部が、前記車両の状態に基づいて前記画像形成部の前記処理領域を決定する画像処理領域決定部を含む請求項1に記載の周辺環境取得装置。   The surrounding environment acquisition apparatus according to claim 1, wherein the region determination unit includes an image processing region determination unit that determines the processing region of the image forming unit based on a state of the vehicle. 前記撮像装置が、それの撮像領域を変更可能な撮像領域変更部を含み、当該周辺環境取得装置が、前記撮像領域変更部を制御することにより、前記撮像領域を前記領域決定部によって決定された領域に制御する撮像領域制御部を含む請求項1または2に記載の周辺環境取得装置。   The imaging device includes an imaging region changing unit capable of changing an imaging region thereof, and the surrounding environment acquisition device determines the imaging region by the region determining unit by controlling the imaging region changing unit. The surrounding environment acquisition apparatus of Claim 1 or 2 containing the imaging area control part controlled to an area | region. 前記領域決定部が、前記車両が予め定められた設定範囲内の状態である基準状態である場合に、前記少なくとも一方の領域を基準領域に決定する基準状態時領域決定部を含む請求項1ないし3のいずれか1つに記載の周辺環境取得装置。   The reference state region determining unit that determines the at least one region as a reference region when the vehicle is in a reference state in which the vehicle is in a predetermined set range. 4. The surrounding environment acquisition device according to any one of 3 前記領域決定部が、前記車体の前後方向の傾斜角度が設定角度以上である場合における前記少なくとも一方の領域を、前記基準領域を前後方向に変更した領域に決定する前後傾斜時領域決定部を含む請求項4に記載の周辺環境取得装置。   The region determination unit includes a front / rear inclination region determination unit that determines the at least one region when the vehicle body has a front-rear direction tilt angle equal to or greater than a set angle as a region in which the reference region is changed in the front-rear direction. The surrounding environment acquisition apparatus of Claim 4. 前記領域決定部が、前記車両の旋回状態を表す値が設定値以上である場合における前記少なくとも一方の領域を、前記基準領域を左右方向に変更した領域に決定する旋回時領域決定部を含む請求項4または5に記載の周辺環境取得装置。   The region determining unit includes a turning region determining unit that determines the at least one region when the value representing the turning state of the vehicle is equal to or greater than a set value as a region in which the reference region is changed in the left-right direction. Item 6. The surrounding environment acquisition device according to Item 4 or 5. 当該周辺環境取得装置が、前記車両の状態を、前記車体の姿勢に基づいて取得する姿勢検出装置を含む請求項1ないし6のいずれか1つに記載の周辺環境取得装置。   The surrounding environment acquisition device according to any one of claims 1 to 6, wherein the surrounding environment acquisition device includes an attitude detection device that acquires a state of the vehicle based on an attitude of the vehicle body. 記請求項1ないし7のいずれか1つに記載の周辺環境取得装置を含み、その周辺環境取得装置によって取得された前記周辺の環境に基づいて、前記車両の車輪のサスペンションを制御するサスペンション制御装置であって、
前記周辺環境取得装置が、前記車両の前方の路面の状態を検出する路面状態検出装置であり、
当該サスペンション制御装置が、前記路面状態検出装置によって検出された路面の状態に基づいて、その状態が検出された路面の部分より後方に位置する被制御対象車輪のサスペンションを制御するプレビュー制御部を含むことを特徴とするサスペンション制御装置。
A suspension control device including the surrounding environment acquisition device according to any one of claims 1 to 7, wherein the suspension control device controls suspension of a wheel of the vehicle based on the surrounding environment acquired by the surrounding environment acquisition device. Because
The surrounding environment acquisition device is a road surface state detection device that detects a state of a road surface in front of the vehicle,
The suspension control device includes a preview control unit that controls the suspension of the wheel to be controlled located behind the portion of the road surface where the state is detected based on the road surface state detected by the road surface state detection device. A suspension control apparatus characterized by the above.
JP2012008355A 2012-01-18 2012-01-18 Surrounding environment acquisition device and suspension control device Pending JP2013147114A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012008355A JP2013147114A (en) 2012-01-18 2012-01-18 Surrounding environment acquisition device and suspension control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012008355A JP2013147114A (en) 2012-01-18 2012-01-18 Surrounding environment acquisition device and suspension control device

Publications (1)

Publication Number Publication Date
JP2013147114A true JP2013147114A (en) 2013-08-01

Family

ID=49045077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012008355A Pending JP2013147114A (en) 2012-01-18 2012-01-18 Surrounding environment acquisition device and suspension control device

Country Status (1)

Country Link
JP (1) JP2013147114A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015125297A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
WO2015125296A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
WO2015125298A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
WO2015125299A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
WO2015125301A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
WO2015125300A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
JP2015184956A (en) * 2014-03-25 2015-10-22 日産自動車株式会社 Self-position calculation device and self-position calculation method
WO2016020970A1 (en) * 2014-08-04 2016-02-11 日産自動車株式会社 Position self-calculation device and position self-calculation method
WO2016163293A1 (en) * 2015-04-10 2016-10-13 日立マクセル株式会社 Video image projection device
WO2020053936A1 (en) * 2018-09-10 2020-03-19 三菱電機株式会社 Camera installation support device and method, installation angle calculation method, program, and recording medium
JP2021500675A (en) * 2017-10-24 2021-01-07 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー Driving assistance for automatic vehicles when the speed barrier approaches
JP2021051380A (en) * 2019-09-20 2021-04-01 株式会社デンソーテン Attached matter detector and attached matter detecting method
CN114228431A (en) * 2021-12-06 2022-03-25 岚图汽车科技有限公司 Suspension pre-aiming control method, device, equipment and readable storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008258778A (en) * 2007-04-02 2008-10-23 Toyota Motor Corp Imaging system
JP2009119947A (en) * 2007-11-13 2009-06-04 Toyota Motor Corp Suspension control device
JP2009146217A (en) * 2007-12-14 2009-07-02 Hitachi Ltd Stereo camera device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008258778A (en) * 2007-04-02 2008-10-23 Toyota Motor Corp Imaging system
JP2009119947A (en) * 2007-11-13 2009-06-04 Toyota Motor Corp Suspension control device
JP2009146217A (en) * 2007-12-14 2009-07-02 Hitachi Ltd Stereo camera device

Cited By (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105993042B (en) * 2014-02-24 2017-10-20 日产自动车株式会社 Self-position computing device and self-position computational methods
CN106062849A (en) * 2014-02-24 2016-10-26 日产自动车株式会社 Local location computation device and local location computation method
WO2015125298A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
WO2015125299A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
WO2015125301A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
WO2015125297A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
US10043080B2 (en) 2014-02-24 2018-08-07 Nissan Motor Co., Ltd. Self-position calculating apparatus and self-position calculating method
US10026196B2 (en) 2014-02-24 2018-07-17 Nissan Motor Co., Ltd. Apparatuses and methods for self-position calculation of a vehicle using a light projector and a camera
CN105981086A (en) * 2014-02-24 2016-09-28 日产自动车株式会社 Local location computation device and local location computation method
CN105993042A (en) * 2014-02-24 2016-10-05 日产自动车株式会社 Local location computation device and local location computation method
CN106030681A (en) * 2014-02-24 2016-10-12 日产自动车株式会社 Local location computation device and local location computation method
CN106030680A (en) * 2014-02-24 2016-10-12 日产自动车株式会社 Local location computation device and local location computation method
US9721170B2 (en) 2014-02-24 2017-08-01 Nissan Motor Co., Ltd. Self-location calculating device and self-location calculating method
WO2015125296A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
EP3113149A4 (en) * 2014-02-24 2017-03-15 Nissan Motor Co., Ltd Local location computation device and local location computation method
JPWO2015125296A1 (en) * 2014-02-24 2017-03-30 日産自動車株式会社 Self-position calculation device and self-position calculation method
JPWO2015125298A1 (en) * 2014-02-24 2017-03-30 日産自動車株式会社 Self-position calculation device and self-position calculation method
JPWO2015125301A1 (en) * 2014-02-24 2017-03-30 日産自動車株式会社 Self-position calculation device and self-position calculation method
JPWO2015125300A1 (en) * 2014-02-24 2017-03-30 日産自動車株式会社 Self-position calculation device and self-position calculation method
JPWO2015125297A1 (en) * 2014-02-24 2017-03-30 日産自動車株式会社 Self-position calculation device and self-position calculation method
WO2015125300A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
US9778029B2 (en) 2014-02-24 2017-10-03 Nissan Motor Co., Ltd. Self-position calculating apparatus and self-position calculating method
RU2621826C1 (en) * 2014-02-24 2017-06-07 Ниссан Мотор Ко., Лтд. Device for calculation of own position and method of calculation of own status
RU2621823C1 (en) * 2014-02-24 2017-06-07 Ниссан Мотор Ко., Лтд. Device for calculation of own location and method of calculation of own location
US9684837B2 (en) 2014-02-24 2017-06-20 Nissan Motor Co., Ltd. Self-location calculating device and self-location calculating method
US9772627B2 (en) 2014-02-24 2017-09-26 Nissan Motor Co., Ltd. Self-position calculating apparatus and self-position calculating method
RU2628420C1 (en) * 2014-02-24 2017-08-16 Ниссан Мотор Ко., Лтд. Device for determination of own location and method of determination of own location
RU2628553C1 (en) * 2014-02-24 2017-08-18 Ниссан Мотор Ко., Лтд. Own position calculating device and own position calculating method
CN106030681B (en) * 2014-02-24 2017-09-05 日产自动车株式会社 Self-position computing device and self-position computational methods
CN106030680B (en) * 2014-02-24 2017-09-19 日产自动车株式会社 Self-position computing device and self-position computational methods
JP2015184956A (en) * 2014-03-25 2015-10-22 日産自動車株式会社 Self-position calculation device and self-position calculation method
CN106663376A (en) * 2014-08-04 2017-05-10 日产自动车株式会社 Position self-calculation device and position self-calculation method
CN106663376B (en) * 2014-08-04 2018-04-06 日产自动车株式会社 Self-position computing device and self-position computational methods
RU2636235C1 (en) * 2014-08-04 2017-11-21 Ниссан Мотор Ко., Лтд. Own position calculating device and own position calculating method
WO2016020970A1 (en) * 2014-08-04 2016-02-11 日産自動車株式会社 Position self-calculation device and position self-calculation method
JPWO2016020970A1 (en) * 2014-08-04 2017-05-25 日産自動車株式会社 Self-position calculation device and self-position calculation method
US9933252B2 (en) 2014-08-04 2018-04-03 Nissan Motor Co., Ltd. Self-position calculating apparatus and self-position calculating method
US11691560B2 (en) 2015-04-10 2023-07-04 Maxell, Ltd. Image projection apparatus
US10933800B2 (en) 2015-04-10 2021-03-02 Maxell, Ltd. Image projection apparatus
US10611296B2 (en) 2015-04-10 2020-04-07 Maxell, Ltd. Image projection apparatus
US11414009B2 (en) 2015-04-10 2022-08-16 Maxell, Ltd. Image projection apparatus
JP2019034731A (en) * 2015-04-10 2019-03-07 マクセル株式会社 vehicle
US10434933B2 (en) 2015-04-10 2019-10-08 Maxell, Ltd. Image projection apparatus
JP2019200432A (en) * 2015-04-10 2019-11-21 マクセル株式会社 Video projection device
JP2022063278A (en) * 2015-04-10 2022-04-21 マクセル株式会社 vehicle
CN107428287A (en) * 2015-04-10 2017-12-01 日立麦克赛尔株式会社 Image projection apparatus
CN113147579B (en) * 2015-04-10 2024-05-21 麦克赛尔株式会社 System mounted on vehicle
JPWO2016163293A1 (en) * 2015-04-10 2017-12-14 マクセルホールディングス株式会社 Video projection device
WO2016163293A1 (en) * 2015-04-10 2016-10-13 日立マクセル株式会社 Video image projection device
US10118537B2 (en) 2015-04-10 2018-11-06 Maxell, Ltd. Image projection apparatus
JP7229401B2 (en) 2015-04-10 2023-02-27 マクセル株式会社 vehicle
CN107428287B (en) * 2015-04-10 2021-06-29 麦克赛尔株式会社 Image projection device
CN113147579A (en) * 2015-04-10 2021-07-23 麦克赛尔株式会社 System mounted on vehicle
JP7019636B2 (en) 2015-04-10 2022-02-15 マクセル株式会社 Image projection device
JP7182623B2 (en) 2017-10-24 2022-12-02 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー Driving assistance for automobiles when approaching a speed barrier
JP2021500675A (en) * 2017-10-24 2021-01-07 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー Driving assistance for automatic vehicles when the speed barrier approaches
JPWO2020053936A1 (en) * 2018-09-10 2021-05-13 三菱電機株式会社 Camera installation support device and method, installation angle calculation method, program and recording medium
US11259013B2 (en) 2018-09-10 2022-02-22 Mitsubishi Electric Corporation Camera installation assistance device and method, and installation angle calculation method, and program and recording medium
JP7019064B2 (en) 2018-09-10 2022-02-14 三菱電機株式会社 Camera installation support device and method, installation angle calculation method, program and recording medium
CN112913229A (en) * 2018-09-10 2021-06-04 三菱电机株式会社 Camera setting assistance device and method, setting angle calculation method, program, and recording medium
CN112913229B (en) * 2018-09-10 2023-04-21 三菱电机株式会社 Camera setting support apparatus and method, setting angle calculation method, and recording medium
WO2020053936A1 (en) * 2018-09-10 2020-03-19 三菱電機株式会社 Camera installation support device and method, installation angle calculation method, program, and recording medium
JP7259676B2 (en) 2019-09-20 2023-04-18 株式会社デンソーテン Attached matter detection device and attached matter detection method
JP2021051380A (en) * 2019-09-20 2021-04-01 株式会社デンソーテン Attached matter detector and attached matter detecting method
CN114228431A (en) * 2021-12-06 2022-03-25 岚图汽车科技有限公司 Suspension pre-aiming control method, device, equipment and readable storage medium

Similar Documents

Publication Publication Date Title
JP2013147114A (en) Surrounding environment acquisition device and suspension control device
US10643473B2 (en) Vehicle and method for collision avoidance assistance
US7872764B2 (en) Machine vision for predictive suspension
US9446652B2 (en) Road surface state obtaining device and suspension system
JP4676373B2 (en) Peripheral recognition device, peripheral recognition method, and program
US9734719B2 (en) Method and apparatus for guiding a vehicle in the surroundings of an object
US9516277B2 (en) Full speed lane sensing with a surrounding view system
CN104854637B (en) Moving object position attitude angle estimating device and moving object position attitude angle estimating method
JP5538411B2 (en) Vehicle perimeter monitoring device
WO2014132680A1 (en) Program and device for controlling vehicle
JP4856656B2 (en) Vehicle detection device
JP4811154B2 (en) Vehicle traveling device
US20200193641A1 (en) Method and apparatus for calibrating the extrinsic parameter of an image sensor
CN114066929A (en) Method of predicting a trajectory of a target vehicle relative to an autonomous vehicle
JP2013147113A (en) Road surface state detection device and suspension control device
WO2018150995A1 (en) Vehicle lamp tool and method for controlling vehicle lamp tool
JP2019046277A (en) Image processing apparatus, image processing method, and program
CN109186624A (en) A kind of unmanned vehicle traveling right of way planing method based on friendship specification beam
CN107933557B (en) A kind of vehicle right-angled bend control system and its control method based on multi-cam
JP2014522589A (en) Method for defining the pitching of a camera incorporated in a vehicle and method for controlling the light emission of at least one headlight of a vehicle
JP2013148429A (en) Fault detection device
JP2013149036A (en) Peripheral environment acquiring device and irradiation device control device
US11897384B2 (en) System and method for vehicle lighting-based roadway obstacle notification
JP4798182B2 (en) Dazzle detection device, dazzle detection program, and headlamp control device
WO2020110435A1 (en) External environment recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150428