JP7247772B2 - Information processing device and driving support system - Google Patents
Information processing device and driving support system Download PDFInfo
- Publication number
- JP7247772B2 JP7247772B2 JP2019110371A JP2019110371A JP7247772B2 JP 7247772 B2 JP7247772 B2 JP 7247772B2 JP 2019110371 A JP2019110371 A JP 2019110371A JP 2019110371 A JP2019110371 A JP 2019110371A JP 7247772 B2 JP7247772 B2 JP 7247772B2
- Authority
- JP
- Japan
- Prior art keywords
- information processing
- processing device
- parallax
- information
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本開示は、車両周辺の物体を認識する技術に関する。 The present disclosure relates to technology for recognizing objects around a vehicle.
従来、車両に搭載されたカメラの撮影画像に基づいて車両周辺の物体を検出し、当該検出結果に基づいて運転支援を行う技術が知られている。例えば、下記特許文献1には、ステレオカメラの撮影画像からの視差情報の生成状況に基づいて、検出された物体の位置の精度を出力する技術が提案されている。
2. Description of the Related Art Conventionally, there is known a technique of detecting an object around a vehicle based on an image captured by a camera mounted on the vehicle and performing driving assistance based on the detection result. For example,
発明者の詳細な検討の結果、次のような課題が見出された。撮影装置前方のフロントガラスに付着した雨滴により物体検出精度が低下しても、ワイパー等で雨滴が除去されれば物体検出精度が早期に回復する場合がある。そこで、物体が検出されなくなった理由が雨滴によるものであると高い精度で判定できれば、物体が実際に存在しない場合とは異なる適切な制御を行うことができる。 As a result of detailed studies by the inventor, the following problems were found. Even if the object detection accuracy deteriorates due to raindrops adhering to the windshield in front of the photographing device, the object detection accuracy may be quickly recovered if the raindrops are removed by a wiper or the like. Therefore, if it can be determined with high accuracy that the reason why the object is no longer detected is due to raindrops, it is possible to perform appropriate control that is different from the case where the object does not actually exist.
本開示の1つの局面は、雨滴の付着を判定する新たな技術を提供する。 One aspect of the present disclosure provides a new technique for determining raindrop adhesion.
本開示の一態様は、撮影装置(11)及び運転支援装置(12)を備える車両(3)にて用いられる情報処理装置(13)である。情報処理装置は、検出部(31)と、雨滴判定部(37)と、を備える。検出部は、撮影装置を用いて取得される画像であって、車両の周辺を示す周辺画像(52,53)における車両の周辺に存在する物体を示す特徴点を検出するように構成される。雨滴判定部は、周辺画像において物体が存在する領域である所定領域(61,62)に含まれる特徴点の数が、過去に取得された周辺画像の所定領域に含まれる特徴点と比較して所定の基準を超えて減少したときに、撮影装置の前方に雨滴が付着した雨滴付着状態であることを判定するように構成される。 One aspect of the present disclosure is an information processing device (13) used in a vehicle (3) including an imaging device (11) and a driving support device (12). The information processing device includes a detection section (31) and a raindrop determination section (37). The detection unit is configured to detect feature points indicating objects existing around the vehicle in surrounding images (52, 53), which are images acquired using the imaging device and which show the surroundings of the vehicle. The raindrop determination unit compares the number of feature points included in the predetermined regions (61, 62) in the peripheral image where the object exists with the number of feature points included in the predetermined region in the peripheral image acquired in the past. It is configured to determine a raindrop adhering state in which raindrops adhere to the front of the photographing device when the amount of raindrops has decreased beyond a predetermined criterion.
このような構成によれば、特徴点の数が所定の基準を超えて減少したときに、雨滴が付着したと判定することができる。
また本開示の別の態様は、上記本開示の一態様において、さらに、推定部(39)及び出力部(40)を備えてもよい。推定部は、検出部により検出された特徴点に基づいて、物体について推定される挙動を示す推定情報を取得するように構成される。出力部は、所定の出力条件が満たされたときに、推定部により取得された推定情報を運転支援装置に出力するように構成される。出力条件には、雨滴判定部により雨滴付着状態であると判定されたことが要件として含まれる。
According to such a configuration, it can be determined that raindrops have adhered when the number of feature points decreases beyond a predetermined criterion.
Another aspect of the present disclosure may further include an estimating section (39) and an output section (40) in the above one aspect of the present disclosure. The estimating unit is configured to acquire estimation information indicating the estimated behavior of the object based on the feature points detected by the detecting unit. The output unit is configured to output the estimation information acquired by the estimation unit to the driving assistance device when a predetermined output condition is satisfied. The output condition includes as a requirement that the raindrop determining unit determines that the raindrop is attached.
このような構成によれば、雨滴付着状態と判定されたとき、すなわち特徴点の数が減少することで画像認識による物体の検出が困難になる状況のときに、推定情報を運転支援装置に出力することができる。そのため、運転支援装置は推定情報を用いた運転支援の継続が可能となり、運転支援の継続時間を延ばすことができる。 According to such a configuration, when it is determined that raindrops are attached, that is, when the number of feature points is reduced and it becomes difficult to detect an object by image recognition, the estimated information is output to the driving assistance device. can do. Therefore, the driving support device can continue driving support using the estimated information, and can extend the duration of driving support.
本開示の別の態様は、車両(3)に搭載して用いられる運転支援システム(1)であって、撮影装置(11)と、運転支援装置(12)と、上述した別の態様の情報処理装置(13)と、を備える。このような構成によれば、上述した本開示の別の態様の情報処理装置を備えることによる運転支援の継続時間を延ばすという効果を実現させることができる。 Another aspect of the present disclosure is a driving assistance system (1) mounted on a vehicle (3) and used, comprising a photographing device (11), a driving assistance device (12), and information of another aspect described above. a processor (13). According to such a configuration, it is possible to realize the effect of extending the duration of driving assistance by providing the information processing device of another aspect of the present disclosure described above.
以下、図面を参照しながら、本開示の実施形態を説明する。
[1.実施形態]
[1-1.構成]
図1に示される運転支援システム1は、車両3に搭載して用いられるシステムであって、ステレオカメラ11と、運転支援装置12と、情報処理装置13と、を備える。
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
[1. embodiment]
[1-1. composition]
A
ステレオカメラ11は、右カメラ11a及び左カメラ11bを備える。右カメラ11a及び左カメラ11bは、互いに同期が取られたCCDセンサやCMOSセンサ等のイメージセンサを備える。右カメラ11a及び左カメラ11bは、例えば、車両3のフロントガラスの内側において、車幅方向に所定の間隔をあけて、路面から同じ高さに取り付けられている。右カメラ11a及び左カメラ11bは、所定の周期(例えば、0.1秒間隔)で車両3の周辺を繰り返し撮影する。ステレオカメラ11が撮影装置に相当する。
The
運転支援装置12は、図示しないCPU、ROM、RAM及びI/O等を備えたマイクロコンピュータを備えた装置である。運転支援装置12は、先行車両との車間距離を維持するように加減速を行う、いわゆるアダプティブ・クルーズ・コントロール(以下、ACCと記載する)の制御が可能に構成されている。運転支援装置12は、情報処理装置13により出力される、後述する物体情報又は推定情報を用いてACCを実行する。
The
情報処理装置13は、CPU21と、例えば、RAM又はROM等の半導体メモリ(以下、メモリ22)と、を有するマイクロコンピュータを備える。情報処理装置13の各機能は、CPU21がメモリ22に格納されたプログラムを実行することにより実現される。
The
情報処理装置13は、図2に示すように、視差検出部31と、雨滴判定部37と、を備える。また情報処理装置13は、物体検出部32と、物体追跡部33と、距離算出部34と、速度算出部35と、種別判定部36と、作動判定部38と、推定部39と、出力部40と、を備えてもよい。
The
視差検出部31は、ステレオカメラ11を用いて取得された視差画像に映される物体を示す特徴点である視差点を検出する。視差画像に映される物体とは、車両3の周辺に存在する物体である。視差点は公知の手法により取得できる。例えば、視差検出部31は、右カメラ11a及び左カメラ11bにより撮影がなされた都度、取得された左右の画像のアナログデータを、画素ごとに、所定の輝度階調のデジタルデータに変換する。そして、視差検出部31は、左右のデジタル画像のステレオマッチングを行って視差を算出し、視差画像を生成する。本実施形態にて処理の対象となる物体は、車両3の前方で車両3と同じ方向に走行する先行車両である。視差画像が、周辺画像に相当する。また、視差検出部31が、検出部に相当する。なお、視差画像からの物体の検出は、物体検出部32が、公知の方法を用いて実行する。
The
雨滴判定部37は、ステレオカメラ11の前方に雨滴が付着した雨滴付着状態であるか否かを判定する。ステレオカメラ11の前方とは、カメラのレンズと被写体との間に設置される透過性を有する部材であり、本実施形態ではフロントガラスが該当する。
The
上述した雨滴判定部37は、視差画像において物体が存在する領域である所定領域に含まれる視差点の数が、過去に撮影された視差画像の所定領域に含まれる視差点と比較して所定の基準を超えて減少したときに、雨滴付着状態であることを判定する。具体的には、雨滴判定部37は、第1のタイミングで撮影された視差画像の所定領域における視差点の数と、第1のタイミングよりも後の第2のタイミングで撮影された視差画像における所定領域の視差点の数と、の変化率が所定の閾値以上であるときに、雨滴付着状態であると判定する。
The above-described
作動判定部38は、車両3に搭載される図示しないワイパーが作動中であるか否かを判定する。ワイパー作動中とは、ワイパーが間欠的に作動している場合には停止期間中も含む。
The
推定部39は、物体情報及び推定情報を取得する。これらの情報は、先行車両の挙動を示す情報であり、視差画像に含まれる物体の位置又は移動に関する情報を含む。以下の説明で、物体とは、視差画像にて検出される物体を指す。
The
物体情報には、物体距離、縦方向相対速度、物体横位置、横方向相対速度、物体横幅、物体種別などが含まれる。物体距離とは、車両3から検出された物体までの距離である。縦方向相対速度とは、車両3の進行方向に関する車両3を基準とした物体の相対速度である。相対速度は過去の複数の視差画像に係る特徴点を用いることで算出できる。物体横位置は、車両3を基準とした、車両3の進行方向と直交する方向の物体の位置である。横方向相対速度とは、車両3の進行方向と直交する方向に関する車両3を基準とした物体の相対速度である。物体横幅は上述した直交する方向に関する物体の長さである。物体種別は、物体の大きさ、移動速度、形状などから推定される物体の種別である。
The object information includes object distance, longitudinal relative velocity, object lateral position, lateral relative velocity, object lateral width, object type, and the like. The object distance is the distance from the
また推定部39は、物体情報を、視差検出部31により検出された視差点に基づいて取得する。推定部39は、物体の位置を、画像上の視差点の位置と該視差点が示す距離とにより特定する。また物体の速度を、現在及び過去の視差画像に含まれる先行車両に係る視差点を利用して求める。物体情報は、最新の視差画像に含まれる先行車両に係る視差点を用いて求められる、現時点での先行車両の挙動を示す情報である。
The
推定情報は、物体情報と同一種類の内容、つまり、物体距離、縦方向相対速度、物体横位置、横方向相対速度、物体横幅、物体種別などを含む。一方で、推定情報は物体情報とは異なり、先行車両について推定される挙動を示す情報である。言い換えると、ある視差画像が取得されたタイミング(以下、基準タイミングと記載する)よりも後のタイミングにおける先行車両の位置や速度について、予測される挙動を示す情報である。推定情報の各内容は次のように求められる。物体距離は、基準タイミングにおける物体の速度と等速運動を行ったものと仮定して、車両3の移動を考慮して計算される。縦方向相対速度,物体横位置,物体横幅,物体種別は、基準タイミングにおける値や内容がそのまま用いられる。横方向相対速度は、「0」と設定される。つまり横方向の相対的な移動は生じていないものと推定される。
The estimated information includes the same types of content as the object information, that is, object distance, vertical relative velocity, horizontal position of object, relative horizontal velocity, horizontal width of object, type of object, and the like. On the other hand, unlike the object information, the estimation information is information indicating the behavior estimated for the preceding vehicle. In other words, it is information that indicates the predicted behavior of the position and speed of the preceding vehicle at the timing after the timing at which a certain parallax image is acquired (hereinafter referred to as the reference timing). Each content of estimated information is obtained as follows. The object distance is calculated in consideration of the movement of the
出力部40は、推定部39により取得された物体情報及び推定情報を運転支援装置12に出力する。推定情報は、所定の出力条件を満たしたときに出力される。出力条件とは、雨滴判定部37により雨滴付着状態であると判定されたことが要件として含まれる条件である。なお、本実施形態においては、作動判定部38により作動中であると判定されたことも出力条件を満たす要件の1つとして含まれる。出力条件を満たさない場合は、通常処理として、物体情報を運転支援装置12に出力する。
The
[1-2.処理]
次に、情報処理装置13が実行する情報出力処理について、図3のフローチャートを用いて説明する。この処理は、ステレオカメラ11により画像が取得されるごとに実行される。なお以下の処理において、検出される物体とは先行車両である。
[1-2. process]
Next, information output processing executed by the
まず、S1では、視差検出部31が視差算出を行う。ここでは、視差検出部31は、右カメラ11a及び左カメラ11bにより撮影された左右の撮影画像に基づいて、視差点を含む視差画像を生成する。
First, in S1, the
S2では、物体検出部32が、視差画像から物体を検出する。このとき、検出された物体それぞれに、検出枠を設定してもよい。検出枠とは、画像上の該物体が存在する領域である所定領域を特定する枠である。また、検出枠は本実施形態で説明する処理とは別の処理において設定されてもよい。検出枠の詳細については後述する。
In S2, the
S3では、物体追跡部33が、物体追跡をする。ここでは、今回取得した視差画像(以下、今回画像とも記載する)よりも1回前の視差画像(以下、前回画像とも記載する)にて検出された物体を、今回画像において追跡し、特定する。物体追跡の具体的な方法は特に限定されない。例えば、前回画像にて検出された物体と今回画像にて検出された物体の尤度を算出し、尤度が所定の閾値以上である物体を同一の物体を判定してもよい。また今回画像に物体が複数存在する場合は、最も尤度が大きいものを同一の物体と判定してもよい。なお、今回画像が、上述した第1のタイミングで撮影された視差画像の例であり、前回画像が、上述した第2のタイミングで撮影された視差画像の例である。
In S3, the
S4では、距離算出部34及び速度算出部35が、S4にて追跡された物体の位置及び速度を算出する。物体の速度は、例えば、車両3の速度と、車両3と物体の相対速度から算出できる。
In S4, the
S5では、種別判定部36が、テンプレートマッチング等を行い、S2にて検出された物体の種別を判定する。
S6では、種別判定部36が、S2にて検出された物体が追跡中の物体であるか否かを判定する。追跡中の物体とは先行車両である。種別判定部36が、S6にて、追跡中の物体でないと判定した場合には、図3の情報出力処理を終了する。一方、種別判定部36が、S6にて、追跡中の物体であると判定した場合には、S7へ移行する。
In S5, the
In S6, the
S7では、雨滴判定部37が、前回検出枠に対する前回画像での視差点密度を算出する第1密度算出処理を行う。
ここで、情報処理装置13が実行する第1密度算出処理について、図4のフローチャートを用いて説明する。
In S7, the
Here, the first density calculation process executed by the
まずS21では、雨滴判定部37が、前回検出枠の面積を算出する。前回検出枠とは、前回画像にて検出された物体に対して設定された検出枠である。前回検出枠は、前回画像に基づいて図3のS2の処理で設定されてもよい。図5に示されるように、面積Sは、画像51における検出枠61の高さHと幅Wの積である。検出枠61は、例えば、物体検出部32により検出された物体である先行車両101を囲う矩形の領域として設定されてもよい。なお図5及び後述する図9,図12では、図の理解を容易にするため、視差点の表示については割愛する。
First, in S21, the
S22では、雨滴判定部37が、前回画像に対する前回検出枠内の視差点数Nを算出する。図6に示されるように、視差画像52には、画像上のエッジ部分を中心に、多数の視差点71が含まれる。視差点数Nとは、視差画像52における検出枠61の内部に位置する視差点71の数である。なお、視差点の距離情報は例えば色彩により示すことが可能であるが、図6及び後述する図10では、図の理解を容易にするため、距離情報の表示については割愛する。
In S22, the
S23では、雨滴判定部37が、視差点密度Denspreを算出する。視差点密度Denspreは、Denspre=視差点数N/面積Sとして算出される。このS23の後、処理がS8に移行する。
In S23, the
説明を図3に戻る。
S8では、雨滴判定部37が、前回からの推定枠に対する今回画像での視差点密度を算出する第2密度算出処理を行う。
Returning to FIG.
In S8, the
ここで、情報処理装置13が実行する第2密度算出処理について、図7のフローチャートを用いて説明する。なお、図9及び図10は、フロントガラスの雨滴によりぼやけた画像の例である。
Here, the second density calculation process executed by the
まずS31では、雨滴判定部37が、前回画像にて取得された物体情報から、今回画像で用いる推定枠を設定する。推定枠とは、前回画像の物体情報から推定される検出枠であって、今回画像において検出された物体とは無関係に、今回画像において物体が存在すると予測される位置に設定される。図8に示されるように、前回画像取得時の先行車両101aは、今回画像取得時には先行車両101bの位置まで移動する。先行車両101bの位置は、前回画像取得時の先行車両101aの位置と速度から推定可能である。そして、その推定される先行車両101bの位置を画像座標系に変換することで、今回画像における推定枠の位置を設定する。
First, in S31, the
S32では、雨滴判定部37が、図9に示されるように、画像53におけるS31にて推定された推定枠62の面積Sを算出する。
S33では、雨滴判定部37が、今回画像に対する推定枠62内の視差点数Nを算出する。ここでいう視差点数Nとは、図10に示されるように、視差画像54における推定枠62の内部に位置する視差点72の数である。
At S32, the
In S33, the
S34では、雨滴判定部37が、視差点密度Denscurを算出する。視差点密度Denscurは、Denscur=視差点数N/面積Sとして算出される。このS34の後、処理がS9に移行する。
In S34, the
説明を図3に戻る。
S9では、雨滴判定部37が、視差点密度の比Rdensを算出する。Rdensは、Rdens=Denscur/Denspreとして求められる。
Returning to FIG.
In S9, the
続いて、S10で、雨滴判定部37は、Rdens<Rthであるか否かを判定する。つまり、雨滴判定部37は、雨滴付着状態であるか否かを判定する。ここでいうRthとは、予め定められた基準値である。つまり上記の条件を満たす場合とは、前回画像と今回画像とで所定領域の視差点の数が所定の変化率を超えて急減した場合である。雨滴がステレオカメラ11の前方に付着すると、そのタイミングで視差点密度が急激に低下する。一方、視差点密度に大きな変化がないとき、又は、徐々に視差点密度が低下していくときは、雨滴が付着した影響を受けている蓋然性が低い。よって、上記の条件を満たすときに、雨滴付着状態であると判定される。
Subsequently, in S10, the
雨滴判定部37がS10でRdens<Rthであると判定した場合には、S11へ移行する。
S11では、作動判定部38が、ワイパー作動中であるか否かを判定する。作動判定部38がS11でワイパー作動中でないと判定した場合には、図3の情報出力処理を終了する。このとき、出力部40は、通常処理として物体情報を運転支援装置12に出力する。
When the
In S11, the
一方、作動判定部38がS11でワイパー作動中であると判定した場合には、S12へ移行する。すなわち、S10及びS11を経て、出力条件を満たしたと判定された場合には、S12へ移行する。
On the other hand, when the
S12では、推定部39が推定情報を生成し、出力部40が外挿する。つまり、出力部40は推定情報を運転支援装置12に出力する。出力部40による通常処理は一時的に停止される。その後、本処理を終了する。
In S12, the
上述したS10にて、雨滴判定部37がRdens<Rthでないと判定した場合には、S13へ移行する。
S13では、出力部40が、前回外挿状態であるか否かを判定する。前回外挿状態とは、S12による推定情報の外挿が実行され、通常処理が停止されている状態である。出力部40は、S13で前回外挿状態であると判定した場合には、S14へ移行し、通常処理に復帰し、物体情報を運転支援装置12に出力した後、図3の情報出力処理を終了する。
When the
In S13, the
一方、出力部40は、S13にて前回画像で前回外挿状態でないと判定した場合には、図3の情報出力処理を終了する。このとき、出力部40は、通常処理として物体情報を運転支援装置12に出力する。
On the other hand, when the
[1-3.効果]
以上詳述した実施形態によれば、以下の効果を奏する。
(1a)情報処理装置13によれば、視差点の密度の変化に基づいて雨滴を検出することができる。また、情報処理装置13は、雨滴付着状態と判定されたとき、すなわち画像認識による物体の検出が困難になる状況となったときには、推定情報を運転支援装置12に出力することができる。そのため、運転支援装置12は推定情報を用いて運転を継続することができる。
[1-3. effect]
According to the embodiment detailed above, the following effects are obtained.
(1a) According to the
なお、雨滴付着状態となる場合とは、視差点の数が急速に低下した状態、言い換えるとステレオカメラ11に基づく視差画像の急激な劣化が発生した場合である。そしてそのような状況を作り出す原因として、例えばフロントガラスへの雨滴の付着が挙げられる。通常、雨滴はワイパーにより定期的に除去されるため、雨滴により視差画像が劣化した状況は比較的短時間で解消する。よって、雨滴付着状態と判定されたときに推定情報を外挿することで、短時間の物体ロストによる運転支援装置12の制御停止を抑制することができ、運転支援の継続時間を延ばすことができる。
It should be noted that the raindrop adhesion state is a state in which the number of parallax points has rapidly decreased, in other words, a case in which parallax images based on the
(1b)情報処理装置13は、推定情報を出力するための出力条件としてワイパーが作動中であることを要件として含む。ワイパーが作動中であるということは、降雨中であったりフロントガラスに汚れがあったりする蓋然性が高い。よって、情報処理装置13は推定情報を出力する利益が大きい場面を精度よく判定することができる。
(1b) The
(1c)情報処理装置13によれば、ステレオカメラ11により取得される視差画像に含まれる視差点を用いることで、高精度な物体認識が可能となる。
(1d)情報処理装置13によれば、雨滴付着状態であるか否かを、前回検出枠61と推定枠62における視差点の密度の変化率で判定する。そのため、視差点数そのものを判定基準とする場合と比較して、急速に視差画像が劣化したこと、つまり雨滴等による影響を受けていることを好適に判定することができる。
(1c) According to the
(1d) According to the
[2.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
[2. Other embodiments]
Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above-described embodiments, and various modifications can be made.
(2a)上記実施形態では、周辺画像に含まれる特徴点として視差点を例示したが、これに限定されるものではない。例えば、撮影画像からエッジ点を検出してエッジ点を用いる場合には、特徴点としてエッジ点を用いてもよい。エッジ点など視差点以外を特徴点として用いる場合、ステレオカメラ以外のカメラを用いてもよい。なおエッジ点とは、水平方向又は垂直方向に関して隣接した画素の輝度が急変している部分である。 (2a) In the above embodiment, the parallax point was exemplified as the feature point included in the peripheral image, but the present invention is not limited to this. For example, when detecting edge points from a captured image and using the edge points, the edge points may be used as feature points. If points other than parallax points such as edge points are used as feature points, a camera other than a stereo camera may be used. Note that an edge point is a portion where the brightness of pixels adjacent in the horizontal direction or the vertical direction changes abruptly.
(2b)上記実施形態では、運転支援装置12が実行する運転支援の内容はACCである構成を例示した。しかしながら、運転支援装置12が実行する運転支援はACC以外の運転支援であってもよい。例えば、運転支援装置12は、車線逸脱防止機能や自動運転機能を実行するように構成されていてもよい。
(2b) In the above embodiment, the content of the driving assistance executed by the driving
(2c)上記実施形態においては、所定領域を特定するための枠として矩形の検出枠及び推定枠を例示した。しかしながら所定領域は、検出対象の物体が含まれる領域ならばその具体的な形態は特に限定されない。例えば画像における検出物体の外形と一致するように所定領域が設定されてもよい。 (2c) In the above embodiment, the rectangular detection frame and estimation frame were exemplified as the frame for specifying the predetermined area. However, the specific form of the predetermined area is not particularly limited as long as the area includes the object to be detected. For example, the predetermined area may be set so as to match the outer shape of the detected object in the image.
(2d)上記実施形態では、検出枠及び推定枠における視差点の密度の変化率を算出し、変化率が所定の閾値を超えて大きいときに雨滴付与状態であると判定される構成を例示した。しかしながら、今回画像の所定領域の特徴点の数が、前回画像の所定領域の特徴点と比較して所定の基準を超えて減少することを判定できれば、その具体的な方法は特に限定されない。例えば、今回画像の視差点数を算出する際に、前回画像に基づき設定される推定枠を用いず、今回画像で新たに設定される検出枠における視差点数を用いてもよい。また密度を用いずに、視差点数自体を比較して変化率を求めてもよい。 (2d) In the above embodiment, the change rate of the density of the parallax points in the detection frame and the estimation frame is calculated, and when the change rate is greater than a predetermined threshold value, it is determined that the raindrops are applied. . However, the specific method is not particularly limited as long as it can be determined that the number of feature points in the predetermined area of the current image is reduced by more than a predetermined criterion compared to the feature points in the predetermined area of the previous image. For example, when calculating the number of parallax points for the current image, the number of parallax points in the detection frame newly set for the current image may be used instead of using the estimation frame set based on the previous image. Alternatively, the rate of change may be obtained by comparing the number of parallax points themselves without using the density.
(2e)上記実施形態では、図3のS10で雨滴付着状態であると判定された場合に推定情報の出力を終了する構成を例示した。しかしながら、推定情報の出力を終了するタイミングは上記以外のタイミングであってもよい。例えば、雨滴付着状態と判定されてから一定期間後に推定情報の出力を終了するように構成されていてもよい。また、出力部40は、雨滴付着状態であると雨滴判定部37に判定された後において、所定領域における視差点の数が所定の閾値以上となったときに、推定情報の出力を終了するように構成されていてもよい。このような構成によれば、検出枠における視差点の数が所定の閾値まで回復すれば推定情報の出力が停止され、物体情報が出力される。そのため、物体情報の精度が高い場合にまで推定情報が出力されてしまうことを抑制でき、処理負荷の増加を抑制できる。
(2e) In the above-described embodiment, the configuration is illustrated in which the output of the estimation information is terminated when it is determined in S10 of FIG. 3 that the raindrops are attached. However, the timing of ending the output of the estimation information may be timing other than the above. For example, the output of the estimated information may be terminated after a certain period of time from when it is determined that the raindrops are attached. In addition, the
(2f)上記実施形態では、出力部40が通常処理として物体情報を運転支援装置12に出力し、S12にて、通常処理を一時的に停止する構成を例示した。しかしながら、出力部40による物体情報の出力方法については特に限定されず、例えば物体情報は常時出力されていてもよい。
(2f) In the above embodiment, the
(2g)上記実施形態では、出力条件は、雨滴付着状態であること、及び、ワイパー作動中であることを要件としていた。しかしながら、出力条件は上記の内容に限定されない。例えば、ワイパーの作動については出力条件の要件としなくてもよい。また、図11に示される情報処理装置13Aのように、車両3が直線状の道路を走行中である直線走行状態か否かを判定するように構成された道路判定部41を備え、道路判定部41により直線走行状態と判定されたことを出力条件の要件の1つとしてもよい。道路判定部41による判定は、撮影装置の撮影画像に基づいて実行してもよいし、直線状の道路か否かを示す情報を含む地図情報と車両3の現在位置との対比から判定してもよい。
(2g) In the above embodiment, the conditions for the output are raindrops and wiper operation. However, the output conditions are not limited to the above contents. For example, wiper operation need not be a requirement for output conditions. Further, like the
(2h)検出枠は、図12の画像55に示されるように、車両3が走行中の車線81と、該車線に隣接する車線82と、の位置する範囲に存在する先行車両101c、101dを対象として設定されてもよい。また、画像55に複数の検出枠64、65が存在する場合には、該複数の検出枠ごとに、雨滴判定部37による判定と、推定部39による推定情報の取得と、出力部40による出力と、が実行されるように構成されていてもよい。
(2h) As shown in the
(2i)本開示に記載の情報処理装置13,13A及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の情報処理装置及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の情報処理装置及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。情報処理装置に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。
(2i)
(2j)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。 (2j) A plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or a function possessed by one component may be realized by a plurality of components. . Also, a plurality of functions possessed by a plurality of components may be realized by a single component, or a function realized by a plurality of components may be realized by a single component. Also, part of the configuration of the above embodiment may be omitted. Moreover, at least part of the configuration of the above embodiment may be added or replaced with respect to the configuration of the other above embodiment.
(2k)上述した情報処理装置13の他、当該情報処理装置13を構成要素とするシステム、当該情報処理装置13としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、雨滴判定方法など、種々の形態で本開示を実現することもできる。
(2k) In addition to the
1…運転支援システム、3…車両、11…ステレオカメラ、12…運転支援装置、13,13A…情報処理装置、31…視差検出部、37…雨滴判定部、39…推定部、40…出力部52,54…視差画像、61,64…検出枠、62…推定枠、71,72…視差点
REFERENCE SIGNS
Claims (9)
前記撮影装置を用いて取得される画像であって前記車両の周辺を示す周辺画像(52,54)における前記車両の周辺に存在する物体を示す特徴点を検出するように構成された検出部(31)と、
前記周辺画像において前記物体が存在する領域である所定領域(61,62)に含まれる前記特徴点の数が、過去に取得された前記周辺画像の前記所定領域に含まれる前記特徴点と比較して所定の基準を超えて減少したときに、前記撮影装置の前方に雨滴が付着した雨滴付着状態であることを判定するように構成された雨滴判定部(37)と、を備え、
前記雨滴判定部は、第1のタイミングで撮影された前記周辺画像の前記所定領域における前記特徴点の数と、前記第1のタイミングよりも後の第2のタイミングで撮影された前記周辺画像の前記所定領域における前記特徴点の数と、の変化率が所定の閾値以上であるときに、前記雨滴付着状態であると判定するように構成されている、情報処理装置。 An information processing device (13, 13A) used in a vehicle (3) including an imaging device (11) and a driving support device (12),
A detection unit ( 31) and
comparing the number of feature points included in a predetermined region (61, 62) in the peripheral image where the object exists, with the number of feature points included in the predetermined region in the peripheral image acquired in the past; a raindrop determination unit (37) configured to determine a raindrop adhesion state in which raindrops adhere to the front of the photographing device when the raindrops have decreased beyond a predetermined standard ,
The raindrop determination unit determines the number of feature points in the predetermined region of the peripheral image captured at a first timing, and the number of the peripheral images captured at a second timing after the first timing. The information processing apparatus configured to determine that the raindrops are attached when a rate of change in the number of feature points in the predetermined area is equal to or greater than a predetermined threshold value.
前記撮影装置はステレオカメラであり、
前記周辺画像は、前記ステレオカメラを用いて取得された視差画像であり、
前記特徴点は、前記視差画像に示される視差点(71,72)である、情報処理装置。 The information processing device according to claim 1,
The imaging device is a stereo camera,
The peripheral image is a parallax image acquired using the stereo camera,
The information processing apparatus, wherein the feature point is a parallax point (71, 72) shown in the parallax image.
前記所定領域は、前記車両が走行中の車線(81)と、該車線に隣接する車線(82)と、の位置する範囲に存在する前記物体を対象として設定される、情報処理装置。 The information processing device according to claim 1 or claim 2 ,
The information processing apparatus, wherein the predetermined area is set for the object existing in a range of a lane (81) on which the vehicle is traveling and a lane (82) adjacent to the lane.
さらに、前記検出部により検出された前記特徴点に基づいて、前記物体について推定される挙動を示す推定情報を取得するように構成された推定部(39)と、
前記雨滴判定部により前記雨滴付着状態であると判定されたことが要件として含まれる出力条件が満たされたときに、前記推定部により取得された前記推定情報を前記運転支援装置に出力するように構成された出力部(40)と、を備える、情報処理装置。 The information processing device according to any one of claims 1 to 3 ,
an estimating unit (39) configured to acquire estimated information indicating a behavior estimated for the object based on the feature points detected by the detecting unit;
The estimated information acquired by the estimating unit is output to the driving support device when an output condition including as a requirement that the raindrop determining unit determines that the raindrops are attached is satisfied. and an output unit (40) configured.
さらに、前記車両に搭載されるワイパーが作動中であるか否かを判定するように構成された作動判定部(38)を備え、
前記出力条件は、前記作動判定部により作動中であると判定されたことを要件の1つとして含む、情報処理装置。 The information processing device according to claim 4 ,
Furthermore, an operation determination unit (38) configured to determine whether the wiper mounted on the vehicle is in operation,
The information processing apparatus, wherein the output condition includes, as one of requirements, that the operation determination unit determines that the operation is being performed.
前記出力部は、前記雨滴付着状態であると前記雨滴判定部に判定された後において、前記所定領域における前記特徴点の数が所定の閾値以上となったときに、前記推定情報の出力を終了するように構成されている、情報処理装置。 The information processing device according to claim 4 or claim 5 ,
The output unit terminates the output of the estimated information when the number of feature points in the predetermined area becomes equal to or greater than a predetermined threshold after the raindrop determination unit determines that the raindrops are attached. An information processing device configured to:
さらに、前記車両が直線状の道路を走行中である直線走行状態か否かを判定するように構成された道路判定部(41)を備え、
前記出力条件は、前記道路判定部により直線走行状態であると判定されたことを要件の1つとして含む、情報処理装置。 The information processing device according to any one of claims 4 to 6 ,
Furthermore, a road determination unit (41) configured to determine whether or not the vehicle is in a straight running state in which the vehicle is running on a straight road,
The information processing apparatus, wherein the output condition includes, as one of requirements, that the road determination unit determines that the vehicle is in a straight running state.
前記周辺画像に複数の前記所定領域が存在する場合には、該複数の所定領域ごとに、前記雨滴判定部による前記判定と、前記推定部による前記推定情報の取得と、前記出力部による前記出力と、が実行される、情報処理装置。 The information processing device according to any one of claims 4 to 7 ,
when a plurality of the predetermined regions exist in the peripheral image, the determination by the raindrop determination unit, the acquisition of the estimated information by the estimation unit, and the output by the output unit for each of the plurality of predetermined regions and an information processing device on which .
撮影装置(11)と、
運転支援装置(12)と、
請求項4から請求項8までのいずれか1項に記載の情報処理装置(13,13A)と、を備える運転支援システム。 A driving support system (1) mounted on a vehicle (3) and used,
an imaging device (11);
a driving support device (12);
A driving support system comprising the information processing device (13, 13A) according to any one of claims 4 to 8 .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019110371A JP7247772B2 (en) | 2019-06-13 | 2019-06-13 | Information processing device and driving support system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019110371A JP7247772B2 (en) | 2019-06-13 | 2019-06-13 | Information processing device and driving support system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020201876A JP2020201876A (en) | 2020-12-17 |
JP7247772B2 true JP7247772B2 (en) | 2023-03-29 |
Family
ID=73744297
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019110371A Active JP7247772B2 (en) | 2019-06-13 | 2019-06-13 | Information processing device and driving support system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7247772B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115668959A (en) * | 2020-05-25 | 2023-01-31 | 日立安斯泰莫株式会社 | Image processing apparatus and method |
WO2023089686A1 (en) * | 2021-11-17 | 2023-05-25 | 日立Astemo株式会社 | External environment recognition device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009037284A (en) | 2007-07-31 | 2009-02-19 | Daihatsu Motor Co Ltd | Traveling object recognition device |
JP2009110173A (en) | 2007-10-29 | 2009-05-21 | Fuji Heavy Ind Ltd | Object detection device |
JP2009241636A (en) | 2008-03-28 | 2009-10-22 | Fuji Heavy Ind Ltd | Driving support system |
JP2015088047A (en) | 2013-10-31 | 2015-05-07 | 富士重工業株式会社 | Driving support device |
-
2019
- 2019-06-13 JP JP2019110371A patent/JP7247772B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009037284A (en) | 2007-07-31 | 2009-02-19 | Daihatsu Motor Co Ltd | Traveling object recognition device |
JP2009110173A (en) | 2007-10-29 | 2009-05-21 | Fuji Heavy Ind Ltd | Object detection device |
JP2009241636A (en) | 2008-03-28 | 2009-10-22 | Fuji Heavy Ind Ltd | Driving support system |
JP2015088047A (en) | 2013-10-31 | 2015-05-07 | 富士重工業株式会社 | Driving support device |
Also Published As
Publication number | Publication date |
---|---|
JP2020201876A (en) | 2020-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7262710B2 (en) | Collision time estimation apparatus for vehicles, collision time estimation method for vehicles, collision alarm apparatus for vehicles, and collision alarm method for vehicles | |
US20150085119A1 (en) | Time to collision using a camera | |
JP6045889B2 (en) | In-vehicle control device | |
US10635911B2 (en) | Apparatus and method for recognizing travel lane | |
JP2008276308A (en) | Video image processing apparatus, video image processing system, and navigation device | |
CN101299272A (en) | Method and system for initializing templates of moving objects | |
JP7247772B2 (en) | Information processing device and driving support system | |
JP2010256995A (en) | Object recognition apparatus | |
JP2009252198A (en) | Travel environment presuming device, method and program, and traffic lane deviation alarm device and steering assisting apparatus | |
WO2019156072A1 (en) | Attitude estimating device | |
WO2018008184A1 (en) | Image processing device and image processing method | |
JP2020060899A (en) | Calibration device for on-vehicle camera | |
JP6672202B2 (en) | In-vehicle camera system, attached matter detection device, attached matter removal method, and attached matter detection program | |
US20200151464A1 (en) | Method and device for ascertaining an optical flow based on an image sequence recorded by a camera of a vehicle | |
JP6184447B2 (en) | Estimation apparatus and estimation program | |
JP6032141B2 (en) | Travel road marking detection device and travel road marking detection method | |
WO2018088262A1 (en) | Parking frame recognition device | |
JP2008276307A (en) | Video image processing apparatus, video image processing system, and navigation device | |
JP7354773B2 (en) | Object detection device, object detection method, and object detection program | |
JP7134780B2 (en) | stereo camera device | |
JP7196781B2 (en) | Information processing device and driving support system | |
JP2005301892A (en) | Lane recognition device by a plurality of cameras | |
JP7180521B2 (en) | Target detection device, target detection method, and driving support system | |
WO2018088263A1 (en) | Parking frame recognition device | |
JP2009059132A (en) | Object acknowledging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230227 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7247772 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |