JP7247772B2 - Information processing device and driving support system - Google Patents

Information processing device and driving support system Download PDF

Info

Publication number
JP7247772B2
JP7247772B2 JP2019110371A JP2019110371A JP7247772B2 JP 7247772 B2 JP7247772 B2 JP 7247772B2 JP 2019110371 A JP2019110371 A JP 2019110371A JP 2019110371 A JP2019110371 A JP 2019110371A JP 7247772 B2 JP7247772 B2 JP 7247772B2
Authority
JP
Japan
Prior art keywords
information processing
processing device
parallax
information
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019110371A
Other languages
Japanese (ja)
Other versions
JP2020201876A (en
Inventor
翔 奥村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2019110371A priority Critical patent/JP7247772B2/en
Publication of JP2020201876A publication Critical patent/JP2020201876A/en
Application granted granted Critical
Publication of JP7247772B2 publication Critical patent/JP7247772B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、車両周辺の物体を認識する技術に関する。 The present disclosure relates to technology for recognizing objects around a vehicle.

従来、車両に搭載されたカメラの撮影画像に基づいて車両周辺の物体を検出し、当該検出結果に基づいて運転支援を行う技術が知られている。例えば、下記特許文献1には、ステレオカメラの撮影画像からの視差情報の生成状況に基づいて、検出された物体の位置の精度を出力する技術が提案されている。 2. Description of the Related Art Conventionally, there is known a technique of detecting an object around a vehicle based on an image captured by a camera mounted on the vehicle and performing driving assistance based on the detection result. For example, Patent Literature 1 below proposes a technique for outputting the accuracy of the position of a detected object based on how parallax information is generated from images captured by a stereo camera.

特開2016-148962号公報JP 2016-148962 A

発明者の詳細な検討の結果、次のような課題が見出された。撮影装置前方のフロントガラスに付着した雨滴により物体検出精度が低下しても、ワイパー等で雨滴が除去されれば物体検出精度が早期に回復する場合がある。そこで、物体が検出されなくなった理由が雨滴によるものであると高い精度で判定できれば、物体が実際に存在しない場合とは異なる適切な制御を行うことができる。 As a result of detailed studies by the inventor, the following problems were found. Even if the object detection accuracy deteriorates due to raindrops adhering to the windshield in front of the photographing device, the object detection accuracy may be quickly recovered if the raindrops are removed by a wiper or the like. Therefore, if it can be determined with high accuracy that the reason why the object is no longer detected is due to raindrops, it is possible to perform appropriate control that is different from the case where the object does not actually exist.

本開示の1つの局面は、雨滴の付着を判定する新たな技術を提供する。 One aspect of the present disclosure provides a new technique for determining raindrop adhesion.

本開示の一態様は、撮影装置(11)及び運転支援装置(12)を備える車両(3)にて用いられる情報処理装置(13)である。情報処理装置は、検出部(31)と、雨滴判定部(37)と、を備える。検出部は、撮影装置を用いて取得される画像であって、車両の周辺を示す周辺画像(52,53)における車両の周辺に存在する物体を示す特徴点を検出するように構成される。雨滴判定部は、周辺画像において物体が存在する領域である所定領域(61,62)に含まれる特徴点の数が、過去に取得された周辺画像の所定領域に含まれる特徴点と比較して所定の基準を超えて減少したときに、撮影装置の前方に雨滴が付着した雨滴付着状態であることを判定するように構成される。 One aspect of the present disclosure is an information processing device (13) used in a vehicle (3) including an imaging device (11) and a driving support device (12). The information processing device includes a detection section (31) and a raindrop determination section (37). The detection unit is configured to detect feature points indicating objects existing around the vehicle in surrounding images (52, 53), which are images acquired using the imaging device and which show the surroundings of the vehicle. The raindrop determination unit compares the number of feature points included in the predetermined regions (61, 62) in the peripheral image where the object exists with the number of feature points included in the predetermined region in the peripheral image acquired in the past. It is configured to determine a raindrop adhering state in which raindrops adhere to the front of the photographing device when the amount of raindrops has decreased beyond a predetermined criterion.

このような構成によれば、特徴点の数が所定の基準を超えて減少したときに、雨滴が付着したと判定することができる。
また本開示の別の態様は、上記本開示の一態様において、さらに、推定部(39)及び出力部(40)を備えてもよい。推定部は、検出部により検出された特徴点に基づいて、物体について推定される挙動を示す推定情報を取得するように構成される。出力部は、所定の出力条件が満たされたときに、推定部により取得された推定情報を運転支援装置に出力するように構成される。出力条件には、雨滴判定部により雨滴付着状態であると判定されたことが要件として含まれる。
According to such a configuration, it can be determined that raindrops have adhered when the number of feature points decreases beyond a predetermined criterion.
Another aspect of the present disclosure may further include an estimating section (39) and an output section (40) in the above one aspect of the present disclosure. The estimating unit is configured to acquire estimation information indicating the estimated behavior of the object based on the feature points detected by the detecting unit. The output unit is configured to output the estimation information acquired by the estimation unit to the driving assistance device when a predetermined output condition is satisfied. The output condition includes as a requirement that the raindrop determining unit determines that the raindrop is attached.

このような構成によれば、雨滴付着状態と判定されたとき、すなわち特徴点の数が減少することで画像認識による物体の検出が困難になる状況のときに、推定情報を運転支援装置に出力することができる。そのため、運転支援装置は推定情報を用いた運転支援の継続が可能となり、運転支援の継続時間を延ばすことができる。 According to such a configuration, when it is determined that raindrops are attached, that is, when the number of feature points is reduced and it becomes difficult to detect an object by image recognition, the estimated information is output to the driving assistance device. can do. Therefore, the driving support device can continue driving support using the estimated information, and can extend the duration of driving support.

本開示の別の態様は、車両(3)に搭載して用いられる運転支援システム(1)であって、撮影装置(11)と、運転支援装置(12)と、上述した別の態様の情報処理装置(13)と、を備える。このような構成によれば、上述した本開示の別の態様の情報処理装置を備えることによる運転支援の継続時間を延ばすという効果を実現させることができる。 Another aspect of the present disclosure is a driving assistance system (1) mounted on a vehicle (3) and used, comprising a photographing device (11), a driving assistance device (12), and information of another aspect described above. a processor (13). According to such a configuration, it is possible to realize the effect of extending the duration of driving assistance by providing the information processing device of another aspect of the present disclosure described above.

運転支援システムの構成を示すブロック図である。1 is a block diagram showing the configuration of a driving assistance system; FIG. 実施形態の情報処理装置の機能ブロック図である。1 is a functional block diagram of an information processing device according to an embodiment; FIG. 情報出力処理のフローチャートである。It is a flow chart of information output processing. 第1密度算出処理のフローチャートである。9 is a flowchart of first density calculation processing; 検出枠の面積の算出方法を説明する図である。It is a figure explaining the calculation method of the area of a detection frame. 検出枠における視差点数の算出方法を説明する図である。It is a figure explaining the calculation method of the number of parallax points in a detection frame. 第2密度算出処理のフローチャートである。9 is a flowchart of second density calculation processing; 先行車両の移動を説明する図である。It is a figure explaining movement of preceding vehicles. 推定枠の面積の算出方法を説明する図である。It is a figure explaining the calculation method of the area of an estimation frame. 推定枠における視差点数の算出方法を説明する図である。It is a figure explaining the calculation method of the number of parallax points in an estimation frame. 変形例の情報処理装置の機能ブロック図である。It is a functional block diagram of an information processing device of a modification. 複数の検出枠が生じる場合の処理の例を説明する図である。FIG. 10 is a diagram illustrating an example of processing when a plurality of detection frames are generated;

以下、図面を参照しながら、本開示の実施形態を説明する。
[1.実施形態]
[1-1.構成]
図1に示される運転支援システム1は、車両3に搭載して用いられるシステムであって、ステレオカメラ11と、運転支援装置12と、情報処理装置13と、を備える。
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
[1. embodiment]
[1-1. composition]
A driving assistance system 1 shown in FIG. 1 is a system mounted on a vehicle 3 and used, and includes a stereo camera 11 , a driving assistance device 12 , and an information processing device 13 .

ステレオカメラ11は、右カメラ11a及び左カメラ11bを備える。右カメラ11a及び左カメラ11bは、互いに同期が取られたCCDセンサやCMOSセンサ等のイメージセンサを備える。右カメラ11a及び左カメラ11bは、例えば、車両3のフロントガラスの内側において、車幅方向に所定の間隔をあけて、路面から同じ高さに取り付けられている。右カメラ11a及び左カメラ11bは、所定の周期(例えば、0.1秒間隔)で車両3の周辺を繰り返し撮影する。ステレオカメラ11が撮影装置に相当する。 The stereo camera 11 includes a right camera 11a and a left camera 11b. The right camera 11a and the left camera 11b are equipped with image sensors such as CCD sensors and CMOS sensors that are synchronized with each other. The right camera 11a and the left camera 11b are mounted, for example, inside the windshield of the vehicle 3 at the same height from the road surface with a predetermined gap in the vehicle width direction. The right camera 11a and the left camera 11b repeatedly photograph the surroundings of the vehicle 3 at predetermined intervals (for example, 0.1 second intervals). The stereo camera 11 corresponds to a photographing device.

運転支援装置12は、図示しないCPU、ROM、RAM及びI/O等を備えたマイクロコンピュータを備えた装置である。運転支援装置12は、先行車両との車間距離を維持するように加減速を行う、いわゆるアダプティブ・クルーズ・コントロール(以下、ACCと記載する)の制御が可能に構成されている。運転支援装置12は、情報処理装置13により出力される、後述する物体情報又は推定情報を用いてACCを実行する。 The driving support device 12 is a device provided with a microcomputer including a CPU, ROM, RAM and I/O (not shown). The driving assistance device 12 is configured to be capable of controlling so-called adaptive cruise control (hereinafter referred to as ACC) that accelerates and decelerates so as to maintain a distance to the preceding vehicle. The driving assistance device 12 executes ACC using object information or estimation information, which will be described later, output by the information processing device 13 .

情報処理装置13は、CPU21と、例えば、RAM又はROM等の半導体メモリ(以下、メモリ22)と、を有するマイクロコンピュータを備える。情報処理装置13の各機能は、CPU21がメモリ22に格納されたプログラムを実行することにより実現される。 The information processing device 13 includes a microcomputer having a CPU 21 and a semiconductor memory such as RAM or ROM (hereinafter referred to as memory 22). Each function of the information processing device 13 is realized by executing a program stored in the memory 22 by the CPU 21 .

情報処理装置13は、図2に示すように、視差検出部31と、雨滴判定部37と、を備える。また情報処理装置13は、物体検出部32と、物体追跡部33と、距離算出部34と、速度算出部35と、種別判定部36と、作動判定部38と、推定部39と、出力部40と、を備えてもよい。 The information processing device 13 includes a parallax detection unit 31 and a raindrop determination unit 37, as shown in FIG. The information processing device 13 also includes an object detection unit 32, an object tracking unit 33, a distance calculation unit 34, a speed calculation unit 35, a type determination unit 36, an operation determination unit 38, an estimation unit 39, and an output unit. 40 and .

視差検出部31は、ステレオカメラ11を用いて取得された視差画像に映される物体を示す特徴点である視差点を検出する。視差画像に映される物体とは、車両3の周辺に存在する物体である。視差点は公知の手法により取得できる。例えば、視差検出部31は、右カメラ11a及び左カメラ11bにより撮影がなされた都度、取得された左右の画像のアナログデータを、画素ごとに、所定の輝度階調のデジタルデータに変換する。そして、視差検出部31は、左右のデジタル画像のステレオマッチングを行って視差を算出し、視差画像を生成する。本実施形態にて処理の対象となる物体は、車両3の前方で車両3と同じ方向に走行する先行車両である。視差画像が、周辺画像に相当する。また、視差検出部31が、検出部に相当する。なお、視差画像からの物体の検出は、物体検出部32が、公知の方法を用いて実行する。 The parallax detection unit 31 detects parallax points, which are feature points representing objects shown in parallax images acquired using the stereo camera 11 . Objects that appear in the parallax image are objects existing around the vehicle 3 . A parallax point can be obtained by a known technique. For example, the parallax detection unit 31 converts the analog data of the left and right images acquired each time the right camera 11a and the left camera 11b take pictures into digital data of a predetermined luminance gradation for each pixel. Then, the parallax detection unit 31 performs stereo matching of the left and right digital images to calculate parallax and generate a parallax image. An object to be processed in the present embodiment is a preceding vehicle running in front of the vehicle 3 in the same direction as the vehicle 3 . A parallax image corresponds to a peripheral image. Also, the parallax detection unit 31 corresponds to the detection unit. It should be noted that the detection of the object from the parallax image is executed by the object detection unit 32 using a known method.

雨滴判定部37は、ステレオカメラ11の前方に雨滴が付着した雨滴付着状態であるか否かを判定する。ステレオカメラ11の前方とは、カメラのレンズと被写体との間に設置される透過性を有する部材であり、本実施形態ではフロントガラスが該当する。 The raindrop determining unit 37 determines whether or not the stereo camera 11 is in a raindrop adhering state in which raindrops are attached in front of the stereo camera 11 . The front of the stereo camera 11 is a transmissive member installed between the lens of the camera and the subject, and corresponds to the windshield in this embodiment.

上述した雨滴判定部37は、視差画像において物体が存在する領域である所定領域に含まれる視差点の数が、過去に撮影された視差画像の所定領域に含まれる視差点と比較して所定の基準を超えて減少したときに、雨滴付着状態であることを判定する。具体的には、雨滴判定部37は、第1のタイミングで撮影された視差画像の所定領域における視差点の数と、第1のタイミングよりも後の第2のタイミングで撮影された視差画像における所定領域の視差点の数と、の変化率が所定の閾値以上であるときに、雨滴付着状態であると判定する。 The above-described raindrop determining unit 37 compares the number of parallax points included in a predetermined region in which an object exists in the parallax image with the number of parallax points included in the predetermined region in the parallax image captured in the past. It is determined that raindrops are attached when the amount decreases beyond the standard. Specifically, the raindrop determining unit 37 determines the number of parallax points in a predetermined region of the parallax image captured at the first timing, and the number of parallax points in the parallax image captured at the second timing after the first timing. When the number of parallax points in the predetermined area and the rate of change are equal to or greater than a predetermined threshold value, it is determined that raindrops are attached.

作動判定部38は、車両3に搭載される図示しないワイパーが作動中であるか否かを判定する。ワイパー作動中とは、ワイパーが間欠的に作動している場合には停止期間中も含む。 The operation determination unit 38 determines whether or not a wiper (not shown) mounted on the vehicle 3 is in operation. "While the wiper is in operation" includes the period when the wiper is stopped when the wiper is intermittently operated.

推定部39は、物体情報及び推定情報を取得する。これらの情報は、先行車両の挙動を示す情報であり、視差画像に含まれる物体の位置又は移動に関する情報を含む。以下の説明で、物体とは、視差画像にて検出される物体を指す。 The estimation unit 39 acquires object information and estimation information. These pieces of information are information indicating the behavior of the preceding vehicle, and include information regarding the position or movement of objects included in the parallax images. In the following description, an object refers to an object detected in parallax images.

物体情報には、物体距離、縦方向相対速度、物体横位置、横方向相対速度、物体横幅、物体種別などが含まれる。物体距離とは、車両3から検出された物体までの距離である。縦方向相対速度とは、車両3の進行方向に関する車両3を基準とした物体の相対速度である。相対速度は過去の複数の視差画像に係る特徴点を用いることで算出できる。物体横位置は、車両3を基準とした、車両3の進行方向と直交する方向の物体の位置である。横方向相対速度とは、車両3の進行方向と直交する方向に関する車両3を基準とした物体の相対速度である。物体横幅は上述した直交する方向に関する物体の長さである。物体種別は、物体の大きさ、移動速度、形状などから推定される物体の種別である。 The object information includes object distance, longitudinal relative velocity, object lateral position, lateral relative velocity, object lateral width, object type, and the like. The object distance is the distance from the vehicle 3 to the detected object. The longitudinal relative velocity is the relative velocity of an object with respect to the vehicle 3 in the traveling direction of the vehicle 3 . The relative velocity can be calculated by using feature points related to a plurality of past parallax images. The object lateral position is the position of the object in the direction perpendicular to the traveling direction of the vehicle 3 with respect to the vehicle 3 . The lateral relative velocity is the relative velocity of an object with respect to the vehicle 3 in a direction perpendicular to the traveling direction of the vehicle 3 . The object width is the length of the object in the orthogonal directions mentioned above. The object type is the type of object estimated from the size, moving speed, shape, and the like of the object.

また推定部39は、物体情報を、視差検出部31により検出された視差点に基づいて取得する。推定部39は、物体の位置を、画像上の視差点の位置と該視差点が示す距離とにより特定する。また物体の速度を、現在及び過去の視差画像に含まれる先行車両に係る視差点を利用して求める。物体情報は、最新の視差画像に含まれる先行車両に係る視差点を用いて求められる、現時点での先行車両の挙動を示す情報である。 The estimation unit 39 also acquires object information based on the parallax points detected by the parallax detection unit 31 . The estimation unit 39 identifies the position of the object based on the position of the parallax point on the image and the distance indicated by the parallax point. Also, the velocity of the object is obtained using the parallax points of the preceding vehicle included in the current and past parallax images. The object information is information indicating the current behavior of the preceding vehicle, which is obtained using the parallax points of the preceding vehicle included in the latest parallax image.

推定情報は、物体情報と同一種類の内容、つまり、物体距離、縦方向相対速度、物体横位置、横方向相対速度、物体横幅、物体種別などを含む。一方で、推定情報は物体情報とは異なり、先行車両について推定される挙動を示す情報である。言い換えると、ある視差画像が取得されたタイミング(以下、基準タイミングと記載する)よりも後のタイミングにおける先行車両の位置や速度について、予測される挙動を示す情報である。推定情報の各内容は次のように求められる。物体距離は、基準タイミングにおける物体の速度と等速運動を行ったものと仮定して、車両3の移動を考慮して計算される。縦方向相対速度,物体横位置,物体横幅,物体種別は、基準タイミングにおける値や内容がそのまま用いられる。横方向相対速度は、「0」と設定される。つまり横方向の相対的な移動は生じていないものと推定される。 The estimated information includes the same types of content as the object information, that is, object distance, vertical relative velocity, horizontal position of object, relative horizontal velocity, horizontal width of object, type of object, and the like. On the other hand, unlike the object information, the estimation information is information indicating the behavior estimated for the preceding vehicle. In other words, it is information that indicates the predicted behavior of the position and speed of the preceding vehicle at the timing after the timing at which a certain parallax image is acquired (hereinafter referred to as the reference timing). Each content of estimated information is obtained as follows. The object distance is calculated in consideration of the movement of the vehicle 3, assuming that the object has a constant velocity at the reference timing. As for the vertical relative velocity, the horizontal position of the object, the horizontal width of the object, and the type of the object, the values and contents at the reference timing are used as they are. The lateral relative velocity is set to "0". In other words, it is presumed that relative movement in the lateral direction has not occurred.

出力部40は、推定部39により取得された物体情報及び推定情報を運転支援装置12に出力する。推定情報は、所定の出力条件を満たしたときに出力される。出力条件とは、雨滴判定部37により雨滴付着状態であると判定されたことが要件として含まれる条件である。なお、本実施形態においては、作動判定部38により作動中であると判定されたことも出力条件を満たす要件の1つとして含まれる。出力条件を満たさない場合は、通常処理として、物体情報を運転支援装置12に出力する。 The output unit 40 outputs the object information and estimated information acquired by the estimation unit 39 to the driving support device 12 . The estimated information is output when a predetermined output condition is satisfied. The output condition is a condition that includes as a requirement that the raindrop determination unit 37 determines that the raindrop is attached. In the present embodiment, it is included as one of the requirements for satisfying the output condition that the operation determination unit 38 determines that the operation is being performed. If the output condition is not satisfied, the object information is output to the driving support device 12 as normal processing.

[1-2.処理]
次に、情報処理装置13が実行する情報出力処理について、図3のフローチャートを用いて説明する。この処理は、ステレオカメラ11により画像が取得されるごとに実行される。なお以下の処理において、検出される物体とは先行車両である。
[1-2. process]
Next, information output processing executed by the information processing device 13 will be described using the flowchart of FIG. This processing is executed each time an image is acquired by the stereo camera 11 . Note that in the following processing, the detected object is the preceding vehicle.

まず、S1では、視差検出部31が視差算出を行う。ここでは、視差検出部31は、右カメラ11a及び左カメラ11bにより撮影された左右の撮影画像に基づいて、視差点を含む視差画像を生成する。 First, in S1, the parallax detection unit 31 performs parallax calculation. Here, the parallax detection unit 31 generates a parallax image including parallax points based on the left and right captured images captured by the right camera 11a and the left camera 11b.

S2では、物体検出部32が、視差画像から物体を検出する。このとき、検出された物体それぞれに、検出枠を設定してもよい。検出枠とは、画像上の該物体が存在する領域である所定領域を特定する枠である。また、検出枠は本実施形態で説明する処理とは別の処理において設定されてもよい。検出枠の詳細については後述する。 In S2, the object detection unit 32 detects an object from the parallax images. At this time, a detection frame may be set for each detected object. A detection frame is a frame that specifies a predetermined area where the object exists on the image. Also, the detection frame may be set in a process different from the process described in this embodiment. Details of the detection frame will be described later.

S3では、物体追跡部33が、物体追跡をする。ここでは、今回取得した視差画像(以下、今回画像とも記載する)よりも1回前の視差画像(以下、前回画像とも記載する)にて検出された物体を、今回画像において追跡し、特定する。物体追跡の具体的な方法は特に限定されない。例えば、前回画像にて検出された物体と今回画像にて検出された物体の尤度を算出し、尤度が所定の閾値以上である物体を同一の物体を判定してもよい。また今回画像に物体が複数存在する場合は、最も尤度が大きいものを同一の物体と判定してもよい。なお、今回画像が、上述した第1のタイミングで撮影された視差画像の例であり、前回画像が、上述した第2のタイミングで撮影された視差画像の例である。 In S3, the object tracking unit 33 tracks the object. Here, the object detected in the parallax image (hereinafter also referred to as the previous image) one time before the parallax image acquired this time (hereinafter also referred to as the current image) is tracked and identified in the current image. . A specific method of object tracking is not particularly limited. For example, the likelihood of the object detected in the previous image and the object detected in the current image may be calculated, and the objects whose likelihood is equal to or greater than a predetermined threshold may be determined to be the same object. Also, if there are a plurality of objects in the current image, the one with the highest likelihood may be determined to be the same object. Note that the current image is an example of the parallax image captured at the first timing described above, and the previous image is an example of the parallax image captured at the second timing described above.

S4では、距離算出部34及び速度算出部35が、S4にて追跡された物体の位置及び速度を算出する。物体の速度は、例えば、車両3の速度と、車両3と物体の相対速度から算出できる。 In S4, the distance calculator 34 and the speed calculator 35 calculate the position and speed of the object tracked in S4. The speed of the object can be calculated from, for example, the speed of the vehicle 3 and the relative speed between the vehicle 3 and the object.

S5では、種別判定部36が、テンプレートマッチング等を行い、S2にて検出された物体の種別を判定する。
S6では、種別判定部36が、S2にて検出された物体が追跡中の物体であるか否かを判定する。追跡中の物体とは先行車両である。種別判定部36が、S6にて、追跡中の物体でないと判定した場合には、図3の情報出力処理を終了する。一方、種別判定部36が、S6にて、追跡中の物体であると判定した場合には、S7へ移行する。
In S5, the type determination unit 36 performs template matching and the like to determine the type of the object detected in S2.
In S6, the type determination unit 36 determines whether or not the object detected in S2 is the object being tracked. The object being tracked is the preceding vehicle. When the type determination unit 36 determines in S6 that the object is not being tracked, the information output processing in FIG. 3 is terminated. On the other hand, when the type determination unit 36 determines in S6 that the object is being tracked, the process proceeds to S7.

S7では、雨滴判定部37が、前回検出枠に対する前回画像での視差点密度を算出する第1密度算出処理を行う。
ここで、情報処理装置13が実行する第1密度算出処理について、図4のフローチャートを用いて説明する。
In S7, the raindrop determination unit 37 performs a first density calculation process for calculating the parallax point density in the previous image with respect to the previous detection frame.
Here, the first density calculation process executed by the information processing device 13 will be described using the flowchart of FIG.

まずS21では、雨滴判定部37が、前回検出枠の面積を算出する。前回検出枠とは、前回画像にて検出された物体に対して設定された検出枠である。前回検出枠は、前回画像に基づいて図3のS2の処理で設定されてもよい。図5に示されるように、面積Sは、画像51における検出枠61の高さHと幅Wの積である。検出枠61は、例えば、物体検出部32により検出された物体である先行車両101を囲う矩形の領域として設定されてもよい。なお図5及び後述する図9,図12では、図の理解を容易にするため、視差点の表示については割愛する。 First, in S21, the raindrop determination unit 37 calculates the area of the previous detection frame. The previous detection frame is a detection frame set for the object detected in the previous image. The previous detection frame may be set in the process of S2 in FIG. 3 based on the previous image. As shown in FIG. 5, area S is the product of height H and width W of detection frame 61 in image 51 . The detection frame 61 may be set as, for example, a rectangular area surrounding the preceding vehicle 101 that is the object detected by the object detection unit 32 . In addition, in FIG. 5 and FIGS. 9 and 12 to be described later, the display of parallax points is omitted in order to facilitate understanding of the drawings.

S22では、雨滴判定部37が、前回画像に対する前回検出枠内の視差点数Nを算出する。図6に示されるように、視差画像52には、画像上のエッジ部分を中心に、多数の視差点71が含まれる。視差点数Nとは、視差画像52における検出枠61の内部に位置する視差点71の数である。なお、視差点の距離情報は例えば色彩により示すことが可能であるが、図6及び後述する図10では、図の理解を容易にするため、距離情報の表示については割愛する。 In S22, the raindrop determination unit 37 calculates the number of parallax points N within the previous detection frame for the previous image. As shown in FIG. 6, the parallax image 52 includes a large number of parallax points 71 around edge portions on the image. The number of parallax points N is the number of parallax points 71 located inside the detection frame 61 in the parallax image 52 . The distance information of the parallax points can be indicated by colors, for example, but the display of the distance information is omitted in FIG. 6 and FIG. 10 described later for easy understanding of the drawings.

S23では、雨滴判定部37が、視差点密度Denspreを算出する。視差点密度Denspreは、Denspre=視差点数N/面積Sとして算出される。このS23の後、処理がS8に移行する。 In S23, the raindrop determination unit 37 calculates the parallax point density Dens pre . The parallax point density Dens pre is calculated as follows: Dens pre = number of parallax points N/area S. After S23, the process proceeds to S8.

説明を図3に戻る。
S8では、雨滴判定部37が、前回からの推定枠に対する今回画像での視差点密度を算出する第2密度算出処理を行う。
Returning to FIG.
In S8, the raindrop determination unit 37 performs a second density calculation process for calculating the parallax point density in the current image with respect to the estimation frame from the previous time.

ここで、情報処理装置13が実行する第2密度算出処理について、図7のフローチャートを用いて説明する。なお、図9及び図10は、フロントガラスの雨滴によりぼやけた画像の例である。 Here, the second density calculation process executed by the information processing device 13 will be described using the flowchart of FIG. 9 and 10 are examples of images blurred by raindrops on the windshield.

まずS31では、雨滴判定部37が、前回画像にて取得された物体情報から、今回画像で用いる推定枠を設定する。推定枠とは、前回画像の物体情報から推定される検出枠であって、今回画像において検出された物体とは無関係に、今回画像において物体が存在すると予測される位置に設定される。図8に示されるように、前回画像取得時の先行車両101aは、今回画像取得時には先行車両101bの位置まで移動する。先行車両101bの位置は、前回画像取得時の先行車両101aの位置と速度から推定可能である。そして、その推定される先行車両101bの位置を画像座標系に変換することで、今回画像における推定枠の位置を設定する。 First, in S31, the raindrop determination unit 37 sets an estimation frame to be used in the current image from the object information acquired in the previous image. The estimation frame is a detection frame estimated from the object information of the previous image, and is set at a position where the object is predicted to exist in the current image regardless of the object detected in the current image. As shown in FIG. 8, the preceding vehicle 101a at the previous image acquisition moves to the position of the preceding vehicle 101b at the current image acquisition. The position of the preceding vehicle 101b can be estimated from the position and speed of the preceding vehicle 101a at the time of previous image acquisition. Then, by transforming the estimated position of the preceding vehicle 101b into the image coordinate system, the position of the estimation frame in the current image is set.

S32では、雨滴判定部37が、図9に示されるように、画像53におけるS31にて推定された推定枠62の面積Sを算出する。
S33では、雨滴判定部37が、今回画像に対する推定枠62内の視差点数Nを算出する。ここでいう視差点数Nとは、図10に示されるように、視差画像54における推定枠62の内部に位置する視差点72の数である。
At S32, the raindrop determination unit 37 calculates the area S of the estimated frame 62 estimated at S31 in the image 53, as shown in FIG.
In S33, the raindrop determination unit 37 calculates the number of parallax points N within the estimation frame 62 for the current image. The number of parallax points N here is the number of parallax points 72 positioned inside the estimation frame 62 in the parallax image 54 as shown in FIG.

S34では、雨滴判定部37が、視差点密度Denscurを算出する。視差点密度Denscurは、Denscur=視差点数N/面積Sとして算出される。このS34の後、処理がS9に移行する。 In S34, the raindrop determination unit 37 calculates the parallax point density Dens cur . The parallax point density Dens cur is calculated as follows: Dens cur = number of parallax points N/area S. After S34, the process proceeds to S9.

説明を図3に戻る。
S9では、雨滴判定部37が、視差点密度の比Rdensを算出する。Rdensは、Rdens=Denscur/Denspreとして求められる。
Returning to FIG.
In S9, the raindrop determining unit 37 calculates a parallax point density ratio R dens . R dens is determined as R dens =Dens cur /Dens pre .

続いて、S10で、雨滴判定部37は、Rdens<Rthであるか否かを判定する。つまり、雨滴判定部37は、雨滴付着状態であるか否かを判定する。ここでいうRthとは、予め定められた基準値である。つまり上記の条件を満たす場合とは、前回画像と今回画像とで所定領域の視差点の数が所定の変化率を超えて急減した場合である。雨滴がステレオカメラ11の前方に付着すると、そのタイミングで視差点密度が急激に低下する。一方、視差点密度に大きな変化がないとき、又は、徐々に視差点密度が低下していくときは、雨滴が付着した影響を受けている蓋然性が低い。よって、上記の条件を満たすときに、雨滴付着状態であると判定される。 Subsequently, in S10, the raindrop determination unit 37 determines whether or not R dens <R th . That is, the raindrop determination unit 37 determines whether or not the raindrops are attached. Rth here is a predetermined reference value. In other words, the case where the above conditions are satisfied is the case where the number of parallax points in a predetermined area between the previous image and the current image sharply decreases exceeding a predetermined rate of change. When raindrops adhere to the front of the stereo camera 11, the parallax point density drops rapidly at that timing. On the other hand, when there is no significant change in the density of parallax points, or when the density of parallax points gradually decreases, the probability of being affected by raindrops is low. Therefore, when the above conditions are satisfied, it is determined that the raindrops are attached.

雨滴判定部37がS10でRdens<Rthであると判定した場合には、S11へ移行する。
S11では、作動判定部38が、ワイパー作動中であるか否かを判定する。作動判定部38がS11でワイパー作動中でないと判定した場合には、図3の情報出力処理を終了する。このとき、出力部40は、通常処理として物体情報を運転支援装置12に出力する。
When the raindrop determination unit 37 determines that R dens <R th in S10, the process proceeds to S11.
In S11, the operation determination unit 38 determines whether the wipers are in operation. If the operation determination unit 38 determines in S11 that the wipers are not in operation, the information output processing of FIG. 3 is terminated. At this time, the output unit 40 outputs the object information to the driving support device 12 as normal processing.

一方、作動判定部38がS11でワイパー作動中であると判定した場合には、S12へ移行する。すなわち、S10及びS11を経て、出力条件を満たしたと判定された場合には、S12へ移行する。 On the other hand, when the actuation determination unit 38 determines in S11 that the wipers are in operation, the process proceeds to S12. That is, when it is determined that the output condition is satisfied through S10 and S11, the process proceeds to S12.

S12では、推定部39が推定情報を生成し、出力部40が外挿する。つまり、出力部40は推定情報を運転支援装置12に出力する。出力部40による通常処理は一時的に停止される。その後、本処理を終了する。 In S12, the estimation unit 39 generates estimation information, and the output unit 40 extrapolates. That is, the output unit 40 outputs the estimated information to the driving assistance device 12 . Normal processing by the output unit 40 is temporarily stopped. After that, this process is terminated.

上述したS10にて、雨滴判定部37がRdens<Rthでないと判定した場合には、S13へ移行する。
S13では、出力部40が、前回外挿状態であるか否かを判定する。前回外挿状態とは、S12による推定情報の外挿が実行され、通常処理が停止されている状態である。出力部40は、S13で前回外挿状態であると判定した場合には、S14へ移行し、通常処理に復帰し、物体情報を運転支援装置12に出力した後、図3の情報出力処理を終了する。
When the raindrop determination unit 37 determines that R dens <R th in S10 described above, the process proceeds to S13.
In S13, the output unit 40 determines whether or not it is in the previous extrapolation state. The previous extrapolation state is a state in which extrapolation of estimated information is executed in S12 and normal processing is stopped. When the output unit 40 determines in S13 that it is in the previous extrapolation state, the output unit 40 proceeds to S14, returns to normal processing, outputs the object information to the driving support device 12, and then performs the information output processing of FIG. finish.

一方、出力部40は、S13にて前回画像で前回外挿状態でないと判定した場合には、図3の情報出力処理を終了する。このとき、出力部40は、通常処理として物体情報を運転支援装置12に出力する。 On the other hand, when the output unit 40 determines in S13 that the previous image is not in the previous extrapolation state, it ends the information output processing of FIG. At this time, the output unit 40 outputs the object information to the driving support device 12 as normal processing.

[1-3.効果]
以上詳述した実施形態によれば、以下の効果を奏する。
(1a)情報処理装置13によれば、視差点の密度の変化に基づいて雨滴を検出することができる。また、情報処理装置13は、雨滴付着状態と判定されたとき、すなわち画像認識による物体の検出が困難になる状況となったときには、推定情報を運転支援装置12に出力することができる。そのため、運転支援装置12は推定情報を用いて運転を継続することができる。
[1-3. effect]
According to the embodiment detailed above, the following effects are obtained.
(1a) According to the information processing device 13, raindrops can be detected based on changes in density of parallax points. In addition, the information processing device 13 can output estimated information to the driving assistance device 12 when it is determined that raindrops are attached, that is, when it becomes difficult to detect an object by image recognition. Therefore, the driving support device 12 can continue driving using the estimated information.

なお、雨滴付着状態となる場合とは、視差点の数が急速に低下した状態、言い換えるとステレオカメラ11に基づく視差画像の急激な劣化が発生した場合である。そしてそのような状況を作り出す原因として、例えばフロントガラスへの雨滴の付着が挙げられる。通常、雨滴はワイパーにより定期的に除去されるため、雨滴により視差画像が劣化した状況は比較的短時間で解消する。よって、雨滴付着状態と判定されたときに推定情報を外挿することで、短時間の物体ロストによる運転支援装置12の制御停止を抑制することができ、運転支援の継続時間を延ばすことができる。 It should be noted that the raindrop adhesion state is a state in which the number of parallax points has rapidly decreased, in other words, a case in which parallax images based on the stereo camera 11 have rapidly deteriorated. A cause of such a situation is, for example, the adhesion of raindrops to the windshield. Normally, the raindrops are removed periodically by the wiper, so the situation in which the parallax image is degraded by the raindrops is resolved in a relatively short period of time. Therefore, by extrapolating the estimated information when it is determined that raindrops are attached, it is possible to suppress control stoppage of the driving assistance device 12 due to a short-term object loss, and extend the duration of driving assistance. .

(1b)情報処理装置13は、推定情報を出力するための出力条件としてワイパーが作動中であることを要件として含む。ワイパーが作動中であるということは、降雨中であったりフロントガラスに汚れがあったりする蓋然性が高い。よって、情報処理装置13は推定情報を出力する利益が大きい場面を精度よく判定することができる。 (1b) The information processing device 13 includes, as a requirement, that the wiper is in operation as an output condition for outputting the estimated information. If the wipers are in operation, it is highly probable that it is raining or the windshield is dirty. Therefore, the information processing device 13 can accurately determine a scene in which the profit of outputting the estimated information is large.

(1c)情報処理装置13によれば、ステレオカメラ11により取得される視差画像に含まれる視差点を用いることで、高精度な物体認識が可能となる。
(1d)情報処理装置13によれば、雨滴付着状態であるか否かを、前回検出枠61と推定枠62における視差点の密度の変化率で判定する。そのため、視差点数そのものを判定基準とする場合と比較して、急速に視差画像が劣化したこと、つまり雨滴等による影響を受けていることを好適に判定することができる。
(1c) According to the information processing device 13, by using the parallax points included in the parallax images acquired by the stereo camera 11, highly accurate object recognition is possible.
(1d) According to the information processing device 13 , whether or not raindrops are attached is determined based on the change rate of the density of parallax points in the previous detection frame 61 and the estimation frame 62 . Therefore, compared to the case where the number of parallax points itself is used as a determination criterion, it is possible to suitably determine that the parallax image has rapidly deteriorated, that is, that it is affected by raindrops or the like.

[2.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
[2. Other embodiments]
Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above-described embodiments, and various modifications can be made.

(2a)上記実施形態では、周辺画像に含まれる特徴点として視差点を例示したが、これに限定されるものではない。例えば、撮影画像からエッジ点を検出してエッジ点を用いる場合には、特徴点としてエッジ点を用いてもよい。エッジ点など視差点以外を特徴点として用いる場合、ステレオカメラ以外のカメラを用いてもよい。なおエッジ点とは、水平方向又は垂直方向に関して隣接した画素の輝度が急変している部分である。 (2a) In the above embodiment, the parallax point was exemplified as the feature point included in the peripheral image, but the present invention is not limited to this. For example, when detecting edge points from a captured image and using the edge points, the edge points may be used as feature points. If points other than parallax points such as edge points are used as feature points, a camera other than a stereo camera may be used. Note that an edge point is a portion where the brightness of pixels adjacent in the horizontal direction or the vertical direction changes abruptly.

(2b)上記実施形態では、運転支援装置12が実行する運転支援の内容はACCである構成を例示した。しかしながら、運転支援装置12が実行する運転支援はACC以外の運転支援であってもよい。例えば、運転支援装置12は、車線逸脱防止機能や自動運転機能を実行するように構成されていてもよい。 (2b) In the above embodiment, the content of the driving assistance executed by the driving assistance device 12 is ACC. However, the driving assistance executed by the driving assistance device 12 may be driving assistance other than ACC. For example, the driving assistance device 12 may be configured to perform a lane departure prevention function or an automatic driving function.

(2c)上記実施形態においては、所定領域を特定するための枠として矩形の検出枠及び推定枠を例示した。しかしながら所定領域は、検出対象の物体が含まれる領域ならばその具体的な形態は特に限定されない。例えば画像における検出物体の外形と一致するように所定領域が設定されてもよい。 (2c) In the above embodiment, the rectangular detection frame and estimation frame were exemplified as the frame for specifying the predetermined area. However, the specific form of the predetermined area is not particularly limited as long as the area includes the object to be detected. For example, the predetermined area may be set so as to match the outer shape of the detected object in the image.

(2d)上記実施形態では、検出枠及び推定枠における視差点の密度の変化率を算出し、変化率が所定の閾値を超えて大きいときに雨滴付与状態であると判定される構成を例示した。しかしながら、今回画像の所定領域の特徴点の数が、前回画像の所定領域の特徴点と比較して所定の基準を超えて減少することを判定できれば、その具体的な方法は特に限定されない。例えば、今回画像の視差点数を算出する際に、前回画像に基づき設定される推定枠を用いず、今回画像で新たに設定される検出枠における視差点数を用いてもよい。また密度を用いずに、視差点数自体を比較して変化率を求めてもよい。 (2d) In the above embodiment, the change rate of the density of the parallax points in the detection frame and the estimation frame is calculated, and when the change rate is greater than a predetermined threshold value, it is determined that the raindrops are applied. . However, the specific method is not particularly limited as long as it can be determined that the number of feature points in the predetermined area of the current image is reduced by more than a predetermined criterion compared to the feature points in the predetermined area of the previous image. For example, when calculating the number of parallax points for the current image, the number of parallax points in the detection frame newly set for the current image may be used instead of using the estimation frame set based on the previous image. Alternatively, the rate of change may be obtained by comparing the number of parallax points themselves without using the density.

(2e)上記実施形態では、図3のS10で雨滴付着状態であると判定された場合に推定情報の出力を終了する構成を例示した。しかしながら、推定情報の出力を終了するタイミングは上記以外のタイミングであってもよい。例えば、雨滴付着状態と判定されてから一定期間後に推定情報の出力を終了するように構成されていてもよい。また、出力部40は、雨滴付着状態であると雨滴判定部37に判定された後において、所定領域における視差点の数が所定の閾値以上となったときに、推定情報の出力を終了するように構成されていてもよい。このような構成によれば、検出枠における視差点の数が所定の閾値まで回復すれば推定情報の出力が停止され、物体情報が出力される。そのため、物体情報の精度が高い場合にまで推定情報が出力されてしまうことを抑制でき、処理負荷の増加を抑制できる。 (2e) In the above-described embodiment, the configuration is illustrated in which the output of the estimation information is terminated when it is determined in S10 of FIG. 3 that the raindrops are attached. However, the timing of ending the output of the estimation information may be timing other than the above. For example, the output of the estimated information may be terminated after a certain period of time from when it is determined that the raindrops are attached. In addition, the output unit 40 terminates the output of the estimated information when the number of parallax points in the predetermined area becomes equal to or greater than a predetermined threshold after the raindrop determination unit 37 determines that the raindrops are attached. may be configured to According to such a configuration, when the number of parallax points in the detection frame recovers to the predetermined threshold value, the output of the estimation information is stopped and the object information is output. Therefore, it is possible to prevent the estimated information from being output even when the accuracy of the object information is high, and it is possible to prevent an increase in the processing load.

(2f)上記実施形態では、出力部40が通常処理として物体情報を運転支援装置12に出力し、S12にて、通常処理を一時的に停止する構成を例示した。しかしながら、出力部40による物体情報の出力方法については特に限定されず、例えば物体情報は常時出力されていてもよい。 (2f) In the above embodiment, the output unit 40 outputs the object information to the driving support device 12 as normal processing, and in S12, the normal processing is temporarily stopped. However, the method of outputting the object information by the output unit 40 is not particularly limited, and for example, the object information may be output all the time.

(2g)上記実施形態では、出力条件は、雨滴付着状態であること、及び、ワイパー作動中であることを要件としていた。しかしながら、出力条件は上記の内容に限定されない。例えば、ワイパーの作動については出力条件の要件としなくてもよい。また、図11に示される情報処理装置13Aのように、車両3が直線状の道路を走行中である直線走行状態か否かを判定するように構成された道路判定部41を備え、道路判定部41により直線走行状態と判定されたことを出力条件の要件の1つとしてもよい。道路判定部41による判定は、撮影装置の撮影画像に基づいて実行してもよいし、直線状の道路か否かを示す情報を含む地図情報と車両3の現在位置との対比から判定してもよい。 (2g) In the above embodiment, the conditions for the output are raindrops and wiper operation. However, the output conditions are not limited to the above contents. For example, wiper operation need not be a requirement for output conditions. Further, like the information processing device 13A shown in FIG. One of the requirements of the output condition may be that the unit 41 determines that the vehicle is in a straight running state. The determination by the road determination unit 41 may be performed based on the image captured by the imaging device, or may be performed by comparing the current position of the vehicle 3 with map information including information indicating whether the road is a straight road. good too.

(2h)検出枠は、図12の画像55に示されるように、車両3が走行中の車線81と、該車線に隣接する車線82と、の位置する範囲に存在する先行車両101c、101dを対象として設定されてもよい。また、画像55に複数の検出枠64、65が存在する場合には、該複数の検出枠ごとに、雨滴判定部37による判定と、推定部39による推定情報の取得と、出力部40による出力と、が実行されるように構成されていてもよい。 (2h) As shown in the image 55 of FIG. 12, the detection frame includes the preceding vehicles 101c and 101d existing in the range of the lane 81 on which the vehicle 3 is traveling and the lane 82 adjacent to the lane. It may be set as a target. Further, when a plurality of detection frames 64 and 65 exist in the image 55, determination by the raindrop determination unit 37, acquisition of estimated information by the estimation unit 39, and output by the output unit 40 are performed for each of the plurality of detection frames. and may be configured to be executed.

(2i)本開示に記載の情報処理装置13,13A及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の情報処理装置及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の情報処理装置及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。情報処理装置に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。 (2i) Information processors 13, 13A and techniques described in this disclosure are provided by configuring a processor and memory programmed to perform one or more functions embodied by a computer program. may be implemented by a dedicated computer designed for Alternatively, the information processing apparatus and techniques described in this disclosure may be implemented by a dedicated computer provided by configuring a processor with one or more dedicated hardware logic circuits. Alternatively, the information processing apparatus and method thereof described in the present disclosure are a combination of a processor and memory programmed to perform one or more functions and a processor configured by one or more hardware logic circuits. may be implemented by one or more dedicated computers configured by Computer programs may also be stored as computer-executable instructions on a computer-readable non-transitional tangible storage medium. The method for realizing the functions of the units included in the information processing apparatus does not necessarily include software, and all the functions may be realized using one or more pieces of hardware.

(2j)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。 (2j) A plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or a function possessed by one component may be realized by a plurality of components. . Also, a plurality of functions possessed by a plurality of components may be realized by a single component, or a function realized by a plurality of components may be realized by a single component. Also, part of the configuration of the above embodiment may be omitted. Moreover, at least part of the configuration of the above embodiment may be added or replaced with respect to the configuration of the other above embodiment.

(2k)上述した情報処理装置13の他、当該情報処理装置13を構成要素とするシステム、当該情報処理装置13としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、雨滴判定方法など、種々の形態で本開示を実現することもできる。 (2k) In addition to the information processing device 13 described above, a system having the information processing device 13 as a component, a program for causing a computer to function as the information processing device 13, and a non-transitional device such as a semiconductor memory storing this program The present disclosure can also be implemented in various forms such as a physical recording medium and a raindrop determination method.

1…運転支援システム、3…車両、11…ステレオカメラ、12…運転支援装置、13,13A…情報処理装置、31…視差検出部、37…雨滴判定部、39…推定部、40…出力部52,54…視差画像、61,64…検出枠、62…推定枠、71,72…視差点 REFERENCE SIGNS LIST 1 driving support system 3 vehicle 11 stereo camera 12 driving support device 13, 13A information processing device 31 parallax detection unit 37 raindrop determination unit 39 estimation unit 40 output unit 52, 54... parallax images, 61, 64... detection frames, 62... estimation frames, 71, 72... parallax points

Claims (9)

撮影装置(11)及び運転支援装置(12)を備える車両(3)にて用いられる情報処理装置(13,13A)であって、
前記撮影装置を用いて取得される画像であって前記車両の周辺を示す周辺画像(52,54)における前記車両の周辺に存在する物体を示す特徴点を検出するように構成された検出部(31)と、
前記周辺画像において前記物体が存在する領域である所定領域(61,62)に含まれる前記特徴点の数が、過去に取得された前記周辺画像の前記所定領域に含まれる前記特徴点と比較して所定の基準を超えて減少したときに、前記撮影装置の前方に雨滴が付着した雨滴付着状態であることを判定するように構成された雨滴判定部(37)と、を備え、
前記雨滴判定部は、第1のタイミングで撮影された前記周辺画像の前記所定領域における前記特徴点の数と、前記第1のタイミングよりも後の第2のタイミングで撮影された前記周辺画像の前記所定領域における前記特徴点の数と、の変化率が所定の閾値以上であるときに、前記雨滴付着状態であると判定するように構成されている、情報処理装置。
An information processing device (13, 13A) used in a vehicle (3) including an imaging device (11) and a driving support device (12),
A detection unit ( 31) and
comparing the number of feature points included in a predetermined region (61, 62) in the peripheral image where the object exists, with the number of feature points included in the predetermined region in the peripheral image acquired in the past; a raindrop determination unit (37) configured to determine a raindrop adhesion state in which raindrops adhere to the front of the photographing device when the raindrops have decreased beyond a predetermined standard ,
The raindrop determination unit determines the number of feature points in the predetermined region of the peripheral image captured at a first timing, and the number of the peripheral images captured at a second timing after the first timing. The information processing apparatus configured to determine that the raindrops are attached when a rate of change in the number of feature points in the predetermined area is equal to or greater than a predetermined threshold value.
請求項1に記載の情報処理装置であって、
前記撮影装置はステレオカメラであり、
前記周辺画像は、前記ステレオカメラを用いて取得された視差画像であり、
前記特徴点は、前記視差画像に示される視差点(71,72)である、情報処理装置。
The information processing device according to claim 1,
The imaging device is a stereo camera,
The peripheral image is a parallax image acquired using the stereo camera,
The information processing apparatus, wherein the feature point is a parallax point (71, 72) shown in the parallax image.
請求項1又は請求項2に記載の情報処理装置であって、
前記所定領域は、前記車両が走行中の車線(81)と、該車線に隣接する車線(82)と、の位置する範囲に存在する前記物体を対象として設定される、情報処理装置。
The information processing device according to claim 1 or claim 2 ,
The information processing apparatus, wherein the predetermined area is set for the object existing in a range of a lane (81) on which the vehicle is traveling and a lane (82) adjacent to the lane.
請求項1から請求項のいずれか1項に記載の情報処理装置であって、
さらに、前記検出部により検出された前記特徴点に基づいて、前記物体について推定される挙動を示す推定情報を取得するように構成された推定部(39)と、
前記雨滴判定部により前記雨滴付着状態であると判定されたことが要件として含まれる出力条件が満たされたときに、前記推定部により取得された前記推定情報を前記運転支援装置に出力するように構成された出力部(40)と、を備える、情報処理装置。
The information processing device according to any one of claims 1 to 3 ,
an estimating unit (39) configured to acquire estimated information indicating a behavior estimated for the object based on the feature points detected by the detecting unit;
The estimated information acquired by the estimating unit is output to the driving support device when an output condition including as a requirement that the raindrop determining unit determines that the raindrops are attached is satisfied. and an output unit (40) configured.
請求項に記載の情報処理装置であって、
さらに、前記車両に搭載されるワイパーが作動中であるか否かを判定するように構成された作動判定部(38)を備え、
前記出力条件は、前記作動判定部により作動中であると判定されたことを要件の1つとして含む、情報処理装置。
The information processing device according to claim 4 ,
Furthermore, an operation determination unit (38) configured to determine whether the wiper mounted on the vehicle is in operation,
The information processing apparatus, wherein the output condition includes, as one of requirements, that the operation determination unit determines that the operation is being performed.
請求項又は請求項に記載の情報処理装置であって、
前記出力部は、前記雨滴付着状態であると前記雨滴判定部に判定された後において、前記所定領域における前記特徴点の数が所定の閾値以上となったときに、前記推定情報の出力を終了するように構成されている、情報処理装置。
The information processing device according to claim 4 or claim 5 ,
The output unit terminates the output of the estimated information when the number of feature points in the predetermined area becomes equal to or greater than a predetermined threshold after the raindrop determination unit determines that the raindrops are attached. An information processing device configured to:
請求項から請求項までのいずれか1項に記載の情報処理装置であって、
さらに、前記車両が直線状の道路を走行中である直線走行状態か否かを判定するように構成された道路判定部(41)を備え、
前記出力条件は、前記道路判定部により直線走行状態であると判定されたことを要件の1つとして含む、情報処理装置。
The information processing device according to any one of claims 4 to 6 ,
Furthermore, a road determination unit (41) configured to determine whether or not the vehicle is in a straight running state in which the vehicle is running on a straight road,
The information processing apparatus, wherein the output condition includes, as one of requirements, that the road determination unit determines that the vehicle is in a straight running state.
請求項から請求項までのいずれか1項に記載の情報処理装置であって、
前記周辺画像に複数の前記所定領域が存在する場合には、該複数の所定領域ごとに、前記雨滴判定部による前記判定と、前記推定部による前記推定情報の取得と、前記出力部による前記出力と、が実行される、情報処理装置。
The information processing device according to any one of claims 4 to 7 ,
when a plurality of the predetermined regions exist in the peripheral image, the determination by the raindrop determination unit, the acquisition of the estimated information by the estimation unit, and the output by the output unit for each of the plurality of predetermined regions and an information processing device on which .
車両(3)に搭載して用いられる運転支援システム(1)であって、
撮影装置(11)と、
運転支援装置(12)と、
請求項から請求項8までのいずれか1項に記載の情報処理装置(13,13A)と、を備える運転支援システム。
A driving support system (1) mounted on a vehicle (3) and used,
an imaging device (11);
a driving support device (12);
A driving support system comprising the information processing device (13, 13A) according to any one of claims 4 to 8 .
JP2019110371A 2019-06-13 2019-06-13 Information processing device and driving support system Active JP7247772B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019110371A JP7247772B2 (en) 2019-06-13 2019-06-13 Information processing device and driving support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019110371A JP7247772B2 (en) 2019-06-13 2019-06-13 Information processing device and driving support system

Publications (2)

Publication Number Publication Date
JP2020201876A JP2020201876A (en) 2020-12-17
JP7247772B2 true JP7247772B2 (en) 2023-03-29

Family

ID=73744297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019110371A Active JP7247772B2 (en) 2019-06-13 2019-06-13 Information processing device and driving support system

Country Status (1)

Country Link
JP (1) JP7247772B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115668959A (en) * 2020-05-25 2023-01-31 日立安斯泰莫株式会社 Image processing apparatus and method
WO2023089686A1 (en) * 2021-11-17 2023-05-25 日立Astemo株式会社 External environment recognition device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009037284A (en) 2007-07-31 2009-02-19 Daihatsu Motor Co Ltd Traveling object recognition device
JP2009110173A (en) 2007-10-29 2009-05-21 Fuji Heavy Ind Ltd Object detection device
JP2009241636A (en) 2008-03-28 2009-10-22 Fuji Heavy Ind Ltd Driving support system
JP2015088047A (en) 2013-10-31 2015-05-07 富士重工業株式会社 Driving support device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009037284A (en) 2007-07-31 2009-02-19 Daihatsu Motor Co Ltd Traveling object recognition device
JP2009110173A (en) 2007-10-29 2009-05-21 Fuji Heavy Ind Ltd Object detection device
JP2009241636A (en) 2008-03-28 2009-10-22 Fuji Heavy Ind Ltd Driving support system
JP2015088047A (en) 2013-10-31 2015-05-07 富士重工業株式会社 Driving support device

Also Published As

Publication number Publication date
JP2020201876A (en) 2020-12-17

Similar Documents

Publication Publication Date Title
US7262710B2 (en) Collision time estimation apparatus for vehicles, collision time estimation method for vehicles, collision alarm apparatus for vehicles, and collision alarm method for vehicles
US20150085119A1 (en) Time to collision using a camera
JP6045889B2 (en) In-vehicle control device
US10635911B2 (en) Apparatus and method for recognizing travel lane
JP2008276308A (en) Video image processing apparatus, video image processing system, and navigation device
CN101299272A (en) Method and system for initializing templates of moving objects
JP7247772B2 (en) Information processing device and driving support system
JP2010256995A (en) Object recognition apparatus
JP2009252198A (en) Travel environment presuming device, method and program, and traffic lane deviation alarm device and steering assisting apparatus
WO2019156072A1 (en) Attitude estimating device
WO2018008184A1 (en) Image processing device and image processing method
JP2020060899A (en) Calibration device for on-vehicle camera
JP6672202B2 (en) In-vehicle camera system, attached matter detection device, attached matter removal method, and attached matter detection program
US20200151464A1 (en) Method and device for ascertaining an optical flow based on an image sequence recorded by a camera of a vehicle
JP6184447B2 (en) Estimation apparatus and estimation program
JP6032141B2 (en) Travel road marking detection device and travel road marking detection method
WO2018088262A1 (en) Parking frame recognition device
JP2008276307A (en) Video image processing apparatus, video image processing system, and navigation device
JP7354773B2 (en) Object detection device, object detection method, and object detection program
JP7134780B2 (en) stereo camera device
JP7196781B2 (en) Information processing device and driving support system
JP2005301892A (en) Lane recognition device by a plurality of cameras
JP7180521B2 (en) Target detection device, target detection method, and driving support system
WO2018088263A1 (en) Parking frame recognition device
JP2009059132A (en) Object acknowledging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230227

R151 Written notification of patent or utility model registration

Ref document number: 7247772

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151