JP2018107582A - Shield determination device - Google Patents

Shield determination device Download PDF

Info

Publication number
JP2018107582A
JP2018107582A JP2016251037A JP2016251037A JP2018107582A JP 2018107582 A JP2018107582 A JP 2018107582A JP 2016251037 A JP2016251037 A JP 2016251037A JP 2016251037 A JP2016251037 A JP 2016251037A JP 2018107582 A JP2018107582 A JP 2018107582A
Authority
JP
Japan
Prior art keywords
imaging device
vehicle
determination
imaging
shielding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016251037A
Other languages
Japanese (ja)
Inventor
瑠衣子 宮野
Ruiko Miyano
瑠衣子 宮野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2016251037A priority Critical patent/JP2018107582A/en
Publication of JP2018107582A publication Critical patent/JP2018107582A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To prevent an error determination of a shield region.SOLUTION: A shield determination device 1 comprises: an image acquisition part that acquires a plurality of images imaged by an imaging device 3 at a different timing 11; a vehicle information acquisition part 13 that acquires a position of a vehicle 2 and an imaging direction of the imaging device 3; a map database 7 that stores the position of a material and external appearance information; a material estimation part 14 that estimates the material in a field angle in the imaging device 3 at an image ground point on the basis of the imaging direction of the position of the vehicle 2 and the imaging device 3 and the position of the material stored in the map database 7; an exclusion determination part 15 that determines whether the material in the field angle of the imaging device 3 estimated by the material estimation part 14 is a predetermined exclusion material on the basis of the external appearance information stored in the map database 7; and a state determination part 12 that determines whether the imaging device 3 is a shield state on the basis of a pixel value f a plurality of images excluding a region determined as the exclusion material by the exclusion determination part 15.SELECTED DRAWING: Figure 1

Description

本開示は、遮蔽判定装置に関する。   The present disclosure relates to a shielding determination device.

特許文献1には、車両に搭載されたカメラによって異なるタイミングで撮像して得られた複数の撮像画像を用いて、汚れが付着する等のようにカメラが遮蔽されていることを検知する装置が記載されている。この装置は、第1の所定種類の画素値の時間変化量が所定量以下になると共に、第2の所定種類の画素値の分布が平坦となる領域を、遮蔽されている部分として判定する。   Patent Document 1 discloses an apparatus that detects that a camera is shielded by using a plurality of captured images obtained by capturing images at different timings depending on a camera mounted on a vehicle, such as contamination. Have been described. This apparatus determines an area where the temporal change amount of the first predetermined type of pixel value is equal to or smaller than the predetermined amount and the distribution of the second predetermined type of pixel value is flat as a shielded portion.

特開2015−061163号公報Japanese Patent Laying-Open No. 2015-061163

しかしながら、無地の壁や路面標識の無い道路などは、画像上において、第1の所定種類の画素値の時間変化量が所定量以下になると共に、第2の所定種類の画素値の分布が平坦となる。このため、特許文献1記載の装置は、無地の壁や路面標識の無い道路などを遮蔽されている部分として誤判定するおそれがある。本技術分野では、遮蔽領域の誤判定を抑制することができる遮蔽判定装置が望まれている。   However, for a plain wall or a road without a road surface sign, the temporal change amount of the first predetermined type of pixel value is not more than a predetermined amount and the distribution of the second predetermined type of pixel value is flat on the image. It becomes. For this reason, there is a possibility that the device described in Patent Document 1 may erroneously determine a plain wall, a road without a road surface sign, or the like as a shielded part. In this technical field, a shielding determination device that can suppress erroneous determination of a shielding region is desired.

本開示に係る遮蔽判定装置は、車両に搭載された撮像装置が遮蔽状態であるか否かを判定する遮蔽判定装置であって、異なるタイミングで撮像装置により撮像された複数の画像を取得する画像取得部と、車両の位置及び撮像装置の撮像方向を取得する車両情報取得部と、物体の位置及び外観情報を記憶する地図データベースと、車両の位置及び撮像装置の撮像方向と地図データベースに記憶された物体の位置とに基づいて、撮像地点における撮像装置の画角内の物体を推定する物体推定部と、地図データベースに記憶された外観情報に基づいて、物体推定部により推定された撮像装置の画角内の物体が予め定められた除外物体であるか否かを判定する除外判定部と、除外判定部により除外物体であると判定された領域を除いた複数の画像の画素値に基づいて、撮像装置が遮蔽状態であるか否かを判定する状態判定部と、を備える。   The shielding determination device according to the present disclosure is a shielding determination device that determines whether an imaging device mounted on a vehicle is in a shielding state, and acquires a plurality of images captured by the imaging device at different timings. An acquisition unit, a vehicle information acquisition unit that acquires the position of the vehicle and the imaging direction of the imaging device, a map database that stores the position and appearance information of the object, and the vehicle position and the imaging direction of the imaging device are stored in the map database. Of the imaging device estimated by the object estimation unit based on the appearance information stored in the map database and the object estimation unit that estimates the object within the angle of view of the imaging device at the imaging point An exclusion determination unit that determines whether or not an object within the angle of view is a predetermined excluded object, and a plurality of image images excluding an area that is determined to be an excluded object by the exclusion determination unit Based on the value, it comprises an imaging device and determining the state determining unit that determines whether a blocking state, a.

本開示によれば、遮蔽領域の誤判定を抑制することができる。   According to the present disclosure, erroneous determination of a shielding area can be suppressed.

遮蔽判定装置1を備える車両2の機能ブロック図である。3 is a functional block diagram of a vehicle 2 including a shielding determination device 1. FIG. 遮蔽判定装置1の遮蔽判定処理のフローチャートである。4 is a flowchart of a shielding determination process of the shielding determination device 1. 遮蔽判定処理を説明する図である。It is a figure explaining the shielding determination process.

以下、図面を参照して、本実施形態について説明する。なお、以下の説明において、同一又は相当要素には同一符号を付し、重複する説明を省略する。   Hereinafter, this embodiment will be described with reference to the drawings. In the following description, the same or equivalent elements will be denoted by the same reference numerals, and redundant description will be omitted.

本実施形態に係る遮蔽判定装置は、車両に搭載された撮像装置が遮蔽状態であるか否かを判定する装置である。遮蔽状態とは、本来撮像されるべき被写体が異物などによって遮蔽されている状態をいう。撮像装置が遮蔽状態となる具体的な一例としては、レンズに水滴や塵などが付着した場合、又は、フロントガラスに水滴や鳥の糞などが付着した場合などである。以下では、遮蔽判定装置が車載される例を開示するが、これに限定されるものではない。   The shielding determination apparatus according to the present embodiment is an apparatus that determines whether an imaging device mounted on a vehicle is in a shielding state. The shielded state refers to a state in which a subject that is supposed to be imaged is shielded by a foreign object or the like. A specific example in which the imaging apparatus is in a shielding state is when water drops or dust adheres to the lens, or when water drops or bird droppings adhere to the windshield. Hereinafter, an example in which the shielding determination apparatus is mounted on a vehicle will be disclosed, but the present invention is not limited to this.

[構成]
図1は、遮蔽判定装置1を備える車両2の機能ブロック図である。車両2は、撮像装置3、測位装置4、内部センサ5、ECU(Electronic Control Unit)6、及び、地図データベース7を備える。
[Constitution]
FIG. 1 is a functional block diagram of a vehicle 2 including a shielding determination device 1. The vehicle 2 includes an imaging device 3, a positioning device 4, an internal sensor 5, an ECU (Electronic Control Unit) 6, and a map database 7.

撮像装置3は、車両2の周囲を撮像する機器である。撮像装置3の一例としては、ステレオカメラ、単眼カメラなどである。撮像装置3は、時系列で連続するフレーム画像を取得する。   The imaging device 3 is a device that images the surroundings of the vehicle 2. Examples of the imaging device 3 include a stereo camera and a monocular camera. The imaging device 3 acquires frame images that are continuous in time series.

測位装置4は、車両2の位置を取得する機器である。車両2の位置は、例えば緯度及び経度などの位置情報で表現される。測位装置4の一例としては、GPS(Global Positioning System)受信機、GPS/IMU(InertialMeasurement Unit)などである。   The positioning device 4 is a device that acquires the position of the vehicle 2. The position of the vehicle 2 is expressed by position information such as latitude and longitude. Examples of the positioning device 4 include a GPS (Global Positioning System) receiver and a GPS / IMU (Inertial Measurement Unit).

内部センサ5は、車両2の走行状態を検出する検出機器である。車両2の走行状態とは、車両2の向きを含む。内部センサ5は、一例として、ヨーレートセンサである。なお、内部センサ5は、速度センサを含んでもよい。   The internal sensor 5 is a detection device that detects the traveling state of the vehicle 2. The traveling state of the vehicle 2 includes the direction of the vehicle 2. The internal sensor 5 is a yaw rate sensor as an example. The internal sensor 5 may include a speed sensor.

ECU6は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、CAN(Controller Area Network)通信回路などを有する電子制御ユニットである。ECU6は、CAN通信回路を用いて通信するネットワークに接続され、車両2の構成要素と通信可能に接続されている。ECU6の詳細については後述する。   The ECU 6 is an electronic control unit having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a CAN (Controller Area Network) communication circuit, and the like. ECU6 is connected to the network which communicates using a CAN communication circuit, and is connected so that communication with the component of the vehicle 2 is possible. Details of the ECU 6 will be described later.

地図データベース7は、物体の位置及び外観情報を記憶する。物体とは、センサにより認識可能な有体物であり、壁、ガードレールなどの立体物や路面などである。外観情報は、物体の外見の情報であり、路面標示の有無、エッジ、テクスチャなどである。地図データベース7は、一例として、地図に関する地図情報と、物体の位置及び外観情報とを関連付けて記憶する。   The map database 7 stores the position and appearance information of the object. An object is a tangible object that can be recognized by a sensor, such as a three-dimensional object such as a wall or guardrail, or a road surface. Appearance information is information on the appearance of an object, such as presence / absence of road markings, edges, and textures. As an example, the map database 7 stores map information related to a map and the position and appearance information of an object in association with each other.

ECU6は、撮像装置3、測位装置4、内部センサ5、及び、地図データベース7に接続されている。ECU6は、機能的には、画像取得部11、状態判定部12、車両情報取得部13、物体推定部14及び除外判定部15を備えている。   The ECU 6 is connected to the imaging device 3, the positioning device 4, the internal sensor 5, and the map database 7. Functionally, the ECU 6 includes an image acquisition unit 11, a state determination unit 12, a vehicle information acquisition unit 13, an object estimation unit 14, and an exclusion determination unit 15.

画像取得部11は、異なるタイミングで撮像装置3により撮像された複数の画像を取得する。画像取得部11は、一例として、連続する少なくとも2つのフレーム画像を取得する。   The image acquisition unit 11 acquires a plurality of images captured by the imaging device 3 at different timings. For example, the image acquisition unit 11 acquires at least two consecutive frame images.

車両情報取得部13は、車両2の位置及び撮像装置3の撮像方向を取得する。車両情報取得部13は、測位装置4から出力された情報に基づいて車両2の位置を取得する。車両情報取得部13は、内部センサ5の検出結果に基づいて車両2の向きを取得し、車両2の向きに基づいて撮像装置3の撮像方向を取得する。   The vehicle information acquisition unit 13 acquires the position of the vehicle 2 and the imaging direction of the imaging device 3. The vehicle information acquisition unit 13 acquires the position of the vehicle 2 based on the information output from the positioning device 4. The vehicle information acquisition unit 13 acquires the direction of the vehicle 2 based on the detection result of the internal sensor 5, and acquires the imaging direction of the imaging device 3 based on the direction of the vehicle 2.

物体推定部14は、車両2の位置及び撮像装置3の撮像方向と地図データベース7に記憶された物体の位置とに基づいて、撮像地点における撮像装置3の画角内の物体を推定する。例えば、物体推定部14は、地図上の車両2の位置を特定し、当該位置から撮像方向に向けた画像を地図データベース7に記憶された物体の位置に基づいて再現する。これにより、物体推定部14は、撮像地点における撮像装置3の画角内の物体を推定する。   The object estimation unit 14 estimates an object within the angle of view of the imaging device 3 at the imaging point based on the position of the vehicle 2 and the imaging direction of the imaging device 3 and the position of the object stored in the map database 7. For example, the object estimation unit 14 specifies the position of the vehicle 2 on the map, and reproduces an image directed from the position in the imaging direction based on the position of the object stored in the map database 7. Thereby, the object estimation unit 14 estimates an object within the angle of view of the imaging device 3 at the imaging point.

除外判定部15は、地図データベース7に記憶された外観情報に基づいて、物体推定部14により推定された撮像装置3の画角内の物体が予め定められた除外物体であるか否かを判定する。除外物体とは、後述する遮蔽状態の判定から除外する物体であり、予め定められた物体である。除外物体は、例えば、画素値の時間的変化が少なく、かつ、テクスチャ及びエッジが無いと推定される物体である。除外物体の一例としては、テクスチャ及びエッジの無い壁、路面標示の無い路面などである。   Based on the appearance information stored in the map database 7, the exclusion determination unit 15 determines whether the object within the angle of view of the imaging device 3 estimated by the object estimation unit 14 is a predetermined excluded object. To do. An excluded object is an object that is excluded from the determination of the shielding state described later, and is a predetermined object. The excluded object is, for example, an object that has a small change in pixel value with time and is estimated to have no texture and no edges. An example of the excluded object is a wall without a texture and an edge, a road surface without a road marking, and the like.

状態判定部12は、除外判定部15により除外物体であると判定された領域を除いた複数の画像の画素値に基づいて、撮像装置3が遮蔽状態であるか否かを判定する。この機能を実現すべく、状態判定部12は、領域分割部121、エッジ抽出部122、対象領域決定部123、判定部124及び出力部125を備える。   The state determination unit 12 determines whether or not the imaging device 3 is in a shielding state based on the pixel values of a plurality of images excluding the region determined to be an excluded object by the exclusion determination unit 15. In order to realize this function, the state determination unit 12 includes an area division unit 121, an edge extraction unit 122, a target region determination unit 123, a determination unit 124, and an output unit 125.

領域分割部121は、撮像装置3により取得された画像を所定の大きさの領域に分割する。領域の大きさは任意である。領域分割部121は、一例として、画像を縦方向に10分割し、横方向に6分割する。   The area dividing unit 121 divides an image acquired by the imaging device 3 into areas of a predetermined size. The size of the area is arbitrary. As an example, the region dividing unit 121 divides an image into 10 parts in the vertical direction and 6 parts in the horizontal direction.

対象領域決定部123は、領域分割部121により分割された領域から、除外判定部15により除外物体であると判定された領域を除き、判定対象となる対象領域を決定する。   The target region determination unit 123 determines a target region to be determined by excluding a region determined to be an excluded object by the exclusion determination unit 15 from the regions divided by the region division unit 121.

エッジ抽出部122は、領域分割の対象となった画像からエッジを抽出する。エッジ抽出部122は、全範囲のエッジを取得してもよいし、判定対象となる対象領域のエッジのみを抽出してもよい。   The edge extraction unit 122 extracts edges from the image that is the target of region division. The edge extraction unit 122 may acquire the entire range of edges, or may extract only the edges of the target region to be determined.

判定部124は、遮蔽状態であるか否かを判定する。判定部124は、対象領域ごとに、画素値及びエッジの時間変化量、画素値の分散、エッジの点数及び強度を、予め設定された閾値と比較し、閾値以下であれば遮蔽領域であると判定し、閾値以下でなければ遮蔽領域でないと判定する。そして、判定部124は、少なくとも1つの対象領域が遮蔽領域である場合には遮蔽状態であると判定し、全ての対象領域が遮蔽領域でない場合には遮蔽状態でないと判定する。   The determination part 124 determines whether it is a shielding state. The determination unit 124 compares the pixel value and the temporal change amount of the edge, the dispersion of the pixel value, the score of the edge, and the intensity for each target region with a preset threshold value. It judges, and if it is not below a threshold value, it will judge with it not being a shielding area. Then, the determination unit 124 determines that it is in a shielding state when at least one target region is a shielding region, and determines that it is not in a shielding state when all the target regions are not shielding regions.

出力部125は、判定部124の判定結果を出力する。出力部125は、表示装置に判定結果を出力してもよいし、記憶部に出力して記憶させてもよい。出力された判定結果は、例えば、ドライバへの通知に利用されたり、地図データベース7を更新する際の付加情報として利用されたりする。   The output unit 125 outputs the determination result of the determination unit 124. The output unit 125 may output the determination result to the display device, or may output and store the determination result in the storage unit. The output determination result is used, for example, for notification to the driver or used as additional information when the map database 7 is updated.

[遮蔽判定処理のフローチャート]
図2は、遮蔽判定装置1の遮蔽判定処理のフローチャートである。図3は、遮蔽判定処理を説明する図である。図2のフローチャートは、遮蔽判定装置1の動作指示を運転者から受け付けたタイミングで開始される。
[Flowchart of shielding determination process]
FIG. 2 is a flowchart of the shielding determination process of the shielding determination device 1. FIG. 3 is a diagram illustrating the shielding determination process. The flowchart of FIG. 2 is started at the timing when the operation instruction of the shielding determination device 1 is received from the driver.

図2に示されるように、遮蔽判定装置1の画像取得部11は、画像取得処理(S10)として、異なるタイミングで撮像装置3により撮像された複数の画像を取得する。次に、遮蔽判定装置1の車両情報取得部13は、車両情報取得処理(S12)として、車両2の位置及び撮像装置3の撮像方向を取得する。   As illustrated in FIG. 2, the image acquisition unit 11 of the shielding determination device 1 acquires a plurality of images captured by the imaging device 3 at different timings as an image acquisition process (S10). Next, the vehicle information acquisition part 13 of the shielding determination apparatus 1 acquires the position of the vehicle 2 and the imaging direction of the imaging device 3 as a vehicle information acquisition process (S12).

次に、遮蔽判定装置1の物体推定部14は、物体推定処理(S14)として、車両2の位置及び撮像装置3の撮像方向と地図データベース7に記憶された物体の位置とに基づいて、撮像地点における撮像装置3の画角内の物体を推定する。図3の(A)で示される例において、画像Gn(nは整数)は撮像装置3により撮像された画像である。図3の(A)で示されるように、物体推定部14は、地図データベース7に記憶された物体の位置に基づいて、撮像装置3の画角内に存在する物体として、路面30、ガードレール31及び壁32を推定する。   Next, the object estimation unit 14 of the occlusion determination device 1 performs imaging based on the position of the vehicle 2, the imaging direction of the imaging device 3, and the position of the object stored in the map database 7 as object estimation processing (S <b> 14). An object within the angle of view of the imaging device 3 at the point is estimated. In the example illustrated in FIG. 3A, the image Gn (n is an integer) is an image captured by the imaging device 3. As illustrated in FIG. 3A, the object estimation unit 14 determines the road surface 30 and the guardrail 31 as objects existing within the angle of view of the imaging device 3 based on the position of the object stored in the map database 7. And the wall 32 is estimated.

続いて、遮蔽判定装置1の領域分割部121は、領域分割処理(S16)として、撮像装置3により取得された画像を所定の大きさの領域に分割する。図3の(B)で示される例において、領域分割部121は、画像を60個の領域Rに分割する。   Subsequently, the area dividing unit 121 of the shielding determination apparatus 1 divides the image acquired by the imaging apparatus 3 into areas of a predetermined size as an area dividing process (S16). In the example shown in FIG. 3B, the region dividing unit 121 divides the image into 60 regions R.

続いて、遮蔽判定装置1の除外判定部15は、除外物体判定処理(S17)として、地図データベース7に記憶された外観情報に基づいて、物体推定部14により推定された撮像装置3の画角内の物体が予め定められた除外物体であるか否かを判定する。除外判定部15は、外観情報に基づいて路面30には路面標示が無いと判定された場合、路面30を除外物体であると判定する。除外判定部15は、外観情報に基づいて壁32にはテクスチャ及びエッジが無いと判定された場合、壁32を除外物体であると判定する。   Subsequently, the exclusion determination unit 15 of the shielding determination apparatus 1 performs the excluded object determination process (S17), and the angle of view of the imaging device 3 estimated by the object estimation unit 14 based on the appearance information stored in the map database 7. It is determined whether or not the inside object is a predetermined excluded object. When it is determined that there is no road marking on the road surface 30 based on the appearance information, the exclusion determination unit 15 determines that the road surface 30 is an excluded object. The exclusion determination unit 15 determines that the wall 32 is an excluded object when it is determined that the wall 32 has no texture and no edges based on the appearance information.

除外物体判定処理(S17)において画角内に除外物体が存在すると判定された場合(S17:Yes)、遮蔽判定装置1の対象領域決定部123は、領域選択処理(S18)として、除外判定部15により除外物体であると判定された領域を除いた残りの領域を対象領域として選択する。図3の(C)で示される例において、対象領域決定部123は、除外判定部15により除外物体であると判定された除外領域RBを除いた残りの領域を対象領域RAとして選択する。   When it is determined in the excluded object determination process (S17) that an excluded object exists within the angle of view (S17: Yes), the target area determination unit 123 of the shielding determination apparatus 1 performs an exclusion determination unit as the area selection process (S18). The remaining area excluding the area determined to be an excluded object by 15 is selected as the target area. In the example shown in (C) of FIG. 3, the target region determination unit 123 selects the remaining region excluding the excluded region RB determined as an excluded object by the exclusion determination unit 15 as the target region RA.

遮蔽判定装置1のエッジ抽出部122は、エッジ抽出処理(S20)として、領域分割の対象となった画像からエッジを抽出する。遮蔽判定装置1の判定部124は、遮蔽判定処理(S22)として、対象領域RAごとに遮蔽領域であるか否かを判定し、全ての領域の判定結果を用いて、遮蔽状態を判定する。出力部125は、出力処理(S24)として、判定部124の判定結果を出力する。以上で図2に示されるフローチャートが終了する。フローチャートは、次回の要求タイミングにおいて最初から実行される。   The edge extraction unit 122 of the occlusion determination apparatus 1 extracts an edge from the image subjected to region division as an edge extraction process (S20). In the shielding determination process (S22), the determination unit 124 of the shielding determination device 1 determines whether or not each target region RA is a shielding region, and determines the shielding state using the determination results of all regions. The output unit 125 outputs the determination result of the determination unit 124 as an output process (S24). This is the end of the flowchart shown in FIG. The flowchart is executed from the beginning at the next request timing.

[実施形態に係る遮蔽判定装置1の効果]
従来装置であれば、無地の壁や路面標識の無い道路などを遮蔽されている部分として誤判定するおそれがある。これに対して、実施形態に係る遮蔽判定装置1によれば、誤判定の可能性のある物体が写された領域を、遮蔽状態の判定の対象から除外するため、遮蔽領域の誤判定を抑制することができる。これにより、実施形態に係る遮蔽判定装置1によれば、遮蔽領域の判定の精度を向上させることができる。
[Effect of shielding determination device 1 according to embodiment]
In the case of a conventional device, there is a risk that a plain wall or a road without a road sign is erroneously determined as a shielded part. On the other hand, according to the shielding determination apparatus 1 according to the embodiment, the region where the object with the possibility of erroneous determination is copied is excluded from the determination target of the shielding state, and thus the erroneous determination of the shielding region is suppressed. can do. Thereby, according to the shielding determination apparatus 1 which concerns on embodiment, the precision of determination of a shielding area can be improved.

上述した実施形態は、当業者の知識に基づいて種々の変更、改良を施した様々な形態で実施することができる。   The above-described embodiments can be implemented in various forms with various changes and improvements based on the knowledge of those skilled in the art.

例えば、車両情報取得部13は、測位装置4から出力された情報以外の情報を用いて車両2の位置を取得してもよい。例えば、車両情報取得部13は、撮像装置3の撮像結果、地図データベース7、及び、内部センサ5(車速センサ)を用いて車両2の位置を取得してもよい。より具体的には、車両情報取得部13は、地図データベース7と前フレーム画像との照合処理により前フレーム画像を撮像した位置を取得し、前フレーム画像の撮像時刻から後フレーム画像の撮像時刻までの時間と内部センサ5(車速センサ)の検出結果に基づいて、前フレーム画像から後フレーム画像までの間に車両2が移動した移動量を算出することにより、後フレーム画像の撮像位置を取得してもよい。   For example, the vehicle information acquisition unit 13 may acquire the position of the vehicle 2 using information other than the information output from the positioning device 4. For example, the vehicle information acquisition unit 13 may acquire the position of the vehicle 2 using the imaging result of the imaging device 3, the map database 7, and the internal sensor 5 (vehicle speed sensor). More specifically, the vehicle information acquisition unit 13 acquires the position at which the previous frame image was captured by collating the map database 7 and the previous frame image, and from the imaging time of the previous frame image to the imaging time of the rear frame image. The imaging position of the rear frame image is obtained by calculating the amount of movement of the vehicle 2 from the previous frame image to the rear frame image based on the time of the time and the detection result of the internal sensor 5 (vehicle speed sensor). May be.

また、例えば、車両情報取得部13は、撮像装置3の角度を検出するセンサを用いて、撮像方向を取得してもよいし、撮像装置3に備わるジャイロセンサなどにより撮像方向を取得してもよい。   For example, the vehicle information acquisition unit 13 may acquire the imaging direction using a sensor that detects the angle of the imaging device 3, or may acquire the imaging direction using a gyro sensor provided in the imaging device 3. Good.

また、地図データベース7は、車両2の外部に存在していてもよい。   The map database 7 may exist outside the vehicle 2.

1…遮蔽判定装置、2…車両、3…撮像装置、4…測位装置、5…内部センサ、6…ECU、7…地図データベース、11…画像取得部、12…状態判定部、13…車両情報取得部、14…物体推定部、15…除外判定部。 DESCRIPTION OF SYMBOLS 1 ... Occlusion determination apparatus, 2 ... Vehicle, 3 ... Imaging apparatus, 4 ... Positioning apparatus, 5 ... Internal sensor, 6 ... ECU, 7 ... Map database, 11 ... Image acquisition part, 12 ... State determination part, 13 ... Vehicle information Acquisition unit, 14 ... object estimation unit, 15 ... exclusion determination unit.

Claims (1)

車両に搭載された撮像装置が遮蔽状態であるか否かを判定する遮蔽判定装置であって、
異なるタイミングで前記撮像装置により撮像された複数の画像を取得する画像取得部と、
前記車両の位置及び前記撮像装置の撮像方向を取得する車両情報取得部と、
物体の位置及び外観情報を記憶する地図データベースと、
前記車両の位置及び前記撮像装置の撮像方向と前記地図データベースに記憶された前記物体の位置とに基づいて、撮像地点における前記撮像装置の画角内の前記物体を推定する物体推定部と、
前記地図データベースに記憶された前記外観情報に基づいて、前記物体推定部により推定された前記撮像装置の画角内の前記物体が予め定められた除外物体であるか否かを判定する除外判定部と、
前記除外判定部により前記除外物体であると判定された領域を除いた前記複数の画像の画素値に基づいて、前記撮像装置が遮蔽状態であるか否かを判定する状態判定部と、
を備える遮蔽判定装置。
A shielding determination device that determines whether an imaging device mounted on a vehicle is in a shielding state,
An image acquisition unit that acquires a plurality of images captured by the imaging device at different timings;
A vehicle information acquisition unit that acquires the position of the vehicle and the imaging direction of the imaging device;
A map database for storing object position and appearance information;
An object estimation unit that estimates the object within the angle of view of the imaging device at an imaging point based on the position of the vehicle and the imaging direction of the imaging device and the position of the object stored in the map database;
An exclusion determination unit that determines whether or not the object within the angle of view of the imaging apparatus estimated by the object estimation unit is a predetermined excluded object based on the appearance information stored in the map database When,
A state determination unit that determines whether or not the imaging device is in a shielding state based on pixel values of the plurality of images excluding a region determined to be the excluded object by the exclusion determination unit;
A shielding determination device comprising:
JP2016251037A 2016-12-26 2016-12-26 Shield determination device Pending JP2018107582A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016251037A JP2018107582A (en) 2016-12-26 2016-12-26 Shield determination device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016251037A JP2018107582A (en) 2016-12-26 2016-12-26 Shield determination device

Publications (1)

Publication Number Publication Date
JP2018107582A true JP2018107582A (en) 2018-07-05

Family

ID=62788053

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016251037A Pending JP2018107582A (en) 2016-12-26 2016-12-26 Shield determination device

Country Status (1)

Country Link
JP (1) JP2018107582A (en)

Similar Documents

Publication Publication Date Title
EP3608635A1 (en) Positioning system
US8594378B2 (en) 3D object detecting apparatus and 3D object detecting method
EP2963634B1 (en) Stereo camera device
US9898669B2 (en) Traveling road surface detection device and traveling road surface detection method
US10180318B2 (en) Stereo camera apparatus, vehicle provided with stereo camera apparatus, and non-transitory recording medium
JP6520740B2 (en) Object detection method, object detection device, and program
JP2011180982A (en) Lane marker detecting apparatus
EP3147884A1 (en) Traffic-light recognition device and traffic-light recognition method
JP2014139766A (en) Road surface shape estimation device
US11889047B2 (en) Image processing device and image processing method
JP6622664B2 (en) Self-vehicle position specifying device and self-vehicle position specifying method
Petrovai et al. A stereovision based approach for detecting and tracking lane and forward obstacles on mobile devices
JP2017117105A (en) Visibility determination device
JP6645936B2 (en) State estimation device
KR102003387B1 (en) Method for detecting and locating traffic participants using bird&#39;s-eye view image, computer-readerble recording medium storing traffic participants detecting and locating program
CN112712563A (en) Camera orientation estimation
US10536646B2 (en) Imaging control device and imaging control method
US10643077B2 (en) Image processing device, imaging device, equipment control system, equipment, image processing method, and recording medium storing program
CN111989541A (en) Stereo camera device
JP2018107582A (en) Shield determination device
JP7134780B2 (en) stereo camera device
JP2018147241A (en) Image processing device, image processing method, and image processing program
JP2017211765A (en) Object recognition device
JP7120130B2 (en) VEHICLE POSITIONING DEVICE AND VEHICLE POSITIONING METHOD
JP2021009487A (en) Information processing device and on-vehicle system