JP2021086265A - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP2021086265A
JP2021086265A JP2019213119A JP2019213119A JP2021086265A JP 2021086265 A JP2021086265 A JP 2021086265A JP 2019213119 A JP2019213119 A JP 2019213119A JP 2019213119 A JP2019213119 A JP 2019213119A JP 2021086265 A JP2021086265 A JP 2021086265A
Authority
JP
Japan
Prior art keywords
image
distance
value
processing unit
threshold value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019213119A
Other languages
Japanese (ja)
Other versions
JP7406962B2 (en
Inventor
秀治 新井
Hideji Arai
秀治 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2019213119A priority Critical patent/JP7406962B2/en
Publication of JP2021086265A publication Critical patent/JP2021086265A/en
Application granted granted Critical
Publication of JP7406962B2 publication Critical patent/JP7406962B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide an image processing device capable of appropriately performing image processing.SOLUTION: An image processing device according to the embodiment of the present disclosure comprises: an image area setting unit that sets a first image area including an image of a first object and a second image area including an image of a second object in a stereo image; and a combine processing unit that is capable of performing combine processing for combining the first image area and the second image area, and calculates a first actual size that is a vertical actual size of the first object and a second actual size that is the vertical actual size of the second object based on the stereo image and a distance image generated based on the stereo image and avoids the combine processing when a first condition including that the first actual size and the second actual size are smaller than a first threshold.SELECTED DRAWING: Figure 10

Description

本開示は、撮像画像に対して画像処理を行う画像処理装置に関する。 The present disclosure relates to an image processing apparatus that performs image processing on a captured image.

例えば、車両に搭載され、車両の前方を撮像する撮像装置では、雪の粒や雨粒などの降下物が撮像される場合がある。例えば特許文献1には、撮像画像に含まれる雪や雨などのノイズを除去する技術が開示されている。 For example, an image pickup device mounted on a vehicle and imaging the front of the vehicle may image fallout such as snow particles and rain particles. For example, Patent Document 1 discloses a technique for removing noise such as snow and rain included in a captured image.

国際公開第2008−111549号公報International Publication No. 2008-11549

画像処理装置では、雪の粒や雨粒などの降下物が撮像された場合でも、適切に画像処理を行うことが望まれている。 It is desired that the image processing apparatus appropriately perform image processing even when fallout such as snow particles and rain particles is imaged.

適切に画像処理を行うことができる画像処理装置を提供することが望ましい。 It is desirable to provide an image processing apparatus capable of appropriately performing image processing.

本開示の一実施の形態に係る画像処理装置は、画像領域設定部と、結合処理部とを備える。画像領域設定部は、ステレオ画像において、第1の物体の画像を含む第1の画像領域および第2の物体の画像を含む第2の画像領域を設定するように構成される。結合処理部は、第1の画像領域および第2の画像領域を結合する結合処理を行うことが可能であり、ステレオ画像およびステレオ画像に基づいて生成された距離画像に基づいて、第1の物体の垂直方向の実サイズである第1の実サイズ、および第2の物体の垂直方向の実サイズである第2の実サイズを算出し、第1の実サイズおよび第2の実サイズが第1のしきい値より小さいことを含む第1の条件を満たす場合に、結合処理を回避するように構成される。 The image processing apparatus according to the embodiment of the present disclosure includes an image area setting unit and a coupling processing unit. The image area setting unit is configured to set a first image area including an image of a first object and a second image area including an image of a second object in a stereo image. The combining processing unit can perform a combining process for combining the first image region and the second image region, and the first object is based on the stereo image and the distance image generated based on the stereo image. The first actual size, which is the actual size in the vertical direction of, and the second actual size, which is the actual size in the vertical direction of the second object, are calculated, and the first actual size and the second actual size are the first. It is configured to avoid the join process when the first condition including being smaller than the threshold value of is satisfied.

本開示の一実施の形態に係る画像処理装置によれば、第1の物体の垂直方向の実サイズである第1の実サイズ、および第2の物体の垂直方向の実サイズである第2の実サイズを算出し、第1の実サイズおよび第2の実サイズが第1のしきい値より小さいことを含む第1の条件を満たす場合に、結合処理を回避するようにしたので、適切に画像処理を行うことができる。 According to the image processing apparatus according to the embodiment of the present disclosure, the first actual size which is the vertical actual size of the first object and the second actual size which is the vertical actual size of the second object. The actual size is calculated, and when the first condition including that the first actual size and the second actual size are smaller than the first threshold value is satisfied, the join processing is avoided. Image processing can be performed.

本開示の一実施の形態に係る画像処理装置の一構成例を表すブロック図である。It is a block diagram which shows one structural example of the image processing apparatus which concerns on one Embodiment of this disclosure. ステレオ画像の一例を表す画像図である。It is an image diagram which shows an example of a stereo image. 画像領域の一例を表す画像図である。It is an image diagram which shows an example of an image area. 降雪時における画像の一例を表す画像図である。It is an image diagram which shows an example of the image at the time of snowfall. 降雪時における画像の一例を表す他の画像図である。It is another image diagram which shows an example of the image at the time of snowfall. 図1に示した結合処理部の一動作例を表すフローチャートである。It is a flowchart which shows one operation example of the coupling processing part shown in FIG. 図6に示した簡易判定処理の一例を表すフローチャートである。It is a flowchart which shows an example of the simple determination process shown in FIG. 図7に示した処理の一例を表す説明図である。It is explanatory drawing which shows an example of the process shown in FIG. 7. 図7に示した処理の一例を表す他の説明図である。It is another explanatory diagram showing an example of the process shown in FIG. 7. 図6に示した判定処理の一例を表すフローチャートである。It is a flowchart which shows an example of the determination process shown in FIG. 図10に示した処理の一例を表す説明図である。It is explanatory drawing which shows an example of the process shown in FIG. 図6に示した他の判定処理の一例を表すフローチャートである。It is a flowchart which shows an example of another determination process shown in FIG. 図12に示した処理の一例を表す説明図である。It is explanatory drawing which shows an example of the process shown in FIG. 図12に示した処理の一例を表す他の説明図である。It is another explanatory diagram showing an example of the process shown in FIG. 変形例に係る結合処理部の一動作例を表すフローチャートである。It is a flowchart which shows one operation example of the coupling processing part which concerns on the modification.

以下、本開示の実施の形態について、図面を参照して詳細に説明する。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings.

<実施の形態>
[構成例]
図1は、一実施の形態に係る画像処理装置(画像処理装置1)の一構成例を表すものである。画像処理装置1は、ステレオカメラ11と、処理部20とを有している。画像処理装置1は、自動車等の車両10に搭載される。
<Embodiment>
[Configuration example]
FIG. 1 shows a configuration example of an image processing device (image processing device 1) according to an embodiment. The image processing device 1 has a stereo camera 11 and a processing unit 20. The image processing device 1 is mounted on a vehicle 10 such as an automobile.

ステレオカメラ11は、車両10の前方を撮像することにより、互いに視差を有する一組の画像(左画像PLおよび右画像PR)を生成するように構成される。ステレオカメラ11は、左カメラ11Lと、右カメラ11Rとを有する。左カメラ11Lおよび右カメラ11Rのそれぞれは、レンズとイメージセンサとを含んでいる。左カメラ11Lおよび右カメラ11Rは、この例では、車両10の車両内において、車両10のフロントガラスの上部近傍に、車両10の幅方向に所定距離だけ離間して配置される。左カメラ11Lおよび右カメラ11Rは、互いに同期して撮像動作を行う。左カメラ11Lは左画像PLを生成し、右カメラ11Rは右画像PRを生成する。左画像PLおよび右画像PRは、ステレオ画像PICを構成する。ステレオカメラ11は、所定のフレームレート(例えば60[fps])で撮像動作を行うことにより、一連のステレオ画像PICを生成するようになっている。 The stereo camera 11 is configured to generate a set of images (left image PL and right image PR) having parallax with each other by photographing the front of the vehicle 10. The stereo camera 11 has a left camera 11L and a right camera 11R. Each of the left camera 11L and the right camera 11R includes a lens and an image sensor. In this example, the left camera 11L and the right camera 11R are arranged in the vehicle of the vehicle 10 near the upper part of the windshield of the vehicle 10 by a predetermined distance in the width direction of the vehicle 10. The left camera 11L and the right camera 11R perform an imaging operation in synchronization with each other. The left camera 11L generates the left image PL, and the right camera 11R generates the right image PR. The left image PL and the right image PR constitute a stereo image PIC. The stereo camera 11 is adapted to generate a series of stereo image PICs by performing an imaging operation at a predetermined frame rate (for example, 60 [fps]).

図2は、ステレオ画像PICの一例を表すものであり、図2(A)は左画像PLの一例を示し、図2(B)は右画像PRの一例を示す。この例では、車両10が走行している走行路における車両10の前方に、他車両(先行車両90)が走行している。左カメラ11Lがこの先行車両90を撮像することにより左画像PLを生成し、右カメラ11Rがこの先行車両90を撮像することにより右画像PRを生成する。ステレオカメラ11は、このような左画像PLおよび右画像PRを含むステレオ画像PICを生成するようになっている。 FIG. 2 shows an example of a stereo image PIC, FIG. 2 (A) shows an example of a left image PL, and FIG. 2 (B) shows an example of a right image PR. In this example, another vehicle (preceding vehicle 90) is traveling in front of the vehicle 10 on the traveling road on which the vehicle 10 is traveling. The left camera 11L generates a left image PL by imaging the preceding vehicle 90, and the right camera 11R generates a right image PR by imaging the preceding vehicle 90. The stereo camera 11 is adapted to generate a stereo image PIC including such a left image PL and a right image PR.

処理部20は、ステレオカメラ11から供給されたステレオ画像PICに基づいて、左画像PLおよび右画像PRに含まれる、車両10の前方の車両や障害物などの様々な物体の画像に、画像領域Rを設定することにより、物体を認識するように構成される。そして、処理部20は、その認識結果についての情報を出力する。車両10では、例えば、処理部20が認識した物体についての情報に基づいて、例えば、車両10の走行制御を行い、あるいは、認識した物体についての情報をコンソールモニタに表示することができるようになっている。処理部20は、例えば、プログラムを実行するCPU(Central Processing Unit)、処理データを一時的に記憶するRAM(Random Access Memory)、プログラムを記憶するROM(Read Only Memory)などにより構成される。処理部20は、距離画像生成部21と、画像領域設定部22と、結合処理部23とを有している。 Based on the stereo image PIC supplied from the stereo camera 11, the processing unit 20 creates an image area for images of various objects such as vehicles and obstacles in front of the vehicle 10 included in the left image PL and the right image PR. By setting R, it is configured to recognize an object. Then, the processing unit 20 outputs information about the recognition result. In the vehicle 10, for example, based on the information about the object recognized by the processing unit 20, the traveling control of the vehicle 10 can be performed, or the information about the recognized object can be displayed on the console monitor. ing. The processing unit 20 is composed of, for example, a CPU (Central Processing Unit) for executing a program, a RAM (Random Access Memory) for temporarily storing processing data, a ROM (Read Only Memory) for storing the program, and the like. The processing unit 20 includes a distance image generation unit 21, an image area setting unit 22, and a combination processing unit 23.

距離画像生成部21は、左画像PLおよび右画像PRに基づいて、ステレオマッチング処理やフィルタリング処理などを含む所定の画像処理を行うことにより、距離画像PZを生成するように構成される。距離画像PZは、複数の画素値を有している。複数の画素値のそれぞれは、3次元の実空間における、各画素に対応する点までの距離値Zmeasに対応している。距離画像PZにおける1つの画素は、例えば、左画像PLにおける複数(例えば16個)の画素に対応するとともに、右画像PRにおける複数(例えば16個)の画素に対応している。 The distance image generation unit 21 is configured to generate a distance image PZ by performing predetermined image processing including stereo matching processing and filtering processing based on the left image PL and the right image PR. The distance image PZ has a plurality of pixel values. Each of the plurality of pixel values corresponds to the distance value Zmeas to the point corresponding to each pixel in the three-dimensional real space. One pixel in the distance image PZ corresponds to, for example, a plurality of (for example, 16) pixels in the left image PL and a plurality of (for example, 16) pixels in the right image PR.

画像領域設定部22は、距離画像PZに基づいて、左画像PLおよび右画像PRにおいて画像領域Rを設定するように構成される。具体的には、画像領域設定部22は、例えば、距離画像PZにおいて、距離値Zmeasが連続する複数の画素が1つの画像領域Rに属するように、画像領域Rを設定する。 The image area setting unit 22 is configured to set the image area R in the left image PL and the right image PR based on the distance image PZ. Specifically, the image area setting unit 22 sets the image area R so that, for example, in the distance image PZ, a plurality of pixels having continuous distance values Zmeas belong to one image area R.

図3は、画像領域Rの一例を表すものである。この例では、ステレオ画像PICにおける右画像PRは、自車両である車両10の前方を走行する先行車両90の画像を含んでいる。なお、この図3では右画像PRを例に挙げたが、左画像PLについても同様である。先行車両90は、車両10の前方を走行路に沿って走行しており、この右画像PRは、先行車両90の背面の画像を含んでいる。先行車両90の背面において、距離画像PZにおける距離値Zmeasは連続するので、画像領域設定部22は、先行車両90の背面に画像領域R(画像領域R1)を設定している。 FIG. 3 shows an example of the image area R. In this example, the right image PR in the stereo image PIC includes an image of the preceding vehicle 90 traveling in front of the vehicle 10 which is the own vehicle. In FIG. 3, the right image PR is taken as an example, but the same applies to the left image PL. The preceding vehicle 90 is traveling in front of the vehicle 10 along the traveling path, and the right image PR includes an image of the back surface of the preceding vehicle 90. Since the distance value Zmeas in the distance image PZ is continuous on the back surface of the preceding vehicle 90, the image area setting unit 22 sets the image area R (image area R1) on the back surface of the preceding vehicle 90.

結合処理部23は、複数の画像領域Rが設定された場合において、それらの複数の画像領域Rを結合する領域結合処理Jを行うように構成される。具体的には、例えば、車両10の前方において、車両10が走行する車線の隣の車線から車両10が走行する車線に先行車両91が車線変更を行う場合には、例えば右画像PRおよび左画像PLのそれぞれは、先行車両91の背面の画像および側面の画像を含むことがあり得る。この場合において、画像領域設定部22は、先行車両91の背面部分に画像領域R(画像領域R11)を設定するとともに、その先行車両91の側面部分に別の画像領域R(画像領域R12)を設定することがあり得る。結合処理部23は、このような場合において、2つの画像領域R11,R12を結合する。このようにして、結合処理部23は、その先行車両91に対して1つの画像領域Rを設定するようになっている。 When a plurality of image areas R are set, the combination processing unit 23 is configured to perform an area combination process J for combining the plurality of image areas R. Specifically, for example, when the preceding vehicle 91 changes lanes from the lane next to the lane in which the vehicle 10 travels to the lane in which the vehicle 10 travels in front of the vehicle 10, for example, the right image PR and the left image. Each of the PLs may include a back image and a side image of the preceding vehicle 91. In this case, the image area setting unit 22 sets the image area R (image area R11) on the back portion of the preceding vehicle 91, and sets another image area R (image area R12) on the side surface portion of the preceding vehicle 91. May be set. In such a case, the combination processing unit 23 combines the two image regions R11 and R12. In this way, the coupling processing unit 23 sets one image area R for the preceding vehicle 91.

また、結合処理部23は、所定の判定条件を満たす場合には、この領域結合処理Jを回避する。具体的には、結合処理部23は、例えば、雪の粒や雨粒などの降下物に複数の画像領域Rが設定された場合には、それらの複数の画像領域Rの結合を回避するように処理を行う。 Further, the coupling processing unit 23 avoids the region coupling processing J when a predetermined determination condition is satisfied. Specifically, when a plurality of image areas R are set for fallout such as snow particles and raindrops, the combination processing unit 23 avoids combining the plurality of image areas R. Perform processing.

図4,5は、降雪時における画像の一例を表すものである。この例では、右画像PRは、先行車両90に加え、複数の雪の粒の軌跡100の画像を含む。ステレオカメラ11は、所定の長さの露光時間において露光動作を行うことによりステレオ画像PICを生成する。雪の粒は降下し、車両10は前方に向かって走行するので、その露光時間内に、車両10からみた雪の粒の位置は移動する。その結果、雪の粒は軌跡100として撮像される。画像領域設定部22は、このような軌跡100に対して画像領域Rを設定する場合がある。仮に、結合処理部23が、図5に示したように、複数の軌跡100の画像領域Rを結合した場合には、結合された画像領域R(画像領域R2)は大きい領域になるので、車両10は、その画像領域R2における認識結果に基づいて、例えば車両10の走行制御を行い、あるいはコンソールモニタに情報を表示するおそれがある。そこで、結合処理部23は、判定処理(後述する簡易判定処理J1および判定処理J2A,J2B)を行い、所定の判定条件を満たす場合に、各画像領域Rにおける物体が雪の粒や雨粒などの降下物であると判定する。そして、結合処理部23は、各画像領域Rにおける物体が降下物である場合には、これらの複数の画像領域Rの結合を回避する。これにより、降下物の画像領域Rは小さい領域のままであるので、車両10が、これらの画像領域Rにおける認識結果に基づいて、例えば車両10の走行制御を行い、あるいはコンソールモニタに情報を表示するおそれを低減することができるようになっている。 FIGS. 4 and 5 show an example of an image at the time of snowfall. In this example, the right image PR includes images of a plurality of snow grain loci 100 in addition to the preceding vehicle 90. The stereo camera 11 generates a stereo image PIC by performing an exposure operation for an exposure time of a predetermined length. Since the snow particles descend and the vehicle 10 travels forward, the position of the snow particles as seen from the vehicle 10 moves within the exposure time. As a result, the snow particles are imaged as the locus 100. The image area setting unit 22 may set the image area R for such a locus 100. If the combination processing unit 23 combines the image areas R of a plurality of loci 100 as shown in FIG. 5, the combined image area R (image area R2) becomes a large area, so that the vehicle Based on the recognition result in the image area R2, the 10 may perform, for example, travel control of the vehicle 10 or display information on the console monitor. Therefore, the coupling processing unit 23 performs a determination process (simple determination process J1 and determination processes J2A, J2B, which will be described later), and when a predetermined determination condition is satisfied, the object in each image area R is a snow grain, a raindrop, or the like. Determined to be fallout. Then, when the object in each image area R is a fallout, the combination processing unit 23 avoids the combination of the plurality of image areas R. As a result, the image area R of the fallout remains a small area, so that the vehicle 10 performs, for example, travel control of the vehicle 10 or displays information on the console monitor based on the recognition results in these image areas R. It is possible to reduce the risk of this.

処理部20は、このようにして設定された画像領域Rに基づいて、車両10の前方の車両や障害物などの様々な物体を認識する。そして、処理部20は、その認識結果についての情報を出力するようになっている。 The processing unit 20 recognizes various objects such as a vehicle and an obstacle in front of the vehicle 10 based on the image area R set in this way. Then, the processing unit 20 outputs information about the recognition result.

ここで、画像領域設定部22は、本開示における「画像領域設定部」の一具体例に対応する。結合処理部23は、本開示における「結合処理部」の一具体例に対応する。ステレオ画像PICは、本開示における「ステレオ画像」の一具体例に対応する。距離画像PZは、本開示における「距離画像」の一具体例に対応する。距離値Zmeasは、本開示における「距離値」の一具体例に対応する。車両10は、本開示における「車両」の一具体例に対応する。 Here, the image area setting unit 22 corresponds to a specific example of the “image area setting unit” in the present disclosure. The binding processing unit 23 corresponds to a specific example of the “bonding processing unit” in the present disclosure. The stereo image PIC corresponds to a specific example of the "stereo image" in the present disclosure. The distance image PZ corresponds to a specific example of the "distance image" in the present disclosure. The distance value Zmeas corresponds to a specific example of the "distance value" in the present disclosure. The vehicle 10 corresponds to a specific example of the "vehicle" in the present disclosure.

[動作および作用]
続いて、本実施の形態の画像処理装置1の動作および作用について説明する。
[Operation and action]
Subsequently, the operation and operation of the image processing device 1 of the present embodiment will be described.

(全体動作概要)
まず、図1を参照して、画像処理装置1の全体動作概要を説明する。ステレオカメラ11は、車両10の前方を撮像することにより、左画像PLおよび右画像PRを含むステレオ画像PICを生成する。処理部20は、ステレオカメラ11から供給されたステレオ画像PICに基づいて、左画像PLおよび右画像PRに含まれる、車両10の前方の車両や障害物などの様々な物体の画像に、画像領域Rを設定することにより、物体を認識する。
(Overview of overall operation)
First, an outline of the overall operation of the image processing device 1 will be described with reference to FIG. The stereo camera 11 generates a stereo image PIC including a left image PL and a right image PR by photographing the front of the vehicle 10. Based on the stereo image PIC supplied from the stereo camera 11, the processing unit 20 creates an image area for images of various objects such as vehicles and obstacles in front of the vehicle 10 included in the left image PL and the right image PR. By setting R, the object is recognized.

(詳細動作)
処理部20において、距離画像生成部21は、ステレオカメラ11からステレオ画像PICが供給される度に、そのステレオ画像PICに基づいて距離画像PZを生成し、画像領域設定部22は、この距離画像PZに基づいて画像領域Rを設定する。そして、結合処理部23は、複数の画像領域Rが設定された場合において、それらの複数の画像領域Rを結合する領域結合処理Jを行う。また、結合処理部23は、所定の判定条件を満たす場合には、この領域結合処理Jを回避する。以下に、この結合処理部23における処理について詳細に説明する
(Detailed operation)
In the processing unit 20, the distance image generation unit 21 generates a distance image PZ based on the stereo image PIC each time the stereo image PIC is supplied from the stereo camera 11, and the image area setting unit 22 generates this distance image. The image area R is set based on the PZ. Then, when a plurality of image areas R are set, the combination processing unit 23 performs the area combination process J for combining the plurality of image areas R. Further, the coupling processing unit 23 avoids the region coupling processing J when a predetermined determination condition is satisfied. The processing in the joining processing unit 23 will be described in detail below.

図6は、結合処理部23における処理の一例を表すものである。結合処理部23は、簡易判定処理J1、判定処理J2A,J2Bを行うことにより、領域結合処理Jを回避するかどうかを判定する。以下に、この処理について詳細に説明する。 FIG. 6 shows an example of processing in the coupling processing unit 23. The join processing unit 23 determines whether to avoid the area join process J by performing the simple determination process J1 and the determination processes J2A and J2B. This process will be described in detail below.

まず、結合処理部23は、簡易判定処理J1を行う(ステップS101)。この簡易判定処理J1は、後述するより詳細な判定処理J2A,J2Bの前段階として行われる。 First, the coupling processing unit 23 performs the simple determination processing J1 (step S101). This simple determination process J1 is performed as a pre-stage of the more detailed determination processes J2A and J2B described later.

図7は、簡易判定処理J1の一例を表すものである。結合処理部23は、この簡易判定処理J1において、ステップS201〜S203に示す3つの判定条件のそれぞれを満たすかどうかを判定する。 FIG. 7 shows an example of the simple determination process J1. In this simple determination process J1, the combination processing unit 23 determines whether or not each of the three determination conditions shown in steps S201 to S203 is satisfied.

まず、結合処理部23は、複数の画像領域Rのそれぞれの水平方向の画像幅がしきい値TAより小さいかどうかを判定する(ステップS201)。 First, the combination processing unit 23 determines whether or not the horizontal image width of each of the plurality of image regions R is smaller than the threshold value TA (step S201).

図8は、ステップS201の処理の一例を表すものである。この例では、3つの軌跡121〜123に対して、3つの画像領域R21〜R23が画像領域設定部22により設定されている。結合処理部23は、ステレオ画像PICおよび距離画像PZに基づいて、画像領域R21の画像幅W21を算出し、画像領域R22の画像幅W22を算出し、画像領域R23の画像幅W23を算出する。そして、この例では、結合処理部23は、これらの画像幅W21〜W23のそれぞれが、しきい値TAより小さいかどうかを判定する。すなわち、画像領域Rにおける物体が雪の粒や雨粒などの降下物である場合には、雪の粒や雨粒が小さいので、水平方向の画像幅が小さいことが予想される。よって、結合処理部23は、水平方向の画像幅がしきい値TAより小さいかどうかを判定することにより、その物体が降下物であるかどうかを判定することができる。画像幅およびしきい値TAは、例えば画素数を用いて表すことができる。 FIG. 8 shows an example of the process of step S201. In this example, three image regions R21 to R23 are set by the image region setting unit 22 for the three loci 121 to 123. The combining processing unit 23 calculates the image width W21 of the image area R21, calculates the image width W22 of the image area R22, and calculates the image width W23 of the image area R23 based on the stereo image PIC and the distance image PZ. Then, in this example, the coupling processing unit 23 determines whether or not each of these image widths W21 to W23 is smaller than the threshold value TA. That is, when the object in the image region R is a fallout such as a snow grain or a raindrop, the image width in the horizontal direction is expected to be small because the snow grain or the raindrop is small. Therefore, the coupling processing unit 23 can determine whether or not the object is a fallout by determining whether or not the image width in the horizontal direction is smaller than the threshold value TA. The image width and the threshold value TA can be expressed using, for example, the number of pixels.

次に、結合処理部23は、複数の画像領域Rにおいて物体の距離値Zmeasに連続性がないかどうかを判定する(ステップS202)。 Next, the combination processing unit 23 determines whether or not the distance value Zmeas of the object has continuity in the plurality of image regions R (step S202).

図9は、ステップS202の処理の一例を表すものである。図9には、距離画像PZに含まれる複数の画素のうちの、3つの軌跡121〜123に係る画素を、距離点Aとして図示している。例えば、これらの3つの軌跡121〜123に係るすべての距離点Aにおける距離値Zmeasがほぼ同じである場合には、結合処理部23は、複数の画像領域Rにおいて距離値Zmeasに連続性があると判定する。この例では、結合処理部23は、距離画像PZに基づいて、これらの軌跡121〜123の距離値Zmeasに連続性がないかどうかを判定する。すなわち、画像領域Rにおける物体が雪の粒や雨粒などの降下物である場合には、例えば軌跡間で距離値Zmeasが異なり得るので、距離値Zmeasに連続性がないことが予想される。よって、結合処理部23は、物体の距離値Zmeasに連続性がないかどうかを判定することにより、その物体が降下物であるかどうかを判定することができる。 FIG. 9 shows an example of the process of step S202. In FIG. 9, among the plurality of pixels included in the distance image PZ, the pixels related to the three loci 121 to 123 are illustrated as distance points A. For example, when the distance values Zmeas at all the distance points A related to these three loci 121 to 123 are substantially the same, the combination processing unit 23 has continuity in the distance values Zmeas in the plurality of image regions R. Is determined. In this example, the coupling processing unit 23 determines whether or not the distance values Zmeas of these loci 121 to 123 are not continuous based on the distance image PZ. That is, when the object in the image region R is a fallout such as a snow grain or a raindrop, the distance value Zmeas may differ between the trajectories, so that it is expected that the distance value Zmeas is not continuous. Therefore, the coupling processing unit 23 can determine whether or not the object is a fallout by determining whether or not the distance value Zmeas of the object is not continuous.

次に、結合処理部23は、複数の画像領域Rのそれぞれにおいて、物体の複数の距離値Zmeasの正確度の合計値がしきい値TBより小さいかどうかを判定する(ステップS203)。 Next, the coupling processing unit 23 determines whether or not the total accuracy of the plurality of distance values Zmeas of the object is smaller than the threshold value TB in each of the plurality of image regions R (step S203).

例えば、図9の例において、結合処理部23は、軌跡121の複数の距離点Aにおける距離値Zmeasの正確度の合計値がしきい値TBより小さいかどうかを判定する。具体的には、まず、結合処理部23は、軌跡121に係る複数の距離点Aにおける距離値Zmeasの正確度をそれぞれ算出する。例えば、結合処理部23は、左画像PLや右画像PRにおける、各距離点Aに対応する複数の画素での画素値の勾配に基づいて、その距離点Aにおける画像エッジの明確さを評価し、この画像エッジの明確さに基づいてその距離点Aにおける距離値Zmeasの正確度を算出することができる。すなわち、左画像PLや右画像PRにおける画像エッジが明確であるほど、距離画像生成部21は、精度よく距離値Zmeasを求めることができるので、結合処理部23は、画像エッジの明確さに基づいて、距離値Zmeasの正確度を算出することができる。そして、結合処理部23は、このようにして算出した複数の距離点Aにおける距離値Zmeasの正確度の合計値を算出し、この合計値がしきい値TBより小さいかどうかを判定する。すなわち、画像領域Rにおける物体が雪の粒や雨粒などの降下物である場合には、距離点Aの数が少なくかつ距離値Zmeasの正確度が低いので、複数の距離値Zmeasの正確度の合計値が小さいことが予想される。よって、結合処理部23は、物体の複数の距離値Zmeasの正確度の合計値がしきい値TBより小さいかどうかを判定することにより、その物体が降下物であるかどうかを判定することができる。 For example, in the example of FIG. 9, the coupling processing unit 23 determines whether or not the total accuracy of the distance values Zmeas at the plurality of distance points A of the locus 121 is smaller than the threshold value TB. Specifically, first, the coupling processing unit 23 calculates the accuracy of the distance value Zmeas at the plurality of distance points A related to the locus 121. For example, the combination processing unit 23 evaluates the clarity of the image edge at the distance point A based on the gradient of the pixel values at the plurality of pixels corresponding to each distance point A in the left image PL and the right image PR. , The accuracy of the distance value Zmeas at the distance point A can be calculated based on the clarity of the image edge. That is, the clearer the image edge in the left image PL or the right image PR, the more accurately the distance image generation unit 21 can obtain the distance value Zmeas. Therefore, the combination processing unit 23 is based on the clarity of the image edge. Therefore, the accuracy of the distance value Zmeas can be calculated. Then, the coupling processing unit 23 calculates the total accuracy of the distance values Zmeas at the plurality of distance points A calculated in this way, and determines whether or not the total value is smaller than the threshold value TB. That is, when the object in the image region R is a descent such as a snow grain or a raindrop, the number of distance points A is small and the accuracy of the distance value Zmeas is low, so that the accuracy of the plurality of distance values Zmeas is high. The total value is expected to be small. Therefore, the coupling processing unit 23 can determine whether or not the object is a fallout by determining whether or not the total accuracy of the plurality of distance values Zmeas of the object is smaller than the threshold value TB. it can.

同様に、結合処理部23は、軌跡122の複数の距離点Aにおける距離値Zmeasの正確度の合計値がしきい値TBより小さいかどうかを判定し、軌跡123の複数の距離点Aにおける距離値Zmeasの正確度の合計値がしきい値TBより小さいかどうかを判定する。 Similarly, the coupling processing unit 23 determines whether or not the total accuracy of the distance values Zmeas at the plurality of distance points A of the locus 122 is smaller than the threshold value TB, and determines whether the total value of the accuracy of the distance values Zmeas is smaller than the threshold TB, and the distances at the plurality of distance points A of the locus 123 Determine if the total accuracy of the value Zmeas is less than the threshold TB.

以上で、簡易判定処理J1は終了する。なお、ステップS201〜S203の各処理は、この順に限定されるものではなく、入れ替えてもよい。 This completes the simple determination process J1. The processes of steps S201 to S203 are not limited to this order, and may be replaced.

次に、図6に示したように、結合処理部23は、簡易判定処理J1におけるすべての判定条件を満たすかどうかを確認する(ステップS102)。すなわち、結合処理部23は、複数の画像領域Rのそれぞれの水平方向の画像幅がしきい値TAより小さいこと(ステップS201)、複数の画像領域Rにおいて物体の距離値Zmeasに連続性がないこと(ステップS202)、および複数の画像領域Rのそれぞれにおいて、物体の複数の距離値Zmeasの正確度の合計値がしきい値TBより小さいこと(ステップS203)の3つの判定条件を満たすかどうかを確認する。これらの3つの判定条件のうちの少なくとも1つを満たさない場合(ステップS102において“N”)には、ステップS108に進む。 Next, as shown in FIG. 6, the combination processing unit 23 confirms whether or not all the determination conditions in the simple determination process J1 are satisfied (step S102). That is, in the combining processing unit 23, the horizontal image width of each of the plurality of image areas R is smaller than the threshold value TA (step S201), and the distance value Zmeas of the objects in the plurality of image areas R is not continuous. Whether or not the three determination conditions of that (step S202) and that the total accuracy of the plurality of distance values Zmeas of the object is smaller than the threshold value TB (step S203) are satisfied in each of the plurality of image areas R. To confirm. If at least one of these three determination conditions is not satisfied (“N” in step S102), the process proceeds to step S108.

ステップS102において、これらの3つの判定条件のすべてを満たす場合(ステップS102において“Y”)には、結合処理部23は、判定処理J2Aを行う(ステップS103)。 When all of these three determination conditions are satisfied in step S102 (“Y” in step S102), the combination processing unit 23 performs determination processing J2A (step S103).

図10は、判定処理J2Aの一例を表すものである。結合処理部23は、この判定処理J2Aにおいて、ステップS211〜S213に示す3つの判定条件のそれぞれを満たすかどうかを判定する。 FIG. 10 shows an example of the determination process J2A. In this determination process J2A, the combination processing unit 23 determines whether or not each of the three determination conditions shown in steps S211 to S213 is satisfied.

まず、結合処理部23は、複数の画像領域Rのそれぞれにおいて、物体の垂直方向の実サイズがしきい値TCより小さいかどうかを判定する(ステップS211)。 First, the coupling processing unit 23 determines whether or not the actual size of the object in the vertical direction is smaller than the threshold value TC in each of the plurality of image regions R (step S211).

図11は、ステップS211の処理の一例を表すものである。図11には、一例として軌跡121を描いているが、軌跡122,123についても同様である。雪の粒は降下し、車両10は前方に向かって走行するので、軌跡121は、走行路の路面110に近いほど車両10に近づくように延伸する。結合処理部23は、ステレオ画像PICおよび距離画像PZに基づいて、このような軌跡121の、様々な位置での垂直方向の実サイズSを算出する。そして、結合処理部23は、この実サイズSのうちの最大値を選択し、この最大値がしきい値TCより小さいかどうかを判定する。すなわち、画像領域Rにおける物体が雪の粒や雨粒などの降下物である場合には、物体の垂直方向の実サイズSは小さいことが予想される。よって、結合処理部23は、垂直方向の実サイズSがしきい値TCより小さいかどうかを判定することにより、その物体が降下物であるかどうかを判定することができる。実サイズSおよびしきい値TCは、例えばミリメーターを単位とした値である。 FIG. 11 shows an example of the process of step S211. In FIG. 11, the locus 121 is drawn as an example, but the same applies to the loci 122 and 123. Since the snow particles descend and the vehicle 10 travels forward, the locus 121 is extended so as to be closer to the vehicle 10 as it is closer to the road surface 110 of the travel path. The coupling processing unit 23 calculates the actual size S of such a locus 121 in the vertical direction at various positions based on the stereo image PIC and the distance image PZ. Then, the coupling processing unit 23 selects the maximum value of the actual size S, and determines whether or not this maximum value is smaller than the threshold value TC. That is, when the object in the image region R is a fallout such as a snow grain or a raindrop, the actual size S of the object in the vertical direction is expected to be small. Therefore, the coupling processing unit 23 can determine whether or not the object is a fallout by determining whether or not the actual size S in the vertical direction is smaller than the threshold value TC. The actual size S and the threshold value TC are values in units of millimeters, for example.

次に、結合処理部23は、複数の画像領域Rのそれぞれにおいて、物体の距離点Aの数がしきい値TDより小さいかどうかを判定する(ステップS212)。 Next, the coupling processing unit 23 determines whether or not the number of distance points A of the object is smaller than the threshold value TD in each of the plurality of image regions R (step S212).

例えば、図9の例において、結合処理部23は、ステレオ画像PICおよび距離画像PZに基づいて、軌跡121の複数の距離点Aの数を算出する。そして、結合処理部23は、この距離点Aの数がしきい値TDより小さいかどうかを判定する。すなわち、画像領域Rにおける物体が雪の粒や雨粒などの降下物である場合には、距離点Aの数が少ないことが予想される。よって、結合処理部23は、物体の距離点Aの数がしきい値TDより小さいかどうか判定することにより、その物体が降下物であるかどうかを判定することができる。 For example, in the example of FIG. 9, the coupling processing unit 23 calculates the number of a plurality of distance points A of the locus 121 based on the stereo image PIC and the distance image PZ. Then, the coupling processing unit 23 determines whether or not the number of the distance points A is smaller than the threshold value TD. That is, when the object in the image region R is a fallout such as a snow grain or a rain drop, it is expected that the number of distance points A is small. Therefore, the coupling processing unit 23 can determine whether or not the object is a fallout by determining whether or not the number of distance points A of the object is smaller than the threshold value TD.

同様に、結合処理部23は、軌跡122の複数の距離点Aの数がしきい値TDより小さいかどうかを判定し、軌跡123の複数の距離点Aの数がしきい値TDより小さいかどうかを判定する。 Similarly, the coupling processing unit 23 determines whether the number of the plurality of distance points A of the locus 122 is smaller than the threshold value TD, and whether the number of the plurality of distance points A of the locus 123 is smaller than the threshold value TD. Judge whether or not.

次に、結合処理部23は、複数の画像領域Rのそれぞれにおいて、物体の複数の距離値Zmeasの正確度の合計値がしきい値TBより小さいかどうかを判定する(ステップS213)。このステップS213の処理は、図7に示した簡易判定処理J1におけるステップS203の処理と同じである。 Next, the coupling processing unit 23 determines whether or not the total accuracy of the plurality of distance values Zmeas of the object is smaller than the threshold value TB in each of the plurality of image regions R (step S213). The process of step S213 is the same as the process of step S203 in the simple determination process J1 shown in FIG. 7.

以上で、判定処理J2Aは終了する。なお、ステップS211〜S213の各処理は、この順に限定されるものではなく、入れ替えてもよい。 This completes the determination process J2A. The processes of steps S211 to S213 are not limited to this order, and may be replaced.

次に、図6に示したように、結合処理部23は、判定処理J2Aにおけるすべての判定条件を満たすかどうかどうかを確認する(ステップS104)。すなわち、結合処理部23は、複数の画像領域Rのそれぞれにおいて、物体の垂直方向の実サイズがしきい値TCより小さいこと(ステップS211)、複数の画像領域Rのそれぞれにおいて、物体の距離点Aの数がしきい値TDより小さいこと(ステップS212)、および複数の画像領域Rのそれぞれにおいて、物体の複数の距離値Zmeasの正確度の合計値がしきい値TBより小さいこと(ステップS213)の3つの判定条件を満たすかどうかを確認する。これらの3つの判定条件のすべてを満たす場合(ステップS104において“Y”)には、ステップS107に進む。 Next, as shown in FIG. 6, the coupling processing unit 23 confirms whether or not all the determination conditions in the determination process J2A are satisfied (step S104). That is, the combination processing unit 23 has the actual size of the object in the vertical direction smaller than the threshold value TC in each of the plurality of image areas R (step S211), and the distance points of the objects in each of the plurality of image areas R. The number of A is smaller than the threshold value TD (step S212), and the total accuracy of the plurality of distance values Zmeas of the object is smaller than the threshold value TB in each of the plurality of image areas R (step S213). ) Is confirmed whether or not the three judgment conditions are satisfied. When all of these three determination conditions are satisfied (“Y” in step S104), the process proceeds to step S107.

ステップS104において、これらの3つの判定条件のうちの少なくとも1つを満たさない場合(ステップS104において“N”)には、結合処理部23は、判定処理J2Bを行う(ステップS105)。 If at least one of these three determination conditions is not satisfied in step S104 (“N” in step S104), the combination processing unit 23 performs determination processing J2B (step S105).

図12は、判定処理J2Bの一例を表すものである。結合処理部23は、この判定処理J2Bにおいて、ステップS221〜S224に示す4つの判定条件のそれぞれを満たすかどうかを判定する。 FIG. 12 shows an example of the determination process J2B. In this determination process J2B, the combination processing unit 23 determines whether or not each of the four determination conditions shown in steps S221 to S224 is satisfied.

まず、結合処理部23は、複数の画像領域Rのそれぞれの水平方向の画像幅がしきい値TAより小さいかどうかを判定する(ステップS221)。このステップS221の処理は、図7に示した簡易判定処理J1におけるステップS201の処理と同じである。 First, the combination processing unit 23 determines whether or not the horizontal image width of each of the plurality of image regions R is smaller than the threshold value TA (step S221). The process of step S221 is the same as the process of step S201 in the simple determination process J1 shown in FIG. 7.

次に、結合処理部23は、複数の画像領域Rのそれぞれにおいて、物体の複数の距離値Zmeasの正確度の合計値がしきい値TBより小さいかどうかを判定する(ステップS222)。このステップS222の処理は、図7に示した簡易判定処理J1におけるステップS203の処理と同じである。 Next, the coupling processing unit 23 determines whether or not the total accuracy of the plurality of distance values Zmeas of the object is smaller than the threshold value TB in each of the plurality of image regions R (step S222). The process of step S222 is the same as the process of step S203 in the simple determination process J1 shown in FIG. 7.

次に、結合処理部23は、複数の画像領域Rのそれぞれにおいて、物体の路面からの高さを示す高さ値がしきい値TEより高いかどうかを判定する(ステップS223)。 Next, the coupling processing unit 23 determines whether or not the height value indicating the height of the object from the road surface is higher than the threshold value TE in each of the plurality of image regions R (step S223).

図13は、ステップS223の処理の一例を表すものである。図13には、一例として軌跡121を描いているが、軌跡122,123についても同様である。軌跡121は、走行路の路面110に近いほど車両10に近づくように延伸する。結合処理部23は、ステレオ画像PICおよび距離画像PZに基づいて、軌跡121の、軌跡121における車両10から一番近い部分における、走行路の路面110からの高さを示す高さ値Hを算出する。そして、結合処理部23は、この高さ値Hがしきい値TEより大きいどうかを判定する。すなわち、画像領域Rにおける物体が雪の粒や雨粒などの降下物である場合には、物体は浮いているので、高さ値Hが大きいことが予想される。よって、結合処理部23は、高さ値Hがしきい値TEより大きいかどうかを判定することにより、その物体が降下物であるかどうかを判定することができる。高さ値Hおよびしきい値TEは、例えばミリメーターを単位とした値である。 FIG. 13 shows an example of the process of step S223. In FIG. 13, the locus 121 is drawn as an example, but the same applies to the loci 122 and 123. The locus 121 is extended so as to be closer to the vehicle 10 as it is closer to the road surface 110 of the traveling road. Based on the stereo image PIC and the distance image PZ, the coupling processing unit 23 calculates a height value H indicating the height of the locus 121 from the road surface 110 in the portion of the locus 121 closest to the vehicle 10. To do. Then, the coupling processing unit 23 determines whether or not the height value H is larger than the threshold value TE. That is, when the object in the image region R is a fallout such as a snow grain or a raindrop, the height value H is expected to be large because the object is floating. Therefore, the coupling processing unit 23 can determine whether or not the object is a fallout by determining whether or not the height value H is larger than the threshold value TE. The height value H and the threshold value TE are values in units of millimeters, for example.

次に、結合処理部23は、複数の画像領域Rの間の水平方向の離隔距離を示す距離値がしきい値TFより大きいかどうかを判定する(ステップS224)。 Next, the coupling processing unit 23 determines whether or not the distance value indicating the horizontal separation distance between the plurality of image regions R is larger than the threshold value TF (step S224).

図14は、ステップS224の処理の一例を表すものである。この例では、2つの軌跡121,122を示している。結合処理部23は、ステレオ画像PICおよび距離画像PZに基づいて、軌跡121および軌跡122の間の離隔距離を示す距離値Dを算出する。そして、この例では、結合処理部23は、この距離値Dがしきい値TFより大きいかどうかを判定する。すなわち、画像領域Rにおける物体が雪の粒や雨粒などの降下物である場合には、複数の降下物はそれぞれ別々の降下物であるので、距離値Dが大きいことが予想される。よって、結合処理部23は、距離値Dがしきい値TFより大きいかどうかを判定することにより、その物体が降下物であるかどうかを判定することができる。距離値Dおよびしきい値TFは、例えばミリメーターを単位とした値である。 FIG. 14 shows an example of the process of step S224. In this example, two trajectories 121 and 122 are shown. The coupling processing unit 23 calculates a distance value D indicating a separation distance between the locus 121 and the locus 122 based on the stereo image PIC and the distance image PZ. Then, in this example, the coupling processing unit 23 determines whether or not the distance value D is larger than the threshold value TF. That is, when the object in the image region R is a fallout such as a snow grain or a raindrop, the plurality of fallouts are separate fallouts, so that the distance value D is expected to be large. Therefore, the coupling processing unit 23 can determine whether or not the object is a fallout by determining whether or not the distance value D is larger than the threshold value TF. The distance value D and the threshold value TF are values in units of millimeters, for example.

同様に、結合処理部23は、軌跡122および軌跡123の間の水平方向の離隔距離を示す距離値がしきい値TFより大きいかどうかを判定する。 Similarly, the coupling processing unit 23 determines whether or not the distance value indicating the horizontal separation distance between the locus 122 and the locus 123 is larger than the threshold value TF.

このしきい値TFは、固定値であってもよいし、可変値であってもよい。しきい値TFを可変値にする場合には、結合処理部23は、例えば、物体の複数の距離値Zmeasの正確度に基づいて、このしきい値TFを設定することができる。具体的には、結合処理部23は、軌跡121および軌跡122の間の離隔距離に対するしきい値TFを算出する場合には、軌跡121に係る複数の距離点Aにおける距離値Zmeasの正確度の合計値と、軌跡122に係る複数の距離点Aにおける距離値Zmeasの正確度の合計値との和を算出する。そして、結合処理部23は、この和の値が小さいほどしきい値TFを小さい値に設定し、この和の値が大きいほどしきい値TFを大きい値に設定することができる。これにより、例えば、物体が雪の粒や雨粒などの降下物である場合には、距離点Aの数が少なく、かつ距離値Zmeasの正確度が低いので、しきい値TFが小さい値になる。その結果、距離値Dはしきい値TFより大きくなりやすいので、その物体が落下物であると判定されやすい。また、例えば、物体が、先行車両91の背面部分および側面部分である場合には、距離点Aの数が多く、かつ距離値Zmeasの正確度が高いので、しきい値TFが大きい値になる。その結果、距離値Dはしきい値TFより小さくなりやすいので、その物体は落下物ではないと判定されやすい。 The threshold value TF may be a fixed value or a variable value. When the threshold value TF is set to a variable value, the coupling processing unit 23 can set the threshold value TF based on the accuracy of a plurality of distance values Zmeas of the object, for example. Specifically, when the coupling processing unit 23 calculates the threshold value TF for the separation distance between the locus 121 and the locus 122, the accuracy of the distance value Zmeas at the plurality of distance points A related to the locus 121 The sum of the total value and the total accuracy of the distance value Zmeas at the plurality of distance points A related to the locus 122 is calculated. Then, the coupling processing unit 23 can set the threshold value TF to a smaller value as the sum value is smaller, and can set the threshold value TF to a larger value as the sum value is larger. As a result, for example, when the object is a fallout such as a snow grain or a raindrop, the number of distance points A is small and the accuracy of the distance value Zmeas is low, so that the threshold value TF becomes a small value. .. As a result, the distance value D tends to be larger than the threshold value TF, so that it is easy to determine that the object is a falling object. Further, for example, when the object is a rear portion and a side portion of the preceding vehicle 91, the number of distance points A is large and the accuracy of the distance value Zmeas is high, so that the threshold value TF becomes a large value. .. As a result, the distance value D tends to be smaller than the threshold value TF, so that it is easy to determine that the object is not a falling object.

以上で、判定処理J2Bは終了する。なお、ステップS221〜S224の各処理は、この順に限定されるものではなく、入れ替えてもよい。 This completes the determination process J2B. The processes of steps S221 to S224 are not limited to this order, and may be replaced.

次に、図6に示したように、結合処理部23は、判定処理J2Bにおけるすべての判定条件を満たすかどうかを確認する(ステップS106)。すなわち、結合処理部23は、複数の画像領域Rのそれぞれの水平方向の画像幅がしきい値TAより小さいこと(ステップS221)、複数の画像領域Rのそれぞれにおいて、物体の複数の距離値Zmeasの正確度の合計値がしきい値TBより小さいこと(ステップS222)、複数の画像領域Rのそれぞれにおいて、物体の路面からの高さを示す高さ値がしきい値TEより高いこと(ステップS223)、および複数の画像領域Rの間の水平方向の離隔距離を示す距離値がしきい値TFより大きいこと(ステップS224)の4つの判定条件を満たすかどうかを確認する。これらの4つの判定条件のすべてを満たす場合(ステップS106において“Y”)には、ステップS107に進み、これらの4つの判定条件のうちの少なくとも1つを満たさない場合(ステップS106において“N”)には、ステップS108に進む。 Next, as shown in FIG. 6, the combination processing unit 23 confirms whether or not all the determination conditions in the determination process J2B are satisfied (step S106). That is, in the combining processing unit 23, the horizontal image width of each of the plurality of image areas R is smaller than the threshold value TA (step S221), and in each of the plurality of image areas R, a plurality of distance values Zmeas of the object. The total value of the accuracy of is smaller than the threshold value TB (step S222), and the height value indicating the height of the object from the road surface in each of the plurality of image areas R is higher than the threshold value TE (step). It is confirmed whether or not the four determination conditions of S223) and the distance value indicating the horizontal separation distance between the plurality of image regions R being larger than the threshold value TF (step S224) are satisfied. If all of these four determination conditions are satisfied (“Y” in step S106), the process proceeds to step S107, and if at least one of these four determination conditions is not satisfied (“N” in step S106). ), The process proceeds to step S108.

ステップS104において、判定処理J2Aにおける3つの判定条件のすべてを満たす場合(ステップS104において“Y”)、またはステップS106において、判定処理J2Bにおける4つの判定条件のすべてを満たす場合(ステップS106において“Y”)には、結合処理部23は、複数の画像領域Rのそれぞれの物体は、雪の粒や雨粒などの降下物であると判定する(ステップS107)。以上で、このフローは終了する。すなわち、この場合には、結合処理部23は、これらの複数の画像領域Rを結合する領域結合処理Jを行わない。 In step S104, when all three determination conditions in the determination process J2A are satisfied (“Y” in step S104), or in step S106, when all four determination conditions in the determination process J2B are satisfied (“Y” in step S106). In "), the coupling processing unit 23 determines that each object in the plurality of image regions R is a fallout such as snow particles or rain particles (step S107). This is the end of this flow. That is, in this case, the combination processing unit 23 does not perform the area combination process J for combining these plurality of image areas R.

また、ステップS102において、簡易判定処理J1における3つの判定条件のうちの少なくとも1つを満たさない場合(ステップS102において“N”)、またはステップS106において、判定処理J2Bにおける4つの判定条件のうちの少なくとも1つを満たさない場合(ステップS106において“N”)には、結合処理部23は、複数の画像領域Rのそれぞれの物体は、雪の粒や雨粒などの降下物ではないと判定する(ステップS108)。そして、結合処理部23は、これらの複数の画像領域Rを結合する領域結合処理Jを行う(ステップS109)。以上でこのフローは終了する。 Further, in step S102, when at least one of the three determination conditions in the simple determination process J1 is not satisfied (“N” in step S102), or in step S106, among the four determination conditions in the determination process J2B. When at least one is not satisfied (“N” in step S106), the coupling processing unit 23 determines that each object in the plurality of image regions R is not a fallout such as snow particles or rain particles (“N”). Step S108). Then, the combination processing unit 23 performs the area combination process J for combining these a plurality of image areas R (step S109). This is the end of this flow.

ここで、判定処理J2Aにおける3つの判定条件は、本開示における「第1の条件」の一具体例に対応する。判定処理J2Bにおける4つの判定条件は、本開示における「第2の条件」の一具体例に対応する。簡易判定処理J1における3つの判定条件は、本開示における「第3の条件」の一具体例に対応する。しきい値TCは、本開示における「第1のしきい値」の一具体例に対応する。しきい値TDは、本開示における「第2のしきい値」の一具体例に対応する。しきい値TBは、本開示における「第3のしきい値」の一具体例に対応する。しきい値TFは、本開示における「第4のしきい値」の一具体例に対応する。しきい値TEは、本開示における「第5のしきい値」の一具体例に対応する。しきい値TAは、本開示における「第6のしきい値」の一具体例に対応する。 Here, the three determination conditions in the determination process J2A correspond to a specific example of the "first condition" in the present disclosure. The four determination conditions in the determination process J2B correspond to a specific example of the "second condition" in the present disclosure. The three determination conditions in the simple determination process J1 correspond to a specific example of the "third condition" in the present disclosure. The threshold TC corresponds to a specific example of the "first threshold" in the present disclosure. The threshold TD corresponds to a specific example of the "second threshold" in the present disclosure. The threshold TB corresponds to a specific example of the "third threshold" in the present disclosure. The threshold TF corresponds to a specific example of the "fourth threshold" in the present disclosure. The threshold value TE corresponds to a specific example of the "fifth threshold value" in the present disclosure. The threshold TA corresponds to a specific example of the "sixth threshold" in the present disclosure.

以上のように、画像処理装置1では、判定処理J2Aにおいて、複数の画像領域Rのそれぞれにおいて、物体の垂直方向の実サイズがしきい値TCより小さいことを含む複数の判定条件を満たす場合に、領域結合処理Jを回避するようにした。すなわち、画像領域Rにおける物体が雪の粒や雨粒などの降下物である場合には、物体の垂直方向の実サイズは小さいことが予想されるので、画像処理装置1では、垂直方向の実サイズがしきい値TCより小さいかどうかを判定するようにした。これにより、画像処理装置1では、判定処理J2Aにおける複数の判定条件を満たす場合に、雪の粒や雨粒などの降下物についての複数の画像領域Rが結合されないようにすることができるので、適切に画像処理を行うことができる。その結果、車両10では、これらの降下物に基づいて、例えば車両10の走行制御を行い、あるいはコンソールモニタに情報を表示するなどの、不適切な動作が行われるおそれを低減することができる。 As described above, in the image processing apparatus 1, in the determination process J2A, when a plurality of determination conditions including the fact that the actual size of the object in the vertical direction in the vertical direction is smaller than the threshold value TC are satisfied in each of the plurality of image regions R. , The area join process J is avoided. That is, when the object in the image region R is a descending object such as a snow grain or a raindrop, the actual size of the object in the vertical direction is expected to be small. Is now less than the threshold TC. As a result, in the image processing device 1, when a plurality of determination conditions in the determination process J2A are satisfied, a plurality of image regions R for fallout such as snow particles and rain particles can be prevented from being combined, which is appropriate. Image processing can be performed. As a result, it is possible to reduce the possibility that the vehicle 10 performs an inappropriate operation such as controlling the running of the vehicle 10 or displaying information on the console monitor based on these fallouts.

また、画像処理装置1では、判定処理J2Bにおいて、複数の画像領域Rの間の水平方向の離隔距離を示す距離値がしきい値TFより大きいことを含む複数の判定条件を満たす場合に、領域結合処理Jを回避するようにした。すなわち、画像領域Rにおける物体が雪の粒や雨粒などの降下物である場合には、複数の降下物はそれぞれ別々の降下物であるので、距離値Dが大きいことが予想されるので、画像処理装置1では、距離値がしきい値TFより大きいかどうかを判定するようにした。これにより、画像処理装置1では、判定処理J2Bにおける複数の判定条件を満たす場合に、雪の粒や雨粒などの降下物についての複数の画像領域Rが結合されないようにすることができるので、適切に画像処理を行うことができる。 Further, in the image processing device 1, when the determination process J2B satisfies a plurality of determination conditions including the fact that the distance value indicating the horizontal separation distance between the plurality of image regions R is larger than the threshold value TF, the region The join process J is avoided. That is, when the object in the image region R is a fallout such as a snow grain or a raindrop, the plurality of fallouts are separate fallouts, so that the distance value D is expected to be large. In the processing device 1, it is determined whether or not the distance value is larger than the threshold value TF. As a result, in the image processing device 1, when a plurality of determination conditions in the determination process J2B are satisfied, a plurality of image regions R for fallout such as snow particles and rain particles can be prevented from being combined, which is appropriate. Image processing can be performed.

また、画像処理装置1では、判定処理J2A,J2Bの前に簡易判定処理J1を行うようにした。簡易判定処理J1におけるステップS201の判定条件は、判定処理J2BにおけるステップS221の判定条件と同じであり、簡易判定処理J1におけるステップS203の判定条件は、判定処理J2AにおけるステップS213の判定条件および判定処理J2BにおけるステップS222の判定条件と同じである。これにより、画像処理装置1では、これらの判定条件を満たさない場合には、判定処理J2A,J2Bを行うまでもなく、簡易判定処理J1において判定することができるので、処理部20における処理量を少なくすることができる。 Further, in the image processing device 1, the simple determination process J1 is performed before the determination processes J2A and J2B. The judgment condition of step S201 in the simple judgment process J1 is the same as the judgment condition of step S221 in the judgment process J2B, and the judgment condition of step S203 in the simple judgment process J1 is the judgment condition and judgment process of step S213 in the judgment process J2A. It is the same as the determination condition of step S222 in J2B. As a result, when the image processing apparatus 1 does not satisfy these determination conditions, the simple determination process J1 can make a determination without performing the determination processes J2A and J2B, so that the processing amount in the processing unit 20 can be determined. Can be reduced.

また、画像処理装置1では、簡易判定処理J1において、複数の画像領域Rにおいて物体の距離値Zmeasに連続性がないことを含む複数の判定条件を満たす場合に、判定処理J2A,J2Bを行うようにした。すなわち、画像領域Rにおける物体が雪の粒や雨粒などの降下物である場合には、軌跡間で距離値Zmeasが異なるため、距離値Zmeasに連続性がないことが予想されるので、画像処理装置1では、物体の距離値Zmeasに連続性がないかどうかを判定するようにした。これにより、画像処理装置1では、簡易判定処理J1における複数の判定条件を満たす場合に、より詳細な判定処理J2A,J2Bを行い、その判定結果に応じて、雪の粒や雨粒などの降下物についての複数の画像領域Rが結合されないようにすることができるので、適切に画像処理を行うことができる。 Further, in the image processing device 1, in the simple determination process J1, the determination processes J2A and J2B are performed when a plurality of determination conditions including the fact that the distance values Zmeas of the objects are not continuous in the plurality of image areas R are satisfied. I made it. That is, when the object in the image region R is a descent such as a snow grain or a raindrop, the distance value Zmeas is different between the loci, and it is expected that the distance value Zmeas is not continuous. Therefore, image processing is performed. In the device 1, it is determined whether or not the distance value Zmeas of the object has continuity. As a result, the image processing device 1 performs more detailed determination processes J2A and J2B when a plurality of determination conditions in the simple determination process J1 are satisfied, and according to the determination result, fallout such as snow particles and raindrops. Since it is possible to prevent the plurality of image regions R of the above from being combined, image processing can be appropriately performed.

[効果]
以上のように本実施の形態では、判定処理J2Aにおいて、複数の画像領域のそれぞれにおいて、物体の垂直方向の実サイズがしきい値TCより小さいことを含む複数の判定条件を満たす場合に、領域結合処理Jを回避するようにしたので、適切に画像処理を行うことができる。
[effect]
As described above, in the present embodiment, in the determination process J2A, when a plurality of determination conditions including the fact that the actual size of the object in the vertical direction in the vertical direction is smaller than the threshold value TC are satisfied in each of the plurality of image regions, the region Since the combination processing J is avoided, the image processing can be appropriately performed.

本実施の形態では、判定処理J2Bにおいて、複数の画像領域の間の水平方向の離隔距離を示す距離値がしきい値TFより大きいことを含む複数の判定条件を満たす場合に、領域結合処理Jを回避するようにしたので、適切に画像処理を行うことができる。 In the present embodiment, in the determination process J2B, when a plurality of determination conditions including that the distance value indicating the horizontal separation distance between the plurality of image regions is larger than the threshold value TF are satisfied, the region combination process J Since the above is avoided, image processing can be performed appropriately.

本実施の形態では、簡易判定処理J1において、複数の画像領域において物体の距離値に連続性がないことを含む複数の判定条件を満たす場合に、判定処理J2A,J2Bを行うようにしたので、適切に画像処理を行うことができる。 In the present embodiment, in the simple determination process J1, the determination processes J2A and J2B are performed when a plurality of determination conditions including the fact that the distance values of the objects are not continuous in the plurality of image regions are satisfied. Image processing can be performed appropriately.

以上、実施の形態を挙げて本技術を説明したが、本技術はこれらの実施の形態等には限定されず、種々の変形が可能である。 Although the present technology has been described above with reference to the embodiments, the present technology is not limited to these embodiments and can be modified in various ways.

例えば、上記実施の形態では、図6に示したように、結合処理部23は、判定処理J2Aを行い(ステップS103)、この判定処理J2Aの3つの判定条件のうちの少なくともいずれかを満たさない場合(ステップS104において“N”)に、判定処理J2Bを行う(ステップS105)ようにしたが、これに限定されるものではない。これに代えて、例えば、結合処理部23は、図15に示したように、判定処理J2Bを行い(ステップS113)、この判定処理J2Bの4つの判定条件のうちの少なくとも1つを満たさない場合(ステップS114において“N”)に、判定処理J2Aを行う(ステップS115)ようにしてもよい。そして、結合処理部23は、この判定処理J2Aの3つの判定条件のすべてを満たす場合(ステップS116において“Y”)に、物体が降下物であると判定し(ステップS107)、この判定処理J2Aの3つの判定条件の少なくとも1つを満たさない場合(ステップS116において“N”)に、物体は降下物ではないと判定してもよい(ステップS108)。 For example, in the above embodiment, as shown in FIG. 6, the coupling processing unit 23 performs the determination processing J2A (step S103) and does not satisfy at least one of the three determination conditions of the determination processing J2A. In the case (“N” in step S104), the determination process J2B is performed (step S105), but the present invention is not limited to this. Instead, for example, when the coupling processing unit 23 performs the determination processing J2B (step S113) as shown in FIG. 15 and does not satisfy at least one of the four determination conditions of the determination processing J2B. The determination process J2A may be performed (step S115) in (“N” in step S114). Then, when all three determination conditions of the determination process J2A are satisfied (“Y” in step S116), the coupling processing unit 23 determines that the object is a fallout (step S107), and determines that the object is a fallout (step S107). If at least one of the three determination conditions is not satisfied (“N” in step S116), it may be determined that the object is not fallout (step S108).

また、例えば、上記の実施の形態では、簡易判定処理J1において3つの判定条件を設けたが、これに限定されるものではなく、これに代えて、例えば2つ以下の判定条件を設けてもよいし、4つ以上の判定条件を設けてもよい。同様に、上記の実施の形態では、判定処理J2Aにおいて3つの判定条件を設けたが、これに限定されるものではなく、これに代えて、例えば2つ以下の判定条件を設けてもよいし、4つ以上の判定条件を設けてもよい。同様に、上記の実施の形態では、判定処理J2Bにおいて4つの判定条件を設けたが、これに限定されるものではなく、これに代えて、例えば4つ以下の判定条件を設けてもよいし、5つ以上の判定条件を設けてもよい。 Further, for example, in the above embodiment, three determination conditions are provided in the simple determination process J1, but the present invention is not limited to this, and instead, for example, two or less determination conditions may be provided. Alternatively, four or more determination conditions may be provided. Similarly, in the above-described embodiment, the determination process J2A is provided with three determination conditions, but the present invention is not limited to this, and instead, for example, two or less determination conditions may be provided. Four or more determination conditions may be provided. Similarly, in the above embodiment, four determination conditions are provided in the determination process J2B, but the present invention is not limited to this, and instead, for example, four or less determination conditions may be provided. Five or more determination conditions may be provided.

また、例えば、上記実施の形態では、ステレオカメラ11が車両10の前方を撮像するようにしたが、これに限定されるものではなく、例えば、車両10の側方や後方を撮像してもよい。 Further, for example, in the above embodiment, the stereo camera 11 images the front of the vehicle 10, but the present invention is not limited to this, and for example, the side or the rear of the vehicle 10 may be imaged. ..

なお、本明細書中に記載された効果はあくまで例示であって限定されるものではなく、また、他の効果があってもよい。 It should be noted that the effects described in the present specification are merely examples and are not limited, and other effects may be obtained.

1…画像処理装置、10…車両、11…ステレオカメラ、11L…左カメラ、11R…右カメラ、20…処理部、21…距離画像生成部、22…画像領域設定部、23…結合処理部、100,121〜123…軌跡、A…距離点、J…領域結合処理、J1…簡易判定処理、J2A,J2B…判定処理、PIC…ステレオ画像、PL…左画像、PR…右画像、PZ…距離画像、R,R1,R2,R21〜R23…画像領域、TA〜TF…しきい値、Zmeas…距離値。 1 ... image processing device, 10 ... vehicle, 11 ... stereo camera, 11L ... left camera, 11R ... right camera, 20 ... processing unit, 21 ... distance image generation unit, 22 ... image area setting unit, 23 ... combination processing unit, 100, 121-123 ... Trajectory, A ... Distance point, J ... Area combination processing, J1 ... Simple judgment processing, J2A, J2B ... Judgment processing, PIC ... Stereo image, PL ... Left image, PR ... Right image, PZ ... Distance Image, R, R1, R2, R21 to R23 ... Image area, TA to TF ... Threshold, Zmeas ... Distance value.

Claims (11)

ステレオ画像において、第1の物体の画像を含む第1の画像領域および第2の物体の画像を含む第2の画像領域を設定する画像領域設定部と、
前記第1の画像領域および前記第2の画像領域を結合する結合処理を行うことが可能であり、前記ステレオ画像および前記ステレオ画像に基づいて生成された距離画像に基づいて、前記第1の物体の垂直方向の実サイズである第1の実サイズ、および前記第2の物体の垂直方向の実サイズである第2の実サイズを算出し、前記第1の実サイズおよび前記第2の実サイズが第1のしきい値より小さいことを含む第1の条件を満たす場合に、前記結合処理を回避する結合処理部と
を備えた画像処理装置。
In a stereo image, an image area setting unit that sets a first image area including an image of a first object and a second image area including an image of a second object, and an image area setting unit.
It is possible to perform a combining process for combining the first image region and the second image region, and based on the stereo image and the distance image generated based on the stereo image, the first object. The first actual size, which is the actual size in the vertical direction, and the second actual size, which is the actual size in the vertical direction of the second object, are calculated, and the first actual size and the second actual size are calculated. An image processing apparatus including a coupling processing unit that avoids the coupling processing when the first condition including that is smaller than the first threshold value is satisfied.
前記距離画像は、各画素での距離値を含み、
前記結合処理部は、前記距離画像における、前記第1の画像領域での前記第1の物体に係る前記画素の数を第1の距離点数として算出するとともに、前記第2の画像領域での前記第2の物体に係る前記画素の数を第2の距離点数として算出し、
前記第1の条件は、前記第1の距離点数および前記第2の距離点数が第2のしきい値より小さいことを含む
請求項1に記載の画像処理装置。
The distance image includes a distance value at each pixel.
The combination processing unit calculates the number of pixels related to the first object in the first image region in the distance image as a first distance point, and also calculates the number of pixels in the second image region. The number of the pixels related to the second object is calculated as the second distance point, and the number is calculated.
The image processing apparatus according to claim 1, wherein the first condition includes the first distance points and the second distance points smaller than the second threshold value.
前記距離画像は、各画素での距離値を含み、
前記結合処理部は、前記ステレオ画像および前記距離画像に基づいて、前記距離画像における前記第1の画像領域での複数の前記距離値の正確度の合計値である第1の合計値を算出するとともに、前記第2の画像領域での複数の前記距離値の正確度の合計値である第2の合計値を算出し、
前記第1の条件は、前記第1の合計値および前記第2の合計値が第3のしきい値よりも小さいことを含む
請求項1または請求項2に記載の画像処理装置。
The distance image includes a distance value at each pixel.
Based on the stereo image and the distance image, the combination processing unit calculates a first total value which is a total value of the accuracy of a plurality of the distance values in the first image region in the distance image. At the same time, a second total value, which is the total value of the accuracy of the plurality of distance values in the second image region, is calculated.
The image processing apparatus according to claim 1 or 2, wherein the first condition includes that the first total value and the second total value are smaller than the third threshold value.
前記結合処理部は、前記第1の物体と前記第2の物体との間の水平方向の離隔距離を示す距離値を算出し、前記距離値が第4のしきい値より大きいことを含む第2の条件を満たす場合に、前記結合処理を回避する
請求項1に記載の画像処理装置。
The coupling processing unit calculates a distance value indicating a horizontal separation distance between the first object and the second object, and includes that the distance value is larger than a fourth threshold value. The image processing apparatus according to claim 1, wherein the coupling process is avoided when the condition of 2 is satisfied.
前記距離画像は、各画素での距離値を含み、
前記結合処理部は、前記距離画像における前記第1の画像領域での複数の前記距離値の正確度、および前記第2の画像領域での複数の前記距離値の正確度に基づいて前記第4のしきい値を設定する
請求項4に記載の画像処理装置。
The distance image includes a distance value at each pixel.
The combination processing unit is based on the accuracy of the plurality of distance values in the first image region in the distance image and the accuracy of the plurality of distance values in the second image region. The image processing apparatus according to claim 4, wherein the threshold value is set.
前記ステレオ画像を生成する撮像部は車両に搭載され、
前記結合処理部は、前記ステレオ画像および前記距離画像に基づいて、前記車両が走行する走行路の路面からの前記第1の物体の高さを示す第1の高さ値、および前記路面からの前記第2の物体の高さを示す第2の高さ値を算出し、
前記第2の条件は、前記第1の高さ値および前記第2の高さ値が第5のしきい値より大きいことを含む
請求項4または請求項5に記載の画像処理装置。
The imaging unit that generates the stereo image is mounted on the vehicle and
Based on the stereo image and the distance image, the coupling processing unit has a first height value indicating the height of the first object from the road surface of the traveling road on which the vehicle travels, and a first height value from the road surface. A second height value indicating the height of the second object is calculated.
The image processing apparatus according to claim 4 or 5, wherein the second condition includes that the first height value and the second height value are larger than the fifth threshold value.
前記距離画像は、各画素での距離値を含み、
前記結合処理部は、前記ステレオ画像および前記距離画像に基づいて、前記距離画像における前記第1の画像領域での複数の前記距離値の正確度の合計値である第1の合計値を算出するとともに、前記第2の画像領域での複数の前記距離値の正確度の合計値である第2の合計値を算出し、
前記第2の条件は、前記第1の合計値および前記第2の合計値が第3のしきい値よりも小さいことを含む
請求項4から請求項6のいずれか一項に記載の画像処理装置。
The distance image includes a distance value at each pixel.
Based on the stereo image and the distance image, the combination processing unit calculates a first total value which is a total value of the accuracy of a plurality of the distance values in the first image region in the distance image. At the same time, a second total value, which is the total value of the accuracy of the plurality of distance values in the second image region, is calculated.
The image processing according to any one of claims 4 to 6, wherein the second condition includes that the first total value and the second total value are smaller than the third threshold value. apparatus.
前記第2の条件は、前記第1の画像領域の幅および前記第2の画像領域の幅が第6のしきい値よりも小さいことを含む
請求項4から請求項7のいずれか一項に記載の画像処理装置。
The second condition is any one of claims 4 to 7, which includes that the width of the first image area and the width of the second image area are smaller than the sixth threshold value. The image processing apparatus described.
前記距離画像は、各画素での距離値を含み、
前記結合処理部は、前記第1の画像領域に含まれる前記第1の物体の画像および前記第2の画像領域に含まれる前記第2の物体の画像での複数の前記距離値に連続性がないことを含む第3の条件を満たす場合に、前記第1の条件および前記第2の条件を満たすかどうかを判定する
請求項4から請求項8のいずれか一項に記載の画像処理装置。
The distance image includes a distance value at each pixel.
The coupling processing unit has continuity in the plurality of distance values in the image of the first object included in the first image region and the image of the second object included in the second image region. The image processing apparatus according to any one of claims 4 to 8, which determines whether or not the first condition and the second condition are satisfied when the third condition including the absence is satisfied.
前記第1の物体および前記第2の物体のそれぞれは、降下物である
請求項1から請求項9のいずれか一項に記載の画像処理装置。
The image processing apparatus according to any one of claims 1 to 9, wherein each of the first object and the second object is a fallout.
前記降下物は、雪である
請求項10に記載の画像処理装置。
The image processing device according to claim 10, wherein the fallout is snow.
JP2019213119A 2019-11-26 2019-11-26 Image processing device Active JP7406962B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019213119A JP7406962B2 (en) 2019-11-26 2019-11-26 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019213119A JP7406962B2 (en) 2019-11-26 2019-11-26 Image processing device

Publications (2)

Publication Number Publication Date
JP2021086265A true JP2021086265A (en) 2021-06-03
JP7406962B2 JP7406962B2 (en) 2023-12-28

Family

ID=76087744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019213119A Active JP7406962B2 (en) 2019-11-26 2019-11-26 Image processing device

Country Status (1)

Country Link
JP (1) JP7406962B2 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10283477A (en) * 1997-04-04 1998-10-23 Fuji Heavy Ind Ltd Outer-vehicle monitoring device
JP2001331788A (en) * 2000-05-22 2001-11-30 Mitsubishi Electric Corp Vehicle detector
JP2007264717A (en) * 2006-03-27 2007-10-11 Fuji Heavy Ind Ltd Lane deviation decision device, lane deviation prevention device and lane follow-up supporting device
JP2014096005A (en) * 2012-11-08 2014-05-22 Hitachi Automotive Systems Ltd Object detection device and object detection method
JP2014235750A (en) * 2013-06-03 2014-12-15 株式会社リコー Target detection method and target detection device
JP2015184891A (en) * 2014-03-24 2015-10-22 株式会社日本自動車部品総合研究所 Travel compartment line recognition apparatus and travel compartment line recognition program
JP2016191988A (en) * 2015-03-30 2016-11-10 富士重工業株式会社 Outside-vehicle environment recognition device
JP2017016331A (en) * 2015-06-30 2017-01-19 日立オートモティブシステムズ株式会社 Object detection apparatus
JP2018092604A (en) * 2016-11-25 2018-06-14 株式会社リコー Information processing device, imaging device, apparatus control system, movable body, information processing method, and program
JP2019114150A (en) * 2017-12-25 2019-07-11 株式会社Subaru Extravehicular environment recognition device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4956453B2 (en) 2008-01-25 2012-06-20 富士重工業株式会社 Object detection device
JP5180126B2 (en) 2009-03-24 2013-04-10 富士重工業株式会社 Road recognition device
JP5693994B2 (en) 2011-02-16 2015-04-01 富士重工業株式会社 Vehicle detection device
EP3422289A4 (en) 2016-02-23 2019-02-27 Ricoh Company, Ltd. Image processing device, imaging device, mobile entity apparatus control system, image processing method, and program
EP3422290A4 (en) 2016-02-23 2019-02-27 Ricoh Company, Ltd. Image processing device, imaging device, system for controlling mobile body, image processing method, and program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10283477A (en) * 1997-04-04 1998-10-23 Fuji Heavy Ind Ltd Outer-vehicle monitoring device
JP2001331788A (en) * 2000-05-22 2001-11-30 Mitsubishi Electric Corp Vehicle detector
JP2007264717A (en) * 2006-03-27 2007-10-11 Fuji Heavy Ind Ltd Lane deviation decision device, lane deviation prevention device and lane follow-up supporting device
JP2014096005A (en) * 2012-11-08 2014-05-22 Hitachi Automotive Systems Ltd Object detection device and object detection method
JP2014235750A (en) * 2013-06-03 2014-12-15 株式会社リコー Target detection method and target detection device
JP2015184891A (en) * 2014-03-24 2015-10-22 株式会社日本自動車部品総合研究所 Travel compartment line recognition apparatus and travel compartment line recognition program
JP2016191988A (en) * 2015-03-30 2016-11-10 富士重工業株式会社 Outside-vehicle environment recognition device
JP2017016331A (en) * 2015-06-30 2017-01-19 日立オートモティブシステムズ株式会社 Object detection apparatus
JP2018092604A (en) * 2016-11-25 2018-06-14 株式会社リコー Information processing device, imaging device, apparatus control system, movable body, information processing method, and program
JP2019114150A (en) * 2017-12-25 2019-07-11 株式会社Subaru Extravehicular environment recognition device

Also Published As

Publication number Publication date
JP7406962B2 (en) 2023-12-28

Similar Documents

Publication Publication Date Title
US11315348B2 (en) Vehicular vision system with object detection
JP4882571B2 (en) Vehicle monitoring device
JP4856656B2 (en) Vehicle detection device
US11288833B2 (en) Distance estimation apparatus and operating method thereof
JP5810773B2 (en) Rear video display device for motorcycles
JP2017200182A (en) Topographic visualization for vehicle and vehicle driver
JP2016115305A (en) Object detection apparatus, object detection system, object detection method, and program
JP6139465B2 (en) Object detection device, driving support device, object detection method, and object detection program
JP2014157429A (en) Travel support device for vehicle
WO2016056196A1 (en) Image generation device and image generation method
JP2011065219A (en) Device for estimation of road curvature
JP2009053818A (en) Image processor and method thereof
JP6152261B2 (en) Car parking frame recognition device
JP2018092602A (en) Information processing device, imaging apparatus, apparatus control system, mobile body, information processing method, and information processing program
JP2021086265A (en) Image processing device
JP5411671B2 (en) Object detection device and driving support system
JP2018148345A (en) On-vehicle camera system, adhered matter detecting apparatus, adhered matter removing method, and adhered matter detecting program
JP3807253B2 (en) Traveling path detection device
US20040215383A1 (en) Driving support apparatus
WO2015176933A1 (en) Method for determining a respective boundary of at least one object, sensor device, driver assistance device and motor vehicle
JP6941949B2 (en) Vehicle image display device
CN110945866B (en) Vehicle surrounding image display device and vehicle surrounding image display method
JP2017149397A (en) Parking support device and parking support method
JP2016162172A (en) Vehicle controller and method for controlling vehicle
JP6584862B2 (en) Object detection apparatus, object detection system, object detection method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231218

R150 Certificate of patent or registration of utility model

Ref document number: 7406962

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150