CN111819472A - 雾确定装置、雾确定方法和雾确定程序 - Google Patents

雾确定装置、雾确定方法和雾确定程序 Download PDF

Info

Publication number
CN111819472A
CN111819472A CN201880090354.6A CN201880090354A CN111819472A CN 111819472 A CN111819472 A CN 111819472A CN 201880090354 A CN201880090354 A CN 201880090354A CN 111819472 A CN111819472 A CN 111819472A
Authority
CN
China
Prior art keywords
fog
image data
reflection point
sensor
smoothness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201880090354.6A
Other languages
English (en)
Other versions
CN111819472B (zh
Inventor
广井公彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of CN111819472A publication Critical patent/CN111819472A/zh
Application granted granted Critical
Publication of CN111819472B publication Critical patent/CN111819472B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W1/00Meteorology
    • G01W1/02Instruments for indicating weather conditions by measuring two or more variables, e.g. humidity, pressure, temperature, cloud cover or wind speed
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/95Lidar systems specially adapted for specific applications for meteorological use
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Environmental & Geological Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Environmental Sciences (AREA)
  • Software Systems (AREA)
  • Ecology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Atmospheric Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)
  • Image Analysis (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

点数据取得部(21)取得表示由光传感器(41)得到的反射点的点数据,该光传感器(41)接收放射出的光束由反射点反射后的反射光。图像数据取得部(22)取得点数据所示的反射点周边的图像数据。亮度计算部(23)计算图像数据的亮度的平滑度。雾确定部(24)根据由点数据确定的从光传感器(41)到反射点的距离、以及亮度的平滑度,确定雾的浓度。

Description

雾确定装置、雾确定方法和雾确定程序
技术领域
本发明涉及确定雾的浓度的技术。
背景技术
在专利文献1中记载有判定是否在车辆的周边产生雾的技术。
在专利文献1中,在通过前照灯照射出照射光的情况下,根据拍摄车辆前方而得到的图像中的未照射照射光的区域的明亮度差异,判定是否产生雾。具体而言,在未产生雾时,未照射照射光的区域的明亮度降低。与此相对,在产生雾时,照射光被雾的粒子反射,因此,明亮度从图像的内侧朝向外侧逐渐提高。在专利文献1中,利用该特性判定是否产生雾。
现有技术文献
专利文献
专利文献1:日本特开2008-033872号公报
发明内容
发明要解决的课题
在专利文献1记载的技术中,以前照灯的照射为前提,如果没有一定的暗度,则无法判定是否产生雾。
在本发明中,其目的在于,能够与有无前照灯的照射无关地确定雾的浓度。
用于解决课题的手段
本发明的雾确定装置具有:点数据取得部,其取得表示由光传感器得到的反射点的点数据,所述光传感器接收放射出的光束由所述反射点反射后的反射光;图像数据取得部,其取得由所述点数据取得部取得的所述点数据所示的所述反射点周边的图像数据;亮度计算部,其计算由所述图像数据取得部取得的所述图像数据的亮度的平滑度;以及雾确定部,其根据由所述点数据确定的从所述光传感器到所述反射点的距离、以及由所述亮度计算部计算出的所述亮度的平滑度,确定雾的浓度。
发明效果
在本发明中,根据由通过光传感器得到的点数据确定的距离以及图像数据的亮度的平滑度确定雾的浓度。因此,能够与有无前照灯的照射无关地确定雾的浓度。
附图说明
图1是实施方式1的雾确定装置10的结构图。
图2是示出实施方式1的雾确定装置10的整体动作的流程图。
图3是实施方式1的图像数据取得处理的说明图。
图4是实施方式1的亮度计算处理的说明图。
图5是实施方式1的基准值存储部31中存储的信息的说明图。
图6是变形例1的基准值存储部31中存储的信息的说明图。
图7是变形例2的雾确定装置10的结构图。
图8是实施方式2的雾确定装置10的结构图。
图9是示出实施方式2的雾确定装置10的整体动作的流程图。
图10是实施方式2的阈值设定处理的说明图。
图11是实施方式3的雾确定装置10的结构图。
图12是示出实施方式3的雾确定装置10的整体动作的流程图。
图13是实施方式3的可信度存储部32中存储的信息的说明图。
图14是变形例5的雾确定装置10的结构图。
图15是示出变形例5的雾确定装置10的整体动作的流程图。
具体实施方式
实施方式1
***结构的说明***
参照图1对实施方式1的雾确定装置10的结构进行说明。
雾确定装置10是搭载于移动体100的ECU(Electronic Control Unit:电子控制单元)这样的计算机。
在实施方式1中,移动体100是车辆。但是,移动体100不限于车辆,也可以是船和飞机这样的其他类别。雾确定装置10可以以与移动体100或图示的其他结构要素一体化的方式或不可分离的方式进行安装,或者,也可以以可拆卸的方式或可分离的方式进行安装。
雾确定装置10具有处理器11、内存12、存储器13、通信接口14这样的硬件。处理器11经由信号线而与其他硬件连接,对这些其他硬件进行控制。
处理器11是进行处理的IC(Integrated Circuit:集成电路)。作为具体例,处理器11例如是CPU(Central Processing Unit:中央处理单元)、DSP(Digital SignalProcessor:数字信号处理器)、GPU(Graphics Processing Unit:图形处理单元)。
内存12是暂时存储数据的存储装置。作为具体例,内存12是SRAM(Static RandomAccess Memory:静态随机存取存储器)、DRAM(Dynamic Random Access Memory:动态随机存取存储器)。
存储器13是保管数据的存储装置。作为具体例,存储器13是HDD(Hard DiskDrive:硬盘驱动器)。此外,存储器13也可以是SD(注册商标、Secure Digital:安全数字)存储卡、CF(CompactFlash,注册商标)、NAND闪存、软盘、光盘、高密度盘、蓝光(注册商标)盘、DVD(Digital Versatile Disk:数字多功能盘)这样的移动记录介质。
通信接口14是用于与外部的装置进行通信的接口。作为具体例,通信接口14是Ethernet(注册商标)、USB(Universal Serial Bus:通用串行总线)、HDMI(注册商标、High-Definition Multimedia Interface:高清晰度多媒体接口)的端口。
通信接口14与搭载于移动体100的光传感器41和摄像机42连接。
光传感器41是放射光的束即光束且接收放射出的光束由反射点反射后的反射光的装置。作为具体例,光传感器41是LiDAR(Light Detection and Ranging:激光雷达)。在实施方式1中,设光传感器41向移动体100的移动方向前方放射光束。
摄像机42是拍摄移动体100周边而生成图像数据的装置。在实施方式1中,设摄像机42拍摄移动体100的移动方向前方。
作为功能结构要素,雾确定装置10具有点数据取得部21、图像数据取得部22、亮度计算部23和雾确定部24。雾确定装置10的各功能结构要素的功能通过软件实现。
在存储器13中存储有实现雾确定装置10的各功能结构要素的功能的程序。该程序由处理器11读入到内存12,由处理器11执行。由此,实现雾确定装置10的各功能结构要素的功能。
此外,存储器13实现基准值存储部31的功能。
在图1中,仅示出一个处理器11。但是,处理器11也可以是多个,多个处理器11可以协作执行实现各功能的程序。
***动作的说明***
参照图2~图5对实施方式1的雾确定装置10的动作进行说明。
实施方式1的雾确定装置10的动作相当于实施方式1的雾确定方法。此外,实施方式1的雾确定装置10的动作相当于实施方式1的雾确定程序的处理。
参照图2对实施方式1的雾确定装置10的整体动作进行说明。
(步骤S11:点数据取得处理)
点数据取得部21经由通信接口14取得表示由光传感器41得到的反射点的点数据的集合,该光传感器41接收放射出的光束由反射点反射后的反射光。点数据取得部21将取得的点数据的集合写入内存12中。在实施方式1中,点数据表示针对从光传感器41放射出的某个光束的反射光的强度最强的反射点。
(步骤S12:图像数据取得处理)
图像数据取得部22取得在步骤S11中取得的集合中包含的点数据所示的反射点周边的图像数据。
参照图3进行具体说明。图像数据取得部22经由通信接口14取得由摄像机42生成的图像数据51。图像数据取得部22将集合中包含的点数据投影到取得的图像数据51。图像数据取得部22切出被投影的反射点周边的一部分图像数据52。图像数据取得部22以在水平方向和垂直方向至少包含基准数以上的像素的方式切出图像数据52。图像数据取得部22将切出的图像数据52写入内存12中。
(步骤S13:亮度计算处理)
亮度计算部23计算在步骤S13中取得的图像数据的亮度的平滑度
参照图4进行具体说明。亮度计算部23从内存12读出图像数据。亮度计算部23将图像数据的水平方向的各行作为对象,计算针对对象行的像素的亮度进行平滑化后进行亮度的二次微分计算而得到的值的绝对值。然后,亮度计算部23计算针对图像数据的水平方向的各行计算出的绝对值的总和作为图像数据的亮度的平滑度。亮度计算部23将计算出的亮度的平滑度写入内存12中。
另外,绝对值的总和越小,则亮度的平滑度越高。即,图像数据的纹理越少。如图4所示,在产生雾的情况下,与未产生雾的情况相比,存在亮度的平滑度变高的倾向。
(步骤S14:雾确定处理)
雾确定部24根据由在步骤S11中取得的集合中包含的点数据确定的从光传感器41到反射点的距离、以及在步骤S13中计算出的亮度的平滑度,确定雾的浓度。
具体而言,雾确定部24参照基准值存储部31中存储的基准值。如图5所示,在实施方式1中,在基准值存储部31中,按照每个距离存储有基准值。雾确定部24对与从光传感器41到反射点的距离对应的基准值和亮度的平滑度进行比较,判定是否产生一定浓度以上的雾。即,雾确定部24在亮度的平滑度的值低于基准值的情况下,换言之,比基准值所示的平滑度平滑的情况下,判定为产生雾。另一方面,雾确定部24在亮度的平滑度的值为基准值以上的情况下,换言之,是基准值所示的平滑度以下的平滑度的情况下,判定为未产生雾。
关于基准值,距离越近,则存储越大的值。即,从光传感器41到反射点的距离越近,即使在亮度的平滑度较低的情况下,也越容易判定为产生雾。这是因为,距离越远,建筑物和车辆这样的立体物的亮度也越平滑。每个距离的基准值通过实验求出即可。
***实施方式1的效果***
如上所述,实施方式1的雾确定装置10根据与反射点之间的距离以及反射点周围的图像数据的亮度的平滑度,确定雾的浓度。由此,能够与有无前照灯的照射无关地确定雾的浓度。即,在白天那样具有某种程度的明亮度的状态下,也能够确定雾的浓度。
***其他结构***
<变形例1>
在实施方式1中,雾确定部24判定是否产生一定浓度以上的雾。但是,雾确定部24也可以确定移动体100周围的状态是多个阶段的雾的浓度中的哪种浓度。
该情况下,如图6所示,在基准值存储部31中,关于各雾的浓度,按照每个距离存储基准值。在图6中,关于视程为15m的雾、视程为30m的雾、视程为50m的雾,存储每个距离的基准值。而且,雾确定部24对与各雾的浓度有关的与从光传感器41到反射点的距离对应的基准值和亮度的平滑度进行比较,确定雾的浓度。
具体而言,在亮度比与视程为15m的雾有关的基准值平滑的情况下,雾确定部24确定为产生视程为15m的雾。此外,在亮度是与视程为15m的雾有关的基准值以下的平滑度且比视程为30m的基准值平滑的情况下,雾确定部24确定为产生视程为30m的雾。此外,在亮度是与视程为30m的雾有关的基准值以下的平滑度且比视程为50m的基准值平滑的情况下,雾确定部24确定为产生视程为50m的雾。此外,在亮度是与视程为50m的雾有关的基准值以下的平滑度的情况下,雾确定部24确定为未产生雾。
雾越浓,则各距离的基准值越低。即,各距离的基准值成为雾越浓则表示越平滑的值。
<变形例2>
在实施方式1中,各功能结构要素通过软件实现。但是,作为变形例2,各功能结构要素也可以通过硬件实现。关于该变形例2,对与实施方式1不同之处进行说明。
参照图7对变形例2的雾确定装置10的结构进行说明。
在各功能结构要素通过硬件实现的情况下,雾确定装置10代替处理器11、内存12和存储器13而具有电子电路15。电子电路15是实现各功能结构要素、内存12和存储器13的功能的专用电路。
作为电子电路15,假设是单一电路、复合电路、程序化的处理器、并行程序化的处理器、逻辑IC、GA(Gate Array:门阵列)、ASIC(Application Specific IntegratedCircuit:面向特定用途的集成电路)、FPGA(Field-Programmable Gate Array:现场可编程门阵列)。
可以通过一个电子电路15实现各功能结构要素,也可以使多个电子电路15分散实现各功能结构要素。
<变形例3>
作为变形例3,也可以是一部分的各功能结构要素通过硬件实现,其他各功能结构要素通过软件实现。
将处理器11、内存12、存储器13和电子电路15称作处理电路。即,各功能结构要素的功能通过处理电路实现。
<变形例4>
在实施方式1中,雾确定装置10通过一个ECU这样的计算机实现。但是,雾确定装置10也可以通过多个ECU这样的计算机实现。
实施方式2
实施方式2与实施方式1~3的不同之处在于,根据已确定的雾的浓度来设定用于识别障碍物的传感器的传感器阈值。在实施方式2中,对该不同之处进行说明,省略相同之处的说明。
***结构的说明***
参照图8对实施方式2的雾确定装置10的结构进行说明。
雾确定装置10与实施方式1~3的不同之处在于,具有识别部25和阈值设定部26。
***动作的说明***
参照图9和图10对实施方式2的雾确定装置10的动作进行说明。
实施方式2的雾确定装置10的动作相当于实施方式2的雾确定方法。此外,实施方式2的雾确定装置10的动作相当于实施方式2的雾确定程序的处理。
参照图9对实施方式2的雾确定装置10的整体动作进行说明。
步骤S21是实施方式1中说明的确定雾的浓度的处理。
(步骤S22:阈值设定处理)
阈值设定部26根据在步骤S21中确定的雾的浓度,设定用于识别障碍物的传感器的传感器阈值。
参照图10对具体例进行说明。
在图10中,示出使用摄像机作为传感器来识别车辆的尾灯的情况。
在使用摄像机识别尾灯的情况下,使用在YUV数据的UV平面中线性地识别尾灯和其他部分的边界线作为传感器阈值。因此,阈值设定部26根据雾的浓度设定该边界线。边界线表示为V=a·U+b。因此,阈值设定部26根据雾的浓度设定a、b的值。
如图10所示,阈值设定部26在未产生雾的情况下,较高地设定作为传感器阈值的边界线,以防止尾灯以外的红发光物被误识别为尾灯。另一方面,阈值设定部26在产生雾的情况下,较低地设定作为传感器阈值的边界线,容易将红发光物识别为尾灯。
另外,在图10中,示出产生雾的情况和未产生雾的情况这2种情况下的传感器阈值的设定例。但是,阈值设定部26也可以针对多个阶段的雾的浓度分别设定传感器阈值。该情况下,雾越浓,则越低地设定作为传感器阈值的边界线。
(步骤S23:识别处理)
识别部25使用在步骤S22中设定的传感器阈值识别障碍物。
如果是图10的例子,则识别部25使用在步骤S22中设定的边界线,根据由摄像机得到的图像数据检测尾灯。
***实施方式2的效果***
如上所述,实施方式2的雾确定装置10根据雾的浓度设定传感器阈值。由此,能够适当地识别障碍物。
实施方式3
实施方式3与实施方式1、2的不同之处在于,根据雾的浓度决定为了识别障碍物而使用的传感器。在实施方式3中,对该不同之处进行说明,省略相同之处的说明。
另外,这里,说明对实施方式1附加功能的例子。但是,还能够对实施方式2附加功能。
***结构的说明***
参照图11对实施方式3的雾确定装置10的结构进行说明。
雾确定装置10与实施方式1的不同之处在于,具有识别部25和传感器决定部27。此外,与实施方式1的不同之处在于,存储器13实现可信度存储部32的功能。
***动作的说明***
参照图12和图13对实施方式3的雾确定装置10的动作进行说明。
实施方式3的雾确定装置10的动作相当于实施方式3的雾确定方法。此外,实施方式3的雾确定装置10的动作相当于实施方式3的雾确定程序的处理。
参照图12对实施方式3的雾确定装置10的整体动作进行说明。
步骤S31是实施方式1中说明的确定雾的浓度的处理。
(步骤S32:传感器决定处理)
传感器决定部27根据在步骤S31中确定的雾的浓度,决定为了识别障碍物而使用的传感器。
具体而言,可信度存储部32按照雾的每个浓度,针对搭载于移动体100的各传感器存储每个距离的可信度。如图13所示,在移动体100搭载有摄像机、毫米波雷达和LiDAR作为传感器的情况下,可信度存储部32按照雾的每个浓度,存储摄像机、毫米波雷达和LiDAR的每个距离的可信度。在图13中,示出产生雾时和未产生雾时的每个距离的可信度。各传感器的可信度通过实验求出。
传感器决定部27参照可信度存储部32,决定在步骤S31中确定的雾的浓度的情况下可信度高的传感器,作为为了识别障碍物而使用的传感器。传感器决定部27也可以按照每个距离决定为了识别障碍物而使用的传感器。
例如,传感器决定部27在未产生雾的情况下,决定使用LiDAR和摄像机,在产生雾的情况下,决定使用毫米波雷达和摄像机。
(步骤S33:识别处理)
识别部25使用在步骤S32中决定的传感器识别障碍物。
***实施方式3的效果***
如上所述,实施方式3的雾确定装置10根据雾的浓度,决定为了识别障碍物而使用的传感器。由此,能够适当地识别障碍物。
***其他结构***
<变形例5>
在实施方式3中,对实施方式1附加了功能。但是,也可以对实施方式2附加功能。
该情况下,如图14所示,雾确定装置10在图11所示的功能结构要素的基础上具有阈值设定部26。而且,如图15所示,在步骤S82中传感器决定部27决定要使用的传感器后,在步骤S83中,阈值设定部26决定与已决定的传感器有关的传感器阈值。
另外,步骤S41、步骤S42和步骤S44的处理与图12的步骤S31、步骤S32和步骤S33的处理相同。此外,步骤S43的处理与图9的步骤S22的处理相同。
以上说明了本发明的实施方式和变形例。也可以组合实施这些实施方式和变形例中的若干个实施方式和变形例。此外,也可以部分地实施任意一个或若干个实施方式和变形例。另外,本发明不限于以上的实施方式和变形例,能够根据需要进行各种变更。
标号说明
10:雾确定装置;11:处理器;12:内存;13:存储器;14:通信接口;15:电子电路;21:点数据取得部;22:图像数据取得部;23:亮度计算部;24:雾确定部;25:识别部;26:阈值设定部;27:传感器决定部;31:基准值存储部;41:光传感器;42:摄像机;100:移动体。

Claims (7)

1.一种雾确定装置,该雾确定装置具有:
点数据取得部,其取得表示由光传感器得到的反射点的点数据,所述光传感器接收放射出的光束由所述反射点反射后的反射光;
图像数据取得部,其取得由所述点数据取得部取得的所述点数据所示的所述反射点周边的图像数据;
亮度计算部,其计算由所述图像数据取得部取得的所述图像数据的亮度的平滑度;以及
雾确定部,其根据由所述点数据确定的从所述光传感器到所述反射点的距离、以及由所述亮度计算部计算出的所述亮度的平滑度,确定雾的浓度。
2.根据权利要求1所述的雾确定装置,其中,
所述距离越近,即使所述亮度的平滑度较低,所述雾确定部也确定为雾越浓。
3.根据权利要求1或2所述的雾确定装置,其中,
所述亮度计算部计算针对构成所述图像数据的水平方向的1个以上的行的各像素的亮度进行二次微分计算而得到的值的绝对值的总和,作为表示所述亮度的平滑度的值。
4.根据权利要求1~3中的任意一项所述的雾确定装置,其中,
所述雾确定装置还具有阈值设定部,该阈值设定部根据由所述雾确定部确定的雾的浓度,设定用于识别障碍物的传感器的传感器阈值。
5.根据权利要求1~4中的任意一项所述的雾确定装置,其中,
所述雾确定装置还具有传感器决定部,该传感器决定部根据由所述雾确定部确定的雾的浓度,决定为了识别障碍物而使用的传感器。
6.一种雾确定方法,其中,
点数据取得部取得表示由光传感器得到的反射点的点数据,所述光传感器接收放射出的光束由所述反射点反射后的反射光,
图像数据取得部取得所述点数据所示的所述反射点周边的图像数据,
亮度计算部计算所述图像数据的亮度的平滑度,
雾确定部根据由所述点数据确定的从所述光传感器到所述反射点的距离、以及所述亮度的平滑度,确定雾的浓度。
7.一种雾确定程序,该雾确定程序使计算机执行以下处理:
点数据取得处理,取得表示由光传感器得到的反射点的点数据,所述光传感器接收放射出的光束由所述反射点反射后的反射光;
图像数据取得处理,取得通过所述点数据取得处理取得的所述点数据所示的所述反射点周边的图像数据;
亮度计算处理,计算通过所述图像数据取得处理取得的所述图像数据的亮度的平滑度;以及
雾确定处理,根据由所述点数据确定的从所述光传感器到所述反射点的距离、以及通过所述亮度计算处理计算出的所述亮度的平滑度,确定雾的浓度。
CN201880090354.6A 2018-03-12 2018-03-12 雾确定装置、雾确定方法和计算机能读取的存储介质 Active CN111819472B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/009396 WO2019175920A1 (ja) 2018-03-12 2018-03-12 霧特定装置、霧特定方法及び霧特定プログラム

Publications (2)

Publication Number Publication Date
CN111819472A true CN111819472A (zh) 2020-10-23
CN111819472B CN111819472B (zh) 2022-06-24

Family

ID=67907497

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880090354.6A Active CN111819472B (zh) 2018-03-12 2018-03-12 雾确定装置、雾确定方法和计算机能读取的存储介质

Country Status (5)

Country Link
US (1) US11867870B2 (zh)
JP (1) JP6723492B2 (zh)
CN (1) CN111819472B (zh)
DE (1) DE112018007036B4 (zh)
WO (1) WO2019175920A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112018007029B4 (de) * 2018-03-12 2022-12-08 Mitsubishi Electric Corporation Nebelbestimmungsvorrichtung, Nebelbestimmungsverfahren und Nebelbestimmungsprogramm
WO2019175918A1 (ja) * 2018-03-12 2019-09-19 三菱電機株式会社 霧特定装置、霧特定方法及び霧特定プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6549124B1 (en) * 1999-03-01 2003-04-15 Yazaki Corporation Environment monitoring system for a vehicle with an image pickup device
CN102139674A (zh) * 2011-02-23 2011-08-03 电子科技大学 一种雾天汽车防追尾系统
US20150168556A1 (en) * 2013-04-30 2015-06-18 Google Inc. Methods and Systems for Detecting Weather Conditions Including Fog Using Vehicle Onboard Sensors
CN105190288A (zh) * 2013-03-15 2015-12-23 罗伯特·博世有限公司 用于在白天有雾时确定视距的方法和设备

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4040175C2 (de) 1990-12-15 2000-04-20 Bayerische Motoren Werke Ag Beleuchtungsverfahren
JPH05296766A (ja) 1992-04-16 1993-11-09 Canon Inc 障害物検出装置
JP3669205B2 (ja) 1999-05-17 2005-07-06 日産自動車株式会社 障害物認識装置
US7110021B2 (en) 2002-05-31 2006-09-19 Matsushita Electric Industrial Co., Ltd. Vehicle surroundings monitoring device, and image production method/program
JP3683258B2 (ja) 2002-05-31 2005-08-17 松下電器産業株式会社 車両周辺監視装置、画像生成方法および画像生成プログラム
JP3861781B2 (ja) 2002-09-17 2006-12-20 日産自動車株式会社 前方車両追跡システムおよび前方車両追跡方法
EP1498721A1 (de) 2003-07-15 2005-01-19 ELMOS Semiconductor AG Vorrichtung zur Erkennung von Nebel, insbesondere für ein Fahrzeug
JP4479532B2 (ja) 2005-02-17 2010-06-09 株式会社デンソー 夜間画像による霧検出装置
JP4730267B2 (ja) 2006-07-04 2011-07-20 株式会社デンソー 車両用視界状況判定装置
JP4241834B2 (ja) 2007-01-11 2009-03-18 株式会社デンソー 車載霧判定装置
JP4940458B2 (ja) * 2007-08-10 2012-05-30 本田技研工業株式会社 物体検出装置
JP4980939B2 (ja) 2008-01-22 2012-07-18 富士重工業株式会社 撮像手段の調整装置および物体検出装置
JP5155042B2 (ja) 2008-07-04 2013-02-27 本田技研工業株式会社 車両周辺画像の切替装置
JP5218906B2 (ja) 2008-10-16 2013-06-26 国立大学法人東京農工大学 煙検出装置及び煙検出方法
WO2011107116A1 (en) * 2010-03-04 2011-09-09 Valeo Schalter Und Sensoren Gmbh Method of fog and raindrop detection on a windscreen and driving assistance device
CN102175613B (zh) * 2011-01-26 2012-11-14 南京大学 基于图像亮度特征的ptz视频能见度检测方法
DE102011017649B3 (de) * 2011-04-28 2012-10-11 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erkennung einer Intensität eines Aerosols in einem Sichtfeld einer Kamera eines Fahrzeugs
JP5898535B2 (ja) 2012-03-13 2016-04-06 富士重工業株式会社 撮像ユニットの露光制御装置
US9221461B2 (en) 2012-09-05 2015-12-29 Google Inc. Construction zone detection using a plurality of information sources
US8473144B1 (en) 2012-10-30 2013-06-25 Google Inc. Controlling vehicle lateral lane positioning
JP6058072B2 (ja) 2015-05-29 2017-01-11 三菱電機株式会社 物体識別装置
JP6598660B2 (ja) 2015-12-01 2019-10-30 キヤノン株式会社 画像処理装置および画像処理方法
DE102016116346A1 (de) 2016-09-01 2018-03-01 Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr Verfahren zur quantitativen Bestimmung von einer zeitlichen und räumlichen Verteilung von Lichtstrahlen in einem streuenden Medium
US10254388B2 (en) * 2017-03-28 2019-04-09 Luminar Technologies, Inc. Dynamically varying laser output in a vehicle in view of weather conditions

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6549124B1 (en) * 1999-03-01 2003-04-15 Yazaki Corporation Environment monitoring system for a vehicle with an image pickup device
CN102139674A (zh) * 2011-02-23 2011-08-03 电子科技大学 一种雾天汽车防追尾系统
CN105190288A (zh) * 2013-03-15 2015-12-23 罗伯特·博世有限公司 用于在白天有雾时确定视距的方法和设备
US20150168556A1 (en) * 2013-04-30 2015-06-18 Google Inc. Methods and Systems for Detecting Weather Conditions Including Fog Using Vehicle Onboard Sensors

Also Published As

Publication number Publication date
DE112018007036B4 (de) 2022-12-08
US11867870B2 (en) 2024-01-09
CN111819472B (zh) 2022-06-24
DE112018007036T5 (de) 2020-10-29
JP6723492B2 (ja) 2020-07-15
JPWO2019175920A1 (ja) 2020-06-18
WO2019175920A1 (ja) 2019-09-19
US20210019537A1 (en) 2021-01-21

Similar Documents

Publication Publication Date Title
Almagambetov et al. Robust and computationally lightweight autonomous tracking of vehicle taillights and signal detection by embedded smart cameras
US10688913B2 (en) Light intensity adjustment apparatus, light intensity adjustment method, and computer readable medium
US9152856B2 (en) Pedestrian detection system and method
KR20210006276A (ko) 플리커를 약화시키기 위한 이미지 처리 방법
US20180039843A1 (en) Detecting device, detecting method, and program
CN111819472B (zh) 雾确定装置、雾确定方法和计算机能读取的存储介质
CN110659547A (zh) 物体识别方法、装置、车辆和计算机可读存储介质
Lee et al. Traffic light detection and recognition based on Haar-like features
US11089291B2 (en) Detection method and detection device, electronic device and computer readable storage medium
CN102622594A (zh) 一种基于红外和帧差的近距离目标提取方法
CN111819473B (zh) 雾确定装置、雾确定方法和计算机能读取的存储介质
CN111902737B (zh) 雾确定装置、雾确定方法和计算机能读取的存储介质
JP7155870B2 (ja) 車両検出装置と方法及び電子機器
US10858105B2 (en) Avoiding dazzling of persons by a light source
US11538260B2 (en) Object identification apparatus, object identification method, and nontransitory computer readable medium storing control program
JP7277666B2 (ja) 処理装置
JP6877501B2 (ja) 滞留検知装置、滞留検知方法及び滞留検知プログラム
WO2021084915A1 (ja) 画像認識装置
KR101748083B1 (ko) 야간 환경의 흑백 영상에서 자동차 후방 램프를 활용한 차량 인식 방법 및 장치
WO2018154654A1 (ja) 動体検出装置および動体検出プログラム
KR101658472B1 (ko) 영상 분할 신뢰도 추출 기법을 이용한 표적 분류 장치 및 표적 분류 방법
WO2020035524A1 (en) Object detection based on analysis of a sequence of images
KR20230003953A (ko) 환경 변화 적응형 특징 생성기를 적용한 차량용 경량 딥러닝 처리 장치 및 방법
KR20170104276A (ko) 자동차 번호판 인식 시스템 및 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant