CN111819473A - 雾确定装置、雾确定方法和雾确定程序 - Google Patents
雾确定装置、雾确定方法和雾确定程序 Download PDFInfo
- Publication number
- CN111819473A CN111819473A CN201880090770.6A CN201880090770A CN111819473A CN 111819473 A CN111819473 A CN 111819473A CN 201880090770 A CN201880090770 A CN 201880090770A CN 111819473 A CN111819473 A CN 111819473A
- Authority
- CN
- China
- Prior art keywords
- fog
- mist
- point data
- reflection points
- density
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01W—METEOROLOGY
- G01W1/00—Meteorology
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/04—Systems determining the presence of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/95—Lidar systems specially adapted for specific applications for meteorological use
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
- G06V10/507—Summing image-intensity values; Histogram projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/758—Involving statistics of pixels or of feature values, e.g. histogram matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/763—Non-hierarchical techniques, e.g. based on statistics of modelling distributions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Environmental & Geological Engineering (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Probability & Statistics with Applications (AREA)
- Biodiversity & Conservation Biology (AREA)
- Atmospheric Sciences (AREA)
- Ecology (AREA)
- Environmental Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Traffic Control Systems (AREA)
Abstract
点数据取得部(21)取得由光传感器(41)得到的表示反射点的点数据的集合,该光传感器(41)接收放射出的光束由反射点反射后的反射光。俯瞰由点数据取得部(21)取得的集合中包含的点数据所示的反射点,雾确定部(22)将反射点投影到进深方向和水平方向的平面。该情况下,雾确定部(22)判定反射点是否呈圆弧状分布在光传感器(41)的周边。雾确定部(22)根据判定结果确定雾的浓度。
Description
技术领域
本发明涉及确定雾的浓度的技术。
背景技术
在专利文献1中记载有判定是否在车辆的周边产生雾的技术。
在专利文献1中,向车辆的周边发送电磁波,根据其反射波确定反射点。被确定的多个反射点之间的距离在一定范围内的反射点被分类成一个片段。当在通过第1反射点的片段即第1片段的电磁波的扫描线上存在第2反射点的比率较高的情况下,判定为第1片段是雾。
现有技术文献
专利文献
专利文献1:日本特开2009-42177号公报
发明内容
发明要解决的课题
在专利文献1记载的技术中,在雾较浓的情况下,透过雾的电磁波减少,因此,在通过第1片段的电磁波的扫描线上存在第2反射点的比率降低。因此,很难确定产生雾。
本发明的目的在于,适当地确定雾的浓度。
用于解决课题的手段
本发明的雾确定装置具有:点数据取得部,其取得由光传感器得到的表示反射点的点数据的集合,所述光传感器接收放射出的光束由所述反射点反射后的反射光;以及雾确定部,在俯瞰由所述点数据取得部取得的所述集合中包含的点数据所示的所述反射点的情况下,该雾确定部根据所述反射点是否呈圆弧状分布在所述光传感器的周边,确定雾的浓度。
发明效果
在本发明中,根据反射点是否呈圆弧状分布在光传感器的周边,确定雾的浓度。光传感器的周边的反射点的分布状态根据雾的浓度而变化,因此,能够适当地确定雾的浓度。
附图说明
图1是实施方式1的雾确定装置10的结构图。
图2是示出实施方式1的雾确定装置10的整体动作的流程图。
图3是实施方式1的点数据的说明图。
图4是实施方式1的雾确定处理的流程图。
图5是实施方式1的雾确定处理的说明图。
图6是变形例1的雾确定装置10的结构图。
图7是示出实施方式2的雾确定装置10的整体动作的流程图。
图8是实施方式2的产生雾时的点数据的说明图。
图9是实施方式2的雾确定处理的流程图。
图10是实施方式2的方差计算处理的说明图。
图11是实施方式3的雾确定装置10的结构图。
图12是示出实施方式3的雾确定装置10的整体动作的流程图。
图13是实施方式4的雾确定装置10的结构图。
图14是示出实施方式4的雾确定装置10的整体动作的流程图。
图15是实施方式4的阈值设定处理的说明图。
图16是实施方式5的雾确定装置10的结构图。
图17是示出实施方式5的雾确定装置10的整体动作的流程图。
图18是实施方式5的可信度存储部32中存储的信息的说明图。
图19是变形例4的雾确定装置10的结构图。
图20是示出变形例4的雾确定装置10的整体动作的流程图。
具体实施方式
实施方式1
***结构的说明***
参照图1对实施方式1的雾确定装置10的结构进行说明。
雾确定装置10是搭载于移动体100的ECU(Electronic Control Unit:电子控制单元)这样的计算机。
在实施方式1中,移动体100是车辆。但是,移动体100不限于车辆,也可以是船和飞机这样的其他类别。雾确定装置10可以以与移动体100或图示的其他结构要素一体化的方式或不可分离的方式进行安装,或者,也可以以可拆卸的方式或可分离的方式进行安装。
雾确定装置10具有处理器11、内存12、存储器13、通信接口14这样的硬件。处理器11经由信号线而与其他硬件连接,对这些其他硬件进行控制。
处理器11是进行处理的IC(Integrated Circuit:集成电路)。作为具体例,处理器11例如是CPU(Central Processing Unit:中央处理单元)、DSP(Digital SignalProcessor:数字信号处理器)、GPU(Graphics Processing Unit:图形处理单元)。
内存12是暂时存储数据的存储装置。作为具体例,内存12是SRAM(Static RandomAccess Memory:静态随机存取存储器)、DRAM(Dynamic Random Access Memory:动态随机存取存储器)。
存储器13是保管数据的存储装置。作为具体例,存储器13是HDD(Hard DiskDrive:硬盘驱动器)。此外,存储器13也可以是SD(注册商标,Secure Digital:安全数字)存储卡、CF(CompactFlash,注册商标)、NAND闪存、软盘、光盘、高密度盘、蓝光(注册商标)盘、DVD(Digital Versatile Disk:数字多功能盘)这样的移动记录介质。
通信接口14是用于与外部的装置进行通信的接口。作为具体例,通信接口14是Ethernet(注册商标)、USB(Universal Serial Bus:通用串行总线)、HDMI(注册商标,High-Definition Multimedia Interface:高清晰度多媒体接口)的端口。
通信接口14与搭载于移动体100的光传感器41连接。光传感器41是放射光的束即光束且接收放射出的光束由反射点反射后的反射光的装置。作为具体例,光传感器41是LiDAR(Light Detection and Ranging:激光雷达)。
作为功能结构要素,雾确定装置10具有点数据取得部21和雾确定部22。雾确定装置10的各功能结构要素的功能通过软件实现。
在存储器13中存储有实现雾确定装置10的各功能结构要素的功能的程序。该程序由处理器11读入到内存12,由处理器11执行。由此,实现雾确定装置10的各功能结构要素的功能。
此外,存储器13实现判定信息存储部31的功能。
在图1中,仅示出一个处理器11。但是,处理器11也可以是多个,多个处理器11可以协作执行实现各功能的程序。
***动作的说明***
参照图2~图5对实施方式1的雾确定装置10的动作进行说明。
实施方式1的雾确定装置10的动作相当于实施方式1的雾确定方法。此外,实施方式1的雾确定装置10的动作相当于实施方式1的雾确定程序的处理。
参照图2对实施方式1的雾确定装置10的整体动作进行说明。
(步骤S11:点数据取得处理)
点数据取得部21经由通信接口14取得由光传感器41得到的表示反射点的点数据的集合,该光传感器41接收放射出的光束由反射点反射后的反射光。
点数据是表示1次反射点的1次点数据和表示2次反射点的2次点数据的组,该1次反射点是针对从光传感器41放射出的某个光束的反射点,该2次反射点是针对某个光束的反射光的强度比1次反射点低的反射点。在实施方式1中,1次反射点是反射光的强度最高的反射点,2次反射点是在1次反射点之后反射光的强度次高的反射点。
如图3所示,光传感器41放射光的束即光束。在产生雾的情况下,首先,构成光束的光由沿上下进深方向稀疏扩散的某处的雾的粒子反射。多数情况下,接近光传感器41的位置处反射的反射光的强度最高。因此,在接近光传感器41的位置处发生反射的反射点成为1次反射点。穿过雾的粒子之间的光和由雾的粒子反射后的光由其他雾的粒子或移动体100周边的车辆这样的障碍物反射。多数情况下,该反射的反射光的强度第2高,因此,发生该反射的反射点成为2次反射点。
(步骤S12:聚类处理)
点数据取得部21对在步骤S11中取得的集合中包含的点数据进行聚类。
具体而言,点数据取得部21根据1次反射点和2次反射点中的至少任意一方的位置,对集合中包含的点数据进行聚类,生成1个以上的集群。关于点数据的聚类方法,使用现有的聚类技术即可。例如,点数据取得部21设1次反射点的位置之间的距离在一定距离以内的点数据为1个集群。
这里,设点数据取得部21进行聚类。但是,点数据取得部21也可以取得聚类后的点数据的集合。即,也可以利用与雾确定装置10分开的聚类用的ECU进行点数据的聚类,点数据取得部21取得由聚类用的ECU聚类后的点数据的集合。
(步骤S13:雾确定处理)
雾确定部22根据在步骤S11中取得的集合中包含的点数据的1次反射点与2次反射点之间的距离的分布,确定雾的浓度。这里,雾确定部22根据与在步骤S12中聚类成1个集群的点数据有关的1次反射点与2次反射点之间的距离的分布,确定雾的浓度。
具体而言,雾确定部22对与雾的浓度对应的距离的分布的图案和与集合中包含的点数据有关的距离的分布进行比较,由此确定雾的浓度。在实施方式1中,雾确定部22对与雾的浓度对应的距离的频度的直方图的图案和与集合中包含的点数据有关的距离的频度的直方图进行比较,由此确定雾的浓度。
参照图4和图5对实施方式1的雾确定处理(图2的步骤S13)进行说明。
(步骤S21:直方图生成处理)
如图5的(A)所示,雾确定部22生成表示与在步骤S12中聚类成1个集群的点数据有关的1次反射点与2次反射点之间的距离的分布的直方图。
具体而言,雾确定部22按照每个距离确定点数据的数量,将确定的点数据的数量除以集群中包含的点数据的数量,计算每个距离的频度。雾确定部22生成表示计算出的频度的直方图。
在实施方式1中,判定信息存储部31按照雾的每个浓度,存储1次反射点与2次反射点之间的距离的分布的图案。具体而言,判定信息存储部31按照雾的每个浓度,存储1次反射点与2次反射点之间的距离的频度的直方图。
将判定信息存储部31中存储的直方图的各图案作为对象来执行步骤S22的处理。
(步骤S22:比较处理)
如图5的(B)所示,雾确定部22对对象图案和在步骤S21中生成的直方图进行比较,确定雾的浓度。
具体而言,雾确定部22从判定信息存储部31读出对象图案。雾确定部22对读出的对象图案和在步骤S21中生成的直方图进行比较。关于比较方法,使用现有的相似度比较技术即可。在实施方式1中,雾确定部22将直方图的组距作为向量,关于读出的图案的向量和在步骤S21中生成的直方图的向量,计算基于欧几里德距离或直方图交叉点的相似度。雾确定部22不限于此,也可以使用SVM(Support Vector Machine:支持向量机)、Adaboost和多层感知机的有教师学习这样的技术进行比较。
(步骤S23:浓度确定处理)
雾确定部22确定判定信息存储部31中存储的直方图的图案中的、在步骤S22中计算出的相似度最高的图案。雾确定部22将与确定的图案对应的雾的浓度确定为是移动体100周围的雾的浓度。
在图5的例1的情况下,在步骤S21中生成的直方图与视程15m的雾的图案(图5中记载为雾15)的相似度高。因此,在例1中,判定为视程15m的雾。此外,在图5的例2的情况下,在步骤S21中生成的直方图与无雾的图案的相似度高。因此,在例2中,判定为无雾。
另外,确定雾的浓度不限于确定多个阶段的雾的浓度中的哪个浓度,还包含确定是否产生一定以上的浓度的雾。即,确定雾的浓度还包含判定是否产生雾。
***实施方式1的效果***
如上所述,实施方式1的雾确定装置10根据1次反射点与2次反射点之间的距离的分布,确定雾的浓度。1次反射点与2次反射点之间的距离的分布根据雾的浓度而变化,因此,能够适当地确定雾的浓度。
***其他结构***
<变形例1>
在实施方式1中,各功能结构要素通过软件实现。但是,作为变形例1,各功能结构要素也可以通过硬件实现。关于该变形例1,对与实施方式1不同之处进行说明。
参照图6对变形例1的雾确定装置10的结构进行说明。
在各功能结构要素通过硬件实现的情况下,雾确定装置10代替处理器11、内存12和存储器13而具有电子电路15。电子电路15是实现各功能结构要素、内存12和存储器13的功能的专用电路。
作为电子电路15,假设是单一电路、复合电路、程序化的处理器、并行程序化的处理器、逻辑IC、GA(Gate Array:门阵列)、ASIC(Application Specific IntegratedCircuit:面向特定用途的集成电路)、FPGA(Field-Programmable Gate Array:现场可编程门阵列)。
可以通过一个电子电路15实现各功能结构要素,也可以使多个电子电路15分散实现各功能结构要素。
<变形例2>
作为变形例2,也可以是一部分的各功能结构要素通过硬件实现,其他各功能结构要素通过软件实现。
将处理器11、内存12、存储器13和电子电路15称作处理电路。即,各功能结构要素的功能通过处理电路实现。
<变形例3>
在实施方式1中,雾确定装置10通过一个ECU这样的计算机实现。但是,雾确定装置10也可以通过多个ECU这样的计算机实现。
实施方式2
实施方式2与实施方式1的不同之处在于,根据反射点是否呈圆弧状分布在光传感器41的周边,确定雾的浓度。在实施方式2中,对该不同之处进行说明,省略相同之处的说明。
***动作的说明***
参照图7~图10对实施方式2的雾确定装置10的动作进行说明。
实施方式2的雾确定装置10的动作相当于实施方式2的雾确定方法。此外,实施方式2的雾确定装置10的动作相当于实施方式2的雾确定程序的处理。
参照图7对实施方式2的雾确定装置10的整体动作进行说明。
(步骤S31:点数据取得处理)
点数据取得部21取得由光传感器41得到的表示反射点的点数据的集合,该光传感器41接收放射出的光束由反射点反射后的反射光。
在实施方式2中,与实施方式1不同,点数据不需要是1次点数据和2次点数据的组。在实施方式2中,点数据也可以仅表示1个反射点。
(步骤S32:雾确定处理)
当俯瞰在步骤S31中取得的集合中包含的点数据所示的反射点的情况下,雾确定部22根据反射点是否呈圆弧状分布在光传感器41的周边,确定雾的浓度。
即,如图8的(B)所示,雾确定部22对表示图8的(A)所示的反射点的点数据的集合进行俯瞰转换。即,雾确定部22将点数据的集合所示的反射点组投影到进深方向和水平方向的坐标系上。在产生雾的情况下,光束在光传感器41的周边均匀地反射,因此,反射点呈圆弧上分布在光传感器41的周边。另外,在图8的(B)中,反射点不是圆状而是呈圆弧状分布。这是因为在移动体100所在的位置不存在反射点。
参照图9对实施方式2的雾确定处理(图7的步骤S32)进行说明。
(步骤S41:圆近似处理)
雾确定部22将在步骤S31中取得的集合中包含的点数据所示的反射点的进深方向和水平方向的坐标作为输入,通过圆的最小二乘法计算近似的圆。
具体而言,雾确定部22对数式1所示的圆的最小二乘法的式子输入集合中包含的点数据i(i=1,...,n)所示的反射点的进深方向和水平方向的坐标(xi,yi),计算近似的圆的中心坐标(A,B)和半径C。
【数式1】
(步骤S42:方差计算处理)
雾确定部22将在步骤S31中取得的集合中包含的各点数据作为对象,计算从对象点数据所示的反射点到在步骤S41中计算出的圆的距离d。即,如图10所示,雾确定部22计算从对象点数据所示的反射点向圆的切线垂直引出的直线中的、从反射点到圆的长度作为距离d。然后,雾确定部22计算距离d的方差值。
(步骤S43:浓度确定处理)
雾确定部22根据在步骤S42中计算出的方差值确定雾的浓度。方差值越小,则确定部22确定为雾越浓。
在实施方式2中,判定信息存储部31按照雾的每个浓度存储方差值的阈值。雾确定部22对在步骤S42中计算出的方差值和判定信息存储部31中存储的雾的每个浓度的阈值进行比较,由此确定雾的浓度。
***实施方式2的效果***
如上所述,实施方式2的雾确定装置10根据反射点是否呈圆弧状分布在光传感器41的周边,确定雾的浓度。在产生雾的情况下,反射点呈圆弧状分布在光传感器41的周边,因此,能够适当地确定是否产生雾。
此外,实施方式2的雾确定装置10根据从各反射点到圆的距离d的方差值,确定雾的浓度。方差值根据雾的浓度而变化,因此,能够适当地确定雾的浓度。
实施方式3
实施方式3与实施方式1、2的不同之处在于,组合实施方式1中说明的雾的浓度的确定方法和实施方式2中说明的雾的浓度的确定方法,确定雾的浓度。在实施方式3中,对该不同之处进行说明,省略相同之处的说明。
***结构的说明***
参照图11对实施方式3的雾确定装置10的结构进行说明。
雾确定装置10与实施方式1、2的不同之处在于,雾确定部22具有第1确定部23、第2确定部24和综合确定部25。
***动作的说明***
参照图12对实施方式3的雾确定装置10的动作进行说明。
实施方式3的雾确定装置10的动作相当于实施方式3的雾确定方法。此外,实施方式3的雾确定装置10的动作相当于实施方式3的雾确定程序的处理。
(步骤S51:点数据取得处理)
点数据取得部21取得点数据的集合。
在实施方式3中,点数据是1次点数据和2次点数据的组。
(步骤S52:第1确定处理)
第1确定部23根据1次反射点与2次反射点之间的距离的分布,确定雾的浓度作为第1浓度。即,第1确定部23通过实施方式1中说明的方法确定雾的浓度。
(步骤S53:第2确定处理)
在俯瞰集合中包含的点数据所示的反射点的情况下,第2确定部24根据反射点计算近似的圆,根据计算出的圆与反射点之间的距离的方差,确定雾的浓度作为第2浓度。即,第2确定部24通过实施方式2中说明的方法确定雾的浓度。
此时,第2确定部24可以仅使用点数据中包含的1次点数据,也可以使用1次点数据和2次点数据双方。
(步骤S54:综合确定处理)
综合确定部25根据在步骤S52中确定的第1浓度和在步骤S53中确定的第2浓度,确定雾的浓度。
例如,设第1浓度和第2浓度确定是产生雾还是未产生雾。该情况下,如果第1浓度和第2浓度双方表示产生雾,则综合确定部25判定为产生雾,除此以外的情况下,综合确定部25判定为未产生雾。
此外,例如,设第1浓度和第2浓度确定多个阶段的雾的浓度中的哪个浓度。该情况下,综合确定部25将对第1浓度加权而成的值和对第2浓度加权而成的值之和与按照每个浓度设定的阈值进行比较,确定雾的浓度。即,在设第1浓度为X,第2浓度为Y,第1浓度的权重为θ1,第2浓度的权重为θ2的情况下,综合确定部25对θ1X+θ2Y与按照每个浓度设定的阈值th进行比较,判定雾的浓度。
***实施方式3的效果***
如上所述,实施方式3的雾确定装置10组合实施方式1、2中说明的方法来确定雾的浓度。由此,能够更高精度地确定雾的浓度。
实施方式4
实施方式4与实施方式1~3的不同之处在于,根据确定的雾的浓度来设定用于识别障碍物的传感器的传感器阈值。在实施方式4中,对该不同之处进行说明,省略相同之处的说明。
***结构的说明***
参照图13对实施方式4的雾确定装置10的结构进行说明。
雾确定装置10与实施方式1~3的不同之处在于,具有识别部26和阈值设定部27。
***动作的说明***
参照图14和图15对实施方式4的雾确定装置10的动作进行说明。
实施方式4的雾确定装置10的动作相当于实施方式4的雾确定方法。此外,实施方式4的雾确定装置10的动作相当于实施方式4的雾确定程序的处理。
参照图14对实施方式4的雾确定装置10的整体动作进行说明。
步骤S61是实施方式1~3中说明的确定雾的浓度的处理。
(步骤S62:阈值设定处理)
阈值设定部27根据在步骤S61中确定的雾的浓度,设定用于识别障碍物的传感器的传感器阈值。
参照图15对具体例进行说明。
在图15中,示出使用摄像机作为传感器来识别车辆的尾灯的情况。
在使用摄像机识别尾灯的情况下,使用在YUV数据的UV平面中线性地识别尾灯和其他部分的边界线作为传感器阈值。因此,阈值设定部27根据雾的浓度设定该边界线。边界线表示为V=a·U+b。因此,阈值设定部27根据雾的浓度设定a、b的值。
如图15所示,阈值设定部27在未产生雾的情况下,较高地设定作为传感器阈值的边界线,以防止尾灯以外的红发光物被误识别为尾灯。另一方面,阈值设定部27在产生雾的情况下,较低地设定作为传感器阈值的边界线,容易将红发光物识别为尾灯。
另外,在图15中,示出产生雾的情况和未产生雾的情况这2种情况下的传感器阈值的设定例。但是,阈值设定部27也可以针对多个阶段的雾的浓度分别设定传感器阈值。该情况下,雾越浓,则越低地设定作为传感器阈值的边界线。
(步骤S63:识别处理)
识别部26使用在步骤S62中设定的传感器阈值识别障碍物。
如果是图15的例子,则识别部26使用在步骤S62中设定的边界线,根据由摄像机得到的图像数据检测尾灯。
***实施方式4的效果***
如上所述,实施方式4的雾确定装置10根据雾的浓度设定传感器阈值。由此,能够适当地识别障碍物。
实施方式5
实施方式5与实施方式1~4的不同之处在于,根据雾的浓度决定为了识别障碍物而使用的传感器。在实施方式5中,对该不同之处进行说明,省略相同之处的说明。
另外,这里,说明对实施方式1~3附加功能的例子。但是,还能够对实施方式4附加功能。
***结构的说明***
参照图16对实施方式5的雾确定装置10的结构进行说明。
雾确定装置10与实施方式1~3的不同之处在于具有识别部26和传感器决定部28。此外,与实施方式1~3的不同之处在于,存储器13实现可信度存储部32的功能。
***动作的说明***
参照图17和图18对实施方式5的雾确定装置10的动作进行说明。
实施方式5的雾确定装置10的动作相当于实施方式5的雾确定方法。此外,实施方式5的雾确定装置10的动作相当于实施方式5的雾确定程序的处理。
参照图17对实施方式5的雾确定装置10的整体动作进行说明。
步骤S71是实施方式1~3中说明的确定雾的浓度的处理。
(步骤S72:传感器决定处理)
传感器决定部28根据在步骤S71中确定的雾的浓度,决定为了识别障碍物而使用的传感器。
具体而言,可信度存储部32按照雾的每个浓度,针对搭载于移动体100的各传感器存储每个距离的可信度。如图18所示,在移动体100搭载有摄像机、毫米波雷达和LiDAR作为传感器的情况下,可信度存储部32按照雾的每个浓度,存储摄像机、毫米波雷达和LiDAR的每个距离的可信度。在图18中,示出产生雾时和未产生雾时的每个距离的可信度。各传感器的可信度通过实验求出。
传感器决定部28参照可信度存储部32,决定在步骤S71中确定的雾的浓度的情况下可信度高的传感器,作为为了识别障碍物而使用的传感器。传感器决定部28也可以按照每个距离决定为了识别障碍物而使用的传感器。
例如,传感器决定部28在未产生雾的情况下,决定使用LiDAR和摄像机,在产生雾的情况下,决定使用毫米波雷达和摄像机。
(步骤S73:识别处理)
识别部26使用在步骤S72中决定的传感器识别障碍物。
***实施方式5的效果***
如上所述,实施方式5的雾确定装置10根据雾的浓度,决定为了识别障碍物而使用的传感器。由此,能够适当地识别障碍物。
***其他结构***
<变形例4>
在实施方式5中,对实施方式1~3附加了功能。但是,也可以对实施方式4附加功能。
该情况下,如图19所示,雾确定装置10在图16所示的功能结构要素的基础上具有阈值设定部27。而且,如图20所示,在步骤S82中传感器决定部28决定要使用的传感器后,在步骤S83中,阈值设定部27决定与已决定的传感器有关的传感器阈值。
另外,步骤S81、步骤S82和步骤S84的处理与图17的步骤S71、步骤S72和步骤S73的处理相同。此外,步骤S83的处理与图14的步骤S62的处理相同。
以上说明了本发明的实施方式和变形例。也可以组合实施这些实施方式和变形例中的若干个实施方式和变形例。此外,也可以部分地实施任意一个或若干个实施方式和变形例。另外,本发明不限于以上的实施方式和变形例,能够根据需要进行各种变更。
标号说明
10:雾确定装置;11:处理器;12:内存;13:存储器;14:通信接口;15:电子电路;21:点数据取得部;22:雾确定部;23:第1确定部;24:第2确定部;25:综合确定部;26:识别部;27:阈值设定部;28:传感器决定部;31:判定信息存储部;32:可信度存储部;100:移动体。
Claims (11)
1.一种雾确定装置,该雾确定装置具有:
点数据取得部,其取得由光传感器得到的表示反射点的点数据的集合,所述光传感器接收放射出的光束由所述反射点反射后的反射光;以及
雾确定部,在俯瞰由所述点数据取得部取得的所述集合中包含的点数据所示的所述反射点的情况下,该雾确定部根据所述反射点是否呈圆弧状分布在所述光传感器的周边,确定雾的浓度。
2.根据权利要求1所述的雾确定装置,其中,
在俯瞰所述集合的所述点数据所示的所述反射点的情况下,所述雾确定部根据所述反射点计算近似的圆,根据计算出的圆与所述反射点之间的距离的方差确定雾的浓度。
3.根据权利要求2所述的雾确定装置,其中,
所述雾确定部通过圆的最小二乘法计算近似的圆。
4.根据权利要求2或3所述的雾确定装置,其中,
所述方差越小,则所述雾确定部确定为雾越浓。
5.根据权利要求1~4中的任意一项所述的雾确定装置,其中,
所述数据取得部取得由光传感器得到的表示反射点的点数据的集合,所述光传感器接收放射出的光束由所述反射点反射后的反射光,所述点数据是表示1次反射点的1次点数据和表示2次反射点的2次点数据的组,该1次反射点是针对某个光束的反射点,该2次反射点是针对所述某个光束的反射光的强度比所述1次反射点低的反射点,
所述雾确定部具有:
第1确定部,其根据与所述集合中包含的所述点数据有关的所述1次反射点与所述2次反射点之间的距离的分布,确定雾的浓度作为第1浓度;
第2确定部,其根据所述方差确定雾的浓度作为第2浓度;以及
综合确定部,其根据由所述第1确定部确定的第1浓度和由所述第2确定部确定的第2浓度,确定雾的浓度。
6.根据权利要求5所述的雾确定装置,其中,
所述第1确定部对与雾的浓度对应的所述距离的分布的图案和与所述集合中包含的所述点数据有关的所述距离的分布进行比较,由此确定雾的浓度。
7.根据权利要求6所述的雾确定装置,其中,
所述第1确定部对与雾的浓度对应的所述距离的频度的直方图的图案和与所述集合中包含的所述点数据有关的所述距离的频度的直方图进行比较,由此确定雾的浓度。
8.根据权利要求1~7中的任意一项所述的雾确定装置,其中,
所述雾确定装置还具有阈值设定部,该阈值设定部根据由所述雾确定部确定的雾的浓度,设定用于识别障碍物的传感器的传感器阈值。
9.根据权利要求1~8中的任意一项所述的雾确定装置,其中,
所述雾确定装置还具有传感器决定部,该传感器决定部根据由所述雾确定部确定的雾的浓度,决定为了识别障碍物而使用的传感器。
10.一种雾确定方法,其中,
点数据取得部取得由光传感器得到的表示反射点的点数据的集合,所述光传感器接收放射出的光束由所述反射点反射后的反射光,
在俯瞰所述集合中包含的点数据所示的所述反射点的情况下,雾确定部根据所述反射点是否呈圆弧状分布在所述光传感器的周边,确定雾的浓度。
11.一种雾确定程序,该雾确定程序使计算机执行以下处理:
点数据取得处理,取得由光传感器得到的表示反射点的点数据的集合,所述光传感器接收放射出的光束由所述反射点反射后的反射光;以及
雾确定处理,在俯瞰通过所述点数据取得处理取得的所述集合中包含的点数据所示的所述反射点的情况下,根据所述反射点是否呈圆弧状分布在所述光传感器的周边,确定雾的浓度。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/009395 WO2019175919A1 (ja) | 2018-03-12 | 2018-03-12 | 霧特定装置、霧特定方法及び霧特定プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111819473A true CN111819473A (zh) | 2020-10-23 |
CN111819473B CN111819473B (zh) | 2022-05-13 |
Family
ID=67906997
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880090770.6A Active CN111819473B (zh) | 2018-03-12 | 2018-03-12 | 雾确定装置、雾确定方法和计算机能读取的存储介质 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20200408919A1 (zh) |
JP (1) | JP6746032B2 (zh) |
CN (1) | CN111819473B (zh) |
DE (1) | DE112018007029B4 (zh) |
WO (1) | WO2019175919A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023087204A (ja) * | 2021-12-13 | 2023-06-23 | 北陽電機株式会社 | ヒストグラム生成回路、光測距装置、ヒストグラム生成方法および光測距方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009042177A (ja) * | 2007-08-10 | 2009-02-26 | Honda Motor Co Ltd | 物体検出装置 |
JP2009128236A (ja) * | 2007-11-26 | 2009-06-11 | Denso Corp | 霧検知装置及びその設置方法 |
JP2010071704A (ja) * | 2008-09-17 | 2010-04-02 | Calsonic Kansei Corp | 車両用距離画像データ生成装置及び方法 |
US20160290799A1 (en) * | 2015-04-02 | 2016-10-06 | Here Global B.V. | Device Orientation Detection |
DE102015112103A1 (de) * | 2015-07-24 | 2017-01-26 | Preh Gmbh | Detektionsvorrichtung zur Nebelerkennung für ein Kraftfahrzeug |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3571268B2 (ja) * | 2000-01-20 | 2004-09-29 | 三菱電機株式会社 | 霧観測レーダ装置 |
US7414706B2 (en) * | 2004-12-22 | 2008-08-19 | Northrop Grumman Corporation | Method and apparatus for imaging a target using cloud obscuration prediction and detection |
FR2884637B1 (fr) | 2005-04-19 | 2007-06-29 | Valeo Vision Sa | Procede de detection de brouillard nocturne et systeme de mise en oeuvre de ce procede |
JP5092076B2 (ja) * | 2007-10-26 | 2012-12-05 | オプテックス株式会社 | レーザエリアセンサ |
JP2010286307A (ja) * | 2009-06-10 | 2010-12-24 | Nec Engineering Ltd | 画像撮像装置 |
DE102009028578A1 (de) * | 2009-08-17 | 2011-02-24 | Robert Bosch Gmbh | Verfahren für die Umfelderfassung mit einer Lidarsensorik |
DE102011017649B3 (de) * | 2011-04-28 | 2012-10-11 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Erkennung einer Intensität eines Aerosols in einem Sichtfeld einer Kamera eines Fahrzeugs |
EP2721554A2 (de) | 2011-06-17 | 2014-04-23 | Robert Bosch GmbH | Verfahren und steuergerät zur erkennung einer wetterbedingung in einem umfeld eines fahrzeugs |
JP2013167479A (ja) * | 2012-02-14 | 2013-08-29 | Toyota Motor Corp | レーザーレーダ装置及びレーザーレーダ装置で行われる物体検知方法 |
EP3456597B1 (en) | 2013-04-11 | 2023-06-07 | Waymo Llc | Methods and systems for detecting weather conditions using vehicle onboard sensors |
US8983705B2 (en) * | 2013-04-30 | 2015-03-17 | Google Inc. | Methods and systems for detecting weather conditions including fog using vehicle onboard sensors |
US9514373B2 (en) | 2013-08-28 | 2016-12-06 | Gentex Corporation | Imaging system and method for fog detection |
US11867870B2 (en) * | 2018-03-12 | 2024-01-09 | Mitsubishi Electric Corporation | Fog determination apparatus, fog determination method, and computer readable medium |
CN111902737B (zh) * | 2018-03-12 | 2022-02-22 | 三菱电机株式会社 | 雾确定装置、雾确定方法和计算机能读取的存储介质 |
-
2018
- 2018-03-12 JP JP2020505557A patent/JP6746032B2/ja active Active
- 2018-03-12 US US16/978,332 patent/US20200408919A1/en active Pending
- 2018-03-12 WO PCT/JP2018/009395 patent/WO2019175919A1/ja active Application Filing
- 2018-03-12 DE DE112018007029.8T patent/DE112018007029B4/de active Active
- 2018-03-12 CN CN201880090770.6A patent/CN111819473B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009042177A (ja) * | 2007-08-10 | 2009-02-26 | Honda Motor Co Ltd | 物体検出装置 |
JP2009128236A (ja) * | 2007-11-26 | 2009-06-11 | Denso Corp | 霧検知装置及びその設置方法 |
JP2010071704A (ja) * | 2008-09-17 | 2010-04-02 | Calsonic Kansei Corp | 車両用距離画像データ生成装置及び方法 |
US20160290799A1 (en) * | 2015-04-02 | 2016-10-06 | Here Global B.V. | Device Orientation Detection |
DE102015112103A1 (de) * | 2015-07-24 | 2017-01-26 | Preh Gmbh | Detektionsvorrichtung zur Nebelerkennung für ein Kraftfahrzeug |
Also Published As
Publication number | Publication date |
---|---|
DE112018007029B4 (de) | 2022-12-08 |
CN111819473B (zh) | 2022-05-13 |
JP6746032B2 (ja) | 2020-08-26 |
WO2019175919A1 (ja) | 2019-09-19 |
US20200408919A1 (en) | 2020-12-31 |
JPWO2019175919A1 (ja) | 2020-06-18 |
DE112018007029T5 (de) | 2020-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102447352B1 (ko) | 교통 신호등 검출 및 지능형 주행을 위한 방법 및 디바이스, 차량, 및 전자 디바이스 | |
Panahi et al. | Accurate detection and recognition of dirty vehicle plate numbers for high-speed applications | |
Lim et al. | Real-time traffic sign recognition based on a general purpose GPU and deep-learning | |
CN109506664B (zh) | 利用人行横道识别结果的引导信息提供装置及方法 | |
US10025998B1 (en) | Object detection using candidate object alignment | |
US9501703B2 (en) | Apparatus and method for recognizing traffic sign board | |
WO2020048265A1 (zh) | 多级目标分类及交通标志检测方法和装置、设备、介质 | |
EP3114687B1 (en) | Method and device for processing a picture | |
JPWO2013065220A1 (ja) | 画像認識装置、画像認識方法、及び集積回路 | |
KR101772438B1 (ko) | 도로 표지판 인식 시스템에서 막대형 신호를 검출하는 장치 및 방법 | |
CN116168041B (zh) | 一种应用于贴合装置的实时检测方法及其系统 | |
JP7392488B2 (ja) | 遺留物誤検出の認識方法、装置及び画像処理装置 | |
CN111819473B (zh) | 雾确定装置、雾确定方法和计算机能读取的存储介质 | |
CN111902737B (zh) | 雾确定装置、雾确定方法和计算机能读取的存储介质 | |
Lee et al. | Traffic light detection and recognition based on Haar-like features | |
CN111819472B (zh) | 雾确定装置、雾确定方法和计算机能读取的存储介质 | |
Ning | Vehicle license plate detection and recognition | |
US11538260B2 (en) | Object identification apparatus, object identification method, and nontransitory computer readable medium storing control program | |
CN112101139A (zh) | 人形检测方法、装置、设备及存储介质 | |
US20240085553A1 (en) | Obstacle detection device, obstacle detection method, and non-transitory computer-readable recording medium | |
US20200065611A1 (en) | Image processing apparatus and image processing method | |
US11827215B2 (en) | Method for training a driving related object detector | |
Zhang et al. | Fast image matching algorithm based on affine invariants | |
JPWO2020129247A1 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
Joseph et al. | Procect (CSE-2011) Automatic Number plate Recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |