CN117351436A - 一种河段过闸船舶吃水深度检测方法 - Google Patents

一种河段过闸船舶吃水深度检测方法 Download PDF

Info

Publication number
CN117351436A
CN117351436A CN202311076792.6A CN202311076792A CN117351436A CN 117351436 A CN117351436 A CN 117351436A CN 202311076792 A CN202311076792 A CN 202311076792A CN 117351436 A CN117351436 A CN 117351436A
Authority
CN
China
Prior art keywords
ship
draft
passing
information
height
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311076792.6A
Other languages
English (en)
Inventor
齐俊麟
王晓春
周建武
王海江
齐太顺
姚夏晓
孙中南
杨正
林盛梅
刘志荣
孙苏娟
欧阳文全
程思钦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Changmiao Technology Co ltd
Three Gorges Navigation Authority
Original Assignee
Nanjing Changmiao Technology Co ltd
Three Gorges Navigation Authority
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Changmiao Technology Co ltd, Three Gorges Navigation Authority filed Critical Nanjing Changmiao Technology Co ltd
Priority to CN202311076792.6A priority Critical patent/CN117351436A/zh
Publication of CN117351436A publication Critical patent/CN117351436A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/766Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/02Recognising information on displays, dials, clocks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/09Recognition of logos

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Analysis (AREA)

Abstract

一种河段过闸船舶吃水深度检测方法,包括步骤一:通过航道两侧的多个热成像广角摄像头抓拍经过卡口的过闸船舶,并通过AIS设备获取其身份信息(船舶型深等信息);步骤二:通过云台摄像头精准抓拍过闸船舶的干舷、吃水线、水尺及载重线标记信息,并通过补光灯进行夜间补光;步骤三:将采集到的图像和信息传输至吃水深度检测平台;步骤四:吃水深度检测平台对图像和信息进行处理和分析,计算得出吃水深度,该计算方法为以下步骤:本发明用于解决人工视觉和手工测量船舶吃水深度容易出现误判或漏判和测量结果不准的问题。

Description

一种河段过闸船舶吃水深度检测方法
技术领域
本发明涉及一种河段过闸船舶吃水深度检测方法。
背景技术
长江三峡枢纽是世界上最大的水利枢纽工程,每年有数万艘船舶通过其船闸。为了保证船闸的安全运行和水资源的合理利用,需要对过闸船舶的吃水深度进行准确的检测和控制。吃水深度是指船舶在水中的下沉程度,与船舶的载重量、型深等因素有关。过闸船舶的吃水深度不仅影响船闸的通行效率和安全性,还影响库区的水文环境和生态平衡。
目前,三峡枢纽过闸船舶的吃水检测主要依靠人工视觉和手工测量,存在以下缺陷:
1、人工视觉受光照、风雾、距离等因素的影响,容易出现误判或漏判;
2、手工测量耗时耗力,效率低下,且容易受人为操作的干扰;
3、船舶吃水标志喷涂不规范或不真实,导致测量结果不准确;
4、船舶在过闸过程中可能发生下沉吃水或中垂、中拱形变,导致测量结果与实际情况不符。
发明内容
本发明所要解决的技术问题是提供一种河段过闸船舶吃水深度检测方法,用于解决人工视觉和手工测量船舶吃水深度容易出现误判或漏判和测量结果不准的问题。
为了解决上述问题,本发明的技术方案为:
一种河段过闸船舶吃水深度检测方法,包括如下步骤,
步骤一:通过航道两侧的多个热成像广角摄像头抓拍经过卡口的过闸船舶,并通过AIS设备获取其身份信息(船舶型深等信息);
步骤二:通过云台摄像头精准抓拍过闸船舶的干舷、吃水线、水尺及载重线标记信息,并通过补光灯进行夜间补光;
步骤三:将采集到的图像和信息传输至吃水深度检测平台;。
步骤四:吃水深度检测平台对图像和信息进行处理和分析,计算得出吃水深度,该计算方法为以下步骤:
第一步:图像分割:吃水深度检测平台使用卷积神经网络(CNN)对热成像广角摄像头传输过来的船只图像进行分割,目的是找到图像中的干舷区域;
第二步:上下分界线拟合:在得到干舷区域后,通过拟合方法计算出干舷的上下分界线的参数;
第三步:高度计算:使用云台摄像头抓拍船舶时的参数将像素高度转换为实际高度,以将图像中的干舷高度转化为真实的物理高度;
第四步:计算吃水深度:通过计算船只型深与干舷高度之间的差值,得到吃水深度。
本发明的有益效果为:本发明一方面是采用了多摄像头联动控制的方式,可以实现对过闸船舶的全面感知、精准识别和画像,无论白天黑夜,只要风雾情况在禁航条件以下,该系统均可正常工作;另一方面可以克服了吃水线老化模糊等影响图片质量的因素,使得该系统可以更加精确以及更加广发的估计船只的吃水深度。最后本发明还可以实现对过闸船舶吃水检测的高效性、准确性和智能化,有效解决了人工视觉和手工测量存在的问题,为三峡枢纽过闸安检提供了有力的技术支撑。
附图说明
下面结合附图对本发明做进一步的说明:
图1为本发明的框架图,
图2为本发明关于segNet的网络结构图,
图3为本发明中云台摄像机的仰角截取图,
图4为本发明中的干舷高度识别示意图。
具体实施方式
如图1所示,一种河段过闸船舶吃水深度检测方法,包括如下步骤,
步骤一:通过航道两侧的多个热成像广角摄像头抓拍经过卡口的过闸船舶,并通过AIS设备获取其身份信息(船舶型深等信息);
步骤二:通过云台摄像头精准抓拍过闸船舶的干舷、吃水线、水尺及载重线标记信息,并通过补光灯进行夜间补光;
步骤三:通过主控系统联动控制所有设备,将采集到的图像和信息传输至吃水深度检测平台;
步骤四:吃水深度检测平台对图像和信息进行处理和分析,采用“型深-干舷高度”计算得出吃水深度,该计算方法为以下步骤:
第一步:图像分割:吃水深度检测平台使用卷积神经网络(CNN)对热成像广角摄像头传输过来的船只图像进行分割,目的是找到图像中的干舷区域;通过对像素进行分类,可以准确地定位和提取干舷的位置,干舷区域一般呈四边形或近似四边形的形状。
第二步:上下分界线拟合:在得到干舷区域后,通过拟合方法计算出干舷的上下分界线的参数;这些参数描述了分界线的位置、斜率等信息,并可以用于后续计算。
第三步:高度计算:由于得到的云台摄像头得到的距离是像素距离,不是实际的物理距离,所以需要使用云台摄像头抓拍船舶时的参数将像素高度转换为实际高度,以将图像中的干舷高度转化为真实的物理高度;
第四步:计算吃水深度:通过计算船只型深与干舷高度之间的差值,得到吃水深度。船只型深是船舶设计时确定的船体末端离水面的高度。
吃水深度计算方法包括:
通过图像算法获得的干舷高度只是像素高度,转换成实际距离仍需摄像设备参数。焦距是云台摄像头的一个重要参数,它与实际距离之间存在一定的关系。通常,焦距越大,相同的像素距离所对应的真实距离就越大,对于精确的距离转换,需要进行校准和标定。
第一步:计算灭线值vpr,船水分界线设为r1(像素行),甲板线设为r2(像素行),实际船水分界线到甲板线的距离设为R。
式中:T为相机基准点获取,此处为1.2,,T为云台的俯仰角,Z为云台的变倍,fp为Z=1倍下的fp
第二步:计算实际高度和像素高度的比值Mpx,Hm为相机离水面的高度。
第三步:计算实际船水分界线到甲板线的距离R。
第四步:计算吃水深度A,A=B-R,式中B为船舶型深。
其中:热成像摄像头先在画面之中设置“虚拟线圈”并结合AIS所提供的位置速度信息为云台提供跟踪抓拍信号。云台摄像机同时也结合AIS所提供的信息跟随转动抓拍,随时调整角度和焦距。
热成像摄像头为高清500万像素摄像头,分辨率为2488×2048,摄像头安装在航道的两侧。摄像机通过调节镜头焦距,监控面控制覆盖半个航道的范围。通常,摄像头与船牌平面的角度保持在100-120°左右,摄像头与船牌的立体角度控制在90°,船牌在图像中所占的水平像素大小保持在120到180之间。这样的设置可以确保船牌识别不受影响。以上技术和设备相结合就能够实现对目标船舶的特写抓拍,获取其清晰的船体图像和船名标志牌图像,为后续的图像识别提供高质量的图像数据。
其中:卷积神经网络(CNN)是一种常用的深度学习模型,它的基本结构包括输入层、卷积层、池化层和全连接层。
首先是输入层,它接收船舶图像的像素值作为输入数据,并且每个像素对应一个输入节点。输入层将原始图像的信息传递给下一层进行处理和特征提取。
卷积层是CNN的核心部分,它由卷积运算和非线性激活函数组成。卷积运算使用卷积核对输入数据进行滑动运算,提取图像中的特征信息。非线性激活函数则将卷积运算的结果映射到非线性空间,增加网络的表达能力和学习能力。
池化层通过降采样操作来减少特征图的尺寸,从而减少计算量和内存消耗。池化操作可以选择最大值池化或平均值池化等方式,保留重要的特征信息并丢弃冗余的细节。
最后是全连接层,它将池化层的输出连接到网络的输出节点,用于实现不同的任务,如分类或回归。全连接层将特征映射到最终的输出空间,进行具体的预测或判断。
在实际应用中,会根据不同的任务选择不同的网络结构。针对长江三峡枢纽河段过闸场景,本发明中,将采用SegNet作为网络结构。SegNet是FCN(全卷积网络)的一种变体,整个网络分为编码器和解码器两部分。编码器负责提取图像中的高级特征,将图像信息进行抽象表示。解码器则将编码器输出的特征图恢复到原始图像尺寸,并进行像素级别的分类。通过这种方式,SegNet能够在像素级别对图像进行精细的分割,达到更准确的图像分析和处理效果。
CNN能够学习复杂的特征表示并提取图像中的上下文信息。相比传统的图像处理方法,CNN在干舷分割任务上通常能达到更高的准确性和精度。从大量的训练样本中学习船舶干舷的通用特征和形状,从而具有良好的泛化能力。它可以适应新的船舶图像,即使在训练时没有完全相似的样本。
卷积神经网络(CNN)是一种常用的深度学习模型,它的基本结构包括输入层、卷积层、池化层和全连接层。
首先是输入层,它接收船舶图像的像素值作为输入数据,并且每个像素对应一个输入节点。输入层将原始图像的信息传递给下一层进行处理和特征提取。
卷积层是CNN的核心部分,它由卷积运算和非线性激活函数组成。卷积运算使用卷积核对输入数据进行滑动运算,提取图像中的特征信息。非线性激活函数则将卷积运算的结果映射到非线性空间,增加网络的表达能力和学习能力。
池化层通过降采样操作来减少特征图的尺寸,从而减少计算量和内存消耗。池化操作可以选择最大值池化或平均值池化等方式,保留重要的特征信息并丢弃冗余的细节。
最后是全连接层,它将池化层的输出连接到网络的输出节点,用于实现不同的任务,如分类或回归。全连接层将特征映射到最终的输出空间,进行具体的预测或判断。
在实际应用中,会根据不同的任务选择不同的网络结构。针对长江三峡枢纽河段过闸场景,本发明中,将采用SegNet作为网络结构。SegNet是FCN(全卷积网络)的一种变体,整个网络分为编码器和解码器两部分。编码器负责提取图像中的高级特征,将图像信息进行抽象表示。解码器则将编码器输出的特征图恢复到原始图像尺寸,并进行像素级别的分类。通过这种方式,SegNet能够在像素级别对图像进行精细的分割,达到更准确的图像分析和处理效果。
CNN能够学习复杂的特征表示并提取图像中的上下文信息。相比传统的图像处理方法,CNN在干舷分割任务上通常能达到更高的准确性和精度。从大量的训练样本中学习船舶干舷的通用特征和形状,从而具有良好的泛化能力。它可以适应新的船舶图像,即使在训练时没有完全相似的样本。

Claims (2)

1.一种河段过闸船舶吃水深度检测方法,其特征在于:包括如下步骤,
步骤一:通过航道两侧的多个热成像广角摄像头抓拍经过卡口的过闸船舶,并通过AIS设备获取其身份信息;
步骤二:通过云台摄像头精准抓拍过闸船舶的干舷、吃水线、水尺及载重线标记信息,并通过补光灯进行夜间补光;
步骤三:将采集到的图像和信息传输至吃水深度检测平台;
步骤四:吃水深度检测平台对图像和信息进行处理和分析,计算得出吃水深度,该计算方法为以下步骤:
第一步:图像分割:吃水深度检测平台使用卷积神经网络(CNN)对热成像广角摄像头传输过来的船只图像进行分割,目的是找到图像中的干舷区域;
第二步:上下分界线拟合:在得到干舷区域后,通过拟合方法计算出干舷的上下分界线的参数;
第三步:高度计算:使用云台摄像头抓拍船舶时的参数将像素高度转换为实际高度,以将图像中的干舷高度转化为真实的物理高度;
第四步:计算吃水深度:通过计算船只型深与干舷高度之间的差值,得到吃水深度。
2.根据权利要求1所述的一种河段过闸船舶吃水深度检测方法,其特征在于:吃水深度计算方法包括
第一步:计算灭线值vpr,船水分界线设为r1(像素行),甲板线设为r2(像素行),实际船水分界线到甲板线的距离设为R。
式中:T为相机基准点获取,此处为1.2,,T为云台的俯仰角,Z为云台的变倍,fp为Z=1倍下的fp
第二步:计算实际高度和像素高度的比值Mpx,Hm为相机离水面的高度。
第三步:计算实际船水分界线到甲板线的距离R。
四步:计算吃水深度A,A=B-R,式中B为船舶型深。
CN202311076792.6A 2023-08-24 2023-08-24 一种河段过闸船舶吃水深度检测方法 Pending CN117351436A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311076792.6A CN117351436A (zh) 2023-08-24 2023-08-24 一种河段过闸船舶吃水深度检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311076792.6A CN117351436A (zh) 2023-08-24 2023-08-24 一种河段过闸船舶吃水深度检测方法

Publications (1)

Publication Number Publication Date
CN117351436A true CN117351436A (zh) 2024-01-05

Family

ID=89367381

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311076792.6A Pending CN117351436A (zh) 2023-08-24 2023-08-24 一种河段过闸船舶吃水深度检测方法

Country Status (1)

Country Link
CN (1) CN117351436A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117788463A (zh) * 2024-02-26 2024-03-29 中邮建技术有限公司 基于视频ai与多模态数据融合的船舶吃水深度检测方法
CN118470641A (zh) * 2024-05-22 2024-08-09 鸣飞伟业技术有限公司 基于图像识别的船舶超载判定方法及装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117788463A (zh) * 2024-02-26 2024-03-29 中邮建技术有限公司 基于视频ai与多模态数据融合的船舶吃水深度检测方法
CN117788463B (zh) * 2024-02-26 2024-05-10 中邮建技术有限公司 基于视频ai与多模态数据融合的船舶吃水深度检测方法
CN118470641A (zh) * 2024-05-22 2024-08-09 鸣飞伟业技术有限公司 基于图像识别的船舶超载判定方法及装置

Similar Documents

Publication Publication Date Title
WO2021142902A1 (zh) 基于DANet的无人机海岸线漂浮垃圾巡检系统
CN112884760A (zh) 近水桥梁多类型病害智能检测方法与无人船设备
CN112766274A (zh) 一种基于Mask RCNN算法的水尺图像水位自动读数方法及系统
CN110070025B (zh) 基于单目图像的三维目标检测系统及方法
CN109919026B (zh) 一种水面无人艇局部路径规划方法
CN112488020B (zh) 基于无人机航拍数据的水环境污染情况检测评估装置
CN111986240A (zh) 基于可见光和热成像数据融合的落水人员检测方法及系统
CN109145747A (zh) 一种水面全景图像语义分割方法
WO2020099016A1 (en) System and method for measuring the distance to an object in water
CN117351436A (zh) 一种河段过闸船舶吃水深度检测方法
CN113495575B (zh) 一种基于注意力机制的无人机自主着陆视觉引导方法
CN113591592B (zh) 水上目标识别方法、装置、终端设备及存储介质
CN114782905A (zh) 一种基于视频监控的船舶吃水深度检测方法
CN114495068B (zh) 基于人机交互和深度学习的路面健康检测方法
CN111738071A (zh) 一种基于单目摄像机的运动变化的逆透视变换方法
CN103049909A (zh) 一种以车牌为焦点的曝光方法
CN116935369A (zh) 基于计算机视觉的船舶水尺读数方法及系统
CN112614177A (zh) 一种适用于船舶冰区走航测试的海冰厚度识别系统及海冰厚度识别方法
CN107045630B (zh) 一种基于rgbd的行人检测和身份识别方法及系统
CN112233079A (zh) 多传感器图像融合的方法及系统
CN112150455A (zh) 基于人工智能的光伏相机视角偏差判断方法及系统
CN115830140A (zh) 一种海上近程光电监控方法、系统、介质、设备及终端
CN116189136A (zh) 一种基于深度学习的雨雪天气下交通信号灯检测方法
CN111583341B (zh) 云台像机移位检测方法
CN115035429A (zh) 一种基于复合主干网络和多预测头的航拍目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination