CN115091472B - 基于人工智能的目标定位方法及装夹机械手控制系统 - Google Patents

基于人工智能的目标定位方法及装夹机械手控制系统 Download PDF

Info

Publication number
CN115091472B
CN115091472B CN202211031245.1A CN202211031245A CN115091472B CN 115091472 B CN115091472 B CN 115091472B CN 202211031245 A CN202211031245 A CN 202211031245A CN 115091472 B CN115091472 B CN 115091472B
Authority
CN
China
Prior art keywords
monitoring
target
surveillance
typical
video frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211031245.1A
Other languages
English (en)
Other versions
CN115091472A (zh
Inventor
邹志宏
邹军兴
徐开元
刘廷俊
陈丽明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhuhai Nante Metal Technology Co ltd
Original Assignee
Zhuhai Nante Metal Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhuhai Nante Metal Technology Co ltd filed Critical Zhuhai Nante Metal Technology Co ltd
Priority to CN202211031245.1A priority Critical patent/CN115091472B/zh
Publication of CN115091472A publication Critical patent/CN115091472A/zh
Application granted granted Critical
Publication of CN115091472B publication Critical patent/CN115091472B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供的基于人工智能的目标定位方法及装夹机械手控制系统,涉及人工智能技术领域。在本发明中,从目标区域对应的目标监控视频中提取出至少两帧目标监控视频帧,目标监控视频包括对目标区域进行视频监控形成的多帧监控视频帧;利用目标对象识别神经网络,分别对至少两帧目标监控视频帧中的每一帧目标监控视频帧进行对象识别,以输出每一帧目标监控视频帧对应的目标监控对象,至少两帧目标监控视频帧对应的至少两个目标监控对象属于同一个监控对象;依据目标监控对象分别在每一帧目标监控视频帧中的像素位置,分析出目标监控对象的目标对象位置信息。基于前述的步骤,可以在一定程度上提高目标监控对象的定位精度。

Description

基于人工智能的目标定位方法及装夹机械手控制系统
技术领域
本发明涉及人工智能技术领域,具体而言,涉及一种基于人工智能的目标定位方法及装夹机械手控制系统。
背景技术
装夹机械手控制系统,是通过对装夹机械手进行控制,以实现相应的装夹工作,如抓取目标物体等。基于此,对装夹机械手进行控制的基础是,准确地识别出目标物体的位置,使得可以基于该位置对目标物体进行装夹。但是,在现有技术中,存在对目标物体的位置的确定精度不高的问题。
发明内容
有鉴于此,本发明的目的在于提供一种基于人工智能的目标定位方法及装夹机械手控制系统,以在一定程度上提高目标监控对象的定位精度。
为实现上述目的,本发明实施例采用如下技术方案:
一种基于人工智能的目标定位方法,应用于装夹机械手控制系统,所述基于人工智能的目标定位方法包括:
从目标区域对应的目标监控视频中提取出至少两帧目标监控视频帧,所述目标监控视频包括对目标区域进行视频监控形成的多帧监控视频帧;
利用已经更新完成的目标对象识别神经网络,分别对所述至少两帧目标监控视频帧中的每一帧目标监控视频帧进行对象识别,以输出每一帧所述目标监控视频帧对应的目标监控对象,所述至少两帧目标监控视频帧对应的至少两个目标监控对象属于同一个监控对象;
依据所述目标监控对象分别在每一帧目标监控视频帧中的像素位置,分析出所述目标监控对象的目标对象位置信息。
在一些优选的实施例中,在上述基于人工智能的目标定位方法中,所述从目标区域对应的目标监控视频中提取出至少两帧目标监控视频帧的步骤,包括:
将所述目标监控视频包括的多帧监控视频帧中的第一帧监控视频帧标记为目标监控视频帧,并将所述目标监控视频包括的多帧监控视频帧中的最后一帧监控视频帧标记为目标监控视频帧;
对所述第一帧监控视频帧和所述最后一帧监控视频帧进行视频帧相似度计算,以输出对应的第一视频帧相似度,再依据所述第一视频帧相似度从所述目标监控视频包括的所述第一帧监控视频帧和所述最后一帧监控视频帧以外的其它监控视频帧中,采样筛选出第一数量的其它监控视频帧,以标记为目标监控视频帧,所述第一数量依据所述第一视频帧相似度确定。
在一些优选的实施例中,在上述基于人工智能的目标定位方法中,所述利用已经更新完成的目标对象识别神经网络,分别对所述至少两帧目标监控视频帧中的每一帧目标监控视频帧进行对象识别,以输出每一帧所述目标监控视频帧对应的目标监控对象的步骤,包括:
利用已经更新完成的对象初次识别神经网络,对所述目标监控视频帧的图像信息特征分布进行分析提取,并对已经配置的参考监控对象集合中的每一个参考监控对象的监控对象信息特征分布进行分析提取;
利用已经更新完成的对象初次识别神经网络,对所述图像信息特征分布与每一个所述参考监控对象的监控对象信息特征分布之间的特征相关程度进行分析确定,再依据所述特征相关程度确定出所述目标监控视频帧与所述参考监控对象集合中的每一个参考监控对象之间的对象相似关系;
基于对应的对象相似关系符合配置的对象相似关系预设规则的参考监控对象,标记出所述目标监控视频帧对应的数量大于1的初选监控对象;
利用已经更新完成的对象再次识别神经网络,对数量大于1的识别数据对进行识别,输出每一个所述识别数据对的数据匹配标识信息,任意一个所述识别数据对包括所述目标监控视频帧和一个所述初选监控对象,所述已经更新完成的对象初次识别神经网络和所述已经更新完成的对象再次识别神经网络构成利用已经更新完成的目标对象识别神经网络;
依据所述数据匹配标识信息,从所述数量大于1的初选监控对象中,匹配出所述目标监控视频帧对应的目标监控对象。
在一些优选的实施例中,在上述基于人工智能的目标定位方法中,所述对象初次识别神经网络的更新过程,包括:
提取到多帧典型监控视频帧,并分别确定出多帧所述典型监控视频帧中的每一帧典型监控视频帧对应的相关典型监控视频帧;
对所述典型监控视频帧对应的相关典型监控视频帧进行对象匹配处理,以匹配出符合配置的对象匹配规则的数量大于1的监控对象,以输出所述典型监控视频帧对应的监控对象簇;
针对多帧所述典型监控视频帧中的已确定典型监控视频帧,依据该已确定典型监控视频帧和该已确定典型监控视频帧对应的已确定监控对象簇,构建出所述对象初次识别神经网络对应的第一典型数据,所述已确定监控对象簇为所述已确定典型监控视频帧对应的监控对象簇;
依据所述已确定典型监控视频帧和对应的暂定监控对象簇,构建出所述对象初次识别神经网络的第二典型数据,所述暂定监控对象簇为暂定典型监控视频帧对应的监控对象簇,所述暂定典型监控视频帧为多帧所述典型监控视频帧中所述已确定典型监控视频帧以外的其它典型监控视频帧;
分别对所述第一典型数据和所述第二典型数据进行加载处理,以分别加载至所述对象初次识别神经网络中以进行分析,输出所述已确定典型监控视频帧对应的对象关系分析成果;依据多帧所述典型监控视频帧对应的对象关系分析成果,对所述对象初次识别神经网络对应的学习代价值进行确定;基于所述对象初次识别神经网络对应的学习代价值,对所述对象初次识别神经网络进行网络权重的更新,以形成已经更新完成的对象初次识别神经网络,所述已经更新完成的对象初次识别神经网络用于对所述目标监控视频帧与监控对象之间的对象相似关系进行分析。
在一些优选的实施例中,在上述基于人工智能的目标定位方法中,所述对所述典型监控视频帧对应的相关典型监控视频帧进行对象匹配处理,以匹配出符合配置的对象匹配规则的数量大于1的监控对象,以输出所述典型监控视频帧对应的监控对象簇的步骤,包括:
对所述典型监控视频帧对应的相关典型监控视频帧进行对象识别,输出数量大于1的识别对象;
依据所述参考监控对象集合包括的参考监控对象,从所述数量大于1的识别对象中匹配出符合所述对象匹配规则的数量大于1的监控对象,以形成所述典型监控视频帧对应的监控对象簇。
在一些优选的实施例中,在上述基于人工智能的目标定位方法中,所述依据所述参考监控对象集合包括的参考监控对象,从所述数量大于1的识别对象中匹配出符合所述对象匹配规则的数量大于1的监控对象,以形成所述典型监控视频帧对应的监控对象簇的步骤,包括:
在所述数量大于1的识别对象中,筛选出属于所述参考监控对象集合的每一个识别对象,以输出数量大于1的初选监控对象;
对每一个所述初选监控对象在所述相关典型监控视频帧中的视频帧影响力分别进行分析并输出;
依据所述视频帧影响力符合配置的影响力匹配规则的初选监控对象,构建形成所述典型监控视频帧对应的监控对象簇。
在一些优选的实施例中,在上述基于人工智能的目标定位方法中,所述分别对所述第一典型数据和所述第二典型数据进行加载处理,以分别加载至所述对象初次识别神经网络中以进行分析,输出所述已确定典型监控视频帧对应的对象关系分析成果的步骤,包括:
分别对所述第一典型数据和所述第二典型数据进行加载处理,以分别加载至所述对象初次识别神经网络中,以利用对象初次识别神经网络对所述已确定典型监控视频帧对应的图像信息特征分布的特征挖掘并输出,再对所述已确定监控对象簇包括的每一个第一监控对象的第一监控对象信息特征分布进行特征挖掘并输出,以及,再对所述暂定监控对象簇包括的每一个第二监控对象的第二监控对象信息特征分布进行特征挖掘并输出;
依据所述图像信息特征分布和所述第一监控对象信息特征分布进行特征相关程度的分析确定,输出对应的第一特征相关程度;
依据所述图像信息特征分布和所述第二监控对象信息特征分布进行特征相关程度的分析确定,输出对应的第二特征相关程度;
依据每一个所述第一监控对象对应的第一特征相关程度和每一个所述第二监控对象对应的第二特征相关程度,融合形成所述已确定典型监控视频帧的对象关系分析成果。
在一些优选的实施例中,在上述基于人工智能的目标定位方法中,所述依据多帧所述典型监控视频帧对应的对象关系分析成果,对所述对象初次识别神经网络对应的学习代价值进行确定的步骤,包括:
依据所述已确定监控对象簇包括的任意一个第一监控对象和所述暂定监控对象簇包括的任意一个第二监控对象,进行对象配对处理,以输出数量大于1的监控对象对,每一个所述监控对象对包括一个所述第一监控对象和一个所述第二监控对象;
针对所述数量大于1的监控对象对中的待处理监控对象对,基于该待处理监控对象对中待处理第一监控对象对应的第一特征相关程度和该待处理监控对象对中待处理第二监控对象对应的第二特征相关程度,计算出所述对象初次识别神经网络相对于该待处理监控对象对具有的学习代价值;
基于所述对象初次识别神经网络相对于每一个所述监控对象对具有的学习代价值,计算输出所述对象初次识别神经网络相对于所述已确定典型监控视频帧具有的学习代价值;
基于所述对象初次识别神经网络相对于每一帧所述典型监控视频帧具有的学习代价值,计算出所述对象初次识别神经网络对应的学习代价值。
在一些优选的实施例中,在上述基于人工智能的目标定位方法中,所述依据所述目标监控对象分别在每一帧目标监控视频帧中的像素位置,分析出所述目标监控对象的目标对象位置信息的步骤,包括:
分别确定出所述目标监控对象在每一帧目标监控视频帧中的像素位置,以形成所述目标监控对象对应的至少两个像素位置区域;
对于每一个所述像素位置区域,依据该像素位置区域对应的目标监控视频帧对应的视频帧时序,确定出该像素位置区域对应的融合影响力系数,所述融合影响力系数与所述视频帧时序正相关;
依据每一个所述像素位置区域对应的融合影响力系数,对所述至少两个像素位置区域进行区域融合处理,以输出对应的像素位置融合区域,再将该像素位置融合区域标记为所述目标监控对象的目标对象位置信息。
本发明实施例还提供一种装夹机械手控制系统,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器用于执行所述计算机程序,以实现上述的基于人工智能的目标定位方法。
本发明实施例提供的一种基于人工智能的目标定位方法及装夹机械手控制系统,从目标区域对应的目标监控视频中提取出至少两帧目标监控视频帧;利用目标对象识别神经网络,分别对至少两帧目标监控视频帧中的每一帧目标监控视频帧进行对象识别,以输出每一帧目标监控视频帧对应的目标监控对象,至少两帧目标监控视频帧对应的至少两个目标监控对象属于同一个监控对象;依据目标监控对象分别在每一帧目标监控视频帧中的像素位置,分析出目标监控对象的目标对象位置信息。在前述的步骤中,由于会对至少两帧目标监控视频帧进行对象识别,以得到属于同一个监控对象对应的至少两个目标监控对象,使得可以依据目标监控对象分别在至少两帧目标监控视频帧中的像素位置分析出目标监控对象的目标对象位置信息,也就是说,可以通过融合多个像素位置来得到目标对象位置信息,即增加了定位的依据,从而在一定程度上提高目标监控对象的定位精度。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
图1为本发明实施例提供的装夹机械手控制系统的结构框图。
图2为本发明实施例提供的基于人工智能的目标定位方法包括的各步骤的流程示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例只是本发明的一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参照图1所示的内容,本发明实施例提供了一种装夹机械手控制系统。其中,所述装夹机械手控制系统可以包括存储器和处理器。
示例性地,在一种可以实现的实施方式中,所述存储器和处理器之间直接或间接地电性连接,以实现数据的传输或交互。例如,相互之间可通过一条或多条通讯总线或信号线实现电性连接。所述存储器中可以存储有至少一个可以以软件或固件(firmware)的形式,存在的软件功能模块(计算机程序)。所述处理器可以用于执行所述存储器中存储的可执行的计算机程序,从而实现本发明实施例提供的基于人工智能的目标定位方法。
示例性地,在一种可以实现的实施方式中,所述存储器可以是,但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-Only Memory,PROM),可擦除只读存储器(ErasableProgrammable Read-Only Memory,EPROM),电可擦除只读存储器(Electric ErasableProgrammable Read-Only Memory,EEPROM)等。所述处理器可以是一种通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)、片上系统(System on Chip,SoC)等;还可以是数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
示例性地,在一种可以实现的实施方式中,图1所示的结构仅为示意,所述装夹机械手控制系统还可包括比图1中所示更多或者更少的组件。
示例性地,在一种可以实现的实施方式中,所述装夹机械手控制系统可以是一种具备数据处理能力的服务器。
结合图2,本发明实施例还提供一种基于人工智能的目标定位方法,可应用于上述装夹机械手控制系统。其中,所述基于人工智能的目标定位方法有关的流程所定义的方法步骤,可以由所述装夹机械手控制系统实现。
下面将对图2所示的具体流程,进行详细阐述。
步骤S110,从目标区域对应的目标监控视频中提取出至少两帧目标监控视频帧。
在本发明实施例中,所述装夹机械手控制系统可以从目标区域对应的目标监控视频中提取出至少两帧目标监控视频帧。所述目标监控视频包括对目标区域进行视频监控形成的多帧监控视频帧。
步骤S120,利用已经更新完成的目标对象识别神经网络,分别对所述至少两帧目标监控视频帧中的每一帧目标监控视频帧进行对象识别,以输出每一帧所述目标监控视频帧对应的目标监控对象。
在本发明实施例中,所述装夹机械手控制系统可以利用已经更新完成的目标对象识别神经网络,分别对所述至少两帧目标监控视频帧中的每一帧目标监控视频帧进行对象识别,以输出每一帧所述目标监控视频帧对应的目标监控对象(即在所述目标监控视频帧中对目标监控对象进行标识,或者,确定所述目标监控视频帧中目标监控对象的像素位置)。所述至少两帧目标监控视频帧对应的至少两个目标监控对象属于同一个监控对象。
步骤S130,依据所述目标监控对象分别在每一帧目标监控视频帧中的像素位置,分析出所述目标监控对象的目标对象位置信息。
在本发明实施例中,所述装夹机械手控制系统可以依据所述目标监控对象分别在每一帧目标监控视频帧中的像素位置,分析出所述目标监控对象的目标对象位置信息。
在前述的步骤中,由于会对至少两帧目标监控视频帧进行对象识别,以得到属于同一个监控对象对应的至少两个目标监控对象,使得可以依据目标监控对象分别在至少两帧目标监控视频帧中的像素位置分析出目标监控对象的目标对象位置信息,也就是说,可以通过融合多个像素位置来得到目标对象位置信息,即增加了定位的依据,从而在一定程度上提高目标监控对象的定位精度,从而改善现有技术中存在的定位精度不高的问题。
示例性地,在一种可以实现的实施方式中,对于上述示例中的步骤“从目标区域对应的目标监控视频中提取出至少两帧目标监控视频帧”,可以进一步包括以下详细的可以执行的内容:
将所述目标监控视频包括的多帧监控视频帧中的第一帧监控视频帧标记为目标监控视频帧,并将所述目标监控视频包括的多帧监控视频帧中的最后一帧监控视频帧标记为目标监控视频帧;
对所述第一帧监控视频帧和所述最后一帧监控视频帧进行视频帧相似度计算,以输出对应的第一视频帧相似度,再依据所述第一视频帧相似度从所述目标监控视频包括的所述第一帧监控视频帧和所述最后一帧监控视频帧以外的其它监控视频帧中,采样筛选出第一数量的其它监控视频帧,以标记为目标监控视频帧,所述第一数量依据所述第一视频帧相似度确定(例如,所述第一视频帧相似度越大,所述第一数量就越小;反之,所述第一视频帧相似度越小,所述第一数量就越大)。
示例性地,在一种可以实现的实施方式中,对于上述示例中的步骤“利用已经更新完成的目标对象识别神经网络,分别对所述至少两帧目标监控视频帧中的每一帧目标监控视频帧进行对象识别,以输出每一帧所述目标监控视频帧对应的目标监控对象”,可以进一步包括以下详细的可以执行的内容:
利用已经更新完成的对象初次识别神经网络,对所述目标监控视频帧的图像信息特征分布进行分析提取,并对已经配置的参考监控对象集合中的每一个参考监控对象的监控对象信息特征分布进行分析提取;
利用已经更新完成的对象初次识别神经网络,对所述图像信息特征分布与每一个所述参考监控对象的监控对象信息特征分布之间的特征相关程度进行分析确定,再依据所述特征相关程度确定出所述目标监控视频帧与所述参考监控对象集合中的每一个参考监控对象之间的对象相似关系(示例性地,所述特征相关程度可以与所述对象相似关系对应的关系表征值之间具有正相关的关系,或者,将所述特征相关程度直接作为所述对象相似关系对应的关系表征值);
基于对应的对象相似关系符合配置的对象相似关系预设规则(示例性地,所述对象相似关系预设规则可以为所述对象相似关系对应的关系表征值大于或等于配置的表征值阈值;或者,上述对象相似关系预设规则还可以为所述对象相似关系由大到小进行排序后,排列在前的一定值)的参考监控对象,标记出所述目标监控视频帧对应的数量大于1的初选监控对象;
利用已经更新完成的对象再次识别神经网络,对数量大于1的识别数据对进行识别(对应于后文描述的数据匹配计算能力),输出每一个所述识别数据对的数据匹配标识信息,任意一个所述识别数据对包括所述目标监控视频帧和一个所述初选监控对象,所述已经更新完成的对象初次识别神经网络和所述已经更新完成的对象再次识别神经网络构成利用已经更新完成的目标对象识别神经网络;
依据所述数据匹配标识信息,从所述数量大于1的初选监控对象中,匹配出所述目标监控视频帧对应的目标监控对象(示例性地,在获取到每一个所述识别数据对的数据匹配标识信息之后,可以基于每一个所述识别数据对的数据匹配标识信息,确定出对应的目标监控视频帧和初选监控对象之间的数据匹配信息最可靠的识别数据对,进而将所确定的识别数据对对应的初选监控对象,标记为对应的目标监控对象)。
示例性地,在一种可以实现的实施方式中,对于上述示例中的步骤“利用已经更新完成的目标对象识别神经网络,分别对所述至少两帧目标监控视频帧中的每一帧目标监控视频帧进行对象识别,以输出每一帧所述目标监控视频帧对应的目标监控对象的步骤”,还可以进一步包括以下详细的可以执行的内容:
从目标对象数据库中,提取到数量大于1的待确定参考监控对象(所述待确定参考监控对象可以是预先配置的);
对每一个所述待确定参考监控对象在所述目标对象数据库中对应的相关参考监控对象的数量分别进行统计并输出,所述相关参考监控对象与所述待确定参考监控对象之间的对象轮廓相似度大于阈值;
依据对应的相关参考监控对象的数量,对每一个所述待确定参考监控对象进行确定,以确定是否将该待确定参考监控对象标记为所述参考监控对象集合中的参考监控对象(例如,在所述相关参考监控对象的数量大于一定值的情况,可以将该待确定参考监控对象标记为参考监控对象)。
示例性地,在一种可以实现的实施方式中,所述基于人工智能的目标定位方法还可以包括所述对象初次识别神经网络的更新过程,该更新过程,可以进一步包括以下详细的可以执行的内容:
提取到多帧典型监控视频帧,并分别确定出多帧所述典型监控视频帧中的每一帧典型监控视频帧对应的相关典型监控视频帧(所述相关典型监控视频帧可以是与所述典型监控视频帧之间的监控对象具有较高相似度的其它典型监控视频帧,具体的相似度程度可以根据实际情况确定);
对所述典型监控视频帧对应的相关典型监控视频帧进行对象匹配处理,以匹配出符合配置的对象匹配规则的数量大于1的监控对象,以输出所述典型监控视频帧对应的监控对象簇;
针对多帧所述典型监控视频帧中的已确定典型监控视频帧(所述已确定典型监控视频帧可以是多帧所述典型监控视频帧中的任意一帧),依据该已确定典型监控视频帧和该已确定典型监控视频帧对应的已确定监控对象簇,构建出所述对象初次识别神经网络对应的第一典型数据,所述已确定监控对象簇为所述已确定典型监控视频帧对应的监控对象簇;
依据所述已确定典型监控视频帧和对应的暂定监控对象簇,构建出所述对象初次识别神经网络的第二典型数据,所述暂定监控对象簇为暂定典型监控视频帧对应的监控对象簇,所述暂定典型监控视频帧为多帧所述典型监控视频帧中所述已确定典型监控视频帧以外的其它典型监控视频帧;
依据所述第一典型数据和所述第二典型数据,对所述对象初次识别神经网络进行更新,形成已经更新完成的对象初次识别神经网络,所述已经更新完成的对象初次识别神经网络用于对所述目标监控视频帧与监控对象之间的对象相似关系进行分析。
示例性地,在一种可以实现的实施方式中,对于上述示例中的步骤“对所述典型监控视频帧对应的相关典型监控视频帧进行对象匹配处理,以匹配出符合配置的对象匹配规则的数量大于1的监控对象,以输出所述典型监控视频帧对应的监控对象簇”,进一步包括以下详细的可以执行的内容:
对所述典型监控视频帧对应的相关典型监控视频帧进行对象识别(可以参照现有的对象识别或对象提取技术,在此不做具体限定),输出数量大于1的识别对象;依据所述参考监控对象集合包括的参考监控对象,从所述数量大于1的识别对象中匹配出符合所述对象匹配规则的数量大于1的监控对象,以形成所述典型监控视频帧对应的监控对象簇。
示例性地,在一种可以实现的实施方式中,对于上述示例中的步骤“依据所述参考监控对象集合包括的参考监控对象,从所述数量大于1的识别对象中匹配出符合所述对象匹配规则的数量大于1的监控对象,以形成所述典型监控视频帧对应的监控对象簇”,可以进一步包括以下详细的可以执行的内容:
在所述数量大于1的识别对象中,筛选出属于所述参考监控对象集合的每一个识别对象,以输出数量大于1的初选监控对象;对每一个所述初选监控对象在所述相关典型监控视频帧中的视频帧影响力分别进行分析并输出;依据所述视频帧影响力符合配置的影响力匹配规则的初选监控对象(如对应的视频帧影响力大于或等于影响力阈值的每一个初选监控对象,或者,是对应的视频帧影响力最大的一个或多个初选监控对象),构建形成所述典型监控视频帧对应的监控对象簇。
示例性地,在一种可以实现的实施方式中,对于上述示例中的步骤“对每一个所述初选监控对象在所述相关典型监控视频帧中的视频帧影响力分别进行分析并输出”,可以进一步包括以下详细的可以执行的内容:
对所述初选监控对象在所述数量大于1的识别对象中对应的相同对象数量进行统计并输出,再依据所述相同对象数量进行正相关的分析处理(也就是说,所述相同对象数量与所述视频帧影响力正相关),以分析出所述初选监控对象在所述相关典型监控视频帧中的视频帧影响力;或者,对所述初选监控对象在所述数量大于1的识别对象中对应的相同对象数量进行统计并输出,再对所述数量大于1的识别对象的对象数量统计值进行确定,以及,基于所述相同对象数量和所述对象数量统计值,计算输出所述初选监控对象在所述相关典型监控视频帧中的相同对象数量占比,再依据所述相同对象数量占比进行正相关的分析处理(也就是说,所述相同对象数量占比与所述视频帧影响力正相关),以分析出所述初选监控对象在所述相关典型监控视频帧中的视频帧影响力;或者,对所述初选监控对象在所述数量大于1的识别对象中对应的相同对象数量进行统计并输出,再对每一个个所述初选监控对象在所述数量大于1的识别对象中的相同对象数量累计值进行确定,以及,基于所述相同对象数量和所述相同对象数量累计值,计算出所述初选监控对象在多个所述初选监控对象中对应的对象数量比值,再依据所述对象数量比值进行正相关的分析处理(也就是说,所述对象数量比值与所述视频帧影响力正相关),以分析出所述初选监控对象在所述相关典型监控视频帧中的视频帧影响力。
示例性地,在一种可以实现的实施方式中,对于上述示例中的步骤“分别对所述第一典型数据和所述第二典型数据进行加载处理,以分别加载至所述对象初次识别神经网络中以进行分析,输出所述已确定典型监控视频帧对应的对象关系分析成果”,进一步包括以下详细的可以执行的内容:
分别对所述第一典型数据和所述第二典型数据进行加载处理,以分别加载至所述对象初次识别神经网络中,以利用对象初次识别神经网络对所述已确定典型监控视频帧对应的图像信息特征分布的特征挖掘并输出,再对所述已确定监控对象簇包括的每一个第一监控对象的第一监控对象信息特征分布进行特征挖掘并输出,以及,再对所述暂定监控对象簇包括的每一个第二监控对象的第二监控对象信息特征分布进行特征挖掘并输出;
依据所述图像信息特征分布和所述第一监控对象信息特征分布进行特征相关程度的分析确定(例如,可以对所述图像信息特征分布和所述第一监控对象信息特征分布进行相似度计算),输出对应的第一特征相关程度;
依据所述图像信息特征分布和所述第二监控对象信息特征分布进行特征相关程度的分析确定(例如,可以对所述图像信息特征分布和所述第二监控对象信息特征分布进行相似度计算),输出对应的第二特征相关程度;
依据每一个所述第一监控对象对应的第一特征相关程度和每一个所述第二监控对象对应的第二特征相关程度,融合形成所述已确定典型监控视频帧的对象关系分析成果。
示例性地,在一种可以实现的实施方式中,对于上述示例中的步骤“依据多帧所述典型监控视频帧对应的对象关系分析成果,对所述对象初次识别神经网络对应的学习代价值进行确定”,可以进一步包括以下详细的可以执行的内容:
依据所述已确定监控对象簇包括的任意一个第一监控对象和所述暂定监控对象簇包括的任意一个第二监控对象,进行对象配对处理,以输出数量大于1的监控对象对,每一个所述监控对象对包括一个所述第一监控对象和一个所述第二监控对象;针对所述数量大于1的监控对象对中的待处理监控对象对,基于该待处理监控对象对中待处理第一监控对象对应的第一特征相关程度和该待处理监控对象对中待处理第二监控对象对应的第二特征相关程度,计算输出所述对象初次识别神经网络相对于该待处理监控对象对具有的学习代价值;基于所述对象初次识别神经网络相对于每一个所述监控对象对具有的学习代价值,计算输出所述对象初次识别神经网络相对于所述已确定典型监控视频帧具有的学习代价值;基于所述对象初次识别神经网络相对于每一帧所述典型监控视频帧具有的学习代价值,计算输出所述对象初次识别神经网络对应的学习代价值。
对于上述步骤,进行示例性地说明,对象初次识别神经网络对于待处理监控对象对的学习代价值为:对象初次识别神经网络更新完成后第一特征相关程度和第二特征相关程度之间的最大相似度、第一特征相关程度和第二特征相关程度中的最大值;对象初次识别神经网络对于已确定典型监控视频帧的学习代价值为:已确定典型监控视频帧对应的多个监控对象对中每一个待处理监控对象对对应的学习代价值的和值;对象初次识别神经网络的学习代价值为:已确定典型监控视频帧对应的学习代价值和该已确定典型监控视频帧以外其它典型监控视频帧对应的学习代价值的平均值。
示例性地,在一种可以实现的实施方式中,对于上述示例中的步骤“利用已经更新完成的目标对象识别神经网络,分别对所述至少两帧目标监控视频帧中的每一帧目标监控视频帧进行对象识别,以输出每一帧所述目标监控视频帧对应的目标监控对象”,还包括以下详细的可以执行的内容:
依据所述已确定监控对象簇,分别检测每一帧其它典型监控视频帧对应的监控对象簇,以输出每一帧所述其它典型监控视频帧对应的对象检测结果,所述对象检测结果用于反映所述已确定监控对象簇和所述其它典型监控视频帧对应的监控对象簇之间关于包括的监控对象是否存在部分重合;基于所述对象检测结果,对每一帧所述其它典型监控视频帧进行筛选,以筛选出数量大于1的暂定典型监控视频帧,所述暂定典型监控视频帧对应的暂定监控对象簇与所述已确定监控对象簇关于包括的监控对象不存在部分重合(即包括的监控对象完全不同)。
示例性地,在一种可以实现的实施方式中,所述基于人工智能的目标定位方法还可以包括所述对象再次识别神经网的更新过程,该更新过程,可以进一步包括以下详细的可以执行的内容:
组建形成第一示例数据簇,所述第一示例数据簇包括的每一个第一示例数据,由示例监控视频帧、该示例监控视频帧对应的示例监控对象和该示例监控对象对应的监控对象标识特征信息组成,所述监控对象标识特征信息用于反映所述示例监控视频帧与所述示例监控对象之间的数据匹配信息的可靠程度;依据所述第一示例数据簇中包括的每一个第一示例数据,对所述对象再次识别神经网络进行第一更新处理,输出所述对象再次识别神经网络的第一学习代价值,所述第一学习代价值用于反映所述对象再次识别神经网络的数据匹配计算能力的可靠程度(示例性地,在确定上述第一学习代价值时,可以先获取示例监控视频帧的图像信息特征分布,以及示例监控视频帧对应的示例监控对象的监控对象信息特征分布;根据图像信息特征分布和监控对象信息特征分布,生成对象再次识别神经网络对于每一个第一示例数据的数据匹配识别成果。其中,该数据匹配识别成果用于反映示例监控视频帧和示例监控视频帧对应的示例监控对象之间的数据匹配信息的可靠程度。之后,可以基于每一个第一示例数据的数据匹配识别成果,以及,每一个第一示例数据的监控对象标识特征信息,确定上述第一学习代价值);基于所述第一学习代价值,对所述对象再次识别神经网络进行更新,形成已经更新完成的对象再次识别神经网络。
示例性地,在一种可以实现的实施方式中,对于上述示例中的步骤“基于所述第一学习代价值,对所述对象再次识别神经网络进行更新,形成已经更新完成的对象再次识别神经网络”,可以进一步包括以下详细的可以执行的内容:
组建形成第二示例数据簇,所述第二示例数据簇包括的每一个第二示例数据,由示例监控视频帧、该示例监控视频帧对应的监控对象存在标识信息,所述监控对象存在标识信息用于反映所述示例监控视频帧是否具有监控对象;对所述示例监控视频帧的图像信息特征分布进行特征挖掘并输出;基于所述图像信息特征分布,并利用所述对象再次识别神经网络进行识别处理,以输出所述示例监控视频帧对应的监控对象存在识别成果,所述监控对象存在识别成果用于放映所述示例监控视频帧中具有监控对象的可能性大小;依据所述第二示例数据簇包括的每一个所述示例监控视频帧对应的监控对象存在识别成果和每一个所述示例监控视频帧对应的监控对象存在标识信息,计算输出所述对象再次识别神经网络的第二学习代价值,所述第二学习代价值用于反映所述对象再次识别神经网络的对象存在识别能力的可靠程度;基于所述第一学习代价值和所述第二学习代价值(例如,可以依据所述第一学习代价值和所述第二学习代价值确定出总的学习代价值,再根据该总的学习带价值进行网络权重的更新),对所述对象再次识别神经网络进行更新,形成已经更新完成的对象再次识别神经网络。
示例性地,在一种可以实现的实施方式中,对于上述示例中的步骤“依据所述目标监控对象分别在每一帧目标监控视频帧中的像素位置,分析出所述目标监控对象的目标对象位置信息”,可以进一步包括以下详细的可以执行的内容:
分别确定出所述目标监控对象在每一帧目标监控视频帧中的像素位置,以形成所述目标监控对象对应的至少两个像素位置区域;
对于每一个所述像素位置区域,依据该像素位置区域对应的目标监控视频帧对应的视频帧时序,确定出该像素位置区域对应的融合影响力系数,所述融合影响力系数与所述视频帧时序正相关;
依据每一个所述像素位置区域对应的融合影响力系数,对所述至少两个像素位置区域进行区域融合处理,以输出对应的像素位置融合区域(也就是说,一个所述像素位置区域对应的融合影响力系数越大,对应的像素位置区域与所述像素位置融合区域之间的相似度就越大;反之,一个所述像素位置区域对应的融合影响力系数越小,对应的像素位置区域与所述像素位置融合区域之间的相似度就越小),再将该像素位置融合区域标记为所述目标监控对象的目标对象位置信息。
本发明实施例还提供一种基于人工智能的目标定位装置,可应用于上述装夹机械手控制系统。其中,所述基于人工智能的目标定位装置可以包括第一软件功能模块、第二软件功能模块和第三软件功能模块。
示例性地,在一种可以实现的实施方式中,所述第一软件功能模块用于,从目标区域对应的目标监控视频中提取出至少两帧目标监控视频帧,所述目标监控视频包括对目标区域进行视频监控形成的多帧监控视频帧。所述第一软件功能模块用于,利用已经更新完成的目标对象识别神经网络,分别对所述至少两帧目标监控视频帧中的每一帧目标监控视频帧进行对象识别,以输出每一帧所述目标监控视频帧对应的目标监控对象,所述至少两帧目标监控视频帧对应的至少两个目标监控对象属于同一个监控对象。所述第一软件功能模块用于,依据所述目标监控对象分别在每一帧目标监控视频帧中的像素位置,分析出所述目标监控对象的目标对象位置信息。
综上所述,本发明提供的一种基于人工智能的目标定位方法及装夹机械手控制系统,从目标区域对应的目标监控视频中提取出至少两帧目标监控视频帧;利用目标对象识别神经网络,分别对至少两帧目标监控视频帧中的每一帧目标监控视频帧进行对象识别,以输出每一帧目标监控视频帧对应的目标监控对象,至少两帧目标监控视频帧对应的至少两个目标监控对象属于同一个监控对象;依据目标监控对象分别在每一帧目标监控视频帧中的像素位置,分析出目标监控对象的目标对象位置信息。在前述的步骤中,由于会对至少两帧目标监控视频帧进行对象识别,以得到属于同一个监控对象对应的至少两个目标监控对象,使得可以依据目标监控对象分别在至少两帧目标监控视频帧中的像素位置分析出目标监控对象的目标对象位置信息,可以通过融合多个像素位置来得到目标对象位置信息,即增加了定位的依据,从而在一定程度上提高目标监控对象的定位精度。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种基于人工智能的目标定位方法,其特征在于,应用于装夹机械手控制系统,所述基于人工智能的目标定位方法包括:
从目标区域对应的目标监控视频中提取出至少两帧目标监控视频帧,所述目标监控视频包括对目标区域进行视频监控形成的多帧监控视频帧;
利用已经更新完成的目标对象识别神经网络,分别对所述至少两帧目标监控视频帧中的每一帧目标监控视频帧进行对象识别,以输出每一帧所述目标监控视频帧对应的目标监控对象,所述至少两帧目标监控视频帧对应的至少两个目标监控对象属于同一个监控对象;
依据所述目标监控对象分别在每一帧目标监控视频帧中的像素位置,分析出所述目标监控对象的目标对象位置信息;
其中,所述利用已经更新完成的目标对象识别神经网络,分别对所述至少两帧目标监控视频帧中的每一帧目标监控视频帧进行对象识别,以输出每一帧所述目标监控视频帧对应的目标监控对象的步骤,包括:
利用已经更新完成的对象初次识别神经网络,对所述目标监控视频帧的图像信息特征分布进行分析提取,并对已经配置的参考监控对象集合中的每一个参考监控对象的监控对象信息特征分布进行分析提取;
利用已经更新完成的对象初次识别神经网络,对所述图像信息特征分布与每一个所述参考监控对象的监控对象信息特征分布之间的特征相关程度进行分析确定,再依据所述特征相关程度确定出所述目标监控视频帧与所述参考监控对象集合中的每一个参考监控对象之间的对象相似关系;
基于对应的对象相似关系符合配置的对象相似关系预设规则的参考监控对象,标记出所述目标监控视频帧对应的数量大于1的初选监控对象;
利用已经更新完成的对象再次识别神经网络,对数量大于1的识别数据对进行识别,输出每一个所述识别数据对的数据匹配标识信息,任意一个所述识别数据对包括所述目标监控视频帧和一个所述初选监控对象,所述已经更新完成的对象初次识别神经网络和所述已经更新完成的对象再次识别神经网络构成利用已经更新完成的目标对象识别神经网络;
依据所述数据匹配标识信息,从所述数量大于1的初选监控对象中,匹配出所述目标监控视频帧对应的目标监控对象。
2.如权利要求1所述的基于人工智能的目标定位方法,其特征在于,所述从目标区域对应的目标监控视频中提取出至少两帧目标监控视频帧的步骤,包括:
将所述目标监控视频包括的多帧监控视频帧中的第一帧监控视频帧标记为目标监控视频帧,并将所述目标监控视频包括的多帧监控视频帧中的最后一帧监控视频帧标记为目标监控视频帧;
对所述第一帧监控视频帧和所述最后一帧监控视频帧进行视频帧相似度计算,以输出对应的第一视频帧相似度,再依据所述第一视频帧相似度从所述目标监控视频包括的所述第一帧监控视频帧和所述最后一帧监控视频帧以外的其它监控视频帧中,采样筛选出第一数量的其它监控视频帧,以标记为目标监控视频帧,所述第一数量依据所述第一视频帧相似度确定。
3.如权利要求1所述的基于人工智能的目标定位方法,其特征在于,所述对象初次识别神经网络的更新过程,包括:
提取到多帧典型监控视频帧,并分别确定出多帧所述典型监控视频帧中的每一帧典型监控视频帧对应的相关典型监控视频帧;
对所述典型监控视频帧对应的相关典型监控视频帧进行对象匹配处理,以匹配出符合配置的对象匹配规则的数量大于1的监控对象,以输出所述典型监控视频帧对应的监控对象簇;
针对多帧所述典型监控视频帧中的已确定典型监控视频帧,依据该已确定典型监控视频帧和该已确定典型监控视频帧对应的已确定监控对象簇,构建出所述对象初次识别神经网络对应的第一典型数据,所述已确定监控对象簇为所述已确定典型监控视频帧对应的监控对象簇;
依据所述已确定典型监控视频帧和对应的暂定监控对象簇,构建出所述对象初次识别神经网络的第二典型数据,所述暂定监控对象簇为暂定典型监控视频帧对应的监控对象簇,所述暂定典型监控视频帧为多帧所述典型监控视频帧中所述已确定典型监控视频帧以外的其它典型监控视频帧;
分别对所述第一典型数据和所述第二典型数据进行加载处理,以分别加载至所述对象初次识别神经网络中以进行分析,输出所述已确定典型监控视频帧对应的对象关系分析成果;依据多帧所述典型监控视频帧对应的对象关系分析成果,对所述对象初次识别神经网络对应的学习代价值进行确定;基于所述对象初次识别神经网络对应的学习代价值,对所述对象初次识别神经网络进行网络权重的更新,以形成已经更新完成的对象初次识别神经网络,所述已经更新完成的对象初次识别神经网络用于对所述目标监控视频帧与监控对象之间的对象相似关系进行分析。
4.如权利要求3所述的基于人工智能的目标定位方法,其特征在于,所述对所述典型监控视频帧对应的相关典型监控视频帧进行对象匹配处理,以匹配出符合配置的对象匹配规则的数量大于1的监控对象,以输出所述典型监控视频帧对应的监控对象簇的步骤,包括:
对所述典型监控视频帧对应的相关典型监控视频帧进行对象识别,输出数量大于1的识别对象;
依据所述参考监控对象集合包括的参考监控对象,从所述数量大于1的识别对象中匹配出符合所述对象匹配规则的数量大于1的监控对象,以形成所述典型监控视频帧对应的监控对象簇。
5.如权利要求4所述的基于人工智能的目标定位方法,其特征在于,所述依据所述参考监控对象集合包括的参考监控对象,从所述数量大于1的识别对象中匹配出符合所述对象匹配规则的数量大于1的监控对象,以形成所述典型监控视频帧对应的监控对象簇的步骤,包括:
在所述数量大于1的识别对象中,筛选出属于所述参考监控对象集合的每一个识别对象,以输出数量大于1的初选监控对象;
对每一个所述初选监控对象在所述相关典型监控视频帧中的视频帧影响力分别进行分析并输出;
依据所述视频帧影响力符合配置的影响力匹配规则的初选监控对象,构建形成所述典型监控视频帧对应的监控对象簇。
6.根据权利要求3所述的基于人工智能的目标定位方法,其特征在于,所述分别对所述第一典型数据和所述第二典型数据进行加载处理,以分别加载至所述对象初次识别神经网络中以进行分析,输出所述已确定典型监控视频帧对应的对象关系分析成果的步骤,包括:
分别对所述第一典型数据和所述第二典型数据进行加载处理,以分别加载至所述对象初次识别神经网络中,以利用对象初次识别神经网络对所述已确定典型监控视频帧对应的图像信息特征分布的特征挖掘并输出,再对所述已确定监控对象簇包括的每一个第一监控对象的第一监控对象信息特征分布进行特征挖掘并输出,以及,再对所述暂定监控对象簇包括的每一个第二监控对象的第二监控对象信息特征分布进行特征挖掘并输出;
依据所述图像信息特征分布和所述第一监控对象信息特征分布进行特征相关程度的分析确定,输出对应的第一特征相关程度;
依据所述图像信息特征分布和所述第二监控对象信息特征分布进行特征相关程度的分析确定,输出对应的第二特征相关程度;
依据每一个所述第一监控对象对应的第一特征相关程度和每一个所述第二监控对象对应的第二特征相关程度,融合形成所述已确定典型监控视频帧的对象关系分析成果。
7.根据权利要求6所述的基于人工智能的目标定位方法,其特征在于,所述依据多帧所述典型监控视频帧对应的对象关系分析成果,对所述对象初次识别神经网络对应的学习代价值进行确定的步骤,包括:
依据所述已确定监控对象簇包括的任意一个第一监控对象和所述暂定监控对象簇包括的任意一个第二监控对象,进行对象配对处理,以输出数量大于1的监控对象对,每一个所述监控对象对包括一个所述第一监控对象和一个所述第二监控对象;
针对所述数量大于1的监控对象对中的待处理监控对象对,基于该待处理监控对象对中待处理第一监控对象对应的第一特征相关程度和该待处理监控对象对中待处理第二监控对象对应的第二特征相关程度,计算出所述对象初次识别神经网络相对于该待处理监控对象对具有的学习代价值;
基于所述对象初次识别神经网络相对于每一个所述监控对象对具有的学习代价值,计算输出所述对象初次识别神经网络相对于所述已确定典型监控视频帧具有的学习代价值;
基于所述对象初次识别神经网络相对于每一帧所述典型监控视频帧具有的学习代价值,计算出所述对象初次识别神经网络对应的学习代价值。
8.如权利要求1-7任意一项所述的基于人工智能的目标定位方法,其特征在于,所述依据所述目标监控对象分别在每一帧目标监控视频帧中的像素位置,分析出所述目标监控对象的目标对象位置信息的步骤,包括:
分别确定出所述目标监控对象在每一帧目标监控视频帧中的像素位置,以形成所述目标监控对象对应的至少两个像素位置区域;
对于每一个所述像素位置区域,依据该像素位置区域对应的目标监控视频帧对应的视频帧时序,确定出该像素位置区域对应的融合影响力系数,所述融合影响力系数与所述视频帧时序正相关;
依据每一个所述像素位置区域对应的融合影响力系数,对所述至少两个像素位置区域进行区域融合处理,以输出对应的像素位置融合区域,再将该像素位置融合区域标记为所述目标监控对象的目标对象位置信息。
9.一种装夹机械手控制系统,其特征在于,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器用于执行所述计算机程序,以实现权利要求1-8任意一项所述的基于人工智能的目标定位方法。
CN202211031245.1A 2022-08-26 2022-08-26 基于人工智能的目标定位方法及装夹机械手控制系统 Active CN115091472B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211031245.1A CN115091472B (zh) 2022-08-26 2022-08-26 基于人工智能的目标定位方法及装夹机械手控制系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211031245.1A CN115091472B (zh) 2022-08-26 2022-08-26 基于人工智能的目标定位方法及装夹机械手控制系统

Publications (2)

Publication Number Publication Date
CN115091472A CN115091472A (zh) 2022-09-23
CN115091472B true CN115091472B (zh) 2022-11-22

Family

ID=83299949

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211031245.1A Active CN115091472B (zh) 2022-08-26 2022-08-26 基于人工智能的目标定位方法及装夹机械手控制系统

Country Status (1)

Country Link
CN (1) CN115091472B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115620210B (zh) * 2022-11-29 2023-03-21 广东祥利科技有限公司 基于图像处理的电子线料的性能确定方法及系统
CN116109988B (zh) * 2023-04-12 2023-06-13 天之翼(苏州)科技有限公司 基于人工智能和无人机的异常监控方法及系统

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106920250B (zh) * 2017-02-14 2019-08-13 华中科技大学 基于rgb-d视频的机器人目标识别与定位方法及系统
CN109919009A (zh) * 2019-01-24 2019-06-21 北京明略软件系统有限公司 目标对象的监控方法、装置及系统
CN109922310B (zh) * 2019-01-24 2020-11-17 北京明略软件系统有限公司 目标对象的监控方法、装置及系统
CN109886130B (zh) * 2019-01-24 2021-05-28 上海媒智科技有限公司 目标对象的确定方法、装置、存储介质和处理器
CN114872055B (zh) * 2022-07-12 2022-11-18 广东隆崎机器人有限公司 Scara机器人装配控制方法及系统

Also Published As

Publication number Publication date
CN115091472A (zh) 2022-09-23

Similar Documents

Publication Publication Date Title
CN115091472B (zh) 基于人工智能的目标定位方法及装夹机械手控制系统
CN115018840B (zh) 精密铸件裂纹检测方法、系统及装置
CN110706261A (zh) 车辆违章检测方法、装置、计算机设备和存储介质
CN110866428A (zh) 目标跟踪方法、装置、电子设备及存储介质
CN114925348B (zh) 一种基于指纹识别的安全验证方法及系统
CN114140712A (zh) 一种自动图像识别分发系统及方法
CN115620243B (zh) 基于人工智能的污染源监测方法、系统及云平台
CN115100541B (zh) 一种卫星遥感数据的处理方法、系统及云平台
CN116681350A (zh) 智慧工厂故障检测方法及系统
CN116303600A (zh) 一种基础测绘数据整合方法及系统
CN115457467A (zh) 一种基于数据挖掘的建筑质量隐患定位方法及系统
CN113673430A (zh) 一种基于物联网的用户行为分析方法
CN115687792B (zh) 针对在线互联网服务的大数据采集方法及系统
CN116958838B (zh) 一种基于无人机航测技术的森林资源监测方法及系统
CN116437057B (zh) 乙硼烷生产监控系统的系统优化方法及系统
CN116996403B (zh) 应用ai模型的网络流量诊断方法及系统
CN115761598B (zh) 一种基于云端业务平台的大数据分析方法及系统
CN115661419B (zh) 实景三维增强现实可视化方法及系统
CN117197739A (zh) 一种智慧楼宇的监控数据处理方法及系统
CN115620210B (zh) 基于图像处理的电子线料的性能确定方法及系统
CN115861321B (zh) 应用于工业互联网的生产环境检测方法及系统
US11989908B2 (en) Visual positioning method, mobile machine using the same, and computer readable storage medium
CN114639035A (zh) 一种智能环境检测系统及其方法
CN117315423A (zh) 一种基于智慧楼宇的用户预警方法及系统
CN117649538A (zh) 一种工业质检场景与ai模型的匹配方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant