CN112166438A - 确定性标记数据生成和人工智能训练途径 - Google Patents

确定性标记数据生成和人工智能训练途径 Download PDF

Info

Publication number
CN112166438A
CN112166438A CN201980024967.4A CN201980024967A CN112166438A CN 112166438 A CN112166438 A CN 112166438A CN 201980024967 A CN201980024967 A CN 201980024967A CN 112166438 A CN112166438 A CN 112166438A
Authority
CN
China
Prior art keywords
training
scene
neural network
image
camera device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980024967.4A
Other languages
English (en)
Inventor
沙巴利瓦斯·阿比兰
尤金·M·范伯格
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Regoni Co
Original Assignee
Regoni Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Regoni Co filed Critical Regoni Co
Publication of CN112166438A publication Critical patent/CN112166438A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Multimedia (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

描述了用于确定性地生成用于训练或验证用于图像分析的机器学习模型的标记数据的系统、方法和机器可读介质。本文所描述的方法允许例如实时地并且响应于由图像传感器生成图像的位置处的状况来生成此训练数据。

Description

确定性标记数据生成和人工智能训练途径
相关申请
本申请要求2018年3月13日提交的美国临时申请号62/642,578和2018年4月25日提交的美国临时申请号62/662,662的优先权。
技术领域
本发明涉及用于使用确定性生成的标记数据来训练机器学习模型的方法。
背景技术
计算机视觉模型的开发可能因缺乏足够的训练数据而无法教授模型对图像的内容进行正确分类而受到阻碍。例如,用于对图像进行分类的计算机视觉模型通常被组装为预先存在的图像数据的集合,所述图像数据的集合由人类标记以指示图像中描绘的项目。然而,通过此方法,很难扩展训练数据集,因为可用图像与必须在实践中进行分类的图像类型可能不那么类似,并且因为模型必须学会使用相对不精确的标记来确定项目在图像中的位置——也就是说,标记通常不确切指示图像的什么部分包含标记的项目以及什么部分包含其他内容。例如,用于获得标记的图像训练数据的常规方法是通过Taskrabbit或Mechanical Turk雇用人类来标记图像,或者通过基于CAPTCHA的认证服务来获得人类标记的图像。此外,常规的之前的方法不允许响应于在使用机器学习模型处理图像的位置处的当前状况而根据需要生成目标训练数据。
因此,需要解决这些问题的方法,并且本申请公开了解决此需求的方面的实施例。
发明内容
描述了用于训练机器学习模型以识别目标内容的方法、系统和计算机可读介质的实施例,其中所述机器学习模型与具有多个图像传感器的安装的相机装置相关联。首先,接收场景规范概述和种子值。所述场景规范概述可指定场景的范围,场景包括一个或多个对象以及相机模型。接下来,可基于所述场景规范概述和所述种子值生成多个场景规范,其中,所述多个场景规范中的至少一些场景规范将所述目标内容表示为一个或多个目标对象。接下来,可基于所述场景规范中的每一个来生成对象标记的训练包。每个对象标记的训练包可包括(1)关于所述一个或多个目标对象的标记,以及(2)多个图像,其中所述多个图像中的每个图像对应于所述多个图像传感器中的特定一个并且基于所述多个图像传感器中的所述特定一个的光学性质和视角具有图像性质和像素内容。接下来,或者当生成带有对象标记的训练包时,可将所述包流式传输到包括训练实例机器学习模型的一个或多个训练实例。可使用所述对象标记的训练包训练所述训练实例机器学习模型,其中在基于所述包更新所述机器学习模型之后不保留所述对象标记的训练包。然后可将所述训练实例机器学习模型提供给所述安装的相机装置。
附图说明
图1是根据本发明的一些实施例的关于用于训练机器学习模型的系统的示例性过程的流程图;
图2描绘根据本发明的一些实施例的示例性机器学习训练系统的部件;
图3描绘根据本发明的一些实施例的图像生成相机装置的示例性部件;
图4描绘根据本发明的一些实施例的用于实时图像处理的示例性分布式系统的部件;
图5是根据本发明的一些实施例的关于使用神经网络推断图像的内容的示例性过程的流程图;
图6是根据本发明的一些实施例的关于响应于对诸如异常状况的事件的检测而重新训练神经网络模型的示例性过程的流程图;
图7是根据本发明的一些实施例的关于生成训练数据和训练神经网络模型的示例性过程的流程图;
图8示出根据本发明的一些实施例的示例性计算系统的框图。
具体实施方式
描述了用于部署用于实时图像处理的系统的设备、计算机系统、计算机可读介质和方法的实施例,其包括用于确定性地生成用于训练或验证机器学习模型的标记数据的方法。例如,在某些实施例中,本文描述的方法可用于响应于产生等待推断的图像(即,由图像传感器在相机位置处生成的“样本图像”)的位置处的状况,生成实时目标训练数据。本发明的实施例可用于将样本图像或样本视频成语义意义。在某些实施例中,可另外将音频数据并入语义意义的确定中。例如,可对各种情形进行成像,并且可使用本文所描述的方法,识别情形,并且可采取响应动作(例如,发送包含情形的语义描述的通知)。例如,可识别可能的恐怖分子将可能爆炸的装置留在火车站的视频并给出语义描述——例如,一个人将背包放在相机的视野内的特定位置处。在另一个实例中,可将汽车阻塞车道的视频转换为语义描述——例如,与定位在车道前方的车辆类型相关联的时间点的范围和与离开车辆的人相关联的时间点的第二范围的规范。在另一个实例中,在音乐事件中,可从人的图像中获得水瓶的计数。在另一个实例中,可从道路的视频流中推断出诸如车祸或滑坡的事件,从而导致事件的响应通知。在另一个实例中,系统可准备语义描述,所述语义描述包括进入和离开商店的顾客的计数,包括每个顾客在商店中停留了多长时间以及每个顾客在商店内部时所碰触或朝向示意的对象。
为了使系统将样本图像数据转换成样本图像数据的语义描述,可首先训练系统来识别“目标内容”——即,训练系统识别并且可由此类语义描述表示的内容、情况和事件。如本文中所使用,“语义描述”是关于在所述图像数据或涉及所描绘的内容的事件中所描绘的内容的含义的规范。因此,在某些实施例中,所述系统被配置来生成描绘系统应可识别的目标内容或事件的图像训练数据。特别地,在某些实施例中,图像训练数据应描绘目标内容的实例的范围。例如,实例可包括目标内容的上下文中的变化,诸如,如果采样的图像将在室外,则在不同类型的天气中描绘目标内容,从而描绘相对于相机视角具有不同取向的目标内容,或者描绘与道具项目相结合的目标内容。在某些实施例中,训练数据的上下文中的某些变化可响应于目标内容的位置处的当前或预期状况——例如,部署的相机装置可提供所述位置处的场景的平均亮度;然后,可使用此平均亮度基于平均亮度值来生成一组图像训练数据,然后可使用所述组图像训练数据训练由部署的相机装置使用的机器学习模型,在部署的相机装置处更新模型,并且因此,可在当前平均亮度下提高对所述位置的目标内容的识别。目标内容所在位置处的状况可包括,例如,天气(雪、雨、雾)、亮度、周围大部分静态对象的物理变形或改变。在室内设置的情况下,状况的改变可包括,例如,零售商店改造、假期(万圣节、圣诞节等)特定装饰品的引入,或者由于相机装置的安装位置的物理改变而引起的状况改变。
在某些实施例中,图像训练数据应当描绘从预期视角查看的目标内容的实例以及具有用于捕获样本图像的图像传感器的装置(其中所述装置可以是具有一个或多个图像传感器的相机)的光学特性。例如,图像训练数据可描绘从具有图像传感器的装置的每个图像传感器的安装高度和特定视角查看的内容。此外,图像训练数据可匹配特定图像传感器的分辨率和颜色配置文件。将在下面进一步讨论这些视角和光学特性。
图1是关于用于训练机器学习模型的系统(例如,如图2所示的示例性机器学习训练系统200)的示例性过程100的流程图。机器学习训练系统可首先用用于生成标记的训练数据的资产来填充。例如,艺术家、开发商和其他人可通过资产门户网站210向训练系统提供资产模型、图像和其他资产(102)。资产可存储在资产数据库208中(104)。资产门户网站210可包括用于接收和管理资产数据库208的内容的用户界面和相关联的应用程序——例如,门户网站210可用于提供有关已提交资产的文档,以及从数据库208修改或删除资产。资产包括用于填充场景的资产模型和资产材料。可渲染场景以生成图像;这种图像可用作图像训练数据的部件。场景包括可渲染对象和相关联的元数据(例如,限定位置、旋转、相对比例)、对象的封闭环境的规范(例如,天空球或立方体图)以及由(但不限于)例如X和Y分辨率、焦距、光圈、曝光时间、各种压缩和测光设置的性质限定的相机模型。目标内容和道具项目可表示为对象。资产模型和资产材料可用于表示对象、对象环境(例如,天气、照明、天空球或立方体图的表示)以及渲染的图像训练数据中显示的任何其他内容。资产模型限定对象的形状,并且可包括例如限定对象的三维形状的三角形网格。资产材料可包括例如渲染为对象的表面纹理的纹理(例如,以图像形式提供,诸如瓶子的粘贴标记或金属盖纹理),以及用于细化对象的表面纹理的法线图。
可将场景规范概述(关于目标内容)和种子值提供作为输入202,以准备用于训练机器学习模型来识别图像数据中的目标内容的图像训练数据。场景规范概述是限定一系列场景的一组文本命令,其中某些场景(1)包括表示目标内容的各方面(导致目标内容的肯定实例)的一个或多个对象和某些场景(2)不包括表示目标内容(导致否定实例)的一个或多个对象。可根据资产数据库208中的项目来限定指定的对象。在某些实施例中,使用一组示例性场景限定场景的范围。可使用简洁的语法来指定场景规范概述中的场景限定。在某些实施例中,场景范围包括基于使用机器学习模型来处理样本数据的相机装置的特征,诸如特定于上下文的约束,所述样本数据包括例如场景拓扑(例如,对象实例在相机装置的环境中的类型)、相机装置的传感器相对于场景的安装位置和视角以及相机装置是在移动还是静止。
实施例1:
在一个实例中,场景规范概述中的示例性场景的一部分可包括限定场景的各方面的以下三个文本命令:set_sun_position 300 120 45//将太阳光源位置设置为空间中的某个方向,spawn_object_from_group backpacks//调用具有随机纹理的背包,meshload_scene scenes/train_station_01//加载任意场景。
在此实例中,背包对象可表示目标内容(或者目标内容的一个方面,在例如目标内容是火车站处的人丢弃背包的事件的情况下)。
对象可被限定为表示各种各样的演员和道具。例如,可将人类对象指定为具有特定性别、年龄或年龄范围、种族、与各种颜色相关联的衣物;此外,对象可表示特定的车辆或配件。可将某些对象限定为由其他对象组成或具有对象部件的复杂标记,诸如限定人体关节、面部位置、取向的坐标和表达式。例如,为了训练机器学习模型来识别背着背包的人,可使用表示单独的人、单独的背包和背着背包的人的训练数据来训练模型。此外,可指定分别对应于人和背包的训练数据的细粒度部分(例如,像素)。
可使用环境结构库来限定对象以用作道具或上下文,所述对象包括天气、植被(例如,可例如被放置为道具以辅助检测目标对象在道具对象后面移动的树木、草、灌木)和建筑物。稳健地使用道具对象并提供周密的环境范围可辅助生成更真实的位置或环境,以便提高机器学习模型识别目标对象的能力。
可将场景规范概述和种子值作为输入提供给场景随机化器204(106)。场景随机化器基于场景规范概述和种子值生成一组扩展的场景规范(108)。换句话说,可基于场景规范概述在程序上创建各种各样的场景和相关联对象。场景随机化器通过使用用于生成半随机输出的种子命令(例如,其中此类命令提取自模糊库)的种子值(例如,数字或字符串)生成一组不同版本的单个文本命令来填充一组扩展的场景规范,所述半随机输出可用于参数化各个文本命令的不同版本。场景随机化器可以是上下文感知的——也就是说,场景随机化器可生成单个文本命令的版本,其中版本的范围取决于场景的各个方面,使得所生成的变化的类型是适当的或合理的。场景上下文可由随机化器维护,所述随机化器可允许插件(例如,在运行时加载的小型Python脚本)对各种属性(例如重力、其他物理现象、本地天气、当日时间等)进行建模。插件可实现可半随机地为资产数据库中的各种对象生成合理的位置、纹理、旋转和缩放的功能。场景的合理变化可使用气候引擎、物理引擎等来建模。例如,如果场景在室内,则场景随机化器可生成室内道具而不是室外道具。如果场景是在室外并且是雨天场景,则场景随机化器可生成不同类型的雨,并将照明限制为适合于雨天场景的较低光级。在某些实施例中,半随机输出可以是例如从由场景规范概述命令中的参数锚定的某个分布(诸如具有由场景规范概述命令中的参数设置的均值的正态分布)中提取的数字。在某些实施例中,半随机输出将以种子值或基于种子值的派生种子值作为种子,并且每次使用相同的种子值时将相应地生成相同的输出。换句话说,在某些实施例中,当由模糊库进行操作时,种子值用于确定性地产生相同的文本。如果改变种子,将生成相同类型的标记数据的新品类。
可将由场景随机化器生成的一系列场景规范提供给一个或多个渲染器206,以便生成与每个场景规范相对应的一组图像(110)。渲染的图像可基于将用于生成样本图像的相机装置的每个特定图像传感器的透视和光学特性,如场景规范中所指定。从每个图像传感器的角度来看,每组图像共同表示场景的单个“快照”,并且因此,一组图像中的每个图像与场景中的相同假设时间点相关联。在某些实施例中,所述组的每个图像是根据单独的场景规范生成的。光学特性可包括,例如,传感器的分辨率、颜色检测配置文件、传感器相对于相机装置的其他传感器的位置、镜头属性(诸如广角镜头与常规镜头)、光信息的类型(红外、可见光等)、焦距、光圈等。例如,如果相机装置使用其四个图像传感器生成四个4k图像,则渲染器生成的一组图像可以是四个4k图像。此外,渲染器可另外使用如场景规范中指定的资产数据库中的资产来渲染一组图像。在某些实施例中,可将一系列场景规范分配给多个渲染器(例如,数量为N的渲染器206),使得可并行执行图像的渲染。基于单个场景规范的每组渲染图像可打包到对象标记的训练包中。对象标记的训练包包括一组渲染图像和指示渲染场景中某个对象的存在与否的标记,所述对象对应于目标内容。此外,对象标记的训练包可指定一组渲染图像中的像素,所述组渲染图像表示与目标内容相对应的对象和/或其他元数据,诸如照明条件的描述、道具项目在图像中的存在或位置、对象标记的训练包是否是时间数列的成员的时间点等。在某些实施例中,场景规范概述可用于限定一系列移动对象,所述移动对象表示代表事件的目标内容,并且这种事件可在图像训练数据中表示为对象标记的训练包的时间数列。
在某些实施例中,渲染器206使用诸如虚幻引擎、Unity、GoDot、Cry引擎的游戏引擎来渲染场景规范。
然后,队列管理器204可将对象标记的训练包在生成时流式传输到一个或多个训练实例212(112)。在某些实施例中,可存在多个训练实例(例如,数量为M的训练实例)。每个训练实例212可以是例如托管要训练的机器学习模型(诸如,包括相关联权重的卷积神经网络模型)的服务器、虚拟机或云服务容器。在某些实施例中,在用一组接收到的对象标记的训练包训练机器学习模型之前,训练实例212可初始化新的机器学习模型,或者训练实例可从先前训练的模型中加载检查点(例如,检查点可包含或识别通过神经网络学习的一组权重和偏差,所述神经网络的结构与要由训练实例进行训练的神经网络具有相同的结构)。在某些实施例中,队列管理器204可收集标对象标记的训练包,并且当收集到设置数量的包时,将它们分派给单个训练实例。
训练实例可使用接收到的对象标记的训练包中的每一个来训练或更新机器学习模型,使得机器学习模型被优化为将每包图像集与其适当的标记相关联(114)。在某些实施例中,在通过机器学习训练系统200的任何部件进行训练之后,不保留对象标记的训练包,因为可使用简洁限定的场景规范概述和种子值根据需要重新生成包。这提供了允许使用较大或高分辨率图像来训练机器学习模型的优点,因为在需要调整或再访训练数据以便重新训练机器学习模型或确定在使用训练数据进行训练时特定的机器学习模型为什么生成意外结果的情况下,不需要分配较大的存储空间来维护训练数据。
图3描绘图像生成相机装置300的示例性部件。相机装置300包括用于对装置300的环境进行成像的两个或更多个图像传感器302。例如,图像传感器302可在相应传感器之间以一定间隔布置在装置300中,以便能够推断来自装置300的对象在装置300的环境中的深度。在某些实施例中,可收集来自定位在多个物理装置上的图像传感器302的对应信息,例如,以便有利于深度推断。图像传感器302可检测灰度(单通道)光信息、颜色(例如,生成三个或更多个颜色通道的RGB、HSV/HSB、HSL或YUV)或红外光信息。图像传感器302可能够提供4K分辨率图像(即,生成沿一维具有至少4,000像素的图像)或10K分辨率或更大分辨率图像。在某些实施例中,相机装置300可安装在地面上方固定高度处的固定位置处。在某些实施例中,相机装置可安装在诸如人、车辆或无人机的移动对象上。
相机装置300可包括一个或多个相机装置处理器304。在某些实施例中,处理器304中的任何一个可以是用于计算神经网络推断计算的专用处理器。在某些实施例中,处理器304是通用处理器。处理器304可与图像传感器302、通信模块306、其他传感器308、存储部件310以及电力系统和/或电池312通信。电力系统/电池312可与一个或多个端口314通信。
相机装置300可包括一个或多个其他传感器308,诸如用于监测热负荷或环境温度的温度传感器、加速计、麦克风等。通信模块306可包括蜂窝无线电、蓝牙无线电、ZigBee无线电、近场通信(NFC)无线电、无线局域网(WLAN)无线电、用户身份模块(SIM)卡、GPS接收器以及由它们各自使用的用于通过各种网络(诸如,远程通信网络或无线局域网)传达数据的天线。存储器310可包括一种或多种类型的计算机可读介质,诸如,RAM、光学存储装置或快闪存储器,并且可存储操作系统、应用程序、通信程序和基于由图像传感器302生成的数据进行推断的机器学习模型(例如,本地机器学习模型)。电力系统/电池312可包括电力管理系统、一个或多个电源,诸如,电池和充电系统、AC、DC、电力状态指示灯等。在某些实施例中,相机装置300的部件可被封闭在单个外壳316中。
图4描绘用于实时图像处理的示例性分布式系统400的示例性数据流和部件。在某些实施例中,相机装置300的集合被放置在监测区域404(例如,目标内容或相机装置300的环境的可能位置)内。相机装置300可通过有线或无线通信信道向网关装置406提供推断的通知或输出,并且可通过那些信道接收对相机装置的本地机器学习模型的更新。网络408表示远程通信网络、有线或无线局域网或互联网。在某些实施例中,相机装置300可在没有网关装置406的情况下连接到网络408。在某些实施例中,报告系统414在托管服务器416(诸如,HTTP服务器)的云服务或一个或多个计算装置和可基于检测到的事件或基于相机装置300处的推断发起某些动作(例如,将报告发送到客户端装置)的应用程序420上运行。例如,可将限定的动作和/或用户账户信息存储在数据存储422中。应用程序420可支持提供对用于访问数据存储422的方法的外部访问的应用程序编程接口(API)418。在某些实施例中,运行在用户装置412或其他客户端装置上的客户端应用可使用诸如HTTP或FTP的协议通过服务器416访问API 418,以便例如查看训练系统用户界面或报告系统用户界面等。训练系统200可直接与相机装置300通信或通过网络408间接与相机装置300通信。
图5是关于使用神经网络推断图像内容的示例性过程500的流程图。首先,由诸如相机装置300的相机装置的图像传感器302生成一组样本图像(502)。例如,如果相机装置使用四个图像传感器,则一组样本图像将包含四个图像。样本图像可从每个图像传感器302的视角描绘例如监测区域404的内容。在某些实施例中,同时获得表示在单个时间点处的成像的真实世界场景的一组样本图像。在某些实施例中,预处理一组样本图像以有利于推断图像内容(504)。例如,可过滤例如一组样本图像以移除噪声、被裁剪为较小的大小或降低的分辨率。在某些实施例中,此预处理由相机装置执行。然后可将所述组样本图像提供给本地相机装置神经网络模型——也就是说,可由相机装置存储和使用神经网络模型(506)。相机装置可使用本地相机装置神经网络模型对所述组样本图像的内容进行分类(508)。例如,相机装置300使用的神经网络模型可能已经被训练为基于特定相机装置300在监测区域404中的位置和视角来识别场景内的车辆(即目标内容)。通过本地相机装置神经网络模型的单次正推法来处理一组样本图像,可生成有关目标内容在所述组样本图像中存在的描述——例如,所述输出可能是描绘的若干类型的车辆中的每一者在相机装置的视野内的计数(508)。在某些实施例中,有关目标内容的存在的描述可包括目标内容在图像中的实例的位置(其中实例是目标内容的识别的每个项目,例如,识别的单个车辆),或者目标内容的类别的分配(例如,识别的每个车辆的类型,诸如小汽车或卡车)。在某些实施例中,相机装置300或与相机装置300通信的装置可进一步分析一组或多组样本图像的分类,以识别可报告的情况,诸如异常状况(510)。例如,相机装置300可被配置来在有关目标内容的存在的描述满足作为警报条件的可报告情况的情况下,则发送警报。例如,如果监测区域404是停车场,并且有关目标内容的存在的描述指示车辆(目标对象)的计数大于阈值50,则这可指示停车场已满(警报条件)。响应于满足警报条件,相机装置300可生成警报并将警报发送到系统400的部件(例如网关406或报告系统414)以向所述部件通知警报条件。在某些实施例中,可基于本地相机装置神经网络模型未能对样本图像的内容进行分类而触发可报告情况。例如,神经网络模型可为每个可能的目标内容类别生成指示所述内容不太可能被正确分类的低概率值。相机装置300可报告所述情况,所述情况在报告中包括来自一组样本图像的一个或多个图像,或与所述组样本图像有关的视频剪辑等。在某些实施例中,报告可由每个相机装置300在时间间隔(例如一小时或一天)结束时自动生成,以总结在所述时间间隔期间每个相机装置300检测到的目标内容。
图6是关于响应于对事件或状况(诸如,异常状况)的检测而重新训练神经网络模型的示例性过程600的流程图。首先,例如可如过程500中那样通过相机装置300基于样本图像数据的分类来检测异常状况(602)。相机装置300(或系统400的另一个部件)可基于异常状况制定重新训练的请求(604)——例如,可训练本地相机装置神经网络在满足第一条件的第一情况(例如,场景的平均照明落在第一范围内的第一情况)下检测目标内容。例如,本地相机装置神经网络可能已经使用被生成的原始的一组对象标记的训练包进行了训练以满足第一条件。如果相机装置300例如基于样本图像数据确定监测区域404的平均照明不再落在第一范围内并且因此不再满足第一条件,则可根据第二条件(例如,涵盖当前平均照明值的平均照明的第二范围)制定用于重新训练的请求。所述请求可进一步识别被用作本地相机装置模型的神经网络模型。可基于所述请求来生成第二新的训练数据集(606)。例如,训练系统200可接收请求,并且可通过用第二条件自动替换用于生成第一组对象标记的训练包的场景规范概述中的第一条件的表示来生成对象标记的训练包的第二训练数据集。因此,如结合过程100的步骤所描述的,使用这种修改的场景规范概述来生成对象标记的训练包,可生成第二组对象标记的训练包,其中仅照明信息相对于第一组改变,以便更好地适应当前状况(即第二条件)。可通过使用第二训练数据集(例如,使用训练系统200)来训练在请求中识别的神经网络模型来获得更新的神经网络模型(608)。一旦重新训练完成(例如,在整个第二训练数据集已用于反向传播新权重之后,或在使用第二训练数据集将神经网络模型已经训练到足够的准确水平之后),可将更新的神经网络权重提供给相机装置以用于推断(610)。
在某些实施例中,可按照预定计划的方式将更新的神经网络模型提供给相机装置300。例如,如果相机装置300使用经训练以对儿童进行计数的神经网络模型,并且对于每个万圣节,监测区域404包含大量的不给糖就捣蛋的人,则可将被训练识别盛装儿童的经过专门训练的神经网络模型自动提供给相机装置300,以替换万圣节期间的普通本地神经网络模型。
图7是关于生成训练数据和训练神经网络模型以识别目标内容的示例性过程700的流程图。首先,诸如训练系统200的系统的部件可接收场景规范概述和种子值,其中场景规范概述指定场景的范围(702)。每个场景可包括一个或多个对象和相机模型。可使用种子值基于场景规范概述来生成多个场景规范,其中基于给定场景规范概述和给定种子值生成的一组场景规范将确定性地致使生成同一组场景规范(704)。场景规范应准备好包括目标对象表示的目标内容的至少一些实例;此外,场景规范可包括作为道具对象的对象。可根据多个场景规范中的每个场景规范来生成对象标记的训练包,每个包具有(1)关于可在场景规范中表示的一个或多个目标对象的标记(例如,指示目标对象存在于场景中的位置处的标记,或者指示目标对象不存在于场景中的标记),以及(2)多个图像,其中包中的多个图像中的每一者对应于安装的相机装置的特定图像传感器(例如,特定图像可具有与特定图像传感器相同的分辨率和视角)(706)。可将生成的对象标记的训练包流式传输到包括训练实例神经网络的一个或多个训练实例(708)。可使用接收到的对象标记的训练包对训练实例神经网络进行训练,从而使神经网络提高将对象标记的训练包的标记映射到对象标记的训练包的图像的能力(710)。对象标记的训练包在训练实例神经网络中被用于反向传播权重后,不被保留。在完成使用对象标记的训练包的训练时,将训练实例神经网络提供给监测区域404中的对应相机装置300(712)。
图8示出根据本发明的一些实施例的示例性计算系统的框图。
图8是示出表示本文所讨论的计算机系统或电子装置的任一者的示例性计算系统800的框图。注意,并非所有的各种计算机系统都具有系统800的所有特征。例如,系统可不包括显示器,因为显示功能可由通信地耦接到计算机系统的客户端计算机提供,或者显示功能可能是不必要的。
系统800包括总线2506或用于传达信息的其他通信机制,以及与总线2506耦接的用于处理信息的一个或多个处理器2504。计算机系统800还包括耦接到总线2506的用于存储将由处理器2504执行的信息和指令的主存储器2502,诸如随机存取存储器或其他动态存储装置。主存储器2502还可用于在执行将由处理器2504执行的指令期间,存储临时变量或其他中间信息。
系统800还可包括只读存储器2508或耦接到总线2506的用于为处理器2504存储静态信息和指令的其他静态存储装置。提供了存储装置2510(其可以是硬盘、基于快闪存储器的存储介质、磁带或其他磁存储介质、光盘(CD)-ROM、数字通用光盘(DVD)-ROM,或其他光学存储介质,或处理器2504可从中读取的任何其他存储介质中的一者或多者),并且所述存储装置2510耦接到总线2506,以用于存储信息和指令(例如,操作系统、应用程序等)。
计算机系统800可通过总线2506耦接到显示器2512以将信息显示给计算机用户。诸如键盘2514、鼠标2516或其他输入装置2518的输入装置可耦接到总线2506,以用于将信息和命令选择传达给处理器2504。通信/网络部件2520可包括网络适配器(例如,以太网卡)、蜂窝无线电、蓝牙无线电、NFC无线电、GPS接收器,以及各自用于通过各种网络(诸如,远程通信网络或LAN)传达数据的天线。
本文所提及的过程可由处理器2504执行包含在主存储器2502中的计算机可读指令的适当序列来实现。可从诸如存储装置2510的另一计算机可读介质将此类指令读入主存储器2502中,并且执行包含在主存储器2502中的指令的序列致使处理器2504执行相关联的动作。在替代实施例中,可使用硬连线电路或固件控制的处理单元(例如,现场可编程门阵列)来代替处理器2504及其相关联的计算机软件指令或与之组合以实现本发明。可以任何计算机语言来呈现计算机可读指令,所述计算机语言包括但不限于:Python、Objective C、C#、C/C++、Java、Javascript、汇编语言、标示语言(例如HTML、XML)等。通常,所有上述术语意在涵盖为实现给定目的而按序列执行的任何一系列逻辑步骤,这是任何计算机可执行应用程序的标志。除非另外特别指出,应当了解,在本发明的整个描述中,诸如“处理”、“运算”、“计算”、“确定”、“显示”、“接收”、“传输”等术语的使用是指适当编程的计算机系统(诸如计算机系统800)或类似的电子计算装置的动作和过程,所述系统或装置操纵其寄存器和存储器内的表示为物理(电子)量的数据,并将所述数据转变成其存储器或寄存器或者其他此类信息存储、传输或显示装置内的类似地表示为物理量的其他数据。
尽管已经示出和描述了优选实施例,但是应当理解,并不旨在通过这种公开来限制本发明,而是旨在覆盖落入本发明的精神和范围内的所有修改和替代构造。

Claims (13)

1.一种用于训练神经网络以识别目标内容的方法,其中所述神经网络与具有多个图像传感器的安装的相机装置相关联,所述方法包括:
接收场景规范概述和种子值,其中所述场景规范概述指定场景的范围,并且其中场景包括一个或多个对象以及相机模型;
基于所述场景规范概述和所述种子值生成多个场景规范,其中,所述多个场景规范中的某些场景规范将所述目标内容表示为一个或多个目标对象;
根据每个场景规范,为所述多个场景规范中的每个场景规范生成对象标记的训练包,所述对象标记的训练包包括(1)关于所述一个或多个目标对象的标记,以及(2)多个图像,其中所述多个图像中的每个图像对应于所述多个图像传感器中的特定一个并且基于所述多个图像传感器中的所述特定一个的光学性质和视角具有图像性质和像素内容;
将所述对象标记的训练包流式传输到包括训练实例神经网络的一个或多个训练实例;
使用所述对象标记的训练包对所述一个或多个训练实例神经网络进行训练,其中在基于所述对象标记的训练包更新所述训练实例神经网络的权重之后不保留所述对象标记的训练包;以及
将所述训练实例神经网络提供给所述安装的相机装置。
2.如权利要求1所述的方法,其特征在于,所述场景规范概述以简洁语法表达。
3.如权利要求1所述的方法,其特征在于,所述相机模型识别所述安装的相机装置的所述视角和光学性质。
4.如权利要求1所述的方法,其特征在于,所述场景规范概述进一步指定一个或多个道具对象。
5.如权利要求1所述的方法,其特征在于,生成多个场景规范的步骤包括:基于所述种子值,根据对象参数的多个分布来生成对象参数的特定组合。
6.如权利要求1所述的方法,其特征在于,针对所述多个场景规范的每个场景规范生成对象标记的训练包的步骤可通过多个渲染器并行地执行。
7.如权利要求1所述的方法,其特征在于,所述对象标记的训练包的子集的每个相应包包含所述目标对象在所述相应包的所述多个图像的每个图像的某些像素中的相应表示。
8.如权利要求7所述的方法,其特征在于,所述对象标记的训练包包括所述多个图像中的所述目标对象的所述相应表示的像素与所述目标对象的所述标记之间的映射。
9.如权利要求1所述的方法,其进一步包括:
接收再训练的请求,其中所述请求识别训练实例神经网络的检查点和有关再训练的指令;以及
修改所述场景规范概述以并入所述指令;
其中,在训练所述训练实例神经网络之前,使用与所述识别的检查点相关联的所述权重更新所述训练实例神经网络的所述检查点。
10.如权利要求9所述的方法,其特征在于,所述指令限定一个或多个道具对象添加到所述场景规范概述或从所述场景规范概述中移除。
11.如权利要求9所述的方法,其特征在于,所述指令指定照明条件。
12.如权利要求9所述的方法,其特征在于,所述指令指定期望数量的对象标记的包。
13.如权利要求9所述的方法,其特征在于,通过所述安装的边缘装置检测到异常状况来发起所述再训练的请求。
CN201980024967.4A 2018-03-13 2019-02-13 确定性标记数据生成和人工智能训练途径 Pending CN112166438A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862642578P 2018-03-13 2018-03-13
US62/642,578 2018-03-13
US201862662662P 2018-04-25 2018-04-25
US62/662,662 2018-04-25
PCT/US2019/017784 WO2019177733A1 (en) 2018-03-13 2019-02-13 Deterministic labeled data generation and artificial intelligence training pipeline

Publications (1)

Publication Number Publication Date
CN112166438A true CN112166438A (zh) 2021-01-01

Family

ID=65576719

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980024967.4A Pending CN112166438A (zh) 2018-03-13 2019-02-13 确定性标记数据生成和人工智能训练途径

Country Status (4)

Country Link
US (1) US10922585B2 (zh)
EP (1) EP3766006A1 (zh)
CN (1) CN112166438A (zh)
WO (1) WO2019177733A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112926566A (zh) * 2021-02-26 2021-06-08 南京信息工程大学 一种基于网页验证码的图像标注方法

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10813572B2 (en) 2015-12-11 2020-10-27 Electronic Caregiver, Inc. Intelligent system for multi-function electronic caregiving to facilitate advanced health diagnosis, health monitoring, fall and injury prediction, health maintenance and support, and emergency response
JP7050006B2 (ja) * 2017-06-28 2022-04-07 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 移動体制御装置、移動体制御方法、及び学習方法
US11213224B2 (en) 2018-03-19 2022-01-04 Electronic Caregiver, Inc. Consumer application for mobile assessment of functional capacity and falls risk
US11923058B2 (en) 2018-04-10 2024-03-05 Electronic Caregiver, Inc. Mobile system for the assessment of consumer medication compliance and provision of mobile caregiving
US11488724B2 (en) 2018-06-18 2022-11-01 Electronic Caregiver, Inc. Systems and methods for a virtual, intelligent and customizable personal medical assistant
WO2020014294A1 (en) * 2018-07-11 2020-01-16 Google Llc Learning to segment via cut-and-paste
JP6542445B1 (ja) 2018-07-31 2019-07-10 株式会社 情報システムエンジニアリング 情報提供システム及び情報提供方法
US11042611B2 (en) * 2018-12-10 2021-06-22 XNOR.ai, Inc. Digital watermarking of machine-learning models
SG11202107882TA (en) 2019-02-05 2021-08-30 Electronic Caregiver Inc 3d environment risks identification utilizing reinforced learning
JP6607589B1 (ja) 2019-03-29 2019-11-20 株式会社 情報システムエンジニアリング 情報提供システム及び情報提供方法
JP6607590B1 (ja) 2019-03-29 2019-11-20 株式会社 情報システムエンジニアリング 情報提供システム及び情報提供方法
JP6651189B1 (ja) * 2019-03-29 2020-02-19 株式会社 情報システムエンジニアリング 機械学習用のデータ構造、学習方法及び情報提供システム
US11455496B2 (en) * 2019-04-02 2022-09-27 Synthesis Ai, Inc. System and method for domain adaptation using synthetic data
US11113943B2 (en) * 2019-05-07 2021-09-07 Electronic Caregiver, Inc. Systems and methods for predictive environmental fall risk identification
US10650265B1 (en) 2019-05-29 2020-05-12 Capital One Services, Llc Systems and methods for enhancing real-time image recognition
US11055838B2 (en) * 2019-12-09 2021-07-06 GE Precision Healthcare LLC Systems and methods for detecting anomalies using image based modeling
US11886968B2 (en) * 2020-03-27 2024-01-30 Intel Corporation Methods and devices for detecting objects and calculating a time to contact in autonomous driving systems
US20220114477A1 (en) * 2020-10-14 2022-04-14 Baidu Usa Llc Event driven configurable artificial intelligence workflow
US12009083B2 (en) 2020-11-16 2024-06-11 Electronic Caregiver, Inc. Remote physical therapy and assessment of patients

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104376326A (zh) * 2014-11-02 2015-02-25 吉林大学 一种用于图像场景识别的特征提取方法
CN105608459A (zh) * 2014-10-29 2016-05-25 阿里巴巴集团控股有限公司 商品图片的分割方法及其装置
CN106169082A (zh) * 2015-05-21 2016-11-30 三菱电机株式会社 训练分类器以检测目标环境图像中的对象的方法和系统
US20170213112A1 (en) * 2016-01-25 2017-07-27 Adobe Systems Incorporated Utilizing deep learning for automatic digital image segmentation and stylization
US20170293837A1 (en) * 2016-04-06 2017-10-12 Nec Laboratories America, Inc. Multi-Modal Driving Danger Prediction System for Automobiles
CN107301400A (zh) * 2017-06-23 2017-10-27 深圳市唯特视科技有限公司 一种语义导向的半监督视频对象分割方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5388206A (en) * 1992-11-13 1995-02-07 The University Of North Carolina Architecture and apparatus for image generation
US6959109B2 (en) * 2002-06-20 2005-10-25 Identix Incorporated System and method for pose-angle estimation
US10762399B2 (en) * 2017-12-18 2020-09-01 Ford Global Technologies, Llc Using deep video frame prediction for training a controller of an autonomous vehicle
US10755115B2 (en) 2017-12-29 2020-08-25 Here Global B.V. Method, apparatus, and system for generating synthetic image data for machine learning
US11281976B2 (en) 2018-07-12 2022-03-22 International Business Machines Corporation Generative adversarial network based modeling of text for natural language processing
US11481416B2 (en) 2018-07-12 2022-10-25 International Business Machines Corporation Question Answering using trained generative adversarial network based modeling of text

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105608459A (zh) * 2014-10-29 2016-05-25 阿里巴巴集团控股有限公司 商品图片的分割方法及其装置
CN104376326A (zh) * 2014-11-02 2015-02-25 吉林大学 一种用于图像场景识别的特征提取方法
CN106169082A (zh) * 2015-05-21 2016-11-30 三菱电机株式会社 训练分类器以检测目标环境图像中的对象的方法和系统
US20170213112A1 (en) * 2016-01-25 2017-07-27 Adobe Systems Incorporated Utilizing deep learning for automatic digital image segmentation and stylization
US20170293837A1 (en) * 2016-04-06 2017-10-12 Nec Laboratories America, Inc. Multi-Modal Driving Danger Prediction System for Automobiles
CN107301400A (zh) * 2017-06-23 2017-10-27 深圳市唯特视科技有限公司 一种语义导向的半监督视频对象分割方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112926566A (zh) * 2021-02-26 2021-06-08 南京信息工程大学 一种基于网页验证码的图像标注方法
CN112926566B (zh) * 2021-02-26 2023-06-30 南京信息工程大学 一种基于网页验证码的图像标注方法

Also Published As

Publication number Publication date
US10922585B2 (en) 2021-02-16
US20190286942A1 (en) 2019-09-19
EP3766006A1 (en) 2021-01-20
WO2019177733A1 (en) 2019-09-19

Similar Documents

Publication Publication Date Title
US10922585B2 (en) Deterministic labeled data generation and artificial intelligence training pipeline
CN112166439A (zh) 真实到合成图像域转移
Liu et al. Third-eye: A mobilephone-enabled crowdsensing system for air quality monitoring
US10614310B2 (en) Behavior recognition
EP3766044B1 (en) Three-dimensional environment modeling based on a multicamera convolver system
US10510187B2 (en) Method and system for virtual sensor data generation with depth ground truth annotation
US12008794B2 (en) Systems and methods for intelligent video surveillance
CN103069434A (zh) 多模式视频事件索引
CN109816745A (zh) 人体热力图展示方法及相关产品
US11699078B2 (en) Intelligent recognition and alert methods and systems
Giyenko et al. Application of convolutional neural networks for visibility estimation of CCTV images
US11887374B2 (en) Systems and methods for 2D detections and tracking
CN112166432A (zh) 用于相机间个体及个体特性识别的系统和方法
CN208335208U (zh) 包含气象参数的图像融合采集系统
JP6976731B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US20210258564A1 (en) Profiling video devices
CN115019218B (zh) 图像处理方法和处理器
EP3948660A1 (en) System and method for determining location and orientation of an object in a space
JP2024514175A (ja) 鳥の検出および種決定
CN114782883A (zh) 基于群体智能的异常行为检测方法、装置和设备
CN112215122A (zh) 基于视频图像目标检测的火灾检测方法、系统、终端以及存储介质
CN113505653B (zh) 目标检测方法、装置、设备、介质及程序产品
Choudhary et al. Object Detection Using YOLO Models
Rahman et al. Research Article Computer Vision-Based Wildfire Smoke Detection Using UAVs
Velesaca et al. Video Analytics in Urban Environments: Challenges and Approaches

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination