CN113767392A - 情况识别方法及执行其的装置 - Google Patents

情况识别方法及执行其的装置 Download PDF

Info

Publication number
CN113767392A
CN113767392A CN201980095863.2A CN201980095863A CN113767392A CN 113767392 A CN113767392 A CN 113767392A CN 201980095863 A CN201980095863 A CN 201980095863A CN 113767392 A CN113767392 A CN 113767392A
Authority
CN
China
Prior art keywords
situation recognition
map
feature map
processor
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980095863.2A
Other languages
English (en)
Inventor
河荣国
丁赫俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University Industry Cooperation Corporation of Konkuk University
Original Assignee
University Industry Cooperation Corporation of Konkuk University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University Industry Cooperation Corporation of Konkuk University filed Critical University Industry Cooperation Corporation of Konkuk University
Publication of CN113767392A publication Critical patent/CN113767392A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种情况识别方法及执行其的装置。根据一实施例的情况识别方法包括以下步骤:从图像流获取特征图(feature map);基于所述特征图生成对象图(object map);以及基于所述对象图识别由所述图像流构成的图像的情况。

Description

情况识别方法及执行其的装置
技术领域
以下实施例涉及一种情况识别方法及执行其的装置。
背景技术
近年来,人工智能(AI,artificial intelligence)技术已应用于各个领域。基于人工智能的实时图像对象检测技术显示出比传统图像处理方法(如SURF、模板匹配(Template matching)及SHIFT等)更好的性能。基于AI的对象检测应用于机器人、自动驾驶及安全摄像头等,从而识别视野内的车辆、物体及人员。
对于自动驾驶车辆及机器人等,为了正确应对各种情况全面的情况识别能力至关重要。目前,大多数系统使用一种简基于规则的(rule-based)简单的情况确定方法。然而,在基于规则的系统中,鲁棒性在各种情况下无法保证,因此基于AI的情况识别技术正在开发中。
发明内容
要解决的技术问题
实施例可以提供一种通过使用单个框架检测图像流中的对象来识别情况的技术。
解决问题的技术方法
根据一实施例的情况识别方法,包括以下步骤:从图像流获取特征图(featuremap);基于所述特征图生成对象图(object map);以及基于所述对象图识别由所述图像流构成的图像的情况。
所述情况识别方法还可以包括以下步骤:基于所述特征图检测被包括在所述图像中的对象。
所述获取步骤可以包括以下步骤:使用卷积层(convolution layer)及最大池化层(maxpool layer)来生成所述特征图。
所述检测步骤可以包括以下步骤:通过基于所述特征图计算所述对象的类型(type)、类别(class)、位置(position)及区域(area)中的至少一个来检测所述对象。
所述生成步骤可以包括以下步骤:将所述特征图转换为表示对象存在于所述特征图的每个网格单元(grid cell)中的概率的桥接图(bridged map);以及通过在所述桥接图中显示具有阈值以上的概率的区域来生成所述对象图。
生成所述桥接图的步骤可以包括以下步骤:使用锚框(anchor box)来计算所述每个网格单元中存在对象的概率值。
所述情况识别方法还可以包括以下步骤:扩展所述对象图的尺寸。
所述对象图包括多个对象图,并且,所述识别步骤可以包括以下步骤:根据时间步(time step)将所述多个对象图中的每一个输入到每个LSTM单元中;以及使用最终LSTM单元的输出来识别所述图像的情况。
根据一实施例的情况识别装置包括:包含指令的存储器;以及用于执行所述指令的处理器,并且,当所述指令由所述处理器执行时,所述处理器从图像流获取特征图(feature map),并基于所述特征图生成对象图(object map),并基于所述对象图识别由所述图像流构成的图像的情况。
所述处理器可以基于所述特征图来检测被包括在所述图像中的对象。
所述处理器可以使用卷积层(convolution layer)及最大池化层(maxpoollayer)来生成所述特征图。
所述处理器可以通过基于所述特征图计算所述对象的类型(type)、类别(class)、位置(position)及区域(area)中的至少一个来检测所述对象。
所述处理器可以将所述特征图转换为表示对象存在于所述特征图的每个网格单元(grid cell)中的概率的桥接图(bridged map),并通过在所述桥接图中显示具有阈值以上的概率的区域来生成所述对象图。
所述处理器可以使用锚框(anchor box)来计算所述每个网格单元中存在对象的概率值。
所述处理器可以扩展所述对象图的尺寸。
所述对象图包括多个对象图,并且,所述处理器可以根据时间步(time step)将所述多个对象图中的每一个输入到每个LSTM单元中,并使用最终LSTM单元的输出来识别所述图像的情况。
附图说明
图1为显示根据一实施例的情况识别系统的附图。
图2为图1所示的情况识别装置的示意框图。
图3为说明图1所示的情况识别装置的操作的附图。
图4为详细说明图3所示的对象图生成模块的操作的附图。
图5a至图5c为显示图像帧及对应于图像帧的对象图的附图。
图6为详细说明图3所示的情况识别模块的操作的附图。
图7为说明情况识别装置的学习操作的附图。
图8为显示情况识别装置的学习结果的图表。
图9a至图9c为显示情况识别装置的基于实时图像流的情况识别结果的附图。
具体实施方式
以下,参照附图对本发明的实施例进行详细说明。可以对以下实施例进行多种变更,因此本申请的权利范围并非受到以下实施例的限制或限定。对所有实施例的全部更改、其等同物乃至其替代物均包括在权利要求范围。
实施例中使用的术语仅用于说明特定实施例,并非用于限定实施例。在内容中没有特别说明的情况下,单数表达包括复数含义。在本说明书中,“包括”或者“具有”等术语用于表达存在说明书中所记载的特征、数字、步骤、操作、构成要素、配件或其组合,并不排除还具有一个或以上的其他特征、数字、步骤、操作、构成要素、配件或其组合,或者附加功能。
在对各种组件的描述中,可以使用第一或第二等术语,但组件不应受到术语的限制。这些术语仅用于区分其构成元素和另一构成元素,例如,在不脱离根据实施例的概念的权利范围的情况下,第一组件可以被称为第二组件,并且类似地,第二组件也可以被称为第一组件。
在没有其他定义的情况下,包括技术或者科学术语在内的在此使用的全部术语,都具有本领域普通技术人员所理解的通常的含义。通常使用的与词典定义相同的术语,应理解为与相关技术的通常的内容相一致的含义,在本申请中没有明确言及的情况下,不能过度理想化或解释为形式上的含义。
并且,在参照附图进行说明的过程中,与附图标记无关,相同的构成要素赋予相同的附图标记,并省略对此的重复的说明。在说明实施例的过程中,当判断对于相关公知技术的具体说明会不必要地混淆实施例时,省略对其详细说明。
本说明书中的模块(module)可以指能够根据本说明书中描述的每个名称执行功能和操作的硬件,或可以指能够执行特定功能和操作的计算机程序代码,或者,可以指加载有能够执行特定功能和操作的计算机程序代码的电子记录介质,例如,处理器或微处理器。
换言之,模块可以表示用于实现本发明的技术思想的硬件和/或用于驱动上述硬件的软件的功能和/或结构组合。
下面,将参照附图详细描述实施例。然而,专利申请的范围不受这些实施例的限制。
图1为显示根据一实施例的情况识别系统的附图,图2为图1所示的情况识别装置的示意框图。
参照图1及图2,情况识别系统10可以提供基于实时图像的情况识别技术。例如,情况识别系统10可以向自动驾驶车辆(autonomous vehicles)提供情况识别技术。
在自动驾驶车辆中,驾驶状况识别技术是关键组成部分,在高度自动化阶段以上的阶段尤为重要。自动驾驶车辆的高度自动化阶段(4级)意味着在指定道路条件下的所有情况下都可以进行自动驾驶,并且驾驶员干预其他道路条件下的驾驶,处于完全自动化阶段(5级)的之前阶段。在高度自动化阶段和完全自动化阶段的自动驾驶车辆中,情况识别系统10可以用作识别基于实时图像的驾驶状况的技术。
情况识别系统10包括情况识别装置100及图像流150。
图像流150可以包括图像帧。可以根据时间序列配置包括在图像流150中的图像帧。例如,图像流250可以是将由自动车辆在行驶中实时拍摄的图像以时间顺序组成的图像序列(image sequences)。
情况识别装置100可以从所输入的图像流150识别情况。例如,情况识别装置100可以从自动驾驶车辆在行驶时拍摄的图像流150识别道路正在施工的情况或行人正在横穿道路的情况。
情况识别装置100可以使用单个框架(framework)来同时执行对象检测(objectdetection)及情况识别(situation recognition)。由于情况识别装置100的情况识别模型被设计为针对对象检测进行优化,因此情况识别装置100非常高效并可提供高性能。
情况识别装置100包括存储器200和处理器300。处理器300可以控制情况识别装置100的整体操作。处理器300可以基于准备用于执行对象检测和情况识别操作的数据进行学习。处理器300可以基于学习结果从图像流150检测对象,并基于对象检测结果识别情况。
处理器300可以基于图像流150获得特征图(feature map),并基于特征图检测对象。此外,处理器300可以基于特征图生成对象图(object map),并且可以基于对象图识别图像流150的状况。
存储器200可以存储可由处理器300执行的指令(instructions)和/或程序。例如,指令和/或程序可以包括用于执行处理器300的操作和/或处理器300的每个组件的操作的指令。
处理器300可以处理存储在存储器200中的数据。处理器300可以执行存储在存储器200中的计算机可读代码(例如,软件)及由处理器300生成的指令。
处理器300可以是由硬件实现的数据处理装置,其具有用于执行期望操作(desired operations)的物理结构的电路。例如,期望操作可以包括程序中包含的代码(coe)或指令(instructions)。
例如,作为硬件实现的数据处理装置包括微处理器(microprocessor)、中央处理单元(central processing unit)、处理器核心(processor core)、多核处理器(multi-core processor)、多处理器(multiprocessor)、专用集成电路(ASIC,Application-Specific Integrated Circuit)及现场可编程门阵列(FPGA,Field Programmable GateArray)。
情况识别装置100可以在个人计算机(PC)、数据服务器或便携式设备中实现。
便携式设备可以实现为笔记本电脑、移动手机、智能手机、平板电脑、移动互联网设备(MID,mobile internet device)、个人数字助理(PDA,personal digitalassistant)、企业数字助理(EDA,enterprise digital assistant)、数码相机(digitalstill camera)、数码摄像机(digital video camera)、便携式多媒体播放器(portablemultimedia player)、个人导航设备(personal navigation device)或便携式导航设备(portable navigation device)、手持游戏机(handheld game console)、电子书(e-book)或智能设备(smart device)。智能设备可以实现为智能手表(smart watch)、智能带(smartband)或智能戒指(smart ring)。
图3为说明图1所示的情况识别装置的操作的附图。
参照图3,处理器300包括对象检测模块330、对象图生成模块340及情况识别模块350。
图像流150可以包括按时间顺序排列的图像帧(151-1、151-2至151-n)。例如,图像流150可以是根据时间顺序配置图像帧(151-1、151-2至151-n)的图像序列(imagesequences)。
对象检测模块330可以从图像帧检测出对象的类型(type)、坐标(coordinates)及大小(size)。例如,对象检测模块330可以基于图像帧(151-1、151-2至151-n)生成特征图(feature map),并可以基于特征图来生成对象的类型、坐标及大小。
对象检测模块330可以实现为YOLO(You Only Look Once)。实现为YOLO的对象检测模块330可以包括卷积神经网络(CNN,convolutional neural network)(331-1、331-2至331-n)及检测器(333-1、333-2至333-n)。
为了说明CNN(331-1、331-2至331-n)和检测器(333-1、333-2至333-n)对每个图像帧(151-1、151-2至151-n)执行对象检测操作,图3示出了与图像帧(151-1、151-2至151-n)的数量相同的CNN(331-1、331-2至331-n)及检测器(333-1、333-2至333-n)的数量,但也可以实现为单个(或小于图像帧数的数量)CNN模块和检测器模块对于每个帧依次执行对象检测操作。
下面,将对于图像帧(151-1、151-2至151-n)的每一个CNN(331-1、331-2至331-n)及检测器(333-1、333-2至333-n)的操作说明为代表每一个CNN及检测器的对于图像帧151的CNN331及检测器333的操作。
CNN 331可以基于图像帧151生成特征图。在这种情况下,CNN 331可以基分割为网格单元(grid cell)的图像帧151来生成特征图。例如,CNN 3310可以通过将图像帧151分割为13×13个网格单元来生成特征图。
CNN 331可以通过在每个网格单元中设置锚框(anchor box)来执行卷积(convolution)。例如,CNN 331可以通过在每个网格单元中设置五个锚框来执行卷积845次。由CNN 331生成的特征图可以包括关于锚框检测到的对象的信息。
CNN 331可以包括卷积层(convolution layer)、最大池化层(maxpool layer)及全连接层(fully connected layer)。CNN 331可以使用卷积层、最大池化层及全连接层在分割为网格单元的图像帧151执行卷积操作(convolution operation)及最大池化(maxpooling),从而生成特征图。
检测器333可以基于特征图来计算对象的类型(或类别)、位置及区域。检测器333可以对由CNN 331生成的特征图执行后处理(post-processing)操作,以获得关于对象的元数据(metadata)。
对象图生成模块340可以基于由对象识别模块330生成的特征图来生成对象图(341-1、341-2至341-n)。即,对象图生成模块340可以基于对应于每个图像帧(151-1、151-2至151-n)由对象识别模块330生成的特征图,生成对应于每个图像帧(151-1、151-2至151-n)的对象图(341-1、341-2至341-n)。
情况识别模块350可以基于对象图(341-1、341-2至341-n)来识别情况。情况识别模块350可以实现为LSTM(Long Short-term Memory)。实现为LSTM的情况识别模块350可以基于对应于图像帧(151-1、151-2至151-n)的对象图(341-1、341-2至341-n)来识别情况。
情况识别模块350可以由LSTM单元(353-1、353-2至353-n)构成。配置有LSTM单元(353-1、353-2至353-n)的情况识别模块350可以基于对象图(341-1、341-2至341-n)来识别情况。与按时间顺序构成的图像帧(151-1、151-2至151-n)相对应的对象图(341-1、341-2至341-n)可以依次地被输入到每一个LSTM单元(353-1、353-2至353-n)。
LSTM单元(353-1、353-2至353-n)可以将基于输入对象图(351-1、351-2至351-n)的输出顺序地输入到下一个LSTM单元(353-1和353-2至353-n)。最后的LSTM单元353-n可以将结果输入到全连接层355,并且,全连接层355可以识别情况。
图4为详细说明图3所示的对象图生成模块的操作的附图。
图4所示的对象图341用于说明图3所示的对象图(341-1、341-2至341-n)中的每一个的生成操作,并且,图3所示的对象图(341-1、341-2至341-n)都对应于对象图341。此外,图4所示的特征图335对应于与图3所示的图像帧(151-1、151-2至151-n)所对应而生成的特征图335。
对象图生成模块340可以基于由对象检测模块330生成的特征图335及被包括在特征图335中的锚框(anchor box)470,将特征图335转换为桥接图430。桥接图430可以表示对象存在于特征图的每个网格单元中的概率。例如,桥接图430的每个网格单元可以将对象存在于特征图的每个网格单元中的概率表示为代表值。
对象图生成模块340可以基于对象存在于对应于每个网格单元的锚框470内部的概率来计算对象出现在特征图的每个网格单元中的概率,并且基于所计算出的概率,可以将特征图335转换为桥接图430。
对象图生成模块340可以基于桥接图430来生成对象图341。对象图生成模块340可以将桥接图430中的每个网格单元的代表值与阈值进行比较,并生成仅显示阈值以上的网格单元的对象图341。
虽然特征图335无法输入到LSTM,但对象图341可以输入到LSTM。此外,由于情况识别操作只需要在近似位置输入特定对象的存在与否即可,因此可以使用对象图341来减少复杂的计算。
图5a至图5c为显示图像帧及对应于图像帧的对象图的附图。
5a显示与示出重型卡车正在行驶的情况的图像帧510-1相对应的对象图530-1。情况识别模块350可以生成表示重型卡车存在的区域的对象图530-1。
5b显示对应于包括多个对象(车辆、施工车辆及行人)的图像帧510-2的对象图530-2。情况识别模块350可以对多个对象进行分类,并生成显示每个对象存在的区域的对象图530-2。
参照图5c,示出分别对应于被包括在按时间顺序配置的图像流150中的图像帧510-3和下一图像帧510-4的对象图(530-3及530-4)。情况识别模块350可以根据时间序列生成与被包括在图像流150中的图像相对应的对象图530-3。
如上所述生成的对象图(530-1至530-4)可以被输入到情况识别模块350,以用于情况识别操作。
图6为详细说明图3所示的情况识别模块的操作的附图。
情况识别模块350可以基于对应于图像帧(151-1、151-2至151-n)的对象图(341-1、341-2至341-n)来识别情况。
对应于根据时间序列配置的图像帧(151-1、151-2至151-n)的对象图(341-1、341-2至341-n)可以根据时间步(time step)分别输入到LSTM单元(353-1、353-2至353-n)。LSTM单元(353-1、353-2至353-n)中的每一个可以基于多层识别器(MLP,MultilayerPerceptron)来形成单元状态(Cell state)。例如,由于对象图(341-1、341-2至341-n)是简单的28x28图,因此不需要使用复杂的层(layer)。
情况识别模块350可以被配置为LSTM单元(353-1、353-2至353-n)。为了说明与图像帧(151-1、151-2至151-n)相对应的每个对象图(341-1、341-2至341-n)被顺序输入到每个LSTM单元(353-1、353-2至353-n)的操作,在图3及图6中示出了与图像帧(151-1、151-2至151-n1)的数量相等的LSTM单元(353-1、353-2至353-n)的数量,但也可以实现为与单个(或小于图像帧数的数量)LSTM单元中按时间顺序排列的图像帧相对应的对象图(341-1、341-2至341-n)被顺序地输入到LSTM单元。
LSTM单元(353-1、353-2至353-n)可以将基于所输入对象图(353-1、353-2至353-n)的输出顺序地输入到下一LSTM单元(353-1、353-2至353-n)。即,第一LSTM单元353-1可以将基于第一对象图351-1的输出输入到第二LSTM单元353-2,第二LSTM单元353-2可以基于第一LSTM单元353-1的输出和第二对象图351-2来输出结果。通过这样的方法,第k个LSTM单元353-k可以基于第k-1个LSTM单元353-(k-1)的输出和第k个对象图351-k来输出结果。最后的LSTM单元353-n可以将输出结果输入到全连接层(fully connected layer)355,并且,全连接层355可以输出情况识别结果。
情况识别模块350可以被设计为基于表1中所示的参数(parameter)的LSTM。
[表1]
参数(Parameter) 值(Value)
内迭代 200
外迭代 10
批量大小 4
学习率 0.001
隐藏大小 128
输入大小 768
时间步 10
类别(情况) 10
图7为说明情况识别装置的学习操作的附图。
情况识别装置100可以针对各种情况执行学习。各种情况可以包括:行人横穿道路的情况(情况1)、行人站在人行横道前面的情况(情况2)、车辆在道路上安全的情况(情况3)、重型卡车在前面的情况(情况4)、其他车辆太近且需要注意的情况(情况5)以及前方有施工的情况(情况6)等。
可以使用对应于每个情况(情况1至情况6)的多个图像流(序列1至序列n)来学习情况识别装置100。学习到各种情况的情况识别装置100可以识别现有情况识别技术无法识别的情况。
图8为显示情况识别装置的学习结果的图表。
图8示出根据隐藏层(hidden layer)的数量的情况识别装置100的学习结果。可以确认,隐藏层的数量越多,学习效果越好。情况识别装置100使用128个隐藏层,并且可以通过9000条数据来学习六种情况(或类别)。
图9a至图9c为显示情况识别装置的基于实时图像流的情况识别结果的附图。
参照图9a可以确认,情况识别装置100已经从自动驾驶车辆的实时图像流识别出行人横穿道路的情况(情况1)和行人站在道路前方的情况(情况2)。
参照图9b可以确认,情况识别装置100已经从自动驾驶车辆的实时图像流识别出车辆在道路上安全的情况(情况3)和重型卡车在前面的情况(情况4)。
参照图9c可以确认,情况识别装置100已经从自动驾驶车辆的实时图像流识别出前方正在施工的情况(情况6)。
根据实施例的方法以能够通过多种计算机手段执行的程序命令的形式体现,并记录在计算机读写介质中。所述计算机读写介质能够以单独或者组合的形式包括程序命令、数据文件、数据结构等。记录在所述介质的程序指令能够是为实现实施例而特别设计与构成的指令,或者是计算机软件领域普通技术人员能够基于公知使用的指令。计算机读写记录介质能够包括硬盘、软盘以及磁带等磁性媒介(magnetic media);与CD-ROM、DVD等类似的光学媒介(optical media);与光磁软盘(floptical disk)类似的磁光媒介(magneto-optical media),以及与只读存储器(ROM)、随机存取存储器(RAM)、闪存等类似的为存储并执行程序命令而特别构成的硬件装置。程序指令的例子不仅包括通过编译器生成的机器语言代码,还包括通过使用解释器等能够由计算机执行的高级语言代码。为执行实施例的操作,所述硬件装置能够构成为以一个以上的软件模块实现操作的方式,反之亦然。
软件能够包括计算机程序(computer program)、代码(code)、指令(instruction),或其中的一个以上的组合,能够使加工装置按照所期待的方式操作,或者,单独或共同(collectively)命令加工装置。为通过加工装置进行解释或者向加工装置提供命令或数据,软件和/或数据能够永久或临时体现于(embody)任何类型的设备、构成要素(component)、物理装置、虚拟装置(virtual equipment)、计算机存储介质或装置,或者传送的信号波(signal wave)。软件分布于通过网络连接的计算机系统上,能够以分布式存储或执行。软件及数据能够存储于一个以上的计算机读写存储介质中。
虽然通过有限的附图对实施例进行了说明,但本领域普通技术人员能够基于所述记载进行多种更改与应变。例如,所说明的技术按照与说明的方法不同的顺序执行,和/或所说明的系统、结构、装置、电路等构成要素按照与说明的方法不同的形态进行结合或组合,或者由其他构成要素或者等同物置换或代替,也能得到适当的结果。
由此,其他体现,其他实施例以及权利要求范围的等同物,均属于本发明的权利要求范围。

Claims (17)

1.一种情况识别方法,其特征在于,
包括以下步骤:
从图像流获取特征图;
基于所述特征图生成对象图;以及
基于所述对象图识别由所述图像流构成的图像的情况。
2.根据权利要求1所述的情况识别方法,其特征在于,
还包括以下步骤:
基于所述特征图检测被包括在所述图像中的对象。
3.根据权利要求1所述的情况识别方法,其特征在于,
所述获取步骤包括以下步骤:
使用卷积层及最大池化层来生成所述特征图。
4.根据权利要求2所述的情况识别方法,其特征在于,
所述检测步骤包括以下步骤:
通过基于所述特征图计算所述对象的类型、类别、位置及区域中的至少一个来检测所述对象。
5.根据权利要求1所述的情况识别方法,其特征在于,
所述生成步骤包括以下步骤:
将所述特征图转换为表示对象存在于所述特征图的每个网格单元中的概率的桥接图;以及
通过在所述桥接图中显示具有阈值以上的概率的区域来生成所述对象图。
6.根据权利要求5所述的情况识别方法,其特征在于,
生成所述桥接图的步骤包括以下步骤:
使用锚框来计算所述每个网格单元中存在对象的概率值。
7.根据权利要求1所述的情况识别方法,其特征在于,
还包括以下步骤:
扩展所述对象图的尺寸。
8.根据权利要求1所述的情况识别方法,其特征在于,
所述对象图包括多个对象图,
所述识别步骤包括以下步骤:
根据时间步将所述多个对象图中的每一个输入到每个LSTM单元中;以及
使用最终LSTM单元的输出来识别所述图像的情况。
9.一种计算机程序,其与硬件结合存储在计算机可读记录介质中,以执行如权利要求1至权利要求8中任一项所述的方法。
10.一种情况识别装置,其特征在于,
包括:
包含指令的存储器;以及
用于执行所述指令的处理器,
当所述指令由所述处理器执行时,所述处理器从图像流获取特征图,并基于所述特征图生成对象图,并基于所述对象图识别由所述图像流构成的图像的情况。
11.根据权利要求10所述的情况识别装置,其特征在于,
所述处理器基于所述特征图来检测被包括在所述图像中的对象。
12.根据权利要求10所述的情况识别装置,其特征在于,
所述处理器使用卷积层及最大池化层来生成所述特征图。
13.根据权利要求11所述的情况识别装置,其特征在于,
所述处理器通过基于所述特征图计算所述对象的类型、类别、位置及区域中的至少一个来检测所述对象。
14.根据权利要求10所述的情况识别装置,其特征在于,
所述处理器将所述特征图转换为表示对象存在于所述特征图的每个网格单元中的概率的桥接图,并通过在所述桥接图中显示具有阈值以上的概率的区域来生成所述对象图。
15.根据权利要求14所述的情况识别装置,其特征在于,
所述处理器使用锚框来计算所述每个网格单元中存在对象的概率值。
16.根据权利要求10所述的情况识别装置,其特征在于,
所述处理器扩展所述对象图的尺寸。
17.根据权利要求10所述的情况识别装置,其特征在于,
所述对象图包括多个对象图,
所述处理器根据时间步将所述多个对象图中的每一个输入到每个LSTM单元中,并使用最终LSTM单元的输出来识别所述图像的情况。
CN201980095863.2A 2019-06-07 2019-06-26 情况识别方法及执行其的装置 Pending CN113767392A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020190067279A KR102095152B1 (ko) 2019-06-07 2019-06-07 상황 인지 방법 및 이를 수행하는 장치
KR10-2019-0067279 2019-06-07
PCT/KR2019/007691 WO2020246655A1 (ko) 2019-06-07 2019-06-26 상황 인지 방법 및 이를 수행하는 장치

Publications (1)

Publication Number Publication Date
CN113767392A true CN113767392A (zh) 2021-12-07

Family

ID=70003218

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980095863.2A Pending CN113767392A (zh) 2019-06-07 2019-06-26 情况识别方法及执行其的装置

Country Status (3)

Country Link
KR (1) KR102095152B1 (zh)
CN (1) CN113767392A (zh)
WO (1) WO2020246655A1 (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111881730A (zh) * 2020-06-16 2020-11-03 北京华电天仁电力控制技术有限公司 一种火电厂现场安全帽佩戴检测方法
KR102462966B1 (ko) * 2020-11-27 2022-11-04 오픈스택 주식회사 Yolo 알고리즘을 사용하는 장치의 성능 향상 방법
KR102585258B1 (ko) * 2020-12-07 2023-10-05 부경대학교 산학협력단 실시간 다중 객체 검출 장치 및 방법
KR102458952B1 (ko) * 2020-12-31 2022-10-26 한국전자통신연구원 다중 센서 정보 lstm 기반의 무인 로봇 충돌 감지/경고 방법 및 시스템
KR102388806B1 (ko) 2021-04-30 2022-05-02 (주)에이아이매틱스 주행 상황 판단 시스템

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3523752A4 (en) * 2016-11-08 2019-10-23 Samsung Electronics Co., Ltd. ELECTRONIC DEVICE AND CONTROL METHOD THEREFOR
KR101875517B1 (ko) * 2016-12-16 2018-07-09 (주)넥스트칩 영상 처리 방법 및 장치
CN109426782B (zh) * 2017-08-29 2023-09-19 北京三星通信技术研究有限公司 对象检测方法和用于对象检测的神经网络系统
KR102463175B1 (ko) * 2017-09-04 2022-11-04 삼성전자주식회사 객체 인식 방법 및 장치
KR102008290B1 (ko) * 2017-11-14 2019-08-07 고려대학교 산학협력단 영상에서 객체의 행동을 인식하는 방법 및 그 장치

Also Published As

Publication number Publication date
KR102095152B1 (ko) 2020-03-30
WO2020246655A1 (ko) 2020-12-10

Similar Documents

Publication Publication Date Title
CN113767392A (zh) 情况识别方法及执行其的装置
US20180114071A1 (en) Method for analysing media content
EP3686779B1 (en) Method and device for attention-based lane detection without post-processing by using lane mask and testing method and testing device using the same
US10963738B2 (en) Method for processing input on basis of neural network learning and apparatus therefor
EP3447727B1 (en) A method, an apparatus and a computer program product for object detection
US8345984B2 (en) 3D convolutional neural networks for automatic human action recognition
CN108734210B (zh) 一种基于跨模态多尺度特征融合的对象检测方法
CN109997152B (zh) 利用多尺度流形对准的零样本学习
US10762440B1 (en) Sensor fusion and deep learning
Wang et al. Deep Learning for Object Detection: A Survey.
CN113344206A (zh) 融合通道与关系特征学习的知识蒸馏方法、装置及设备
US20230137337A1 (en) Enhanced machine learning model for joint detection and multi person pose estimation
US20180314894A1 (en) Method, an apparatus and a computer program product for object detection
Xu et al. SALMNet: A structure-aware lane marking detection network
US20220156528A1 (en) Distance-based boundary aware semantic segmentation
CN111652181B (zh) 目标跟踪方法、装置及电子设备
CN115375781A (zh) 一种数据处理方法及其装置
CN116416503A (zh) 一种基于多模态融合的小样本目标检测方法、系统及介质
CN111738074A (zh) 基于弱监督学习的行人属性识别方法、系统及装置
CN110992404A (zh) 目标跟踪方法、装置和系统及存储介质
CN114494893B (zh) 基于语义重用上下文特征金字塔的遥感图像特征提取方法
CN110705695B (zh) 搜索模型结构的方法、装置、设备和存储介质
Xu et al. Deep Neural Network‐Based Sports Marketing Video Detection Research
Zhang A novel one-stage object detection network for multi-scene vehicle attribute recognition
Meftah et al. Deep residual network for autonomous vehicles obstacle avoidance

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination