CN109977731B - 一种场景的识别方法、识别设备及终端设备 - Google Patents

一种场景的识别方法、识别设备及终端设备 Download PDF

Info

Publication number
CN109977731B
CN109977731B CN201711450783.3A CN201711450783A CN109977731B CN 109977731 B CN109977731 B CN 109977731B CN 201711450783 A CN201711450783 A CN 201711450783A CN 109977731 B CN109977731 B CN 109977731B
Authority
CN
China
Prior art keywords
scene
candidate
information
category
object list
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711450783.3A
Other languages
English (en)
Other versions
CN109977731A (zh
Inventor
熊友军
张炎辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Youbixuan Intelligent Robot Co ltd
Ubtech Robotics Corp
Original Assignee
Ubtech Robotics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ubtech Robotics Corp filed Critical Ubtech Robotics Corp
Priority to CN201711450783.3A priority Critical patent/CN109977731B/zh
Publication of CN109977731A publication Critical patent/CN109977731A/zh
Application granted granted Critical
Publication of CN109977731B publication Critical patent/CN109977731B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明适用于信息识别技术领域,提供了一种场景的识别方法、识别设备及终端设备,包括:获取待识别场景的位置信息以及辅助识别信息;从预存的场景参数数据库中,选取与位置信息匹配的场景参数,得到候选场景参数库;基于辅助识别信息生成对象列表;根据所述候选场景参数库以及所述对象列表,确定待识别场景对应的场景类别。本发明引入了位置信息作为确定场景类别的因子之一,根据位置信息确定待识别场景的大致场景类别,从而可以滤除与该位置信息并不关联场景类别,并且终端设备可以根据位置信息判断识别得到的对象是为实物抑或是照片影相,提高了场景识别的准确率。

Description

一种场景的识别方法、识别设备及终端设备
技术领域
本发明属于信息识别技术领域,尤其涉及一种场景的识别方法、识别设备及终端设备。
背景技术
随着科学技术的不断发展,人工智能成为当今社会的最为热门的领域。而智能识别,如场景识别、人脸识别、文字识别等作为人工智能技术发展的基础,其识别的准确率直接决定了人工智能的准确率。现有的信息识别技术,特别是场景识别技术,一般是根据场景的环境图像进行场景识别。
然而该技术的缺点在于,无法分辨通过识别环境图像得到的对象是实物抑或是照片影相,例如机器人实际所在的场景为博物馆,而博物馆中悬挂了一幅海滩的画像,机器人通过识别海滩画像而确定当前所在的场所为海滩,显然是不准确的,即现有的场景识别技术容易出现将图片中显示的场景识别为机器人当前所处的场景,从而导致场景识别的准确率较低。
发明内容
有鉴于此,本发明实施例提供了一种场景的识别方法及其终端,以解决现有的场景的识别方法,无法分辨通过环境图像中识别的对象是实物抑或是照片影相,从而容易出现将图片中显示的场景识别为机器人当前所处的场景,从而导致场景识别的准确率较低的问题。
本发明实施例的第一方面提供了一种场景的识别方法,所述场景的识别方法包括:
获取待识别场景的位置信息以及用于识别所述待识别场景所属类别的辅助识别信息;
从预存的场景参数数据库中,选取与所述位置信息匹配的场景参数,得到候选场景参数库;每个所述场景参数包括场景类别与对象的对应关系;
基于所述辅助识别信息生成对象列表;所述对象列表包括:多个通过识别所述辅助识别信息所得到的对象;
根据所述候选场景参数库以及所述对象列表,确定所述待识别场景对应的场景类别。
本发明实施例的第二方面提供了一种场景的识别设备,所述场景的识别设备包括:
信息获取单元,用于获取待识别场景的位置信息以及用于识别所述待识别场景所属类别的辅助识别信息;
候选场景参数库确定单元,用于从预存的场景参数数据库中,选取与所述位置信息匹配的场景参数,得到候选场景参数库;每个所述场景参数包括场景类别与对象的对应关系;
第一对象列表生成单元,用于基于所述辅助识别信息生成对象列表;所述对象列表包括:通过识别所述辅助识别信息所得到的多个对象;
场景类别识别单元,用于根据所述候选场景参数库以及所述对象列表,确定所述待识别场景对应的场景类别。
本发明实施例的第三方面提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取待识别场景的位置信息以及用于识别所述待识别场景所属类别的辅助识别信息;
从预存的场景参数数据库中,选取与所述位置信息匹配的场景参数,得到候选场景参数库;每个所述场景参数包括场景类别与对象的对应关系;
基于所述辅助识别信息生成对象列表;所述对象列表包括:多个通过识别所述辅助识别信息所得到的对象;
根据所述候选场景参数库以及所述对象列表,确定所述待识别场景对应的场景类别。
本发明实施例的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取待识别场景的位置信息以及用于识别所述待识别场景所属类别的辅助识别信息;
从预存的场景参数数据库中,选取与所述位置信息匹配的场景参数,得到候选场景参数库;每个所述场景参数包括场景类别与对象的对应关系;
基于所述辅助识别信息生成对象列表;所述对象列表包括:多个通过识别所述辅助识别信息所得到的对象;
根据所述候选场景参数库以及所述对象列表,确定所述待识别场景对应的场景类别。
实施本发明实施例提供的一种场景的识别方法及其终端具有以下有益效果:
本发明实施例通过获取待识别场景的位置信息,并从预存的场景参数数据库中,选取与该位置信息匹配的场景参数,过滤掉与位置信息不相关的场景参数,得到候选场景参数库,以提高后续识别的场景参数的种类。除了获取待识别场景的位置信息外,终端设备还获取用于识别待识别场景所属类别的辅助识别信息,并通过识别该辅助识别信息,确定该辅助识别信息中隐含的对象,得到对象列表。基于对象列表以及候选场景参数库,最终确定待识别场景的场景类别。与现有的场景识别技术相比,本发明实施例引入了位置信息作为确定场景类别的因子之一,根据位置信息确定待识别场景的大致场景类别,从而可以滤除与该位置信息并不关联场景类别,并且终端设备可以根据位置信息判断识别得到的对象是为实物抑或是照片影相,例如当前位置信息为森林,若识别得到的对象为“大海”,则可以确定“大海”这一对象并非为实物,从而提高了场景识别的准确率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明第一实施例提供的一种场景的识别方法的实现流程图;
图2是本发明第二实施例提供的一种场景的识别方法S102的具体实现流程图;
图3是本发明第三实施例提供的一种场景的识别方法S103的具体实现流程图;
图4是本发明第四实施例提供的一种场景的识别方法S103的具体实现流程图;
图5是本发明第五实施例提供的一种场景的识别方法S103的具体实现流程图;
图6是本发明第六实施例提供的一种场景的识别方法S104的具体实现流程图;
图7是本发明一实施例提供的一种场景的识别设备的结构框图;
图8是本发明一实施例提供的一种终端设备的示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在本发明实施例中,流程的执行主体为安装有场景的识别程序的终端设备,终端设备包括服务器、计算机设备、平板电脑、智能手机、智能机器人等设备,其中,该终端设备配置有定位模块,如全球定位系统(Global Positioning System,GPS)模块、无线保真(Wireless-Fidelity,WIFI)定位模块、紫峰(ZigBee)定位模块等,通过上述定位模块获取待识别场景的位置信息。图1示出了本发明第一实施例提供的场景的识别方法的实现流程图,详述如下:
在S101中,获取待识别场景的位置信息以及用于识别所述待识别场景所属类别的辅助识别信息。
在本实施例中,场景识别的触发方式可以为手动触发方式,在该情况下,用户可向终端设备发送一个场景确定指令,终端设备在接收到用户发起的场景确定指令后,则执行S101的相关操作;场景识别触发方式也可以为自动触发方式,其中,自动触发方式包括但不限于:时间间隔触发以及距离间隔触发。时间间隔触发具体为:终端设备预设有一触发周期,若终端设备检测到当前时刻满足该触发周期,则执行S101的相关操作。距离间隔触发具体为:检测移动终端的移动距离,若该移动距离大于预设的触发距离阈值,则执行S101的相关操作,同时检测移动距离寄存器的数值归零,以便下次到达预设的距离后,重新触发S101的相关操作。由于终端设备移动一定距离后,其所处的场所发生了改变,则需要重新确定当前的场景类别。
在本实施例中,终端设备在触发场景识别操作后,将获取待识别场景的位置信息,其中该场景的位置信息可通过终端设备内置的定位模块获取得到,其中,定位模块包括以下至少一种:GPS模块、WIFI定位模块、ZigBee定位模块等。除了上述多个定位模块外,终端设备还可以通过基站定位方式,确定待识别场景的位置信息,在该情况下,终端设备通过与场景外的基站进行通信,确定当前位置的信号强度,并根据预存的信号强度与距离之间的对应关系,确定当前位置与各个基站之间的距离值,继而确定该终端设备当前所在的位置信息,将终端设备的位置信息识别为待识别场景的位置信息。
可选地,在本实施例中,终端设备可通过分布式定位装置,获取待识别场景的位置信息,即分布定位装置将采集得到的定位信息通过有线通信网络或无线通信网络发送给终端设备,从而实现异地识别待识别场景的场景类别的目的。例如,进行场景识别处理的机器人可以放置于一监控室内,然后该机器人控制一个或多个移动装置,如无人机或侦测装置,移动到各个待识别的场景,并采集各个待识别场景的位置信息以及辅助识别信息,通过无线通信或有线通信等方式发送给位于监控室的机器人,实现同时对多目标、异地场景识别的目的。
在本实施例中,用于识别待识别场景所述类别的辅助识别信息包括但不限于以下至少一种:图像信息、声音信息、红外热成像信息、声纳探测结果信息等。终端设备可通过辅助识别信息确定待识别场所内所包含的对象,并通过对象确定待识别场景的场景类别。
在S102中,从预存的场景参数数据库中,选取与所述位置信息匹配的场景参数,得到候选场景参数库;每个所述场景参数包括场景类别与对象的对应关系。
在本实施例中,终端设备存储有由多个场景参数构成的场景参数数据库,每个场景参数包括场景类别以及与该场景类别对应的一个或多个对象,构成了场景类别与对象之间的对应关系。其中,场景类别可根据场景的使用用途和/或环境特征进行分类后确定的类别。例如:根据使用用途分类得到的场景类别可以为:篮球场、羽毛球场、足球场、排球场等,根据环境特征分类得到的场景类别可以为:森林、草地、沙滩、大海等。终端设备将基于不同的场景类别中包含的通常包含的景物转换为对象,并为每个场景类别与其对应的对象建立一对应关系,即为上述的场景参数。
举例性地,学校这一场景一般包含:桌子、椅子、黑板、粉笔、风扇、黑板刷、书本、学生、老师等多种对象,终端设备将学校这一场景类别与上述多个对象进行关联,得到学校场景参数。需要说明的是,一个场景参数中包含一个场景类别,但一个场景类别可对应多个对象。而相同某一个对象可以同时与多个场景类别相对应,例如“桌子”这一对象,除了可以对应学习这一场景,还可以对应办公楼这一场景。
在本实施例中,终端设备在获取了待识别场景的位置信息后,将从场景参数数据库中提取该场景信息所对应的场景参数,然后将提取得到的场景参数组成一个候选场景参数库,从而缩小后续进行识别场景类别时所需匹配的场景参数的数量,提高了识别的效率。
可选地,在本实施例中,提取位置信息匹配的场景参数的方式可以为:终端设备的场景参数数据库的场景参数中,除了记录了场景类别与对象的对应关系外,还配置由该场景类别对应的位置范围,因此,终端设备可将采集得到的位置信息与各个场景参数中的位置范围进行比对,确定该位置信息是否落入到某一场景参数的位置范围内,若是,则表示两者匹配成功,提取该场景参数;反之,若位置信息落入到某一场景参数的位置范围外,则表示两者匹配失败。
在S103中,基于所述辅助识别信息生成对象列表;所述对象列表包括:多个通过识别所述辅助识别信息所得到的对象。
需要说明的是,S102与S103是两个并列触发的步骤的,即终端设备在执行S102的同时,可并行执行S103的相关操作。即终端设备可通过两个独立的线程,同时确定候选场景参数库以及辅助识别信息对应的对象列表。
在本实施例中,终端设备将根据辅助识别信息对应的信息类别,确定与之对应的对象识别算法,继而通过该对象识别算法,确定该辅助识别信息中包含的对象,并基于识别得到的对象生成对象列表。具体地,终端设备可根据采集到的辅助识别信息的文件后缀,确定该文件的类型,继而确定与之对应的对象识别算法。例如,辅助识别信息的文件后缀为“jpg”,则可确定该辅助识别信息为图像信息,因此选取图像识别算法确定该图像信息中包含的对象;又例如,辅助识别信息的文件后缀为“wav”,则可确定该辅助识别为音频信息,因此选取音频识别算法确定该音频信息所对应的对象。
可选地,在本实施例中,若辅助识别信息为红外成像信息,则可以根据红外热成像信息中各个热成像轮廓以及对应的温度值,识别出该红外热成像信息中包含的对象;若辅助识别信息为声纳探测结果信息,则可以根据不同角度回声返回的时间,确定当前待识别场景周围的空间分布情况,继而通过该空间分布情况中距离的连续性,将距离连续的区域为别为同一物体,继而得到多个物体的轮廓图,并根据各个轮廓图识别出对应的对象。
在S104中,根据所述候选场景参数库以及所述对象列表,确定所述待识别场景对应的场景类别。
在本实施例中,终端设备在得到候选场景参数库以及对象列表后,将从候选场景参数库中选取与该对象列表最为匹配的一个场景参数,作为待识别场景所对应的场景参数,则该场景参数所指示的场景类别,即为待识别场景的场景类别。
以上可以看出,本发明实施例提供的一种场景的识别方法通过获取待识别场景的位置信息,并从预存的场景参数数据库中,选取与该位置信息匹配的场景参数,过滤掉与位置信息不相关的场景参数,得到候选场景参数库,以提高后续识别的场景参数的种类。除了获取待识别场景的位置信息外,终端设备还获取用于识别待识别场景所述类别的辅助识别信息,并通过识别该辅助识别信息,确定该辅助识别信息中隐含的对象,得到对象列表。基于对象列表以及候选场景参数库,最终确定待识别场景的场景类别。与现有的场景识别技术相比,本发明实施例引入了位置信息作为确定场景类别的因子之一,根据位置信息确定待识别场景的大致场景类别,从而可以滤除与该位置信息并不关联场景类别,并且终端设备可以根据位置信息判断识别得到的对象是为实物抑或是照片影相,例如当前位置信息为森林,若识别得到的对象为“大海”,则可以确定“大海”这一对象并非为实物,从而提高了场景识别的准确率。
图2示出了本发明第二实施例提供的一种场景的识别方法S102的具体实现流程图。参见图2所示,相对于图1所述实施例,本实施例提供的一种场景的识别方法S102包括S1021~S1023,详述如下:
进一步地,所述从预存的场景参数数据库中,选取与所述位置信息匹配的场景参数,得到候选场景参数库,包括:
在S1021中,获取所述位置信息对应的有效区域内包含的候选场景类别;所述有效区域具体为:以所述位置信息为中心,且以预设距离为半径所覆盖的区域。
在本实施例中,终端设备在获取了待识别场景所对应的位置信息后,将确定该位置信息所对应的有效区域。其中,该有效区域具体是以该位置信息所对应地理位置为中心,并且以预设距离为半径覆盖的区域。需要说明的是,该覆盖区域还包括该区域范围内垂直范围所包含的所有区域。例如,某一有效区域覆盖有一栋酒店,而该酒店的一楼为酒店大堂、二楼为空中花园、三楼为健身房以及餐厅、四楼以上为客房。因此,有效区域除了包含一楼的场景类别外,还将包含一楼以上的楼层的所有场景类别。又例如,终端设备根据航班的航线轨迹图以及获取位置信息所对应的时间,可以确定该位置信息中有飞机航班经过,在该情况下,有效区域还应该包括该区域所对应的天空区域,以准确确定待识别场景是否为飞机场景类别。
在本实施例中,由于有效范围具有一定的覆盖面积,在该覆盖面积中可能包含多个建筑物或场景,因此,每个有效区域将包含一定数量的场景类别,即为上述的候选场景类别。例如,根据电子地图可以确定,某一有效区域中包含两栋建筑物,一栋建筑物为“深圳市第一小学”,而另一栋建筑物则为“深圳商务酒店”,由此可以确定,该有效区域中包含两种场景类别,即为“学校”以及“酒店”两个类别。
在本实施例中,用户可根据实际识别的准确度不同,选取有效范围的半径所对应的预设距离。若用户要求识别准确度较高,则该预设距离可以较短,以精准确定当前位置所对应的场所,但该方式却要求定位模块的定位精准度较高,才能得到较好的识别效果;若用户要求识别准确度较低,则该预设距离可以较长,该方式对于定位模块的定位精准度要求较低。因此,用户可根据实际终端设备定位模块的精准度以及所需识别的准确度,选取合适的预设距离。
在本实施例中,终端设备将根据有效区域以及电子地图,查询该有效区域中包含的场景类别,并将查询得到的场景类别识别为候选场景类别,即待识别场景的场景类别为候选场景类别中的一个。由于待识别场景必然在有效区域内,则该待识别场景的场景类别,必然包含在该有效区域所包含的场景类别中的一个,不可能为该有效区域外的其他场景类别,从而可以过滤了大部分无需进行识别判断的场景类别。
在S1022中,从所述场景参数数据库中,提取所述候选场景类别对应的场景参数。
在本实施例中,终端设备获取了候选场景类别后,将从场景参数数据库中,提取与上述各个候选场景类别所对应的场景参数。由于每一个场景参数均对应一种场景类别,因此终端设备可根据该候选场景类别,即可从场景参数数据库中定位与之对应的场景参数,并从该数据库中提取出来,并执行S1023的相关操作。
可选地,若场景参数数据库中不存在候选场景类别对应的场景参数,则终端设备可向服务器发送一个场景参数获取请求,服务器在接收到场景参数获取请求后,将返回一个查询结果给到终端设备,该查询结果中将包含候选场景类别所对应的场景参数。终端设备还可以通过互联网,查询该候选场景所关联的数据,从关联数据提取出现频率较高的多个对象,并建立该候选场景类别与对象的对应关系,则得到该候选场景类别所对应的场景参数。
在S1023中,将提取得到的所述场景参数所构成的集合作为所述候选场景参数库。
在本实施例中,终端设备将提取得到的各个场景参数组成一个集合,并将该集合识别为候选场景参数库,从而无需对整个场景参数数据库进行匹配,剔除了大部分无效的与当前位置信息不相关的场景参数,使得候选场景参数库与待识别场景的关联度更高。
在本发明实施例中,通过确定位置信息附近所包含的候选场景类别,继而得到与之对应的候选场景参数库,实现了无效场景参数的过滤操作,提高了场景识别的效率。
图3示出了本发明第三实施例提供的一种场景的识别方法S103的具体实现流程图。参见图3所示,相对于图1所述实施例,本实施例提供的一种场景的识别方法中S103包括S1031以及S1033,详述如下:
进一步地,所述辅助识别信息包括声音信息,所述基于所述辅助识别信息生成对象列表具体包括:
在S1031中,获取所述声音信息对应的频率分布信息。
在本实施例中,辅助识别信息为声音信息,通过声音信息确定该场景中包含的对象。一个场景中包含多个对象,根据每个对象的特性的不同,将以预设的频率发出声音,因此,终端设备也可以根据获取得的声音信息,确定该声音信息中包含的对象的类别,实现声音识别对象的目的。
在本实施例中,由于采集到的声音信息为时域上的声音信息,需要将时域信息转换为频域信息,因此,终端设备可通过傅里叶变换,将声音信息转换为与之对应的频率分布信息,从而确定该声音信息中包含的声音频率。
可选地,终端设备对声音信息进行转换之前,可通过噪声过滤算法对声音信息中的白噪声进行滤除,或者在采集声音信息时,在收音模块中添加差分放大电路,以抑制采集时产生的环境噪声。
在S1032中,基于预存的每种发声对象的发声频率范围,确定所述频率分布信息对应的发声对象。
在本实施例中,终端设备存储有不同的发声对象所对应的发声频率范围,例如人的发声频率范围为85赫兹(Hz)到1100Hz,蝴蝶的飞行时产生的频率为1Hz到5Hz,因此不同的发声对象,其发声频率范围具有一定的特点,通过上述例子可以确定,若获取到某一声音信号中包含4Hz的频率,则可以推断该声音可能由蝴蝶飞行所产生,则该场景中可能存在“蝴蝶”这一对象;又例如获取到的声音信号中包含120000Hz频率的声音,属于超声波范围,而能够发出如此高频的声音的对象,可以为“蝙蝠”或“海豚”,因此可以推断该场景中可能存在“蝙蝠”或“海豚”这两个对象。
在本实施例中,频率分布信息基于具体包含的频率值的种类以及各个频率值所对应的幅度值,选取幅度值大于预设阈值的频率值作为有效频率值,继而通过有效频率值确定其对应的发声对象,因此频率分布信息中可以对应一个或多个发声对象。
可选地,在本实施例中,终端设备可以根据每个发声对象的发声频率范围,确定该发声对象的所对应的代表发声频率值,若声音信号中所对应的频率分布信息中,该存在某一发声对象的代表发声频率值,且该频率值的幅度大于阈值的有效幅度,则识别该发声对象很大可能存在于待识别场景中。
在S1033中,根据所述发声对象生成所述对象列表。
在本实施例中,终端设备将频率分布信息所对应的多个发声对象依次导入到预设的列表模板中,得到上述对象列表。
在本发明实施例中,终端设备通过采集场景中的声音信息,识别该声音信息所表示的发声对象,得到对象列表,由于现场的实物是可以发出声音的,而图像中的虚拟对象只是由像素构成的,并无法发出声音,因此可根据声音信息确定该对象是否为实物,提高了场景识别的准确率。
图4示出了本发明第四实施例提供的一种场景的识别方法S103的具体实现流程图。参见图4所示,相对于图1所述实施例,本实施例提供的一种场景的识别方法中S103包括S1034~S1035,详述如下:
进一步地,所述辅助识别信息还包括环境图像信息,所述基于所述辅助识别信息生成对象列表,还包括:
在S1031中,识别所述环境图像信息中包含的对象。
在本实施例中,终端设备获取的辅助识别信息除了可以为声音信息外,还可以为待识别场景所处环境对应的环境图像信息。终端设备将通过图像识别算法,将环境图像信息进行对象划分,得到不同对象所对应的图像子区域,继而通过图像子区域的轮廓以及颜色特征,确定该环境图像信息中包含的对象。
在S1035中,根据所述环境图像信息中包含的对象生成所述对象列表。
在本实施例中,终端设备对象列表由环境图像信息中识别得到的所有对象构成。其中,生成列表的方式与S1033的具体实现方式相同,具体可参见S1033的相关阐述,在此不再赘述。
需要说明的是,图3的实施例与图4的实施例是两个并列的实施例,即终端设备可以将声音信息作为辅助识别信息,也可以将环境图像信息作为辅助识别信息。优选地,辅助识别信息包含声音信息和环境图像信息,在该情况下,终端设备通过两条独立的线程,分别识别声音信息中包含的对象以及环境图像信息中包含的对象,并根据上述两个信息识别得到的图像,生成对象列表。
图5示出了本发明第五实施例提供的一种场景的识别方法S103的具体实现流程图。参见图5所示,相对于图1所述实施例,本实施例提供的一种场景的识别方法中S103包括S1036~S1039,详述如下:
在S1036中,识别所述辅助识别信息中包含的候选对象。
在本实施例中,终端设备可通过预设的对象识别算法,识别辅助信息中包含的对象,并将识别得到的对象作为该场景中包含的候选对象。其中对象识别算法根据辅助信息类型所确定,如上所述,若辅助信息为音频信息,则预设的对象识别算法可以为音频识别算法;若辅助信息为图像信息,则预设的对象识别算法相应地调整为图像识别算法。当然,若辅助信息中包含两种或以上的信息类型,则预设的识别算法的数量也可以为多种。
在S1037中,分别计算每个所述候选对象与除该候选对象外的其他候选对象之间的关联度,得到每个所述候选对象的关联系数。
在本实施例中,由于识别得到的候选对象有可能并非实物,而是通过识别例如照片、图案等平面图像中包含的虚拟对象得到的,而虚拟对象一般只相对于其所处的照片中的其他虚拟对象具有关联性,而与当前场景中的其他对象关联性较低。例如,某一场景通过辅助识别信息确定了以下候选对象:桌子、椅子、黑板、粉笔、黑板刷、海滩这6个候选对象,而海滩这一候选对象是通过环境图像信息识别得到的,因此可以确定该海滩与其他候选对象之间的关联都不大,因此可以判断“海滩”这一对象并非真实存在于该待识别场景中,而是一个非实物。由此可见,通过计算候选对象与除该候选对象外的其他候选对象之间的关联度,确定该候选对像相对于全部候选对象整体而言的关联系数,继而通过关联系数的大小可以确定该对象是否为实物。
可选地,关联系数的计算方式可以为:多个关联度的平均值,则为该候选对象的关联系数。继续通过上述例子,某一待识别场景中的候选对象为桌子、椅子、黑板、粉笔、黑板刷以及海滩,则计算桌子和椅子、桌子和黑板、桌子和粉笔、桌子和黑板刷、桌子和海滩这五对候选对象之间的关联系数,通过计算,上述五对候选对象之间的关联系数分别为:10、8、7、7、1,因此对于桌子这一候选对象而言,其关联系数则为(10+8+7+7+1)/5=6.6。依次类推,分别计算椅子、黑板、粉笔、黑板刷以及海滩所对应的关联系数。
在S1038中,选取所述关联系数大于预设系数阈值的候选对象作为有效对象。
在本实施例中,由于部分候选对象与其他候选对象之间关联度均较低,因此得到的关联系数的数值也较小,则可以确定该候选对象并非真实存在于所述场景中的实体对象,而是虚拟对象。即终端设备可通过设置一个系数阈值,来判断各个候选对象是否为实体对象,即有效对象。
在本实施例中,若某一候选对象的关联系数大于预设系数阈值,则表示该候选对象与其他候选对象之间的是强关联,则识别该候选对象为有效候选对象;若某一候选对象的关联系数小于或等于预设系数阈值,则表示该候选对象与其他候选对象之间的关联较弱,可能为虚拟对象,则识别该候选对象为无效对象。
在S1039中,根据所述有效对象生成所述对象列表。
在本实施例中,终端设备将识别得到的有效对象依次导入到预设的对象列表模板,得到对象列表。
在本发明实施例中,通过声音信息以及环境图像信息,确定待识别场景中包含的候选对象,并计算每个候选对象与其他候选对象之间的关联度,确定该候选对象的关联系数,从而筛选出候选对象中的有效对象,提高了场景识别的准确率。
图6示出了本发明第六实施例提供的一种场景的识别方法S104的具体实现流程图。参见图6所示,相对于图1至图4所述实施例,本实施例提供的一种场景的识别方法中,所述根据所述候选场景参数库以及所述对象列表,确定所述待识别场景对应的场景类别,包括S1041~S1042,详述如下:
进一步地,所述根据所述候选场景参数库以及所述对象列表,确定所述待识别场景对应的场景类别,包括:
在S1041中,统计每个所述场景参数中包含的对象与所述对象列表的对象之间的匹配个数。
在本实施例中,每个场景参数均包含一个场景类别与多个对象之间的对应关系,即每个场景参数中将包含多个对象。终端设备将候选场景参数库中的各个场景参数与对象列表进行匹配操作,统计每个场景参数中包含的对象与对象列表的对象之间的匹配个数。
举例性地,某一场景参数中包含桌子、椅子、电脑这三个对象,而对象列表中包含:桌子、椅子、黑板、粉笔这四个对象,则可以确定两者对象匹配的个数为2个,因此该场景参数的匹配个数为2。
在S1042中,选取匹配个数最大的场景参数的场景类别作为所述待识别场景的场景类别。
在本实施例中,终端设备在统计得到各个场景参数对应的匹配个数后,将由小到大进行排序,选取匹配个数最大的场景参数作为待识别场景匹配的场景参数,因此该匹配的场景参数所对应的场景类别则为待识别场景的场景类别。
可选地,若存在两个或以上的场景参数的匹配个数相同,且数值均为最大,则根据各个场景参数所匹配成功的对象的关联系数,选取关联系数之和最大的一个场景参数,作为匹配的场景参数。由于每个有效对象均对应一个关联系数,因此若场景参数中包含的某一对象与有效对象匹配成功,则该匹配成功的有效对象的关联系数也可以识别为该场景参数中对象的关联系数,因此,每个场景参数也可以对应一个关联系数之和。例如,对象列表中包含三个对象,且每个对象的关联系数如下:(桌子,10),(椅子,8),(黑板,7)。而某一场景参数包含三个对象分别为桌子、椅子、电脑,因此该场景参数存在两个匹配成功的对象,即桌子和椅子,因此该场景参数的关联系数总和即为10+8=18。
在本发明实施例中,通过确定场景参数与对象列表之间的对象的匹配个数,从而选取最为关联的一个场景参数对应的场景类别作为待识别场景的场景类别,实现场景识别的目的,提高了场景识别的准确率。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
图7示出了本发明一实施例提供的一种场景的识别设备的结构框图,该场景的识别设备包括的各单元用于执行图1至图6对应的实施例中的各步骤。具体请参阅图1至图6所对应的实施例中的相关描述。为了便于说明,仅示出了与本实施例相关的部分。
参见图7,所述场景的识别设备包括:
信息获取单元71,用于获取待识别场景的位置信息以及用于识别所述待识别场景所属类别的辅助识别信息;
候选场景参数库确定单元72,用于从预存的场景参数数据库中,选取与所述位置信息匹配的场景参数,得到候选场景参数库;每个所述场景参数包括场景类别与对象的对应关系;
第一对象列表生成单元73,用于基于所述辅助识别信息生成对象列表;所述对象列表包括:通过识别所述辅助识别信息所得到的多个对象;
场景类别识别单元74,用于根据所述候选场景参数库以及所述对象列表,确定所述待识别场景对应的场景类别。
可选地,所述候选场景参数库确定单元72,具体包括:
候选场景类别获取单元,用于获取所述位置信息对应的有效区域内包含的候选场景类别;所述有效区域具体为:以所述位置信息为中心,且以预设距离为半径所覆盖的区域;
场景参数提取单元,用于从所述场景参数数据库中,提取所述候选场景类别对应的场景参数;
候选场景参数库生成单元,用于将提取得到的所述场景参数所构成的集合作为所述候选场景参数库。
可选地,所述辅助识别信息包括环境声音信息;所述第一对象列表生成单元73,具体包括:
频率分布信息获取单元,用于获取所述声音信息对应的频率分布信息;
发声对象确定单元,用于基于预存的每种发声对象的发声频率范围,确定所述频率分布信息对应的发声对象;
第二对象列表生成单元,用于根据所述发声对象生成所述对象列表。
可选地,所述辅助识别信息还包括环境图像信息;所述第一对象列表生成单元73,包括:
图像识别单元,用于识别所述环境图像信息中包含的对象;
第三对象列表生成单元,用于根据所述环境图像信息中包含的对象生成所述对象列表。
可选地,所述第一对象列表生成单元73,包括:
候选对象识别单元,用于识别所述辅助识别信息中包含的候选对象;
关联系数计算单元,用于分别计算每个所述候选对象与除该候选对象外的其他候选对象之间的关联度,得到每个所述候选对象的关联系数;
有效对象选取单元,用于选取所述关联系数大于预设系数阈值的候选对象作为有效对象;
第三对象列表生成单元,用于根据所述有效对象生成所述对象列表。
可选地,场景类别识别单元74,包括:
匹配个数统计单元,用于统计每个所述场景参数中包含的对象与所述对象列表的对象之间的匹配个数;
匹配个数选取单元,用于选取匹配个数最大的场景参数的场景类别作为所述待识别场景的场景类别。
因此,本发明实施例提供的场景的识别设备同样引入了位置信息作为确定场景类别的因子之一,根据位置信息确定待识别场景的大致场景类别,从而可以滤除与该位置信息并不关联场景类别,并且终端设备可以根据位置信息判断识别得到的对象是为实物抑或是照片影相,例如当前位置信息为森林,若识别得到的对象为“大海”,则可以确定“大海”这一对象并非为实物,从而提高了场景识别的准确率。
图8是本发明另一实施例提供的一种终端设备的示意图。如图8所示,该实施例的终端设备8包括:处理器80、存储器81以及存储在所述存储器81中并可在所述处理器80上运行的计算机程序82,例如场景的识别程序。所述处理器80执行所述计算机程序82时实现上述各个场景的识别方法实施例中的步骤,例如图1所示的S101至S104。或者,所述处理器80执行所述计算机程序82时实现上述各装置实施例中各单元的功能,例如图7所示模块71至74功能。
示例性的,所述计算机程序82可以被分割成一个或多个单元,所述一个或者多个单元被存储在所述存储器81中,并由所述处理器80执行,以完成本发明。所述一个或多个单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序82在所述终端设备8中的执行过程。例如,所述计算机程序82可以被分割成信息获取单元、候选场景参数库确定单元、第一对象列表生成单元以及场景类别识别单元,各单元具体功能如下:
信息获取单元,用于获取待识别场景的位置信息以及用于识别所述待识别场景所属类别的辅助识别信息;
候选场景参数库确定单元,用于从预存的场景参数数据库中,选取与所述位置信息匹配的场景参数,得到候选场景参数库;每个所述场景参数包括场景类别与对象的对应关系;
第一对象列表生成单元,用于基于所述辅助识别信息生成对象列表;所述对象列表包括:通过识别所述辅助识别信息所得到的多个对象;
场景类别识别单元,用于根据所述候选场景参数库以及所述对象列表,确定所述待识别场景对应的场景类别。
所述终端设备8可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述终端设备可包括,但不仅限于,处理器80、存储器81。本领域技术人员可以理解,图8仅仅是终端设备8的示例,并不构成对终端设备8的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器80可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器81可以是所述终端设备8的内部存储单元,例如终端设备8的硬盘或内存。所述存储器81也可以是所述终端设备8的外部存储设备,例如所述终端设备8上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器81还可以既包括所述终端设备8的内部存储单元也包括外部存储设备。所述存储器81用于存储所述计算机程序以及所述终端设备所需的其他程序和数据。所述存储器81还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (9)

1.一种场景的识别方法,其特征在于,包括:
获取待识别场景的位置信息以及用于识别所述待识别场景所属类别的辅助识别信息;
从预存的场景参数数据库中,选取与所述位置信息匹配的场景参数,得到候选场景参数库,包括:基于每个场景类别对应的位置范围,判断所述位置信息是否落入到任一所述位置范围内,以确定与所述位置信息匹配的所述场景参数;每个所述场景参数包括场景类别与对象的对应关系;
基于所述辅助识别信息生成对象列表;所述对象列表包括:通过识别所述辅助识别信息所得到的对象;
根据所述候选场景参数库以及所述对象列表,确定所述待识别场景对应的场景类别;
所述根据所述候选场景参数库以及所述对象列表,确定所述待识别场景对应的场景类别,包括:
统计每个所述场景参数中包含的对象与所述对象列表的对象之间的匹配个数;
选取匹配个数最大的场景参数的场景类别作为所述待识别场景的场景类别;
所述基于所述辅助识别信息生成对象列表具体为:
识别所述辅助识别信息中包含的候选对象;
分别计算每个所述候选对象与除该候选对象外的其他对象之间的关联度,得到每个所述候选对象的关联系数;
选取所述关联系数大于预设系数阈值的候选对象作为有效对象;
根据所述有效对象生成所述对象列表。
2.根据权利要求1所述的识别方法,其特征在于,所述从预存的场景参数数据库中,选取与所述位置信息匹配的场景参数,得到候选场景参数库,包括:
获取所述位置信息对应的有效区域内包含的候选场景类别;所述有效区域具体为:以所述位置信息为中心,且以预设距离为半径所覆盖的区域;
从所述场景参数数据库中,提取所述候选场景类别对应的场景参数;
将提取得到的所述场景参数所构成的集合作为所述候选场景参数库。
3.根据权利要求1所述的识别方法,其特征在于,所述辅助识别信息包括声音信息;
所述基于所述辅助识别信息生成对象列表具体包括:
获取所述声音信息对应的频率分布信息;
基于预存的每种发声对象的发声频率范围,确定所述频率分布信息对应的发声对象;
根据所述发声对象生成所述对象列表。
4.根据权利要求1所述的识别方法,其特征在于,所述辅助识别信息包括环境图像信息;
所述基于所述辅助识别信息生成对象列表,包括:
识别所述环境图像信息中包含的对象;
根据所述环境图像信息中包含的对象生成所述对象列表。
5.一种场景的识别设备,其特征在于,包括:
信息获取单元,用于获取待识别场景的位置信息以及用于识别所述待识别场景所属类别的辅助识别信息;
候选场景参数库确定单元,用于从预存的场景参数数据库中,选取与所述位置信息匹配的场景参数,得到候选场景参数库,包括:基于每个场景类别对应的位置范围,判断所述位置信息是否落入到任一所述位置范围内,以确定与所述位置信息匹配的所述场景参数;每个所述场景参数包括场景类别与对象的对应关系;
第一对象列表生成单元,用于基于所述辅助识别信息生成对象列表;所述对象列表包括:通过识别所述辅助识别信息所得到的多个对象;
场景类别识别单元,用于根据所述候选场景参数库以及所述对象列表,确定所述待识别场景对应的场景类别;
所述场景类别识别单元,包括:
匹配个数统计单元,用于统计每个所述场景参数中包含的对象与所述对象列表的对象之间的匹配个数;
匹配个数选取单元,用于选取匹配个数最大的场景参数的场景类别作为所述待识别场景的场景类别;
所述第一对象列表生成单元,包括:
候选对象识别单元,用于识别所述辅助识别信息中包含的候选对象;
关联系数计算单元,用于分别计算每个所述候选对象与除该候选对象外的其他候选对象之间的关联度,得到每个所述候选对象的关联系数;
有效对象选取单元,用于选取所述关联系数大于预设系数阈值的候选对象作为有效对象;
第三对象列表生成单元,用于根据所述有效对象生成所述对象列表。
6.根据权利要求5所述的识别设备,其特征在于,所述候选场景参数库确定单元,具体包括:
候选场景类别获取单元,用于获取所述位置信息对应的有效区域内包含的候选场景类别;所述有效区域具体为:以所述位置信息为中心,且以预设距离为半径所覆盖的区域;
场景参数提取单元,用于从所述场景参数数据库中,提取所述候选场景类别对应的场景参数;
候选场景参数库生成单元,用于将提取得到的所述场景参数所构成的集合作为所述候选场景参数库。
7.根据权利要求5所述的识别设备,其特征在于,所述辅助识别信息包括环境声音信息;
所述第一对象列表生成单元,具体包括:
频率分布信息获取单元,用于获取所述声音信息对应的频率分布信息;
发声对象确定单元,用于基于预存的每种发声对象的发声频率范围,确定所述频率分布信息对应的发声对象;
第二对象列表生成单元,用于根据所述发声对象生成所述对象列表。
8.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至4任一项所述方法的步骤。
9.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至4任一项所述方法的步骤。
CN201711450783.3A 2017-12-27 2017-12-27 一种场景的识别方法、识别设备及终端设备 Active CN109977731B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711450783.3A CN109977731B (zh) 2017-12-27 2017-12-27 一种场景的识别方法、识别设备及终端设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711450783.3A CN109977731B (zh) 2017-12-27 2017-12-27 一种场景的识别方法、识别设备及终端设备

Publications (2)

Publication Number Publication Date
CN109977731A CN109977731A (zh) 2019-07-05
CN109977731B true CN109977731B (zh) 2021-10-29

Family

ID=67071907

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711450783.3A Active CN109977731B (zh) 2017-12-27 2017-12-27 一种场景的识别方法、识别设备及终端设备

Country Status (1)

Country Link
CN (1) CN109977731B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110347438A (zh) * 2019-07-16 2019-10-18 Oppo广东移动通信有限公司 功能选择方法、功能选择装置及移动终端
CN110825446B (zh) * 2019-10-28 2023-12-08 Oppo广东移动通信有限公司 参数配置方法、装置、存储介质及电子设备
CN111027489B (zh) * 2019-12-12 2023-10-20 Oppo广东移动通信有限公司 图像处理方法、终端及存储介质
CN111091099A (zh) * 2019-12-20 2020-05-01 京东方科技集团股份有限公司 一种场景识别模型的构建方法、场景识别方法及设备
JP6846765B1 (ja) * 2020-03-26 2021-03-24 株式会社 情報システムエンジニアリング 情報処理プログラム
CN114297436A (zh) * 2021-01-14 2022-04-08 海信视像科技股份有限公司 一种显示设备及用户界面主题更新方法
CN113140028A (zh) * 2021-04-08 2021-07-20 广州三七互娱科技有限公司 虚拟物体渲染方法、装置及电子设备
CN113792726B (zh) * 2021-11-16 2022-03-04 北京长隆讯飞科技有限公司 一种基于视觉图像快速生成poi的方法及系统
CN114155479B (zh) * 2022-02-09 2022-04-26 中农北极星(天津)智能农机装备有限公司 语言交互处理方法、装置及电子设备
CN114898409B (zh) * 2022-07-14 2022-09-30 深圳市海清视讯科技有限公司 数据处理方法和设备

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9495591B2 (en) * 2012-04-13 2016-11-15 Qualcomm Incorporated Object recognition using multi-modal matching scheme
CN103456301B (zh) * 2012-05-28 2019-02-12 中兴通讯股份有限公司 一种基于环境声音的场景识别方法及装置及移动终端
CN102821194B (zh) * 2012-07-17 2014-05-14 西安电子科技大学 基于多种传感器的手机室内定位装置及方法
US9488492B2 (en) * 2014-03-18 2016-11-08 Sri International Real-time system for multi-modal 3D geospatial mapping, object recognition, scene annotation and analytics
CN103902040A (zh) * 2014-03-10 2014-07-02 宇龙计算机通信科技(深圳)有限公司 用于移动终端的处理装置、处理方法和电子设备
CN104504623B (zh) * 2014-12-29 2018-06-05 深圳市宇恒互动科技开发有限公司 一种根据动作感知进行场景识别的方法、系统及装置
CN106454104A (zh) * 2016-10-28 2017-02-22 维沃移动通信有限公司 一种拍照方法及移动终端

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
An Indoor Scene Recognition Algorithm Based on Pressure Change Pattern;Dan Luo 等;《2015 8th International Conference on Intelligent Computation Technology and Automation (ICICTA)》;20160519;全文 *
一种融合全局及显著性区域特征的室内场景识别方法;牛杰 等;《机器人》;20150131;第37卷(第1期);全文 *

Also Published As

Publication number Publication date
CN109977731A (zh) 2019-07-05

Similar Documents

Publication Publication Date Title
CN109977731B (zh) 一种场景的识别方法、识别设备及终端设备
CN109076310B (zh) 物理位置的自主语义标记
Zhang et al. Ev-loc: integrating electronic and visual signals for accurate localization
WO2019062734A1 (zh) 基于Wi-Fi热点的室内定位方法及装置
CN110645986B (zh) 定位方法及装置、终端、存储介质
US20190163982A1 (en) Method and apparatus for integration of detected object identifiers and semantic scene graph networks for captured visual scene behavior estimation
CN103747524B (zh) 一种基于云平台的Android终端室内定位方法
CN108919177B (zh) 一种基于虚拟信源估计与轨迹校正的定位地图构建方法
US11736555B2 (en) IOT interaction system
CN111722186B (zh) 基于声源定位的拍摄方法、装置、电子设备及存储介质
CN104394588B (zh) 基于Wi‑Fi指纹和多维尺度分析的室内定位方法
US20160050541A1 (en) Fine-Grained Indoor Location-Based Social Network
WO2015166337A2 (en) Augmented reality based management of a representation of a smart environment
CN110363076A (zh) 人员信息关联方法、装置及终端设备
CN107609520A (zh) 障碍物识别方法、装置及电子设备
CN109068272B (zh) 相似用户识别方法、装置、设备及可读存储介质
CN110097011A (zh) 一种信号识别方法及装置
CN111930336A (zh) 音频设备的音量调节方法、设备及存储介质
CN114120221A (zh) 基于深度学习的环境核查方法、电子设备及存储介质
US8611188B2 (en) Method and apparatus for locating at least one object
KR20120112293A (ko) 이동체의 위치 판단 장치 및 위치 판단 방법
Wirz et al. A wearable, ambient sound-based approach for infrastructureless fuzzy proximity estimation
CN109416726A (zh) 基于位置调整计算设备的设置
KR101995799B1 (ko) 상황 인지 서비스를 제공하기 위한 장소 인식 장치 및 방법
WO2020228324A1 (zh) 基于wifi的对象侦测方法、系统及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: 518000 16th and 22nd Floors, C1 Building, Nanshan Zhiyuan, 1001 Xueyuan Avenue, Nanshan District, Shenzhen City, Guangdong Province

Patentee after: Shenzhen Youbixuan Technology Co.,Ltd.

Address before: 518000 16th and 22nd Floors, C1 Building, Nanshan Zhiyuan, 1001 Xueyuan Avenue, Nanshan District, Shenzhen City, Guangdong Province

Patentee before: Shenzhen Youbixuan Technology Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20231206

Address after: Room 601, 6th Floor, Building 13, No. 3 Jinghai Fifth Road, Beijing Economic and Technological Development Zone (Tongzhou), Tongzhou District, Beijing, 100176

Patentee after: Beijing Youbixuan Intelligent Robot Co.,Ltd.

Address before: 518000 16th and 22nd Floors, C1 Building, Nanshan Zhiyuan, 1001 Xueyuan Avenue, Nanshan District, Shenzhen City, Guangdong Province

Patentee before: Shenzhen Youbixuan Technology Co.,Ltd.