CN112784091A - 兴趣分析方法和相关装置、设备 - Google Patents

兴趣分析方法和相关装置、设备 Download PDF

Info

Publication number
CN112784091A
CN112784091A CN202110104180.8A CN202110104180A CN112784091A CN 112784091 A CN112784091 A CN 112784091A CN 202110104180 A CN202110104180 A CN 202110104180A CN 112784091 A CN112784091 A CN 112784091A
Authority
CN
China
Prior art keywords
target object
interest
sub
duration
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202110104180.8A
Other languages
English (en)
Inventor
陶瑞成
张宁
孙德彪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Sensetime Technology Development Co Ltd
Original Assignee
Shanghai Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Sensetime Technology Development Co Ltd filed Critical Shanghai Sensetime Technology Development Co Ltd
Priority to CN202110104180.8A priority Critical patent/CN112784091A/zh
Publication of CN112784091A publication Critical patent/CN112784091A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Library & Information Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种兴趣分析方法和相关装置、设备,其中,兴趣分析方法包括:响应于目标区域中存在目标对象,获取目标区域的图像数据;利用图像数据确定目标对象的身份信息以及目标对象位于目标区域内的位置信息;其中,目标区域包含位于不同位置且具有不同功能类型的子区域;确定位置信息所属的子区域的功能类型;基于子区域的功能类型,确定目标对象的兴趣类别。上述方案,能够在目标对象无感的情况下,通过目标对象在目标区域的位置信息即可获知目标对象的兴趣爱好,在一定程度上保证兴趣分析结果的可靠性。

Description

兴趣分析方法和相关装置、设备
技术领域
本申请涉及兴趣分析技术领域,特别是涉及一种兴趣分析方法和相关装置、设备。
背景技术
随着生活水平的日益提高和科学技术的发展,人们对教育行业的教育质量的要求越来越高。现有的学校或教育机构越来越重视根据不同学生的兴趣或特长来制定不同的教育方案,以对每个学生进行因材施教,使每个学生的兴趣或特长得到充分发展。
然而,每个学生的兴趣或特长在低龄时期(1-7岁)时,学校或教育机构难以直接通过学生本人的意愿获得学生的兴趣或特长。现有的对低龄学生兴趣测评的方法是将测评试题打印在纸张上,根据低龄学生做试题的得分得到低龄学生的兴趣爱好以及兴趣类别。
这种测评方式不仅需要低龄学生现场测评,还需要人工逐个分析才能等得到兴趣结果,由于该方法有人工的介入和增加了答题人的主观判断,往往会对结果产生很大的影响。目前的测评方式比较老旧且对结果干扰因素比较多,最终的结果难以具有参考性。
发明内容
本申请至少提供一种兴趣分析方法和相关装置、设备。
本申请第一方面提供了一种兴趣分析方法,包括:响应于目标区域中存在目标对象,获取目标区域的图像数据;利用图像数据确定目标对象的身份信息以及目标对象位于目标区域内的位置信息;其中,目标区域包含位于不同位置且具有不同功能类型的子区域;确定位置信息所属的子区域的功能类型;基于子区域的功能类型确定目标对象的兴趣类别。
因此,通过先响应于目标区域中存在目标对象,获取目标区域的图像数据,以减少无关图像数据的干扰和分流。再利用图像数据确定目标对象的身份信息以及目标对象相对于目标区域的位置信息;从而确定位置信息所属的子区域的功能类型,并基于子区域的功能类型确定目标对象的兴趣类别,以通过将目标区域进行功能划分成多个子区域,从而通过目标对象所在的子区域的功能类型来确定目标对象的兴趣类别。整个兴趣分析过程无人工介入,依靠对目标区域的子区域进行功能划分从而确定目标对象的兴趣类别,在一定程度上保证兴趣分析结果的可靠性。
其中,基于子区域的功能类型确定目标对象的兴趣类别的步骤包括:判断目标对象处于子区域内的持续时长是否超过第一预设时长;如果超过第一预设时长,将子区域对应的功能类型确定为目标对象的兴趣类别。
因此,通过设置第一预设时长来判断子区域对应的兴趣类别是否为目标对象的兴趣爱好,从而提高目标对象的兴趣类别的可信度,提高兴趣分析的准确度。
其中,基于子区域的功能类型确定目标对象的兴趣类别的步骤包括:判断目标对象处于子区域内的持续时长与总时长的比例是否超过第一预设比例,其中,总时长为目标对象处于所有子区域的时长;如果超过第一预设比例,将子区域对应的功能类型确定为目标对象的兴趣类别。
因此,通过判断目标对象处于子区域内的持续时长与总时长的比例是否超过第一预设比例来判断子区域对应的兴趣类别是否为目标对象的兴趣爱好,从而提高目标对象的兴趣类别的可信度,提高兴趣分析的准确度。
其中,基于子区域的功能类型确定目标对象的兴趣类别的步骤之后包括:基于图像数据获取到目标对象在子区域的动作信息;利用子区域的功能类型以及动作信息确定目标对象的兴趣爱好。
因此,基于图像数据获取到目标对象在子区域的动作信息,并利用子区域的功能类型以及动作类型确定目标对象的兴趣爱好,以实现依据目标对象自身的动作信息进而获取其兴趣爱好的目的,通过目标对象的自身的动作信息来判断,能够在一定程度上提高兴趣类别分析的准确率。
其中,基于图像数据获取到目标对象在子区域的动作信息的步骤包括:判断目标对象是否手持子区域中的物件;若手持物件,利用子区域的功能类型以及动作信息确定目标对象的兴趣爱好的步骤,包括:基于子区域的功能类型以及识别出的物件的类型确定目标对象的兴趣爱好。
因此,通过目标对象是否手持物件来判断其对该物件的兴趣程度,并分析该物件的类型以及子区域的类型来实现依据目标对象自身动作进行兴趣分析,提高兴趣分析的准确度。
其中,基于子区域的功能类型以及识别出的物件的类型确定目标对象的兴趣爱好的步骤,包括:基于动作信息中目标对象手持各物件的持续时长确定持续时长在总时长内的时长占比;其中,总时长为目标对象手持各物件的总时长;在持续时长超过第二预设时长,或者时长占比超过第二预设比例的情况下,将物件的类型确定为目标对象的兴趣爱好;将目标对象的各兴趣爱好中持续时长最长或时长占比最大的兴趣爱好确定为目标对象偏爱程度最高的兴趣爱好。
因此,当目标对象手持物体的持续时长超过第二预设时长,或者时长占比超过第二预设比例,将物件的类型确定为目标对象的兴趣爱好来进一步判断目标对象的兴趣爱好,以进一步提高兴趣分析的准确度。并进一步将目标对象的各兴趣爱好中持续时长最长或时长占比最大的兴趣爱好确定为目标对象偏爱程度最高的兴趣爱好,更进一步细化目标对象的兴趣爱好。
其中,基于图像数据获取到目标对象在子区域的动作信息的步骤,包括:判断目标对象与子区域内的物件之间的距离是否小于预设距离;利用子区域的功能类型以及动作信息确定目标对象的兴趣爱好的步骤,包括:如果目标对象与物件之间的距离小于预设距离,基于子区域的功能类型以及识别出的物件的类型确定目标对象的兴趣爱好。
因此,通过目标对象与子区域内的物件之间的距离是否小于预设距离来判断其对该物件的兴趣程度,并分析该物件的类型以及子区域的类型来实现依据目标对象自身动作进行兴趣分析,提高兴趣分析的准确度。
其中,基于子区域的功能类型以及识别出的物件的类型确定目标对象的兴趣爱好的步骤,包括:基于动作信息中目标对象手持各物件与各物件之间的距离小于预设距离的持续时长确定持续时长在总时长内的时长占比;其中,总时长为目标对象与各物件之间的距离小于预设距离的总时长;在目标对象与各物件之间的距离小于预设距离的持续时长超过第二预设时长,或者持续时长的时长占比超过第二预设比例的情况下,将物件的类型确定为目标对象的兴趣爱好;将目标对象的各兴趣爱好中持续时长最长或时长占比最大的兴趣爱好确定为目标对象偏爱程度最高的兴趣爱好。
因此,当目标对象与各物件之间的距离小于预设距离的持续时长超过第二预设时长,或者时长占比超过第二预设比例,将物件的类型确定为目标对象的兴趣爱好来进一步判断目标对象的兴趣爱好,以进一步提高兴趣分析的准确度。并进一步将目标对象的各兴趣爱好中持续时长最长或时长占比最大的兴趣爱好确定为目标对象偏爱程度最高的兴趣爱好,更进一步细化目标对象的兴趣爱好。
其中,将目标对象的各兴趣爱好中持续时长最长或时长占比最大的兴趣爱好确定为目标对象偏爱程度最高的兴趣爱好的步骤,包括:基于目标对象的各兴趣爱好的持续时长或时长占比对各兴趣爱好进行排序;基于排序的先后顺序确定目标对象对各兴趣爱好的偏爱程度。
因此,基于目标对象的各兴趣爱好的持续时长或时长占比对各兴趣爱好进行排序;并基于排序的先后顺序确定目标对象对各兴趣爱好的偏爱程度,来进一步判断目标对象各兴趣爱好的偏爱程度,以进一步提高兴趣分析的准确度。
其中,利用图像数据确定目标对象的身份信息以及目标对象相对于目标区域的位置信息的步骤包括:对图像数据进行人脸识别,以确定目标对象的身份信息;获取目标对象在图像数据上的位置,以确定目标对象相对于目标区域的位置信息。
因此,对图像数据进行人脸识别,获取目标对象的身份信息。并获取目标对象在图像数据上的位置,以确定目标对象相对于目标区域的位置信息,从而基于上述数据对目标对象进行兴趣分析。
本申请第二方面提供了一种兴趣分析装置,包括:获取模块,用于响应于目标区域中存在目标对象,获取目标区域的图像数据;处理模块,用于利用图像数据确定目标对象的身份信息以及目标对象位于目标区域内的位置信息;其中,目标区域包含位于不同位置且具有不同功能类型的子区域;确定模块,用于确定位置信息所属的子区域的功能类型;确定模块还用于基于子区域的功能类型确定目标对象的兴趣类别。
本申请第三方面提供了一种电子设备,包括相互耦接的存储器和处理器,处理器用于执行存储器中存储的程序指令,以实现上述第一方面中的兴趣分析方法。
本申请第四方面提供了一种计算机可读存储介质,其上存储有程序指令,程序指令被处理器执行时实现上述第一方面中的兴趣分析方法。
上述方案,通过先响应于目标区域中存在目标对象,获取目标区域的图像数据;利用图像数据确定目标对象的身份信息和动作信息;基于目标对象的动作信息对目标对象进行兴趣分析。本方案能够通过目标对象的图像数据,对目标对象进行兴趣分析,减少人工介入,与对目标对象的干扰,整个过程真实可信。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,而非限制本申请。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,这些附图示出了符合本申请的实施例,并与说明书一起用于说明本申请的技术方案。
图1是本申请兴趣分析方法一实施例的流程示意图;
图2是本申请兴趣分析方法另一实施例的流程示意图;
图3是图2实施例图像数据中各子区域的标注示意图;
图4是本申请兴趣分析方法又一实施例的流程示意图;
图5是本申请兴趣分析装置一实施例的框架示意图;
图6是本申请电子设备一实施例的框架示意图;
图7为本申请计算机可读存储介质一实施例的框架示意图。
具体实施方式
下面结合说明书附图,对本申请实施例的方案进行详细说明。
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、接口、技术之类的具体细节,以便透彻理解本申请。
本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。此外,本文中的“多”表示两个或者多于两个。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。
本申请的兴趣分析方法通过先获取目标对象在目标区域中的图像数据,以基于图像数据对目标对象进行兴趣分析,提高兴趣分析的针对性。再利用图像数据确定目标对象的身份信息以及目标对象相对于目标区域的位置信息;从而确定位置信息所属的子区域的功能类型,并基于子区域的功能类型确定目标对象的兴趣类别,具体地,通过将目标区域进行功能划分成多个子区域,从而通过目标对象所在的子区域的功能类型来确定目标对象的兴趣类别。整个兴趣分析过程无人工介入,依靠对目标区域的子区域进行功能划分从而确定目标对象的兴趣类别,在一定程度上保证兴趣分析结果的可靠性。具体地,请参阅图1。
图1是本申请兴趣分析方法一实施例的流程示意图。具体而言,可以包括如下步骤:
步骤S11:响应于目标区域中存在目标对象,获取目标区域的图像数据。
本实施例的兴趣分析方法可以应用于低龄时期(1-7岁)的幼儿或儿童,以对其进行兴趣分析。而兴趣分析的应用场景可以包括:幼儿园、学前培训/教育机构、小学甚至家庭教育场所等低龄儿童的活动场所,在此不做限定。在一个具体的应用场景中,目标区域可以包括活动室、操场、阅读室等非学习场所,当目标对象在非学习场所进行活动时,对其进行兴趣分析。
当目标对象出现在目标区域中时,开始获取目标对象在目标区域的图像数据,以基于目标对象在目标区域中的相关活动对其进行兴趣分析。而当目标对象没有出现在目标区域中时,则不获取目标对象在目标区域的图像数据,以减少无效数据。
在一个具体的应用场景中,当针对幼儿园的学生进行兴趣分析时,响应于活动室中存在学生的情况,获取学生在活动室中的图像数据,以基于图像数据对学生的兴趣进行分析。而当活动室中不存在学生时,则此时,学生可能处于课堂学习或做早操等非自由活动时间,无法根据此时学生的状态对其进行兴趣分析,则不获取学生在活动室中的图像数据。
在一个具体的应用场景中,通过固定位置的图像获取装置获取目标对象在目标区域的图像数据,从而获得固定角度的图像数据。基于固定角度的图像数据对目标对象进行兴趣分析。在一个具体的应用场景中,图像数据可以为目标区域的全景图、俯视图等能够全面展现目标区域场景的图像。
步骤S12:利用图像数据确定目标对象的身份信息以及目标对象位于目标区域内的位置信息;其中,目标区域包含位于不同位置且具有不同功能类型的子区域。
在一个具体的应用场景中,可以通过识别系统对固定角度的图像数据中的目标对象进行识别,以确定目标对象的身份信息。在一个具体的应用场景中,当图像数据中存在多个目标对象时,可分别对每个目标对象进行识别,以确定图像数据中所有目标对象的身份信息。
由于图像数据中包括了目标对象在目标区域中的信息,因此,利用图像数据进一步确定目标对象相对于目标区域的信息。在一个具体的应用场景中,当学生处于活动室时,通过活动室的图像获取装置获取活动室的图像数据,并根据图像数据获取学生的身份信息和学生在活动室的位置信息。
在本实施例中,对目标区域进行功能划分,以将目标区域划分成多个带有功能类型的子区域,相应的,各功能类型的子区域在目标区域内的位置不相同。在一个具体的应用场景中,可以将幼儿园的活动室按照功能划分为阅读区、科探区或运动区等功能区域。
步骤S13:确定位置信息所属的子区域的功能类型。
通过目标对象相对于目标区域的位置信息确定该目标对象所处的子区域的功能类型。在一个具体的应用场景中,当目标对象处于目标区域的中间区域,则判断中间区域属于目标区域的哪个功能子区域。若中间区域为阅读区,则可确定目标对象处于目标区域的阅读区。
步骤S14:基于子区域的功能类型,确定目标对象的兴趣类别。
将目标区域按照功能类型划分成多个子区域后,即可根据子区域的功能类型确定目标对象的兴趣类别。在一个具体的实施场景中,将目标区域划分成阅读区、科探区或运动区等子区域后,即可根据目标对象的位置信息确定其兴趣为阅读、科探还是运动等兴趣类别。
通过上述方式,本实施例的兴趣分析方法通过先响应于目标区域中存在目标对象,获取目标区域的图像数据,以减少无关图像数据的干扰和分流。再利用图像数据确定目标对象的身份信息以及目标对象相对于目标区域的位置信息;从而确定位置信息所属的子区域的功能类型,并基于子区域的功能类型确定目标对象的兴趣类别,具体地,通过将目标区域进行功能划分成多个子区域,从而通过目标对象所在的子区域的功能类型来确定目标对象的兴趣类别。整个兴趣分析过程无人工介入,依靠对目标区域的子区域进行功能划分从而确定目标对象的兴趣类别,在一定程度上保证兴趣分析结果的可靠性。
请参阅图2,图2是本申请兴趣分析方法另一实施例的流程示意图。具体而言,可以包括如下步骤:
步骤S21:响应于目标区域中存在目标对象,获取第一设定时长的目标区域的视频数据,基于时间轴,从第一设定时长的视频数据中均匀提取多张图像数据。
对目标对象进行兴趣分析时,需要基于一定时长的数据对其进行分析,以在一定程度上保证最终的兴趣分析结果的准确性。当目标区域中存在目标对象时,先获取第一设定时长的目标区域的视频数据,以依据第一设定时长的视频数据对目标对象进行兴趣分析。基于时间轴,从第一设定时长的视频数据中均匀提取多张图像数据。其中,多张图像数据的时间跨度为第一设定时长。第一设定时长可以根据实际应用进行设置,例如1天、3天等,在此不做限定。
在一个具体的应用场景中,当目标区域中存在目标对象时,可以获取40个小时的目标区域的视频数据。基于时间轴,从40个小时的视频数据中均匀地提取出多张图像数据。例如:从每分钟的视频数据中提取3张图像出来,以基于40*60*3张图像对目标对象进行兴趣分析。在实际应用中,从视频数据中提取图像的数量需要保证所有图像的时间轴均匀地分布在第一设定时长中,其具体的数值可以根据实际情况而定,在此不做限定。
在一个具体的应用场景中,通过不同固定位置的图像获取装置获取不同角度的目标区域的图像数据,从而获得不同固定角度的图像数据。基于不同固定角度的图像数据对目标对象进行兴趣分析,以通过多角度数据对目标对象的兴趣进行分析,从而提高兴趣分析的准确性。在一个具体的应用场景中,图像数据可以为目标区域的全景图、俯视图等能够全面展现目标区域场景的图像。
步骤S22:利用图像数据确定目标对象的身份信息以及目标对象在目标区域中的位置信息。
当针对多个目标对象进行兴趣分析时,可以先将多个目标对象的人脸特征进行入库,从而建立多个目标对象的身份信息库,以基于身份信息库对图像数据中的目标对象进行识别,从而将最后获得的兴趣分析结果和目标对象的身份信息进行绑定。
在一个具体的应用场景中,当针对幼儿园大班一共30个学生进行兴趣分析时,先对这30个学生进行人脸特征收集,并基于其对应的30个人脸特征建立身份信息库。当图像数据中有6个目标对象处于目标区域中时,利用身份信息库中的信息对着6个目标对象进行身份识别,从而利于后续对着6个目标对象的兴趣进行分析绑定。
利用图像数据确定图像数据中目标区域内的目标对象的身份信息。在一个具体的应用场景中,可以通过人脸识别系统对图像数据中的目标对象的人脸进行识别,以识别出目标对象的身份信息。
通过固定位置的图像获取装置获取固定角度的视频数据,则提取的多张图像数据中目标区域的角度都是固定的。通过人工标注的方式对单张图像数据进行位置标注,从而基于目标对象在图像数据上的位置得到多张图像数据或第一设定时长的视频数据中目标对象相对于目标区域的位置信息。
步骤S23:确定位置信息所属的子区域的功能类型。
对目标区域进行功能划分,以将目标区域划分成多个带有功能类型的子区域,以基于目标对象在图像数据中的位置信息确定目标对象所处的子区域的功能类型。在一个具体的应用场景中,可以将幼儿园的活动室按照功能划分为阅读区、科探区或运动区等功能区域。
由于图像数据是固定的角度,因此,每张图像数据上多个子区域的位置都相同。通过人工在图像数据上标注出目标区域上多个子区域位置。在一个具体的实施场景中,若幼儿园的活动室的左上角为阅读区,右下角为运动区。则通过图像获取装置获取了活动室的图像数据后,通过人工标注的方式在图像数据上标注出阅读区和运动区的位置。例如,图像数据左上角的5*5cm的区域对应活动室的阅读区,右下角10*10的区域对应活动室的运动区。
请参阅图3,图3是图2实施例图像数据中各子区域的标注示意图。
本实施例的标注图像数据10上包括标注阅读区111和标注运动区112。其中标注阅读区111在标注图像数据10左上角上的宽为H1、长为H2。标注运动区112在标注图像数据10右下角上的宽为S1、长为S2。其中,本实施为了方便举例,只划分出了目标区域中的两个子区域,在实际应用中,整个目标区域都可以划分成多个子区域,子区域的数量、方位和类型根据实际应用而定,在此不做限定。
也就是说,当对其他图像数据进行目标区域的子区域划分时,将其他图像数据上左上角上的H1*H2的区域确定为阅读区,将右下角上的S1*S2的区域确定为运动区。当识别到目标对象处于图像数据的左上角H1*H2内的区域时,即可确定目标对象处于阅读区;当识别到目标对象处于图像数据的右下角S1*S2内的区域时,即可确定目标对象处于运动区。
在一个具体的实施场景中,若只对目标对象的兴趣类别进行分析,例如兴趣类别为运动、阅读或科探等能够通过子区域的划分而确定的兴趣类别时,则在本步骤中可以判断目标对象处于子区域的时间是否超过第一预设时长,如果目标对象处于子区域的时间超过了第一预设时长,则将子区域的功能类型确定为目标对象的兴趣类别。
在另一个具体的实施场景中,可以判断目标对象处于子区域内的持续时长与第一总时长的比例是否超过第一预设比例,其中,本步骤的总时长为目标对象处于所有子区域的时长;如果目标对象处于子区域内的持续时长与总时长的比例超过第一预设比例,将子区域对应的功能类型确定为目标对象的兴趣类别。如果目标对象处于子区域内的持续时长与总时长的比例没有超过第一预设比例,则不将子区域对应的功能类型确定为目标对象的兴趣类别。
在一个具体的实施场景中,通过均匀分布在第一设定时长的时间轴内多张图像数据识别出目标对象处于阅读区内的持续时长超过第一预设时长后,即可将阅读区所对应的“阅读”该种大类型兴趣作为该目标对象的兴趣类别。或,当识别出目标对象处于阅读区中的时长占目标对象处于所有子区域中的总时长超过第一预设比例时,也可以将阅读区所对应的“阅读”该种大类型兴趣作为该目标对象的兴趣类别。其中,第一预设时长可以根据视频数据对应的第一设定时长进行调整设置,在此不做限定,第一预设比例也可以根据实际应用进行设定,在此也不做限定。
在本实施例中,若只需要对目标对象的大范围的兴趣类别进行分析时,只需执行步骤S21-S23即可。
在其他实施例中,若需要对目标对象的大范围的兴趣类别进行细化,以确定目标对象具体的兴趣爱好时,所述方法还包括步骤S24-S25:
步骤S24:基于图像数据获取到目标对象在子区域的动作信息;
在基于子区域的功能类型获得了目标对象的兴趣类别后,还可以进一步利用区域的功能类型以及目标对象在子区域的动作信息细化目标对象的兴趣爱好。而兴趣爱好相对于兴趣类别的范畴可以是各大兴趣类别下细化的兴趣类别,例如:兴趣类别为运动时,其兴趣爱好则可以为篮球、足球、羽毛球等各类运动项目。
其中,目标对象在子区域的动作信息可以包括目标对象与子区域中各类型物件的距离,或目标对象是否手持各类型物件等动作,在此不做限定,对应的,动作信息对应的物件为手持的物品或者子区域内各类型的物件。
在一个具体的实施场景中,若需要进一步分析目标对象的兴趣类别中的具体兴趣爱好,例如运动类型中的足球、篮球或皮球,阅读类型中的儿童启蒙读物、思想品德教育读物、卡通读物或文学读物时,还需进一步基于图像数据获取到目标对象在子区域的动作信息,以利用子区域的功能类型以及动作信息对应的物件确定目标对象的兴趣爱好。具体地,目标对象在子区域的动作信息可以包括以下中的至少一种:目标对象是否手持子区域中的物件;目标对象和子区域中的不同类型的物件之间的距离。
步骤S25:利用子区域的功能类型以及动作信息对应的物件确定目标对象的兴趣爱好。
在一个具体的实施场景中,通过人脸识别技术识别出子区域中的目标对象的身份信息后,判断目标对象是否手持子区域中的某个物件,如果目标对象手持某个物件则对该物件进行物体识别,以基于该物件的类型确定目标对象的兴趣爱好(即,动作信息为手持物件,动作信息对应的物件为手持的物件)。具体地,基于多张图像数据中的动作信息确目标对象手持各物件的持续时长确定持续时长在总时长内的时长占比;其中,总时长为目标对象手持各物件的总时长;在持续时长超过第二预设时长,或者时长占比超过第二预设比例的情况下,将物件的类型确定为目标对象的兴趣爱好。若不超过,则不确定目标对象的兴趣爱好为该物件。其中,本应用场景的判定方法适用于书籍、积木等需要手持的小体积物件。第二预设时长以及第二预设比例可以基于实际情况进行设置,在此不做限定。
其中,当针对小体积物件进行兴趣爱好的判断时,可能存在目标对象手持的小体积物件的物件类型与目标对象所处的子区域的功能类型不匹配的情况,则以小体积物件的物件类型为准对目标对象的兴趣爱好进行确定。例如,当识别出目标对象在阅读区玩篮球,且玩篮球的持续时长超过第二预设时长时,确定目标对象的兴趣类别为运动,兴趣爱好为篮球。
在一个具体的实施场景中,通过人脸识别技术识别出子区域内的目标对象的身份信息后,判断目标对象与子区域内的物件之间的距离是否小于预设距离;如果目标对象与物件之间的距离小于预设距离,对物件进行识别,并基于物件的类型确定目标对象的兴趣爱好(即,动作信息为目标对象与物件之间的距离小于预设距离,动作信息对应的物件为小于预设距离的物件)。具体地,基于多张图像数据动作信息中目标对象手持各物件与各物件之间的距离小于预设距离的持续时长确定持续时长在总时长内的时长占比;其中,总时长为目标对象与各物件之间的距离小于预设距离的总时长;在目标对象与各物件之间的距离小于预设距离的持续时长超过第二预设时长,或者持续时长的时长占比超过第二预设比例的情况下,将物件的类型确定为目标对象的兴趣爱好;若不超过,则不确定目标对象的兴趣爱好为该物件。其中,本应用场景的判定方法适用于滑梯、秋千等大体积物件。
在一个具体的实施场景中,若在第一段时间中,某个学生与秋千之间的距离小于预设距离(例如该学生在荡秋千);在第二段时间中,该学生与滑梯之间的距离小于预设距离(例如该学生在玩滑梯)。而第一段时间占整个设定时长的比例超过了第二预设比例,第二段时间占整个设定时长的比例没有超过第二预设比例,则确定该学生的兴趣爱好为秋千。
通过将目标对象手持各物件的持续时长或与各物件之间的距离小于预设距离的持续时长确定了目标对象的各兴趣爱好后,还可以进一步将目标对象的各兴趣爱好中持续时长最长或时长占比最大的兴趣爱好确定为目标对象偏爱程度最高的兴趣爱好,从而进一步分析目标对象的兴趣爱好。具体地,可以基于目标对象的各兴趣爱好的持续时长或时长占比对各兴趣爱好进行排序,基于排序的先后顺序确定目标对象对各兴趣爱好的偏爱程度,当降序排序时,排列越靠前的兴趣爱好的偏爱程度越高。
在一个具体的实施场景中,当确定目标对象在50小时内与滑梯、秋千以及积木之间的距离小于预设距离后,可以进一步基于动作信息分别确定目标对象在设定时长-50个小时内玩滑梯、秋千以及积木的持续时长,或确定玩滑梯、秋千以及积木在50个小时的时长占比。分别判断玩滑梯、秋千以及积木的时长占比是否超过第二预设比例(40%),或判断玩滑梯、秋千以及积木的持续时长是否超过第二预设时长(20小时),如果滑梯和秋千的时长占比都超过40%或持续时长超过20小时,将滑梯和秋千确定为目标对象兴趣爱好。如果滑梯的时长占比为45%、秋千的时长占比为42%,则将滑梯确定为目标对象偏爱程度最高的兴趣爱好。
在一个具体的应用场景中,由于阅读书籍是长时间的过程,对儿童偏爱的那种书籍的分析需要跨越大一些的时间跨度,则若在一天内,检测到儿童处于阅读区中阅读语文书、数学书以及英语书后,可以进一步获取在一周时间内儿童阅读语文书、数学书以及英语书的时长,例如:语文书5小时,数学书8小时以及英语书3小时,则将持续时长最长的数学书对应的兴趣爱好“数学”作为该儿童在上述3种兴趣爱好中偏爱程度最高的兴趣爱好。
在一个具体的应用场景中,也可以先计算得到在第一设定时长内所有儿童沉浸于游戏、阅读、科探等各兴趣类别的时长平均值,当某个儿童阅读的时长大于平均阅读时长时,可以判定该儿童比其他儿童更爱阅读,或,当大于平均时长一定值时,可以认为该儿童非常热爱阅读。其中,一定值可以为20%、30%等,可基于实际应用进行设置,在此不做限定。
其中,当对目标对象与物件之间的距离进行检测时,可以通过至少两个不同位置的图像获取装置来获取目标区域的视频数据,并从两个视频数据中提取相同时间的图像数据。从而在检测距离时,通过同一时间,不同角度的图像数据进行检测,减少因角度重叠等问题产生的距离失误,提高距离检测的准确性。其中,不同角度的图像获取装置的设定同样也可用于提高对目标对象手持物件或目标对象的位置信息进行识别的实施场景中,从而提高识别的准确性,在此不做限定。
在一个具体的实施场景中,若需要对兴趣爱好进行分析时,可以在兴趣分析前将各子区域内的各种类型物件进行识别入库,以建立物件识别库。当对目标对象的手持物件或小于预设距离的物件进行识别时,可基于物件识别库进行识别,以提高物体识别的准确率。从而进一步提高对目标对象进行兴趣分析的准确性。当识别出目标对象手持或距离小于预设距离的物件时,可以将该物件与物件识别库中的类型物件依次进行对比,进而确定目标对象的兴趣爱好。
通过上述方式,本实施例的兴趣分析方法通过先获取第一设定时长的目标区域的视频数据,从而基于视频数据库均匀提取多张图像数据来对目标对象进行兴趣分析,以扩大分析对象的时长,提高兴趣分析的可靠性。再利用目标对象所处的子区域的功能信息得出目标对象的兴趣类别,并进一步利用目标对象在子区域内的动作信息得出目标对象的兴趣爱好或偏爱程度最高的兴趣爱好,从而能够根据不同的兴趣分析的需求采取不同的方法对其进行分析,本实施例的兴趣分析方法具有一定的灵活性和自由度。另外本实施例的兴趣分析方法没有人工介入,目标对象在被分析时,整个过程是无感的,干扰因素得到有效减少,使得最后的兴趣分析的结果具备一定的准确性和可靠性。
请参阅图4,图4是本申请兴趣分析方法又一实施例的流程示意图。应用于对目标教室内的学生进行兴趣分析,具体而言,可以包括如下步骤:
步骤S31:响应于教室中存在学生,获取第一设定时长的目标教室的视频数据,基于时间轴,从第一设定时长的视频数据中均匀提取多张图像数据。
对学生进行兴趣分析时,需要基于一定时长的数据对其进行分析,以在一定程度上保证最终的兴趣分析结果的准确性。当对学生进行兴趣分析时,响应于目标教室中存在学生时,先获取第一设定时长的目标教室的视频数据,以依据第一设定时长的视频数据对各学生进行兴趣分析。基于时间轴,从第一设定时长的视频数据中均匀提取多张图像数据。其中,多张图像数据的时间跨度为第一设定时长。第一设定时长可以根据实际应用进行预设,在此不做限定。
在一个具体的应用场景中,通过不同固定位置的图像获取装置获取不同角度的目标教室的图像数据,从而获得不同固定角度的图像数据。基于不同固定角度的图像数据对目标教室内的学生进行兴趣分析,以通过多角度数据对学生的兴趣进行分析,从而提高兴趣分析的准确性。在一个具体的应用场景中,图像数据可以为目标教室的全景图、俯视图等能够全面展现目标教室场景的图像。
步骤S32:利用图像数据确定学生的身份信息以及学生位于目标教室内的位置信息。
当针对多个学生进行兴趣分析时,先将多个学生的人脸特征进行入库,从而建立多个学生的身份信息库,以基于身份信息库对图像数据中的学生进行识别,从而将最后获得的兴趣分析结果和学生的身份信息进行绑定。
利用图像数据确定图像数据中目标教室内的学生的身份信息。在一个具体的应用场景中,可以通过人脸识别系统对图像数据中的学生的人脸进行识别,以识别出学生的身份信息。
通过固定位置的图像获取装置获取固定角度的视频数据,则提取的多张图像数据中目标教室的角度都是固定的。通过人工标注的方式对单张图像数据进行位置标注,从而基于学生在图像数据上的位置得到多张图像数据或第一设定时长的视频数据中学生相对于目标教室的位置信息。
步骤S33:确定位置信息所属的子区域的功能类型。
对目标教室进行功能划分,以将目标教室划分成多个带有功能类型的子区域,以基于学生在图像数据中的位置信息确定学生所处的子区域的功能类型。在一个具体的应用场景中,可以将目标教室按照功能划分为阅读区、篮球区、足球区、科探区或运动区等功能区域。在一个具体的应用场景中,可以在在展示图像数据的屏幕上,基于目标教室的子区域进行屏幕标注划分,以使人工能够非常直观地获取学生所处的子区域位置,即通过在视频区域中画出各子区域。
由于图像数据是固定的角度,因此,每张图像数据上多个子区域的位置都相同。通过人工在图像数据上标注出目标教室上多个子区域位置。在一个具体的实施场景中,若幼儿园的活动目标教室的左上角为阅读区,右下角为运动区。则通过图像获取装置获取了活动室的图像数据后,通过人工标注的方式在图像数据上标注出阅读区和运动区的位置。
在一个具体的实施场景中,若只对学生的大范围的兴趣进行分析,例如兴趣类别为运动、阅读或科探等能够通过子区域的划分而确定的兴趣分类时,则在本步骤中可以判断学生处于目标教室的子区域的时间是否超过第一预设时长,如果学生处于子区域的时间超过了第一预设时长,则将子区域的功能类型确定为学生的兴趣类别。
在另一个具体的实施场景中,可以判断学生处于子区域内的持续时长与总时长的比例是否超过第一预设比例,其中,本步骤的总时长为学生处于所有子区域的时长;如果学生处于子区域内的持续时长与总时长的比例超过第一预设比例,将子区域对应的功能类型确定为学生的兴趣类别。
在本实施例中,若只需要对学生的大范围的兴趣类别进行分析时,只需执行步骤S31-S33即可。
在其他实施例中,若需要对学生的大范围的兴趣类别进行细化时,可以进一步采用步骤S34-S35:
步骤S34:基于图像数据获取到学生在子区域的动作信息;
在基于子区域的功能类型获得了学生的兴趣类别后,还可以进一步利用区域的功能类型以及学生在子区域的动作信息细化学生的兴趣爱好。其中,学生在子区域的动作信息可包括学生与子区域中各类型物件的距离或是否手持等动作,在此不做限定,对应的,动作信息对应的物件为手持的物品或者子区域内各类型的物件。
步骤S35:利用子区域的功能类型以及动作类型确定学生的兴趣爱好。
在一个具体的应用场景中,对学生进行位置和所接触的物件进行分析,具体地,当学生出现在游玩区域时,识别出儿童身份和在玩什么游戏(篮球、足球、积木、滑梯);当学生出现在阅读区域时,识别出身份和儿童阅读的书籍分类(儿童启蒙读物、思想品德教育读物、卡通读物、文学读物);当学生出现在科探区域,识别身份和记录儿童在科探区域出现的时长。通过上述数据进而对学生进行兴趣分析。
在一个具体的实施场景中,通过人脸识别技术识别出子区域中的学生的身份信息后,判断学生是否手持子区域中的某个物件,如果学生手持某个物件则对该物件进行物体识别,以基于该物件的类型确定学生的兴趣爱好(即,动作信息为手持物件,动作信息对应的物件为手持的物件)。具体地,基于多张图像数据中的动作信息确学生手持各物件的持续时长确定持续时长在总时长内的时长占比;其中,总时长为学生手持各物件的总时长;在持续时长超过第二预设时长,或者时长占比超过第二预设比例的情况下,将物件的类型确定为学生的兴趣爱好。若不超过,则不确定学生的兴趣爱好为该物件。其中,本应用场景的判定方法适用于书籍、篮球、积木等小体积物件。第二预设时长以及第二预设比例可以基于实际情况进行设置,在此不做限定。
在一个具体的实施场景中,通过人脸识别技术识别出子区域内的学生的身份信息后,判断学生与子区域内的物件之间的距离是否小于预设距离;如果学生与物件之间的距离小于预设距离,对物件进行识别,并基于物件的类型确定学生的兴趣爱好(即,动作信息为学生与物件之间的距离小于预设距离,动作信息对应的物件为小于预设距离的物件)。具体地,基于多张图像数据动作信息中学生手持各物件与各物件之间的距离小于预设距离的持续时长确定持续时长在总时长内的时长占比;其中,总时长为学生与各物件之间的距离小于预设距离的总时长;在学生与各物件之间的距离小于预设距离的持续时长超过第二预设时长,或者持续时长的时长占比超过第二预设比例的情况下,将物件的类型确定为学生的兴趣爱好;若不超过,则不确定学生的兴趣爱好为该物件。其中,本应用场景的判定方法适用于滑梯、秋千等大体积物件。
通过将学生手持各物件的持续时长或与各物件之间的距离小于预设距离的持续时长确定了学生的各兴趣爱好后,还可以进一步将学生的各兴趣爱好中持续时长最长或时长占比最大的兴趣爱好确定为学生偏爱程度最高的兴趣爱好,从而进一步分析学生的兴趣爱好。具体地,可以基于学生的各兴趣爱好的持续时长或时长占比对各兴趣爱好进行排序,基于排序的先后顺序确定学生对各兴趣爱好的偏爱程度,当降序排序时,排列越靠前的兴趣爱好的偏爱程度越高。
通过上述方式,本实施例的兴趣分析方法通过先获取第一设定时长的目标教室的视频数据,从而基于视频数据库均匀提取多张图像数据来对学生进行兴趣分析,以扩大分析对象的时长,提高兴趣分析的可靠性。再利用学生所处的子区域的功能信息得出学生大范围的兴趣类别,并进一步利用学生的动作信息得出学生的兴趣爱好或偏爱程度最高的兴趣爱好,从而能够根据不同的兴趣分析的需求采取不同的方法对其进行分析,本实施例的兴趣分析方法具有一定的灵活性和自由度。另外本实施例的兴趣分析方法没有人工介入,学生在被分析时,整个过程是无感的,干扰因素得到有效减少,使得最后的兴趣分析的结果具备一定的准确性和可靠性
请参阅图5,图5是本申请兴趣分析装置一实施例的框架示意图。兴趣分析装置50包括获取模块51、处理模块52以及确定模块53。获取模块51,用于响应于目标区域中存在目标对象,获取目标区域的图像数据;处理模块52,用于利用图像数据确定目标对象的身份信息以及目标对象位于目标区域内的位置信息;其中,目标区域包含位于不同位置且具有不同功能类型的子区域;确定模块53,用于确定位置信息所属的子区域的功能类型;确定模块53还用于基于子区域的功能类型确定目标对象的兴趣类别。
上述方案,通过先响应于目标区域中存在目标对象,获取目标区域的图像数据,以减少无关图像数据的干扰和分流。再利用图像数据确定目标对象的身份信息以及目标对象相对于目标区域的位置信息;从而确定位置信息所属的子区域的功能类型,并基于子区域的功能类型确定目标对象的兴趣类别,以通过将目标区域进行功能划分成多个子区域,从而通过目标对象所在的子区域的功能类型来确定目标对象的兴趣类别。整个兴趣分析过程无人工介入,依靠对目标区域的子区域进行功能划分从而确定目标对象的兴趣类别,在一定程度上保证兴趣分析结果的可靠性。
在一些公开实施例中,基于子区域的功能类型确定目标对象的兴趣类别的步骤包括:判断目标对象处于子区域内的持续时长是否超过第一预设时长;如果超过第一预设时长,将子区域对应的功能类型确定为目标对象的兴趣类别。
区别于前述实施例,通过设置第一预设时长来判断子区域对应的兴趣类别是否为目标对象的兴趣爱好,从而提高目标对象的兴趣类别的可信度,提高兴趣分析的准确度。
在一些公开实施例中,基于子区域的功能类型确定目标对象的兴趣类别的步骤包括:判断目标对象处于子区域内的持续时长与总时长的比例是否超过第一预设比例,其中,总时长为目标对象处于所有子区域的时长;如果超过第一预设比例,将子区域对应的功能类型确定为目标对象的兴趣类别。
区别于前述实施例,通过判断目标对象处于子区域内的持续时长与总时长的比例是否超过第一预设比例来判断子区域对应的兴趣类别是否为目标对象的兴趣爱好,从而提高目标对象的兴趣类别的可信度,提高兴趣分析的准确度。
在一些公开实施例中,基于子区域的功能类型确定目标对象的兴趣类别的步骤之后包括:基于图像数据获取到目标对象在子区域的动作信息;利用子区域的功能类型以及动作信息确定目标对象的兴趣爱好。
区别于前述实施例,基于图像数据获取到目标对象在子区域的动作信息,并利用子区域的功能类型以及动作类型确定目标对象的兴趣爱好,以实现依据目标对象自身的动作信息进而获取其兴趣爱好的目的,通过目标对象的自身的动作信息来判断,能够在一定程度上提高兴趣类别分析的准确率。
在一些公开实施例中,基于图像数据获取到目标对象在子区域的动作信息的步骤包括:判断目标对象是否手持子区域中的物件;若手持物件,利用子区域的功能类型以及动作信息确定目标对象的兴趣爱好的步骤,包括:基于子区域的功能类型以及识别出的物件的类型确定目标对象的兴趣爱好。
区别于前述实施例,通过目标对象是否手持物件来判断其对该物件的兴趣程度,并分析该物件的类型以及子区域的类型来实现依据目标对象自身动作进行兴趣分析,提高兴趣分析的准确度。
在一些公开实施例中,基于子区域的功能类型以及识别出的物件的类型确定目标对象的兴趣爱好的步骤,包括:基于动作信息中目标对象手持各物件的持续时长确定持续时长在总时长内的时长占比;其中,总时长为目标对象手持各物件的总时长;在持续时长超过第二预设时长,或者时长占比超过第二预设比例的情况下,将物件的类型确定为目标对象的兴趣爱好;将目标对象的各兴趣爱好中持续时长最长或时长占比最大的兴趣爱好确定为目标对象偏爱程度最高的兴趣爱好。
区别于前述实施例,当目标对象手持物体的持续时长超过第二预设时长,或者时长占比超过第二预设比例,将物件的类型确定为目标对象的兴趣爱好来进一步判断目标对象的兴趣爱好,以进一步提高兴趣分析的准确度。并进一步将目标对象的各兴趣爱好中持续时长最长或时长占比最大的兴趣爱好确定为目标对象偏爱程度最高的兴趣爱好,更进一步细化目标对象的兴趣爱好。
在一些公开实施例中,基于图像数据获取到目标对象在子区域的动作信息的步骤,包括:判断目标对象与子区域内的物件之间的距离是否小于预设距离;利用子区域的功能类型以及动作信息确定目标对象的兴趣爱好的步骤,包括:如果目标对象与物件之间的距离小于预设距离,基于子区域的功能类型以及识别出的物件的类型确定目标对象的兴趣爱好。
区别于前述实施例,通过目标对象与子区域内的物件之间的距离是否小于预设距离来判断其对该物件的兴趣程度,并分析该物件的类型以及子区域的类型来实现依据目标对象自身动作进行兴趣分析,提高兴趣分析的准确度。
在一些公开实施例中,基于子区域的功能类型以及识别出的物件的类型确定目标对象的兴趣爱好的步骤,包括:基于动作信息中目标对象手持各物件与各物件之间的距离小于预设距离的持续时长确定持续时长在总时长内的时长占比;其中,总时长为目标对象与各物件之间的距离小于预设距离的总时长;在目标对象与各物件之间的距离小于预设距离的持续时长超过第二预设时长,或者持续时长的时长占比超过第二预设比例的情况下,将物件的类型确定为目标对象的兴趣爱好;将目标对象的各兴趣爱好中持续时长最长或时长占比最大的兴趣爱好确定为目标对象偏爱程度最高的兴趣爱好。
区别于前述实施例,当目标对象与各物件之间的距离小于预设距离的持续时长超过第二预设时长,或者时长占比超过第二预设比例,将物件的类型确定为目标对象的兴趣爱好来进一步判断目标对象的兴趣爱好,以进一步提高兴趣分析的准确度。并进一步将目标对象的各兴趣爱好中持续时长最长或时长占比最大的兴趣爱好确定为目标对象偏爱程度最高的兴趣爱好,更进一步细化目标对象的兴趣爱好。
在一些公开实施例中,将目标对象的各兴趣爱好中持续时长最长或时长占比最大的兴趣爱好确定为目标对象偏爱程度最高的兴趣爱好的步骤,包括:基于目标对象的各兴趣爱好的持续时长或时长占比对各兴趣爱好进行排序;基于排序的先后顺序确定目标对象对各兴趣爱好的偏爱程度。
区别于前述实施例,基于目标对象的各兴趣爱好的持续时长或时长占比对各兴趣爱好进行排序;并基于排序的先后顺序确定目标对象对各兴趣爱好的偏爱程度,来进一步判断目标对象各兴趣爱好的偏爱程度,以进一步提高兴趣分析的准确度。
在一些公开实施例中,利用图像数据确定目标对象的身份信息以及目标对象相对于目标区域的位置信息的步骤包括:对图像数据进行人脸识别,以确定目标对象的身份信息;获取目标对象在图像数据上的位置,以确定目标对象相对于目标区域的位置信息。
区别于前述实施例,对图像数据进行人脸识别,获取目标对象的身份信息。并获取目标对象在图像数据上的位置,以确定目标对象相对于目标区域的位置信息,从而基于上述数据对目标对象进行兴趣分析。
请参阅图6,图6是本申请电子设备一实施例的框架示意图。电子设备60包括相互耦接的存储器61和处理器62,处理器62用于执行存储器61中存储的程序指令,以实现上述任一兴趣分析方法实施例的步骤。在一个具体的实施场景中,电子设备60可以包括但不限于:微型计算机、服务器,此外,电子设备60还可以包括笔记本电脑、平板电脑等移动设备,在此不做限定。
具体而言,处理器62用于控制其自身以及存储器61以实现上述任一兴趣分析方法实施例的步骤。处理器62还可以称为CPU(Central Processing Unit,中央处理单元)。处理器62可能是一种集成电路芯片,具有信号的处理能力。处理器62还可以是通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。另外,处理器62可以由集成电路芯片共同实现。
上述方案,能够提高兴趣分析的准确率和可靠性。
请参阅图7,图7为本申请计算机可读存储介质一实施例的框架示意图。计算机可读存储介质70存储有能够被处理器运行的程序指令601,程序指令701用于实现上述任一兴趣分析方法实施例的步骤。
上述方案,能够提高兴趣分析的准确率和可靠性。
在一些实施例中,本公开实施例提供的装置具有的功能或包含的模块可以用于执行上文方法实施例描述的方法,其具体实现可以参照上文方法实施例的描述,为了简洁,这里不再赘述。
上文对各个实施例的描述倾向于强调各个实施例之间的不同之处,其相同或相似之处可以互相参考,为了简洁,本文不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的方法和装置,可以通过其它的方式实现。例如,以上所描述的装置实施方式仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性、机械或其它的形式。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施方式方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。

Claims (13)

1.一种兴趣分析方法,其特征在于,包括:
响应于目标区域中存在目标对象,获取所述目标区域的图像数据;
利用所述图像数据确定目标对象的身份信息以及所述目标对象位于所述目标区域内的位置信息;其中,所述目标区域包含位于不同位置且具有不同功能类型的子区域;
确定所述位置信息所属的子区域的功能类型;
基于所述子区域的功能类型,确定所述目标对象的兴趣类别。
2.根据权利要求1所述的兴趣分析方法,其特征在于,所述基于所述子区域的功能类型确定所述目标对象的兴趣类别的步骤包括:
判断所述目标对象处于所述子区域内的持续时长是否超过第一预设时长;
响应于超过所述第一预设时长,将所述子区域对应的功能类型确定为所述目标对象的兴趣类别。
3.根据权利要求1所述的兴趣分析方法,其特征在于,所述基于所述子区域的功能类型确定所述目标对象的兴趣类别的步骤包括:
判断所述目标对象处于所述子区域内的持续时长与总时长的比例是否超过第一预设比例,其中,总时长为所述目标对象处于所有子区域的时长;
响应于超过所述第一预设比例,将所述子区域对应的功能类型确定为所述目标对象的兴趣类别。
4.根据权利要求1-3任一项所述的兴趣分析方法,其特征在于,所述基于所述子区域的功能类型确定所述目标对象的兴趣类别的步骤之后包括:
基于所述图像数据获取到所述目标对象在所述子区域的动作信息;
利用所述子区域的功能类型以及所述动作信息确定所述目标对象的兴趣爱好。
5.根据权利要求4所述的兴趣分析方法,其特征在于,所述基于所述图像数据获取到所述目标对象在所述子区域的动作信息的步骤包括:
判断所述目标对象是否手持所述子区域中的物件;
若手持物件,所述利用所述子区域的功能类型以及所述动作信息确定所述目标对象的兴趣爱好的步骤,包括:
基于所述子区域的功能类型以及识别出的所述物件的类型确定所述目标对象的兴趣爱好。
6.根据权利要求5所述的兴趣分析方法,其特征在于,所述基于所述子区域的功能类型以及识别出的所述物件的类型确定所述目标对象的兴趣爱好的步骤,包括:
基于所述动作信息中所述目标对象手持各物件的持续时长确定所述持续时长在总时长内的时长占比;其中,所述总时长为所述目标对象手持各物件的总时长;
在所述持续时长超过第二预设时长,或者所述时长占比超过第二预设比例的情况下,将所述物件的类型确定为所述目标对象的兴趣爱好;
将所述目标对象的各兴趣爱好中持续时长最长或时长占比最大的兴趣爱好确定为所述目标对象偏爱程度最高的兴趣爱好。
7.根据权利要求4所述的兴趣分析方法,其特征在于,所述基于所述图像数据获取到所述目标对象在所述子区域的动作信息的步骤,包括:
判断所述目标对象与所述子区域内的物件之间的距离是否小于预设距离;
所述利用所述子区域的功能类型以及所述动作信息确定所述目标对象的兴趣爱好的步骤,包括:
在所述目标对象与所述物件之间的距离小于所述预设距离的情况下,基于所述子区域的功能类型以及识别出的所述物件的类型确定所述目标对象的兴趣爱好。
8.根据权利要求7所述的兴趣分析方法,其特征在于,所述基于所述子区域的功能类型以及识别出的所述物件的类型确定所述目标对象的兴趣爱好的步骤,包括:
基于所述动作信息中所述目标对象手持各物件与各物件之间的距离小于预设距离的持续时长确定所述持续时长在总时长内的时长占比;其中,所述总时长为所述目标对象与所述子区域中各物件之间的距离小于预设距离的总时长;
在所述目标对象与各物件之间的距离小于预设距离的持续时长超过第二预设时长,或者所述持续时长的时长占比超过第二预设比例的情况下,将所述物件的类型确定为所述目标对象的兴趣爱好;
将所述目标对象的各兴趣爱好中持续时长最长或时长占比最大的兴趣爱好确定为所述目标对象偏爱程度最高的兴趣爱好。
9.根据权利要求6或8所述的兴趣分析方法,其特征在于,所述将所述目标对象的各兴趣爱好中持续时长最长或时长占比最大的兴趣爱好确定为所述目标对象偏爱程度最高的兴趣爱好的步骤,包括:
基于所述目标对象的各兴趣爱好的持续时长或时长占比对各兴趣爱好进行排序;
基于排序的先后顺序确定所述目标对象对各兴趣爱好的偏爱程度。
10.根据权利要求1所述的兴趣分析方法,其特征在于,所述利用所述图像数据确定目标对象的身份信息以及所述目标对象相对于所述目标区域的位置信息的步骤包括:
对所述图像数据进行人脸识别,以确定所述目标对象的身份信息;
获取所述目标对象在所述图像数据上的位置,以确定所述目标对象相对于所述目标区域的位置信息。
11.一种兴趣分析装置,其特征在于,包括:获取模块、处理模块以及确定模块;
所述获取模块,用于响应于目标区域中存在目标对象,获取所述目标区域的图像数据;
所述处理模块,用于利用所述图像数据确定目标对象的身份信息以及所述目标对象位于所述目标区域内的位置信息;其中,所述目标区域包含位于不同位置且具有不同功能类型的子区域;
所述确定模块,用于确定所述位置信息所属的子区域的功能类型;
所述确定模块,还用于基于所述子区域的功能类型确定所述目标对象的兴趣类别。
12.一种电子设备,其特征在于,包括相互耦接的存储器和处理器,所述处理器用于执行所述存储器中存储的程序指令,以实现权利要求1至10任一项所述的兴趣分析方法。
13.一种计算机可读存储介质,其上存储有程序指令,其特征在于,所述程序指令被处理器执行时实现权利要求1至10任一项所述的兴趣分析方法。
CN202110104180.8A 2021-01-26 2021-01-26 兴趣分析方法和相关装置、设备 Withdrawn CN112784091A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110104180.8A CN112784091A (zh) 2021-01-26 2021-01-26 兴趣分析方法和相关装置、设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110104180.8A CN112784091A (zh) 2021-01-26 2021-01-26 兴趣分析方法和相关装置、设备

Publications (1)

Publication Number Publication Date
CN112784091A true CN112784091A (zh) 2021-05-11

Family

ID=75757928

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110104180.8A Withdrawn CN112784091A (zh) 2021-01-26 2021-01-26 兴趣分析方法和相关装置、设备

Country Status (1)

Country Link
CN (1) CN112784091A (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080114633A1 (en) * 2006-11-10 2008-05-15 Wayne Wolf Method and Apparatus for Analyzing Activity in a Space
US20110158558A1 (en) * 2009-12-30 2011-06-30 Nokia Corporation Methods and apparatuses for facilitating content-based image retrieval
US20160005171A1 (en) * 2013-02-27 2016-01-07 Hitachi, Ltd. Image Analysis Device, Image Analysis System, and Image Analysis Method
CN106821410A (zh) * 2017-03-20 2017-06-13 厦门大学 采用高光谱ct功能成像的物质识别方法和系统
CN108830251A (zh) * 2018-06-25 2018-11-16 北京旷视科技有限公司 信息关联方法、装置和系统
CN108921069A (zh) * 2018-06-22 2018-11-30 张小勇 幼儿兴趣爱好推荐方法及系统
CN110415792A (zh) * 2019-05-31 2019-11-05 上海联影智能医疗科技有限公司 图像检测方法、装置、计算机设备和存储介质
CN110825916A (zh) * 2019-11-13 2020-02-21 智慧视通(杭州)科技发展有限公司 一种基于形体识别技术的寻人方法
WO2020063020A1 (zh) * 2018-09-26 2020-04-02 北京七鑫易维信息技术有限公司 识别对象的方法、装置和系统
CN111695488A (zh) * 2020-06-09 2020-09-22 北京百度网讯科技有限公司 兴趣面识别方法、装置、设备以及存储介质

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080114633A1 (en) * 2006-11-10 2008-05-15 Wayne Wolf Method and Apparatus for Analyzing Activity in a Space
US20110158558A1 (en) * 2009-12-30 2011-06-30 Nokia Corporation Methods and apparatuses for facilitating content-based image retrieval
US20160005171A1 (en) * 2013-02-27 2016-01-07 Hitachi, Ltd. Image Analysis Device, Image Analysis System, and Image Analysis Method
CN106821410A (zh) * 2017-03-20 2017-06-13 厦门大学 采用高光谱ct功能成像的物质识别方法和系统
CN108921069A (zh) * 2018-06-22 2018-11-30 张小勇 幼儿兴趣爱好推荐方法及系统
CN108830251A (zh) * 2018-06-25 2018-11-16 北京旷视科技有限公司 信息关联方法、装置和系统
WO2020063020A1 (zh) * 2018-09-26 2020-04-02 北京七鑫易维信息技术有限公司 识别对象的方法、装置和系统
CN110415792A (zh) * 2019-05-31 2019-11-05 上海联影智能医疗科技有限公司 图像检测方法、装置、计算机设备和存储介质
CN110825916A (zh) * 2019-11-13 2020-02-21 智慧视通(杭州)科技发展有限公司 一种基于形体识别技术的寻人方法
CN111695488A (zh) * 2020-06-09 2020-09-22 北京百度网讯科技有限公司 兴趣面识别方法、装置、设备以及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LINA ZHONG ETAL.: "A Big Data Framework to Identify Tourist Interests Based on Geotagged Travel Photos", IEEE, pages 1 - 17 *

Similar Documents

Publication Publication Date Title
CN109165552B (zh) 一种基于人体关键点的姿态识别方法、系统及存储器
Bylinskii et al. Intrinsic and extrinsic effects on image memorability
Li et al. Massive open online proctor: Protecting the credibility of MOOCs certificates
Mathe et al. Actions in the eye: Dynamic gaze datasets and learnt saliency models for visual recognition
Bosch et al. Automatic detection of learning-centered affective states in the wild
CN102411854B (zh) 基于增强现实的课堂教学混合技术应用系统及方法
CN107240047B (zh) 一种教学视频的学分评估方法和装置
Sgrò et al. Assessing standing long jump developmental levels using an inertial measurement unit
US20140045162A1 (en) Device of Structuring Learning Contents, Learning-Content Selection Support System and Support Method Using the Device
Nainggolan et al. The implementation of augmented reality as learning media in introducing animals for early childhood education
KR102490071B1 (ko) 태권도 동작에 관한 세부 항목 별 분석 및 평가 장치
CN109410984B (zh) 一种朗读评分的方法及电子设备
CN115907507B (zh) 一种联合课堂场景的学生课堂行为检测和学情分析方法
CN110223202A (zh) 一种教学道具识别与评分的方法及系统
CN111046852A (zh) 个人学习路径生成方法、设备及可读存储介质
CN111160277A (zh) 行为识别分析方法和系统、计算机可读存储介质
Yi et al. Real time learning evaluation based on gaze tracking
CN116055684B (zh) 基于画面监控的在线体育教学系统
CN112784091A (zh) 兴趣分析方法和相关装置、设备
US20210121774A1 (en) Memory puzzle system
CN111507555B (zh) 人体状态检测方法、课堂教学质量的评价方法及相关装置
CN111159433B (zh) 一种内容定位方法及电子设备
Zhang et al. Designing a streamlined viewport strategy system to enhance performance in context awareness in mobile learning environments
CN111311981A (zh) 一种多数据支持的智能教室
CN110166839A (zh) 一种验证视频是否被观看的方法与系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20210511