CN117138353B - 一种应用于玩具枪交互系统的坐标图像处理方法及系统 - Google Patents
一种应用于玩具枪交互系统的坐标图像处理方法及系统 Download PDFInfo
- Publication number
- CN117138353B CN117138353B CN202311156450.5A CN202311156450A CN117138353B CN 117138353 B CN117138353 B CN 117138353B CN 202311156450 A CN202311156450 A CN 202311156450A CN 117138353 B CN117138353 B CN 117138353B
- Authority
- CN
- China
- Prior art keywords
- interaction
- toy gun
- observation
- interest
- target user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 578
- 238000003672 processing method Methods 0.000 title claims abstract description 18
- 238000012545 processing Methods 0.000 claims abstract description 15
- 239000013598 vector Substances 0.000 claims description 126
- 238000000034 method Methods 0.000 claims description 32
- 238000011156 evaluation Methods 0.000 claims description 28
- 230000002452 interceptive effect Effects 0.000 claims description 28
- 238000012549 training Methods 0.000 claims description 24
- 238000013528 artificial neural network Methods 0.000 claims description 19
- 230000004927 fusion Effects 0.000 claims description 15
- 230000003321 amplification Effects 0.000 claims description 8
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 8
- 238000002372 labelling Methods 0.000 claims description 7
- 230000004931 aggregating effect Effects 0.000 claims description 5
- 238000004458 analytical method Methods 0.000 abstract description 8
- 230000006399 behavior Effects 0.000 description 20
- 230000008569 process Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/70—Game security or game management aspects
- A63F13/79—Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/837—Shooting of targets
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Security & Cryptography (AREA)
- Business, Economics & Management (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Toys (AREA)
Abstract
本申请实施例提供一种应用于玩具枪交互系统的坐标图像处理方法及系统,通过获取目标用户的在玩具枪系统中进行操作生成的屏幕图像数据,并对所述屏幕图像数据进行图像定位,生成所述屏幕图像数据对应的信号坐标序列,所述屏幕图像数据为每次玩具枪被所述目标用户按下按钮后对应的红外管发射红外光线并射击到屏幕上进行拍摄的图像数据,并对所述屏幕图像数据中所述信号坐标序列对应的图像区域进行放大截取处理,生成所述目标用户的对应的放大截取图像数据,以获得更清晰的目标用户操作图像数据后便于后续分析。
Description
技术领域
本申请涉及玩具枪系统技术领域,具体而言,涉及一种应用于玩具枪交互系统的坐标图像处理方法及系统。
背景技术
在现有的玩具枪系统中,通常采用静态的推荐方法,无法准确反映目标用户的个性化需求和兴趣。此外,传统的交互观测策略也未能全面考虑用户的行为模式及其对不同玩具枪交互数据流的偏好。
发明内容
有鉴于此,本申请的目的在于提供一种应用于玩具枪交互系统的坐标图像处理方法及系统。
依据本申请的第一方面,提供一种应用于玩具枪交互系统的坐标图像处理方法,应用于玩具枪系统,所述方法包括:
获取目标用户的在玩具枪系统中进行操作生成的屏幕图像数据,并对所述屏幕图像数据进行图像定位,生成所述屏幕图像数据对应的信号坐标序列,其中,所述屏幕图像数据为每次玩具枪被所述目标用户按下按钮后对应的红外管发射红外光线并射击到屏幕上进行拍摄的图像数据;
对所述屏幕图像数据中所述信号坐标序列对应的图像区域进行放大截取处理,生成所述目标用户的对应的放大截取图像数据;
依据所述目标用户的放大截取图像数据,分别获取所述目标用户在K个所述玩具枪交互事件下的交互兴趣点向量,K个所述玩具枪交互事件包括一个目标推荐玩具枪交互事件和至少一个样例推荐玩具枪交互事件,每个交互兴趣点向量反映:所述目标用户在相应玩具枪交互事件下对待推荐的玩具枪交互数据流的兴趣关注状态;
将K个所述交互兴趣点向量进行聚合输出为交互兴趣特征,并依据设定的各交互观测策略,分别对所述交互兴趣特征进行观测,生成相应的观测信息,每种交互观测策略反映:针对一种交互选择行为的观测规则,以及,每种观测信息反映:在相应交互观测策略下,所述目标用户选择所述玩具枪交互数据流的可能性;
在检测到存在至少一个观测信息符合设定观测要求时,在所述目标推荐玩具枪交互事件下,向所述目标用户推荐所述玩具枪交互数据流。
在第一方面的一种可能的实施方式中,所述依据所述目标用户的放大截取图像数据,分别获取所述目标用户在K个所述玩具枪交互事件下的交互兴趣点向量,包括:
依据目标用户的放大截取图像数据,提取所述目标用户的用户交互偏好向量;
对于K个所述玩具枪交互事件,获取该玩具枪交互事件对应的交互状态数据,所述交互状态数据反映:在该玩具枪交互事件下,各在先目标用户和各在先玩具枪交互数据流之间的匹配度;
依据所述用户交互偏好向量和所述交互状态数据,生成所述目标用户在该玩具枪交互事件下,对于所述待推荐的玩具枪交互数据流的交互兴趣点向量。
在第一方面的一种可能的实施方式中,所述依据所述用户交互偏好向量和所述交互状态数据,生成所述目标用户在该玩具枪交互事件下,对于所述待推荐的玩具枪交互数据流的交互兴趣点向量,包括:
获取所述目标推荐玩具枪交互事件对应的先验交互状态数据,所述先验交互状态数据反映:在所述目标推荐玩具枪交互事件下,所述目标用户和所述玩具枪交互数据流之间的匹配度;
依据所述交互状态数据,对所述用户交互偏好向量进行观测,生成针对该玩具枪交互事件预测的初始交互兴趣点向量;
依据所述先验交互状态数据,对所述初始交互兴趣点向量进行调整,生成所述目标用户在该玩具枪交互事件下的交互兴趣点向量。
在第一方面的一种可能的实施方式中,所述先验交互状态数据的确定步骤,包括:
提取所述目标推荐玩具枪交互事件的交互行为描述矢量,并对所述交互行为描述矢量进行观测,生成初始交互状态数据,所述初始交互状态数据反映:所述目标推荐玩具枪交互事件与所述各在先玩具枪交互数据流之间的匹配度;
依据所述初始交互状态数据,分析在所述目标推荐玩具枪交互事件下,所述用户交互偏好向量与所述玩具枪交互数据流的交互内容向量之间的匹配度,生成相应的先验交互状态数据。
在第一方面的一种可能的实施方式中,所述将K个所述交互兴趣点向量进行聚合输出为交互兴趣特征,包括以下任意一种:
依据设定的融合顺序,对K个所述交互兴趣点向量进行特征融合,生成交互兴趣特征;
依据K个所述玩具枪交互事件各自对应的交互注意力权重,对K个所述交互兴趣点向量进行汇聚,生成交互兴趣特征,每个交互注意力权重反映:相应玩具枪交互事件相较K个所述玩具枪交互事件的重要性;
依据每个交互兴趣点向量各自与K个所述交互兴趣点向量之间的特征距离,获取所述每个交互兴趣点向量对应的残差特征;
针对K个所述交互兴趣点向量各自对应的残差特征进行融合,生成交互兴趣特征。
在第一方面的一种可能的实施方式中,所述依据K个所述玩具枪交互事件各自对应的交互注意力权重,对K个所述交互兴趣点向量进行汇聚,生成交互兴趣特征,包括:
获取K个所述玩具枪交互事件共同对应的全局状态数据,所述全局状态数据反映:在K个所述玩具枪交互事件下,各在先目标用户与各在先玩具枪交互数据流之间的匹配度;
对于K个所述玩具枪交互事件,依据该玩具枪交互事件对应的交互注意力权重,对K个所述交互兴趣点向量进行融合,生成该玩具枪交互事件的第一加权兴趣特征;
依据所述全局状态数据,对所述第一加权兴趣特征进行调整,生成该玩具枪交互事件的第二加权兴趣特征;
对于所述的K个所述玩具枪交互事件各自的第二加权兴趣特征,进行汇聚,生成交互兴趣特征。
在第一方面的一种可能的实施方式中,所述依据设定的各交互观测策略,分别对所述交互兴趣特征进行观测,生成相应的观测信息,包括:
获取设定的各交互观测策略共享的全局观测评价指标,所述全局观测评价指标反映:依据所述各交互观测策略的全局交互观测策略,各在先目标用户与各在先玩具枪交互数据流之间的匹配度;
对于所述各交互观测策略,获取单个交互观测策略关联的单独观测评价指标,所述单独观测评价指标反映:依据所述单个交互观测策略,所述各在先目标用户与所述各在先玩具枪交互数据流之间的匹配度;
依据所述单独观测评价指标和所述全局观测评价指标,对所述交互兴趣特征进行观测,生成所述单个交互观测策略对应的观测信息。
在第一方面的一种可能的实施方式中,所述依据设定的各交互观测策略,分别对所述交互兴趣特征进行观测,生成相应的观测信息,是通过满足网络收敛条件的交互观测神经网络执行的,所述交互观测神经网络的训练步骤,包括:
获取待学习数据序列,所述待学习数据序列中的每个待学习数据包括:一个模板交互兴趣特征和相应的训练标注数据,所述模板交互兴趣特征依据W种玩具枪交互事件各自对应的交互兴趣点向量融合得到,所述W种玩具枪交互事件至少包括K个所述玩具枪交互事件,所述训练标注数据反映:至少依据所述各交互观测策略确定、各在先目标用户选择各在先玩具枪交互数据流的标注可能性参数;
从所述待学习数据序列中选取待学习数据,并将相应的模板交互兴趣特征输入初始化权重参数的交互观测神经网络,生成依据所述各交互观测策略确定的、所述各在先目标用户选择各在先玩具枪交互数据流的训练可能性参数;
依据各训练可能性参数与相应标注可能性参数之间的损失函数值,对所述初始化权重参数的交互观测神经网络进行训练。
在第一方面的一种可能的实施方式中,所述在检测到存在至少一个观测信息符合设定观测要求时,在所述目标推荐玩具枪交互事件下,向所述目标用户推荐所述玩具枪交互数据流,包括以下任意一种:
在检测到存在一个观测信息符合针对相应交互观测策略设定的观测门限值时,在所述目标推荐玩具枪交互事件,向所述目标用户推荐所述玩具枪交互数据流;
当各观测信息分别符合针对相应交互观测策略设定的观测门限值时,在所述目标推荐玩具枪交互事件,向所述目标用户推荐所述玩具枪交互数据流;
当依据各观测信息计算得到的全局观测信息符合对于所述各交互观测策略设定的全局观测门限值时,在所述目标推荐玩具枪交互事件,向所述目标用户推荐所述玩具枪交互数据流。
依据本申请的第二方面,提供一种玩具枪系统,所述玩具枪系统包括处理器以及可读存储介质,所述可读存储介质存储有程序,该程序被处理器执行时实现前述的应用于玩具枪交互系统的坐标图像处理方法。
依据本申请的第三方面,提供提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机可执行指令,在监测到所述计算机可执行指令被执行时,实现前述的应用于玩具枪交互系统的坐标图像处理方法。
依据以上任意一个方面,本申请中,通过获取目标用户在玩具枪系统中进行操作生成的屏幕图像数据,并对其进行处理,利用图像定位技术生成信号坐标序列。进一步根据信号坐标序列,在屏幕图像数据中截取放大目标用户的图像区域,生成放大截取图像数据。根据目标用户的放大截取图像数据,提出了一种新的交互兴趣点向量的概念,并将其应用于K个玩具枪交互事件中。这些交互兴趣点向量反映目标用户在不同的玩具枪交互事件下对待推荐的玩具枪交互数据流的兴趣关注状态。为了更好地理解目标用户的兴趣和行为模式,本系统将K个交互兴趣点向量聚合为交互兴趣特征,并依据设定的交互观测策略,生成相应的观测信息。每个交互观测策略都制定了针对特定交互选择行为的观测规则,而每个观测信息则反映了在相应交互观测策略下,目标用户选择玩具枪交互数据流的可能性。最终,当检测到至少一个观测信息符合设定的观测要求时,在目标推荐玩具枪交互事件下,向目标用户推荐相应的玩具枪交互数据流。通过该技术方案,实现了对目标用户兴趣和行为的准确分析,提供个性化的玩具枪交互推荐服务。相比传统方法,可以更好地满足目标用户的需求,并提升用户体验。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以依据这些附图获得其它相关的附图。
图1本申请实施例所提供的应用于玩具枪交互系统的坐标图像处理方法的流程示意图;
图2示出了本申请实施例所提供的用于实现上述的应用于玩具枪交互系统的坐标图像处理方法的玩具枪系统的组件结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。依据本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排它的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
图1示出了本申请实施例提供的应用于玩具枪交互系统的坐标图像处理方法的流程示意图,应当理解,在其它实施例中,本实施例的应用于玩具枪交互系统的坐标图像处理方法其中部分步骤的顺序可以依据实际需要相互交换,或者其中的部分步骤也可以省略或删除。该应用于玩具枪交互系统的坐标图像处理方法的详细步骤介绍如下。
步骤S110,获取目标用户的在玩具枪系统中进行操作生成的屏幕图像数据,并对所述屏幕图像数据进行图像定位,生成所述屏幕图像数据对应的信号坐标序列。
本实施例中,所述屏幕图像数据为每次玩具枪被所述目标用户按下按钮后对应的红外管发射红外光线并射击到屏幕上进行拍摄的图像数据。
步骤S120,对所述屏幕图像数据中所述信号坐标序列对应的图像区域进行放大截取处理,生成所述目标用户的对应的放大截取图像数据。
例如,一个虚拟现实射击游戏中,通过摄像头获取玩家在游戏中按下按钮后红外光线射到屏幕上的图像数据,然后使用图像处理技术将红外光线的位置定位并生成相应的信号坐标序列,然后根据信号坐标序列确定了玩家点击的位置,然后对该位置的图像区域进行放大处理,以获得更清晰的目标用户操作图像数据。
步骤S130,依据所述目标用户的放大截取图像数据,分别获取所述目标用户在K个所述玩具枪交互事件下的交互兴趣点向量。
本实施例中,K个所述玩具枪交互事件包括一个目标推荐玩具枪交互事件和至少一个样例推荐玩具枪交互事件,每个交互兴趣点向量反映:所述目标用户在相应玩具枪交互事件下对待推荐的玩具枪交互数据流的兴趣关注状态。
例如,假设目标用户是一位游戏玩家,可以根据该用户的行为和喜好分析出他可能对某种类型的玩具枪感兴趣。现有两个交互事件:目标推荐玩具枪交互事件是展示给用户一种全新设计的射击游戏玩具枪,而样例推荐玩具枪交互事件是展示给用户一种已经在市场上广受欢迎的射击游戏玩具枪。
针对目标推荐玩具枪交互事件,记录用户在观看该玩具枪的放大截取图像数据时的表情、眼神集中度以及其他体现兴趣的行为等信息。这些信息将构成交互兴趣点向量,反映了用户对于新设计玩具枪的兴趣关注状态。
对于样例推荐玩具枪交互事件,同样记录用户观看该玩具枪的放大截取图像数据时的表情、眼神集中度以及其他相关行为。这些信息组成另一个交互兴趣点向量,反映了用户对于市场上已经存在的射击游戏玩具枪的兴趣关注状态。
通过分析不同交互事件下的交互兴趣点向量,可以了解用户对目标推荐玩具枪和样例推荐玩具枪之间的兴趣差异,并综合考虑这些关注状态来进行推荐。例如,如果用户在目标推荐玩具枪交互事件下表现出更高的兴趣关注状态,可能会更加倾向于向用户推荐这种全新设计的玩具枪。
总之,交互兴趣点向量是根据用户在相应玩具枪交互事件下对待推荐的玩具枪交互数据流的兴趣关注状态进行提取和分析的,从而帮助了解用户喜好,优化推荐体验。
步骤S140,将K个所述交互兴趣点向量进行聚合输出为交互兴趣特征,并依据设定的各交互观测策略,分别对所述交互兴趣特征进行观测,生成相应的观测信息。
本实施例中,每种交互观测策略反映:针对一种交互选择行为的观测规则,以及,每种观测信息反映:在相应交互观测策略下,所述目标用户选择所述玩具枪交互数据流的可能性。
例如,假设有两种交互观测策略:眼神追踪和手势识别,并且目标用户需要选择一种射击游戏玩具枪进行交互。我们可以使用这两种观测策略来推断用户对不同玩具枪的选择可能性。
眼神追踪作为一种观测策略,其观测规则可能是基于目标用户注视玩具枪的时间和注视点的位置。观测信息可以是在眼神追踪下,用户注视某种玩具枪的时间比其他玩具枪更长,表明用户对该玩具枪的选择可能性更高。
手势识别作为另一种观测策略,其观测规则可能是检测目标用户使用手势指向或操作某种玩具枪的频率和准确性。观测信息可以是在手势识别下,用户对某种玩具枪使用手势指向的次数较多,或者手势操作的准确性更高,这可能意味着用户更倾向于选择该玩具枪进行交互。
通过综合分析眼神追踪和手势识别等交互观测策略下的观测信息,可以得出关于目标用户选择不同玩具枪交互数据流的可能性。例如,在眼神追踪下,用户注视时间和位置显示对一种特定玩具枪更感兴趣;而在手势识别下,用户频繁地使用手势指向该玩具枪。这些观测信息的综合分析结果可能表明用户有较高的可能性选择该特定玩具枪进行交互。
总之,交互观测策略定义了观测规则,用于观察用户在交互行为中的特定方面。而观测信息则是根据相应观测策略下的观测结果,反映了用户选择不同玩具枪交互数据流的可能性。通过这种方式,可以更好地理解目标用户的偏好,并提供个性化的推荐。
步骤S150,在检测到存在至少一个观测信息符合设定观测要求时,在所述目标推荐玩具枪交互事件下,向所述目标用户推荐所述玩具枪交互数据流。
例如,假设目标用户是一位虚拟现实游戏玩家,使用眼神追踪和手势识别两种交互观测策略来分析用户对不同玩具枪的选择可能性。在目标推荐玩具枪交互事件中,根据观测信息判断用户对某种特定玩具枪的选择可能性较高。
假设通过眼神追踪观测策略,发现用户在注视时间和位置上表现出对某种新型射击游戏玩具枪的高度关注。同时,通过手势识别观测策略,观察到用户频繁地使用手势指向该新型玩具枪,并且手势操作准确度较高。
基于以上观测信息的分析,可以得出结论:用户对这种新型玩具枪的兴趣和倾向性较高。因此,在检测到至少一个符合设定观测要求的观测信息时,会在目标推荐玩具枪交互事件中向用户推荐这种新型射击游戏玩具枪的交互数据流。这样可以提供与用户兴趣相匹配的推荐,增强用户体验和满足其偏好。
总而言之,当检测到符合设定观测要求的观测信息时,在目标推荐玩具枪交互事件下向目标用户推荐特定的玩具枪交互数据流,以满足用户的个性化需求和提升推荐准确性。
基于以上步骤,本申请实施例通过获取目标用户在玩具枪系统中进行操作生成的屏幕图像数据,并对其进行处理,利用图像定位技术生成信号坐标序列。进一步根据信号坐标序列,在屏幕图像数据中截取放大目标用户的图像区域,生成放大截取图像数据。根据目标用户的放大截取图像数据,提出了一种新的交互兴趣点向量的概念,并将其应用于K个玩具枪交互事件中。这些交互兴趣点向量反映目标用户在不同的玩具枪交互事件下对待推荐的玩具枪交互数据流的兴趣关注状态。为了更好地理解目标用户的兴趣和行为模式,本系统将K个交互兴趣点向量聚合为交互兴趣特征,并依据设定的交互观测策略,生成相应的观测信息。每个交互观测策略都制定了针对特定交互选择行为的观测规则,而每个观测信息则反映了在相应交互观测策略下,目标用户选择玩具枪交互数据流的可能性。最终,当检测到至少一个观测信息符合设定的观测要求时,在目标推荐玩具枪交互事件下,向目标用户推荐相应的玩具枪交互数据流。通过该技术方案,实现了对目标用户兴趣和行为的准确分析,提供个性化的玩具枪交互推荐服务。相比传统方法,可以更好地满足目标用户的需求,并提升用户体验。
一种可替代的实施方式中,步骤S130可以包括:
步骤S131,依据目标用户的放大截取图像数据,提取所述目标用户的用户交互偏好向量。
例如,可以通过分析用户的手势、动作、注视时间等信息,了解用户对不同类型的玩具枪交互数据流的偏好,这个用户交互偏好向量可以帮助系统了解目标用户的喜好和偏好,进而影响推荐决策。
步骤S132,对于K个所述玩具枪交互事件,获取该玩具枪交互事件对应的交互状态数据,所述交互状态数据反映:在该玩具枪交互事件下,各在先目标用户和各在先玩具枪交互数据流之间的匹配度。
例如,通过比较用户交互偏好向量和各个玩具枪交互数据流的特征、属性等信息,可以评估它们之间的匹配度。这样的交互状态数据可以用来衡量目标用户与不同玩具枪交互数据流之间的相容性或相关性。
步骤S133,依据所述用户交互偏好向量和所述交互状态数据,生成所述目标用户在该玩具枪交互事件下,对于所述待推荐的玩具枪交互数据流的交互兴趣点向量。
例如,这个交互兴趣点向量综合了用户交互偏好向量和交互状态数据的信息,从而反映了用户在该交互事件下对待推荐的玩具枪交互数据流的兴趣关注状态。
总之,在这个场景中,通过目标用户的放大截取图像数据、用户交互偏好向量和交互状态数据的分析与处理,系统能够生成目标用户在不同玩具枪交互事件下的交互兴趣点向量,进而用于进行个性化推荐和提升用户体验。
一种可替代的实施方式中,步骤S133可以包括:
步骤S1331,获取所述目标推荐玩具枪交互事件对应的先验交互状态数据,所述先验交互状态数据反映:在所述目标推荐玩具枪交互事件下,所述目标用户和所述玩具枪交互数据流之间的匹配度。
例如,获取目标推荐玩具枪交互事件对应的先验交互状态数据,可以用于描述目标用户与该玩具枪交互数据流之间的匹配程度,可以是根据历史记录、用户反馈或其他先前经验得出的数据。先验交互状态数据可以提供一个初始的匹配度评估,作为后续生成交互兴趣点向量的参考。
步骤S1332,依据所述交互状态数据,对所述用户交互偏好向量进行观测,生成针对该玩具枪交互事件预测的初始交互兴趣点向量。
根据先验交互状态数据,观测用户交互偏好向量,并结合交互状态数据生成针对该玩具枪交互事件的初始交互兴趣点向量,这个初始向量是基于用户的偏好和预测的匹配度,反映了用户在该交互事件下对待推荐的玩具枪交互数据流的潜在兴趣。
步骤S1333,依据所述先验交互状态数据,对所述初始交互兴趣点向量进行调整,生成所述目标用户在该玩具枪交互事件下的交互兴趣点向量。
例如,根据先验交互状态数据的反馈,对初始交互兴趣点向量进行调整,进一步优化生成目标用户在该玩具枪交互事件下的交互兴趣点向量。这个向量综合了先验信息和初始预测的结果,更准确地反映了目标用户对待推荐的玩具枪交互数据流的兴趣程度和匹配度。
总之,通过依据用户交互偏好向量、交互状态数据以及先验交互状态数据的处理和分析,能够生成目标用户在该玩具枪交互事件下的交互兴趣点向量。这个向量综合了多种信息和预测结果,用于个性化推荐和提供与用户兴趣相匹配的玩具枪交互数据流。
一种可替代的实施方式中,所述先验交互状态数据的确定步骤,包括:
1、提取所述目标推荐玩具枪交互事件的交互行为描述矢量,并对所述交互行为描述矢量进行观测,生成初始交互状态数据,所述初始交互状态数据反映:所述目标推荐玩具枪交互事件与所述各在先玩具枪交互数据流之间的匹配度。
2、依据所述初始交互状态数据,分析在所述目标推荐玩具枪交互事件下,所述用户交互偏好向量与所述玩具枪交互数据流的交互内容向量之间的匹配度,生成相应的先验交互状态数据。
例如,在目标用户观看目标推荐玩具枪交互事件时,系统会提取该交互事件的交互行为描述矢量,具体描述了该交互事件中的交互行为、动作、操作等特征。然后,对这个交互行为描述矢量进行观测,并生成初始交互状态数据。这个初始交互状态数据用于反映目标推荐玩具枪交互事件与各在先玩具枪交互数据流之间的匹配程度。
在此基础上,基于初始交互状态数据,对目标推荐玩具枪交互事件下的用户交互偏好向量和玩具枪交互数据流的交互内容向量进行匹配度分析。这个分析过程可以考虑交互行为、特征相似性等方面,以评估用户偏好和玩具枪交互数据流之间的匹配程度。根据分析的结果,系统生成相应的先验交互状态数据,用于进一步衡量目标推荐玩具枪交互事件与各在先玩具枪交互数据流之间的匹配度。
总之,在这个场景中,通过提取目标推荐玩具枪交互事件的交互行为描述矢量、观测初始交互状态数据以及分析用户交互偏好向量与玩具枪交互数据流的交互内容向量之间的匹配度,能够确定先验交互状态数据。这些数据用于评估目标推荐玩具枪交互事件与不同玩具枪交互数据流之间的匹配程度,并为后续的个性化推荐提供参考依据。
一种可替代的实施方式中,所述将K个所述交互兴趣点向量进行聚合输出为交互兴趣特征,包括以下任意一种:
1、依据设定的融合顺序,对K个所述交互兴趣点向量进行特征融合,生成交互兴趣特征。
例如,当前有K个交互兴趣点向量,表示了目标用户在不同玩具枪交互事件下的兴趣程度。根据预先设定的融合顺序,对这K个交互兴趣点向量进行特征融合。特征融合的方法可以是加权求和、拼接、平均等,具体取决于应用场景和算法设计。最终生成的交互兴趣特征反映了目标用户在该玩具枪交互事件下的综合兴趣。
2、依据K个所述玩具枪交互事件各自对应的交互注意力权重,对K个所述交互兴趣点向量进行汇聚,生成交互兴趣特征,每个交互注意力权重反映:相应玩具枪交互事件相较K个所述玩具枪交互事件的重要性。
例如,使用K个玩具枪交互事件各自对应的交互注意力权重对K个交互兴趣点向量进行汇聚,每个交互注意力权重反映了相应玩具枪交互事件相对于其他交互事件的重要性。通过加权汇聚,生成了交互兴趣特征,该特征综合了不同交互事件的兴趣点向量,并考虑了它们的重要程度。
3、依据每个交互兴趣点向量各自与K个所述交互兴趣点向量之间的特征距离,获取所述每个交互兴趣点向量对应的残差特征,针对K个所述交互兴趣点向量各自对应的残差特征进行融合,生成交互兴趣特征。
例如,根据每个交互兴趣点向量与K个兴趣点向量之间的特征距离计算残差特征。特征距离可以使用欧几里得距离、余弦相似度等度量方法来衡量。通过计算特征距离,可以获得每个交互兴趣点向量相对于K个向量之间的差异或残差特征。根据残差特征,对K个交互兴趣点向量各自的残差特征进行融合。这个融合过程可以采用加权求和、拼接、平均等方法,将残差特征结合起来生成最终的交互兴趣特征。这个特征考虑了每个交互兴趣点向量相对于其他向量的偏差或差异,提供了更全面的描述和理解目标用户的兴趣。
一种可替代的实施方式中,所述依据K个所述玩具枪交互事件各自对应的交互注意力权重,对K个所述交互兴趣点向量进行汇聚,生成交互兴趣特征,包括:获取K个所述玩具枪交互事件共同对应的全局状态数据,所述全局状态数据反映:在K个所述玩具枪交互事件下,各在先目标用户与各在先玩具枪交互数据流之间的匹配度。对于K个所述玩具枪交互事件,依据该玩具枪交互事件对应的交互注意力权重,对K个所述交互兴趣点向量进行融合,生成该玩具枪交互事件的第一加权兴趣特征。依据所述全局状态数据,对所述第一加权兴趣特征进行调整,生成该玩具枪交互事件的第二加权兴趣特征。对于所述的K个所述玩具枪交互事件各自的第二加权兴趣特征,进行汇聚,生成交互兴趣特征。
例如,根据K个玩具枪交互事件各自对应的交互注意力权重,获取它们共同对应的全局状态数据。这个全局状态数据反映了目标用户在这K个交互事件下与各玩具枪交互数据流之间的匹配程度。通过综合考虑多个交互事件的权重,系统能够得到更全面和综合的用户-数据流匹配度信息。
接着,依据每个玩具枪交互事件对应的交互注意力权重,对K个交互兴趣点向量进行加权融合。融合的方式可以是加权求和、拼接等,具体方法取决于应用场景和算法设计。这样生成的结果是每个玩具枪交互事件的第一加权兴趣特征,考虑了各自的兴趣点向量和交互注意力权重。
在此基础上,根据获取的全局状态数据,对每个玩具枪交互事件的第一加权兴趣特征进行进一步调整。这个调整过程能够根据全局信息对第一加权兴趣特征进行修正或者加权,以更好地反映目标用户与各玩具枪交互数据流之间的匹配情况。调整后得到的结果是每个玩具枪交互事件的第二加权兴趣特征。接着,对每个玩具枪交互事件的第二加权兴趣特征进行汇聚。这个汇聚过程可以采用加权求和、拼接、平均等方法,将K个事件的第二加权兴趣特征综合起来生成最终的交互兴趣特征。这个特征综合了多个玩具枪交互事件的加权兴趣特征,并考虑了全局状态数据,提供了对目标用户兴趣的综合描述。
综上所述,通过获取全局状态数据、基于交互注意力权重进行融合、根据全局状态数据调整第一加权兴趣特征,以及汇聚第二加权兴趣特征,系统能够生成最终的交互兴趣特征,该特征综合考虑了K个玩具枪交互事件的兴趣点向量和交互注意力权重,并反映了用户与各玩具枪交互数据流之间的匹配度。
一种可替代的实施方式中,步骤S140可以包括:
步骤S141,获取设定的各交互观测策略共享的全局观测评价指标,所述全局观测评价指标反映:依据所述各交互观测策略的全局交互观测策略,各在先目标用户与各在先玩具枪交互数据流之间的匹配度。
例如,假设有三个交互观测策略:A、B、C。基于这些交互观测策略,计算每个玩具枪交互事件对应的全局观测评价指标。这些全局观测评价指标综合考虑了不同观测策略下的用户-数据流匹配度,反映在这K个交互事件中目标用户与各玩具枪交互数据流之间的匹配程度。
步骤S142,对于所述各交互观测策略,获取单个交互观测策略关联的单独观测评价指标,所述单独观测评价指标反映:依据所述单个交互观测策略,所述各在先目标用户与所述各在先玩具枪交互数据流之间的匹配度。
例如,针对每个交互观测策略(A、B、C),计算单个观测评价指标,用以衡量该策略下目标用户与各玩具枪交互数据流之间的匹配度。这些指标是根据具体策略设计和计算得出的,可以是分析用户行为、交互模式等方面的指标。
步骤S143,依据所述单独观测评价指标和所述全局观测评价指标,对所述交互兴趣特征进行观测,生成所述单个交互观测策略对应的观测信息。
例如,结合单独观测评价指标和全局观测评价指标,对交互兴趣特征进行观测。通过考虑不同观测策略下的匹配度指标,能够生成单个交互观测策略对应的观测信息。例如,对于观测策略A,可以基于A相关的评价指标来判断目标用户与各玩具枪数据流之间的匹配程度,并相应地调整交互兴趣特征。
综上所述,通过获取全局观测评价指标、单个观测评价指标,并结合它们对交互兴趣特征进行观测,能够生成每个交互观测策略对应的观测信息。这些信息反映了不同策略下目标用户与玩具枪交互数据流之间的匹配度,并为后续的分析和决策提供了参考依据。
一种可替代的实施方式中,步骤S140是通过满足网络收敛条件的交互观测神经网络执行的,所述交互观测神经网络的训练步骤,包括:
步骤S101,获取待学习数据序列,所述待学习数据序列中的每个待学习数据包括:一个模板交互兴趣特征和相应的训练标注数据,所述模板交互兴趣特征依据W种玩具枪交互事件各自对应的交互兴趣点向量融合得到,所述W种玩具枪交互事件至少包括K个所述玩具枪交互事件,所述训练标注数据反映:至少依据所述各交互观测策略确定、各在先目标用户选择各在先玩具枪交互数据流的标注可能性参数。
例如,可以收集一系列数据,每个数据包含一个模板交互兴趣特征和相应的训练标注数据。模板交互兴趣特征是通过将W种玩具枪交互事件各自对应的交互兴趣点向量融合而成的。训练标注数据记录了在各交互观测策略下,目标用户选择各玩具枪交互数据流的标注可能性参数,用于训练交互观测神经网络。
步骤S102,从所述待学习数据序列中选取待学习数据,并将相应的模板交互兴趣特征输入初始化权重参数的交互观测神经网络,生成依据所述各交互观测策略确定的、所述各在先目标用户选择各在先玩具枪交互数据流的训练可能性参数。
例如,从待学习数据序列中选择一个待学习数据。选择的数据包含一个模板交互兴趣特征,该模板交互兴趣特征被输入到初始化权重参数的交互观测神经网络中。通过神经网络的计算,根据各交互观测策略,得到了各目标用户选择各玩具枪交互数据流的训练可能性参数。
步骤S103,依据各训练可能性参数与相应标注可能性参数之间的损失函数值,对所述初始化权重参数的交互观测神经网络进行训练。
例如,使用训练可能性参数与相应标注可能性参数之间的损失函数值来度量交互观测神经网络的性能。通过优化算法(如反向传播),调整交互观测神经网络的权重参数,使其逐渐逼近或最小化损失函数。这个过程被称为训练,它会不断迭代更新神经网络的权重参数,以提高预测准确性。
由此,通过获取待学习数据序列、用交互观测神经网络进行训练,可以生成各交互观测策略确定的目标用户与玩具枪交互数据流选择的训练可能性参数。这样的训练过程有助于优化系统的性能和预测准确性。
一种可替代的实施方式中,步骤S150包括以下任意一种:
1、在检测到存在一个观测信息符合针对相应交互观测策略设定的观测门限值时,在所述目标推荐玩具枪交互事件,向所述目标用户推荐所述玩具枪交互数据流。
2、当各观测信息分别符合针对相应交互观测策略设定的观测门限值时,在所述目标推荐玩具枪交互事件,向所述目标用户推荐所述玩具枪交互数据流。
3、当依据各观测信息计算得到的全局观测信息符合对于所述各交互观测策略设定的全局观测门限值时,在所述目标推荐玩具枪交互事件,向所述目标用户推荐所述玩具枪交互数据流。
进一步地,图2示出了一种用于实现本申请实施例所提供的方法的设备的硬件结构示意图。如图2所示,玩具枪系统100可以包括至少一个处理器102(处理器102可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置)、用于存储数据的存储器104、以及用于通信功能的传输装置106以及控制器108。本领域普通技术人员可以理解,图2所示的结构仅为示意,其并不对该玩具枪系统100的结构造成限定。例如,玩具枪系统100还可包括比图2中所示更多或者更少的组件,或者具有与图2所示不同的配置。
存储器104可用于存储应用软件的软件程序以及模块,如本申请实施例中上述的方法实施例对应的程序指令,处理器102通过运行存储在存储器104内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的一种应用于玩具枪交互系统的坐标图像处理方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其它非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器102远程设置的存储器,这些远程存储器可以通过网络连接至玩具枪系统100。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
传输装置106用于经由一个网络接收或者发送数据。上述的网络具体实例可包括玩具枪系统100的通信供应商提供的无线网络。在一个实例中,传输装置106包括一个网络适配器,其可通过基站与其它网络设备相连从而可与互联网进行通讯。在一个实例中,传输装置106可以为射频模块,其用于通过无线方式与互联网进行通讯。
需要说明的是:上述本申请实施例先后顺序仅仅为了描述,不代表实施例的优劣。且上述对本申请实施例特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以依据不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本申请实施例中的各个实施例均依据递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其它实施例的不同之处。尤其,对于以上不同实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,上述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
Claims (9)
1.一种应用于玩具枪交互系统的坐标图像处理方法,其特征在于,所述方法包括:
获取目标用户的在玩具枪系统中进行操作生成的屏幕图像数据,并对所述屏幕图像数据进行图像定位,生成所述屏幕图像数据对应的信号坐标序列,其中,所述屏幕图像数据为每次玩具枪被所述目标用户按下按钮后对应的红外管发射红外光线并射击到屏幕上进行拍摄的图像数据;
对所述屏幕图像数据中所述信号坐标序列对应的图像区域进行放大截取处理,生成所述目标用户的对应的放大截取图像数据;
所述方法还包括:
依据目标用户的放大截取图像数据,提取所述目标用户的用户交互偏好向量;
对于K个玩具枪交互事件,获取该玩具枪交互事件对应的交互状态数据,所述交互状态数据反映:在该玩具枪交互事件下,各在先目标用户和各在先玩具枪交互数据流之间的匹配度;
依据所述用户交互偏好向量和所述交互状态数据,生成所述目标用户在该玩具枪交互事件下,对于待推荐的玩具枪交互数据流的交互兴趣点向量,K个所述玩具枪交互事件包括一个目标推荐玩具枪交互事件和至少一个样例推荐玩具枪交互事件,每个交互兴趣点向量反映:所述目标用户在相应玩具枪交互事件下对待推荐的玩具枪交互数据流的兴趣关注状态;
将K个所述交互兴趣点向量进行聚合输出为交互兴趣特征,并依据设定的各交互观测策略,分别对所述交互兴趣特征进行观测,生成相应的观测信息,每种交互观测策略反映:针对一种交互选择行为的观测规则,以及,每种观测信息反映:在相应交互观测策略下,所述目标用户选择所述玩具枪交互数据流的可能性;
在检测到存在至少一个观测信息符合设定观测要求时,在所述目标推荐玩具枪交互事件下,向所述目标用户推荐所述玩具枪交互数据流。
2.根据权利要求1所述的应用于玩具枪交互系统的坐标图像处理方法,其特征在于,所述依据所述用户交互偏好向量和所述交互状态数据,生成所述目标用户在该玩具枪交互事件下,对于所述待推荐的玩具枪交互数据流的交互兴趣点向量,包括:
获取所述目标推荐玩具枪交互事件对应的先验交互状态数据,所述先验交互状态数据反映:在所述目标推荐玩具枪交互事件下,所述目标用户和所述玩具枪交互数据流之间的匹配度;
依据所述交互状态数据,对所述用户交互偏好向量进行观测,生成针对该玩具枪交互事件预测的初始交互兴趣点向量;
依据所述先验交互状态数据,对所述初始交互兴趣点向量进行调整,生成所述目标用户在该玩具枪交互事件下的交互兴趣点向量。
3.根据权利要求2所述的应用于玩具枪交互系统的坐标图像处理方法,其特征在于,所述先验交互状态数据的确定步骤,包括:
提取所述目标推荐玩具枪交互事件的交互行为描述矢量,并对所述交互行为描述矢量进行观测,生成初始交互状态数据,所述初始交互状态数据反映:所述目标推荐玩具枪交互事件与所述各在先玩具枪交互数据流之间的匹配度;
依据所述初始交互状态数据,分析在所述目标推荐玩具枪交互事件下,所述用户交互偏好向量与所述玩具枪交互数据流的交互内容向量之间的匹配度,生成相应的先验交互状态数据。
4.根据权利要求1-3中任意一项所述的应用于玩具枪交互系统的坐标图像处理方法,其特征在于,所述将K个所述交互兴趣点向量进行聚合输出为交互兴趣特征,包括以下任意一种:
依据设定的融合顺序,对K个所述交互兴趣点向量进行特征融合,生成交互兴趣特征;
依据K个所述玩具枪交互事件各自对应的交互注意力权重,对K个所述交互兴趣点向量进行汇聚,生成交互兴趣特征,每个交互注意力权重反映:相应玩具枪交互事件相较K个所述玩具枪交互事件的重要性;
依据每个交互兴趣点向量各自与K个所述交互兴趣点向量之间的特征距离,获取所述每个交互兴趣点向量对应的残差特征;
针对K个所述交互兴趣点向量各自对应的残差特征进行融合,生成交互兴趣特征。
5.根据权利要求4所述的应用于玩具枪交互系统的坐标图像处理方法,其特征在于,所述依据K个所述玩具枪交互事件各自对应的交互注意力权重,对K个所述交互兴趣点向量进行汇聚,生成交互兴趣特征,包括:
获取K个所述玩具枪交互事件共同对应的全局状态数据,所述全局状态数据反映:在K个所述玩具枪交互事件下,各在先目标用户与各在先玩具枪交互数据流之间的匹配度;
对于K个所述玩具枪交互事件,依据该玩具枪交互事件对应的交互注意力权重,对K个所述交互兴趣点向量进行融合,生成该玩具枪交互事件的第一加权兴趣特征;
依据所述全局状态数据,对所述第一加权兴趣特征进行调整,生成该玩具枪交互事件的第二加权兴趣特征;
对于所述的K个所述玩具枪交互事件各自的第二加权兴趣特征,进行汇聚,生成交互兴趣特征。
6.根据权利要求1-3中任意一项所述的应用于玩具枪交互系统的坐标图像处理方法,其特征在于,所述依据设定的各交互观测策略,分别对所述交互兴趣特征进行观测,生成相应的观测信息,包括:
获取设定的各交互观测策略共享的全局观测评价指标,所述全局观测评价指标反映:依据所述各交互观测策略的全局交互观测策略,各在先目标用户与各在先玩具枪交互数据流之间的匹配度;
对于所述各交互观测策略,获取单个交互观测策略关联的单独观测评价指标,所述单独观测评价指标反映:依据所述单个交互观测策略,所述各在先目标用户与所述各在先玩具枪交互数据流之间的匹配度;
依据所述单独观测评价指标和所述全局观测评价指标,对所述交互兴趣特征进行观测,生成所述单个交互观测策略对应的观测信息。
7.根据权利要求1-3中任意一项所述的应用于玩具枪交互系统的坐标图像处理方法,其特征在于,所述依据设定的各交互观测策略,分别对所述交互兴趣特征进行观测,生成相应的观测信息,是通过满足网络收敛条件的交互观测神经网络执行的,所述交互观测神经网络的训练步骤,包括:
获取待学习数据序列,所述待学习数据序列中的每个待学习数据包括:一个模板交互兴趣特征和相应的训练标注数据,所述模板交互兴趣特征依据W种玩具枪交互事件各自对应的交互兴趣点向量融合得到,所述W种玩具枪交互事件至少包括K个所述玩具枪交互事件,所述训练标注数据反映:至少依据所述各交互观测策略确定、各在先目标用户选择各在先玩具枪交互数据流的标注可能性参数;
从所述待学习数据序列中选取待学习数据,并将相应的模板交互兴趣特征输入初始化权重参数的交互观测神经网络,生成依据所述各交互观测策略确定的、所述各在先目标用户选择各在先玩具枪交互数据流的训练可能性参数;
依据各训练可能性参数与相应标注可能性参数之间的损失函数值,对所述初始化权重参数的交互观测神经网络进行训练。
8.根据权利要求1-3中任意一项所述的应用于玩具枪交互系统的坐标图像处理方法,其特征在于,所述在检测到存在至少一个观测信息符合设定观测要求时,在所述目标推荐玩具枪交互事件下,向所述目标用户推荐所述玩具枪交互数据流,包括以下任意一种:
在检测到存在一个观测信息符合针对相应交互观测策略设定的观测门限值时,在所述目标推荐玩具枪交互事件,向所述目标用户推荐所述玩具枪交互数据流;
当各观测信息分别符合针对相应交互观测策略设定的观测门限值时,在所述目标推荐玩具枪交互事件,向所述目标用户推荐所述玩具枪交互数据流;
当依据各观测信息计算得到的全局观测信息符合对于所述各交互观测策略设定的全局观测门限值时,在所述目标推荐玩具枪交互事件,向所述目标用户推荐所述玩具枪交互数据流。
9.一种玩具枪系统,其特征在于,所述玩具枪系统包括处理器以及可读存储介质,所述可读存储介质存储有程序,该程序被处理器执行时实现权利要求1-8任意一项所述的应用于玩具枪交互系统的坐标图像处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311156450.5A CN117138353B (zh) | 2023-09-08 | 2023-09-08 | 一种应用于玩具枪交互系统的坐标图像处理方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311156450.5A CN117138353B (zh) | 2023-09-08 | 2023-09-08 | 一种应用于玩具枪交互系统的坐标图像处理方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117138353A CN117138353A (zh) | 2023-12-01 |
CN117138353B true CN117138353B (zh) | 2024-04-19 |
Family
ID=88907765
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311156450.5A Active CN117138353B (zh) | 2023-09-08 | 2023-09-08 | 一种应用于玩具枪交互系统的坐标图像处理方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117138353B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104707333A (zh) * | 2015-03-20 | 2015-06-17 | 深圳华侨城文化旅游科技有限公司 | 根据不同波长识别射击点的系统及其方法 |
CN105126338A (zh) * | 2015-08-18 | 2015-12-09 | 中山市金马科技娱乐设备股份有限公司 | 一种适用于光枪射击游戏的视频定位系统 |
KR20180066542A (ko) * | 2016-12-09 | 2018-06-19 | 김남우 | 매핑 영상 회전 사격 방법 |
CN111028014A (zh) * | 2019-12-11 | 2020-04-17 | 秒针信息技术有限公司 | 一种评估资源投放效果的方法及装置 |
JP2022086438A (ja) * | 2020-11-30 | 2022-06-09 | 楽天モバイル株式会社 | 動画配信システム、動画配信方法 |
CN114968054A (zh) * | 2022-05-11 | 2022-08-30 | 山东大学 | 一种基于混合现实的认知训练的交互系统及方法 |
CN115033128A (zh) * | 2022-05-20 | 2022-09-09 | 长沙朗源电子科技有限公司 | 基于图像识别的电子白板控制方法、电子白板及可读介质 |
CN115129277A (zh) * | 2021-03-17 | 2022-09-30 | 海信视像科技股份有限公司 | 一种交互方法、显示设备及vr设备 |
CN116301321A (zh) * | 2022-12-30 | 2023-06-23 | 深圳影目科技有限公司 | 一种智能穿戴设备的控制方法及相关设备 |
-
2023
- 2023-09-08 CN CN202311156450.5A patent/CN117138353B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104707333A (zh) * | 2015-03-20 | 2015-06-17 | 深圳华侨城文化旅游科技有限公司 | 根据不同波长识别射击点的系统及其方法 |
CN105126338A (zh) * | 2015-08-18 | 2015-12-09 | 中山市金马科技娱乐设备股份有限公司 | 一种适用于光枪射击游戏的视频定位系统 |
KR20180066542A (ko) * | 2016-12-09 | 2018-06-19 | 김남우 | 매핑 영상 회전 사격 방법 |
CN111028014A (zh) * | 2019-12-11 | 2020-04-17 | 秒针信息技术有限公司 | 一种评估资源投放效果的方法及装置 |
JP2022086438A (ja) * | 2020-11-30 | 2022-06-09 | 楽天モバイル株式会社 | 動画配信システム、動画配信方法 |
CN115129277A (zh) * | 2021-03-17 | 2022-09-30 | 海信视像科技股份有限公司 | 一种交互方法、显示设备及vr设备 |
CN114968054A (zh) * | 2022-05-11 | 2022-08-30 | 山东大学 | 一种基于混合现实的认知训练的交互系统及方法 |
CN115033128A (zh) * | 2022-05-20 | 2022-09-09 | 长沙朗源电子科技有限公司 | 基于图像识别的电子白板控制方法、电子白板及可读介质 |
CN116301321A (zh) * | 2022-12-30 | 2023-06-23 | 深圳影目科技有限公司 | 一种智能穿戴设备的控制方法及相关设备 |
Also Published As
Publication number | Publication date |
---|---|
CN117138353A (zh) | 2023-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104620522B (zh) | 通过所检测到的身体标记来确定用户兴趣 | |
US20200288206A1 (en) | System and Method for Segment Relevance Detection for Digital Content | |
EP3732588A1 (en) | Computer vision and image characteristic search | |
CN109729395B (zh) | 视频质量评估方法、装置、存储介质和计算机设备 | |
KR102152970B1 (ko) | 영상 분석을 이용한 개인화된 상품 추천 방법 및 장치 | |
JP5355446B2 (ja) | 移動物体追跡システムおよび移動物体追跡方法 | |
CN107885742B (zh) | 服务推荐方法和装置 | |
CN103414930A (zh) | 识别感应用户的遥控系统及其方法 | |
CN107111629A (zh) | 用于检测感兴趣的对象的方法和系统 | |
CN109583972A (zh) | 一种广告展示方法、装置、广告机器人及存储介质 | |
CN105046630A (zh) | 图像标签添加系统 | |
CN105022773A (zh) | 包括图像优先级的图像处理系统 | |
CN105183739A (zh) | 图像处理方法 | |
US10296786B2 (en) | Detecting hand-eye coordination in real time by combining camera eye tracking and wearable sensing | |
CN112492297A (zh) | 一种对视频的处理方法以及相关设备 | |
US12007995B2 (en) | Query generation from event-based pattern matching | |
CN117138353B (zh) | 一种应用于玩具枪交互系统的坐标图像处理方法及系统 | |
CN104541304A (zh) | 使用多个相机的目标对象角度确定 | |
KR20180099073A (ko) | 유저 맞춤형 어플을 자동으로 추천하기 위한 장치 및 그 방법 | |
US10755088B2 (en) | Augmented reality predictions using machine learning | |
KR102655662B1 (ko) | 비디오 스트림의 처리 방법과 처리 장치, 컴퓨터 기기, 저장매체 및 컴퓨터 프로그램 | |
Abdalla et al. | Modelling perceptions on the evaluation of video summarization | |
KR20230111986A (ko) | 라이브 쇼핑 추천 방법 및 그를 위한 라이브 쇼핑 추천 시스템 | |
CN115497156A (zh) | 动作识别方法和装置、电子设备及计算机可读存储介质 | |
CN110546932B (zh) | 使用媒体查看数据提高设备映射图准确度的系统和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |