CN105807917A - 一种辅助用户识字的方法及装置 - Google Patents
一种辅助用户识字的方法及装置 Download PDFInfo
- Publication number
- CN105807917A CN105807917A CN201610111946.4A CN201610111946A CN105807917A CN 105807917 A CN105807917 A CN 105807917A CN 201610111946 A CN201610111946 A CN 201610111946A CN 105807917 A CN105807917 A CN 105807917A
- Authority
- CN
- China
- Prior art keywords
- virtual reality
- reading
- user
- reality scenario
- scenario image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
Abstract
本发明适用计算机技术领域,提供了一种辅助用户识字的方法及装置,所述方法包括:通过显示屏幕输出用于用户识字的虚拟现实场景图像,并通过预设的显示方式在所述虚拟现实场景图像中突出显示预设的认字对象,通过传感器获取所述用户的眼球凝视位置在所述显示屏幕上的凝视坐标,识别所述凝视坐标所在范围内的所述虚拟现实场景图像中的认字对象,输出与所述识别的认字对象关联的虚拟现实场景图像和文字,从而为用户提供了一种完全浸入式的学习或识字场景,且提供的识字场景丰富,可有效增加用户的识字数量,在识别认字对象后,输出与识别的认字对象关联的虚拟现实场景图像和文字,进一步提高了用户识字的记忆程度和效率。
Description
技术领域
本发明属于计算机技术领域,尤其涉及一种辅助用户识字的方法及装置。
背景技术
随着生活水平的提高,人们对孩子的教育越来越重视,尤其是对孩子的早期教育,很多父母在孩子还未进入幼儿园就已经教孩子识字、认字了。传统的卡片识字是现在家长让孩子早期识字的主要手段,然而,识字卡片的图形、色彩等固定,帮助孩子识字的场景有限,孩子识别的字也有限,因此,对孩子的吸引力有限、可用差,孩子很快会失去兴趣,卡片浪费严重,成本高。另外,图片和实物毕竟存在一定的差异,虽然家长可通过日常生活场景中遇到的标示,引导孩子识字,但在生活场景中家长留意到的文字也是很有限的。
发明内容
本发明实施例的目的在于提供一种辅助用户识字的方法及装置,旨在解决由于现有技术无法提供一种有效的、用于辅助用户识字的方法,导致识字材料浪费、识字效率低下的问题。
一方面,本发明提供了一种辅助用户识字的方法,所述方法包括下述步骤:
通过显示屏幕输出用于用户识字的虚拟现实场景图像,并通过预设的显示方式在所述虚拟现实场景图像中突出显示预设的认字对象;
通过传感器获取所述用户的眼球凝视位置在所述显示屏幕上的凝视坐标;
识别所述凝视坐标所在范围内的所述虚拟现实场景图像中的认字对象,输出与所述识别的认字对象关联的虚拟现实场景图像和文字。
另一方面,本发明提供了一种辅助用户识字的装置,所述装置包括:
认字对象显示单元,用于通过显示屏幕输出用于用户识字的虚拟现实场景图像,并通过预设的显示方式在所述虚拟现实场景图像中突出显示预设的认字对象;
坐标获取单元,用于通过传感器获取所述用户的眼球凝视位置在所述显示屏幕上的凝视坐标;以及
辅助场景输出单元,用于识别所述凝视坐标所在范围内的所述虚拟现实场景图像中的认字对象,输出与所述识别的认字对象关联的虚拟现实场景图像和文字。
在本发明实施例中,通过显示屏幕输出用于用户识字的虚拟现实场景图像,为用户提供与现实一样的浸入式学习场景,并通过预设的显示方式在虚拟现实场景图像中突出显示预设的认字对象,进而通过传感器获取用户的眼球凝视位置在显示屏幕上的凝视坐标,识别凝视坐标所在范围内的虚拟现实场景图像中的认字对象,输出与识别的认字对象关联的虚拟现实场景图像和文字,通过关联的虚拟现实场景图像和文字形象地对认字对象进行描述、说明,有效提高了识字场景的可用性以及识字效率。
附图说明
图1是本发明实施例一提供的辅助用户识字的方法的实现流程图;
图2是本发明实施例二提供的辅助用户识字的方法的实现流程图;
图3是本发明实施例三提供的辅助用户识字的装置的结构图;以及
图4是本发明实施例四提供的辅助用户识字的装置的结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
以下结合具体实施例对本发明的具体实现进行详细描述:
实施例一:
图1示出了本发明实施例一提供的辅助用户识字的方法的实现流程,为了便于说明,仅示出了与本发明实施例相关的部分,详述如下:
在步骤S101中,通过显示屏幕输出用于用户识字的虚拟现实场景图像,并通过预设的显示方式在虚拟现实场景图像中突出显示预设的认字对象。
在本发明实施例中,可适用于一虚拟现实设备或虚拟现实系统,通过虚拟现实设备或虚拟现实系统的显示屏幕输出用于用户识字的虚拟现实场景图像,并通过预设的显示方式在虚拟现实场景图像中突出显示预设的认字对象。
其中,优选地,虚拟现实场景图像为用户偏好的现实场景的虚拟现实场景图像,待认知或认识的字为汉字或英语单词,认字对象为虚拟现实场景图像中用于辅助识字的物体、对象或包括有或带有字的实物对象,具体地,可以为汉字或英语单词对应的实物对象,例如,树木、水果、动物等。进一步优选地,现实场景为田园场景、动物园场景、果园场景、游乐园场景等适用于初级识字用户、尤其是儿童用户的场景,这些场景中包括的与字关联的认字对象较多,颜色或色彩鲜艳,对儿童用户的吸引力强,从而可有效提高虚拟现实场景的可用性。
在本发明实施例中,预设的显示方式可以是用户偏好的显示方式。作为示例地,例如,当虚拟现实场景为孩子在等校车上幼儿园的场景时,可在虚拟现实场景图像中呈现这样的图像:校车来到家门口,校车的侧面写着“校车”两个字,通过用户偏好的颜色描粗、放大或跳动的方式将这两个字显示在校车上,以引起孩子在虚拟现实场景图像中对认字对象“校车”的注意。当虚拟现实场景为孩子在果园的场景时,可将苹果树上的苹果以粉红并跳动的方式在虚拟现实场景图像中显示。这样,在为用户提供一种完全浸入式的学习或识字场景的同时,可通过预设的显示方式在虚拟现实场景中突出显示认字对象,提高了其在场景中的显著性。
在步骤S102中,通过传感器获取用户的眼球凝视位置在显示屏幕上的凝视坐标。
在本发明实施例中,传感器可以为惯性传感器或眼球跟踪传感器,以通过对用户头部运动进行检测或眼球进行定位,获取用户的眼球凝视位置在显示屏幕上的凝视或注视坐标。
在步骤S103中,识别凝视坐标所在范围内的虚拟现实场景图像中的认字对象,输出与识别的认字对象关联的虚拟现实场景图像和文字。
在本发明实施例中,通过步骤S102中的传感器获取用户的眼球凝视位置在显示屏幕上的凝视坐标后,识别凝视坐标所在范围内的虚拟现实场景图像中的认字对象,从而得到用户关注或注视的认字对象,进而输出与该识别的认字对象关联的虚拟现实场景图像和文字,进一步强化用户对该认字对象关联或包含的文字的认识。其中,关联的虚拟现实场景图像可以是动漫图像,作为示例地,如前所述,若认字对象为苹果树上的苹果图像,则可以输出与该苹果图像关联的用于描述苹果的、更为详细有趣的虚拟现实场景图像、文字、音频等,从而利用浸入式虚拟现实场景有效提高识字的效率。
优选地,显示屏幕为移动终端的显示屏,这样,可直接通过移动终端对输出虚拟现实场景图像,降低用户识字辅助设备的要求,从而降低成本。
实施例二:
图2示出了本发明实施例二提供的辅助用户识字的方法的实现流程,为了便于说明,仅示出了与本发明实施例相关的部分,详述如下:
在步骤S201中,获取用户的显示偏好信息,根据显示偏好信息对认字对象的显示方式进行设置。
在本发明实施例中,优选地,可预先获取用户的显示偏好信息,根据显示偏好信息对认字对象的显示方式进行设置。显示偏好信息是指用户喜欢的显示方式,例如,喜欢的显示颜色、形状等,以提高认字对象的用户吸引力,提高该认字对象的可用性。具体地,可通过统计或训练样本获取用户的显示偏好。
在步骤S202中,通过显示屏幕输出用于用户识字的虚拟现实场景图像,并通过预设的显示方式在虚拟现实场景图像中突出显示预设的认字对象。
在本发明实施例中,可适用于一虚拟现实设备或虚拟现实系统,通过虚拟现实设备或虚拟现实系统的显示屏幕输出用于用户识字的虚拟现实场景图像,并通过预设的显示方式在虚拟现实场景图像中突出显示预设的认字对象。
其中,优选地,虚拟现实场景图像为用户偏好的现实场景的虚拟现实场景图像,待认知或认识的字为汉字或英语单词,认字对象为虚拟现实场景图像中用于辅助识字的物体、对象或包括有或带有字的实物对象,具体地,可以为汉字或英语单词对应的实物对象,例如,树木、水果、动物等。进一步优选地,现实场景为田园场景、动物园场景、果园场景、游乐园场景等适用于初级识字用户、尤其是儿童用户的场景,这些场景中包括的与字关联的认字对象较多,颜色或色彩鲜艳,对儿童用户的吸引力强,从而可有效提高虚拟现实场景的可用性。
在步骤S203中,通过传感器获取用户的眼球凝视位置在显示屏幕上的凝视坐标。
在本发明实施例中,传感器可以为惯性传感器或眼球跟踪传感器,以通过对用户头部运动进行检测或眼球进行定位,获取用户的眼球凝视位置在显示屏幕上的凝视或注视坐标。
在步骤S204中,识别凝视坐标所在范围内的虚拟现实场景图像中的认字对象,从预设的数据库中检索与认字对象关联的虚拟现实场景图像、描述认字对象的音频或文字。
在本发明实施例中,预先建立一数据库,以用于存储认字对象关联的虚拟现实场景图像(或视频)、描述认字对象的音频或文字,其中,一个认字对象关联有一个或多个辅助认字或记忆的虚拟现实场景图像(或视频)、描述认字对象的音频或文字。通过步骤S203中的传感器获取用户的眼球凝视位置在显示屏幕上的凝视坐标后,识别凝视坐标所在范围内的虚拟现实场景图像中的认字对象,从而得到用户关注或注视的认字对象,进而从建立的数据库中检索与认字对象关联的虚拟现实场景图像、描述认字对象的音频或文字。
在步骤S205中,根据用户的场景偏好信息输出虚拟现实场景图像、描述认字对象的音频或文字。
在本发明实施例中,当检索到多个辅助认字或记忆的虚拟现实场景图像(或视频)、描述认字对象的音频或文字时,根据用户的场景偏好信息选择对应的虚拟现实场景图像、描述认字对象的音频或文字进行输出。其中,场景偏好信息表明了用户喜好的现实场景,例如,有些儿童用户喜欢动物园场景、有些喜欢果园场景,这样,检索后就可根据用户偏好选择输出对应的虚拟现实场景图像,从而提高用户识字的效率。
在本发明实施例,通过显示屏幕输出用于用户识字的虚拟现实场景图像,为用户提供了一种完全浸入式的学习或识字场景,且提供的识字场景丰富,可有效增加用户的识字数量,并通过预设的显示方式在虚拟现实场景中突出显示认字对象,提高其在场景中的显著性,在检测到用户注视的虚拟现实场景图像中的认字对象后,从预设的数据库中检索与认字对象关联的虚拟现实场景图像、描述认字对象的音频或文字,进而根据用户的场景偏好信息输出虚拟现实场景图像、描述认字对象的音频或文字,进一步提高了用户识字的记忆程度和效率。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,所述的程序可以存储于一计算机可读取存储介质中,所述的存储介质,如ROM/RAM、磁盘、光盘等。
实施例三:
图3示出了本发明实施例三提供的辅助用户识字的装置的结构,为了便于说明,仅示出了与本发明实施例相关的部分,其中包括:
认字对象显示单元31,用于通过显示屏幕输出用于用户识字的虚拟现实场景图像,并通过预设的显示方式在所述虚拟现实场景图像中突出显示预设的认字对象;
坐标获取单元32,用于通过传感器获取所述用户的眼球凝视位置在所述显示屏幕上的凝视坐标;以及
辅助场景输出单元33,用于识别所述凝视坐标所在范围内的所述虚拟现实场景图像中的认字对象,输出与所述识别的认字对象关联的虚拟现实场景图像和文字。
在本发明实施例中,传感器可以为惯性传感器或眼球跟踪传感器,显示屏幕可以为一移动终端的显示屏,其中各单元的具体实施方式可参考前述实施例一的描述,在此不再赘述。
在本发明实施例中,提供的辅助用户识字的装置的各单元可由相应的硬件或软件单元实现,各单元可以为独立的软、硬件单元,也可以集成为一个软、硬件单元,在此不用以限制本发明。
作为示例地,辅助用户识字的装置可适用于虚拟现实设备或虚拟现实系统中,其中,显示屏幕可由虚拟现实设备自带,也可以为一移动终端的显示屏。
实施例四:
图4示出了本发明实施例四提供的辅助用户识字的装置的结构,为了便于说明,仅示出了与本发明实施例相关的部分,其中包括:
显示方式设置单元41,用于获取所述用户的显示偏好信息,根据所述显示偏好信息对所述认字对象的显示方式进行设置;
认字对象显示单元42,用于通过显示屏幕输出用于用户识字的虚拟现实场景图像,并通过预设的显示方式在所述虚拟现实场景图像中突出显示预设的认字对象;
坐标获取单元43,用于通过传感器获取所述用户的眼球凝视位置在所述显示屏幕上的凝视坐标;以及
辅助场景输出单元44,用于识别所述凝视坐标所在范围内的所述虚拟现实场景图像中的认字对象,输出与所述识别的认字对象关联的虚拟现实场景图像和文字。
在本发明实施例中,预先建立一数据库,以用于存储认字对象关联的虚拟现实场景图像(或视频)、描述认字对象的音频或文字,其中,一个认字对象关联有一个或多个辅助认字或记忆的虚拟现实场景图像(或视频)、描述认字对象的音频或文字。通过坐标获取单元43获取用户的眼球凝视位置在显示屏幕上的凝视坐标后,识别凝视坐标所在范围内的虚拟现实场景图像中的认字对象,从而得到用户关注或注视的认字对象,进而从建立的数据库中检索与认字对象关联的虚拟现实场景图像、描述认字对象的音频或文字。
当检索到多个辅助认字或记忆的虚拟现实场景图像(或视频)、描述认字对象的音频或文字时,根据用户的场景偏好信息选择对应的虚拟现实场景图像、描述认字对象的音频或文字进行输出。其中,场景偏好信息表明了用户喜好的现实场景,例如,有些儿童用户喜欢动物园场景、有些喜欢果园场景,这样,检索后就可根据用户偏好选择输出对应的虚拟现实场景图像,从而提高用户识字的效率。
因此,优选地,辅助场景输出单元44可包括:
场景检索子单元441,用于从预设的数据库中检索与所述认字对象关联的虚拟现实场景图像、描述所述认字对象的音频或文字;以及
场景输出子单元442,用于根据所述用户的场景偏好信息输出所述虚拟现实场景图像、描述所述认字对象的音频或文字。
在本发明实施例中,提供的辅助用户识字的装置的各单元可由相应的硬件或软件单元实现,各单元可以为独立的软、硬件单元,也可以集成为一个软、硬件单元,在此不用以限制本发明,各单元的具体实施方式可参考前述实施例二的描述,在此不再赘述。
在本发明实施例,通过显示屏幕输出用于用户识字的虚拟现实场景图像,为用户提供了一种完全浸入式的学习或识字场景,且提供的识字场景丰富,可有效增加用户的识字数量,并通过预设的显示方式在虚拟现实场景中突出显示认字对象,提高其在场景中的显著性,在检测到用户注视的虚拟现实场景图像中的认字对象后,从预设的数据库中检索与认字对象关联的虚拟现实场景图像、描述认字对象的音频或文字,进而根据用户的场景偏好信息输出虚拟现实场景图像、描述认字对象的音频或文字,进一步提高了用户识字的记忆程度和效率。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种辅助用户识字的方法,其特征在于,所述方法包括下述步骤:
通过显示屏幕输出用于用户识字的虚拟现实场景图像,并通过预设的显示方式在所述虚拟现实场景图像中突出显示预设的认字对象;
通过传感器获取所述用户的眼球凝视位置在所述显示屏幕上的凝视坐标;
识别所述凝视坐标所在范围内的所述虚拟现实场景图像中的认字对象,输出与所述识别的认字对象关联的虚拟现实场景图像和文字。
2.如权利要求1所述的方法,其特征在于,所述传感器为惯性传感器或眼球跟踪传感器。
3.如权利要求1所述的方法,其特征在于,所述显示屏幕为一移动终端的显示屏。
4.如权利要求1所述的方法,其特征在于,所述字为汉字或英语单词,所述认字对象为所述汉字或英语单词对应的实物对象。
5.如权利要求4所述的方法,其特征在于,输出与所述识别的认字对象关联的虚拟现实场景图像和文字的步骤,包括:
从预设的数据库中检索与所述认字对象关联的虚拟现实场景图像、描述所述认字对象的音频或文字;
根据所述用户的场景偏好信息输出所述虚拟现实场景图像、描述所述认字对象的音频或文字。
6.如权利要求1所述的方法,其特征在于,通过预设的显示方式在所述虚拟现实场景图像中突出显示预设的认字对象的步骤之前,所述方法还包括:
获取所述用户的显示偏好信息,根据所述显示偏好信息对所述认字对象的显示方式进行设置。
7.一种辅助用户识字的装置,其特征在于,所述装置包括:
认字对象显示单元,用于通过显示屏幕输出用于用户识字的虚拟现实场景图像,并通过预设的显示方式在所述虚拟现实场景图像中突出显示预设的认字对象;
坐标获取单元,用于通过传感器获取所述用户的眼球凝视位置在所述显示屏幕上的凝视坐标;以及
辅助场景输出单元,用于识别所述凝视坐标所在范围内的所述虚拟现实场景图像中的认字对象,输出与所述识别的认字对象关联的虚拟现实场景图像和文字。
8.如权利要求7所述的装置,其特征在于,所述传感器为惯性传感器或眼球跟踪传感器。
9.如权利要求7所述的装置,其特征在于,当所述认字对象为所述汉字或英语单词对应的实物对象时,所述辅助场景输出单元包括:
场景检索子单元,用于从预设的数据库中检索与所述认字对象关联的虚拟现实场景图像、描述所述认字对象的音频或文字;以及
场景输出子单元,用于根据所述用户的场景偏好信息输出所述虚拟现实场景图像、描述所述认字对象的音频或文字。
10.如权利要求7所述的装置,其特征在于,所述装置还包括:
显示方式设置单元,用于获取所述用户的显示偏好信息,根据所述显示偏好信息对所述认字对象的显示方式进行设置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610111946.4A CN105807917A (zh) | 2016-02-29 | 2016-02-29 | 一种辅助用户识字的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610111946.4A CN105807917A (zh) | 2016-02-29 | 2016-02-29 | 一种辅助用户识字的方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105807917A true CN105807917A (zh) | 2016-07-27 |
Family
ID=56466464
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610111946.4A Pending CN105807917A (zh) | 2016-02-29 | 2016-02-29 | 一种辅助用户识字的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105807917A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106406519A (zh) * | 2016-08-30 | 2017-02-15 | 刘锦宏 | 一种人体器官的虚拟现实的标注显示方法 |
CN106897426A (zh) * | 2017-02-27 | 2017-06-27 | 上海禹放信息科技有限公司 | 基于眼球追踪技术的特定数据生成系统及方法 |
CN107679485A (zh) * | 2017-09-28 | 2018-02-09 | 北京小米移动软件有限公司 | 基于虚拟现实的辅助阅读方法及装置 |
CN108111475A (zh) * | 2016-11-25 | 2018-06-01 | 阿里巴巴集团控股有限公司 | 身份验证方法及装置 |
CN111191640A (zh) * | 2017-03-30 | 2020-05-22 | 成都汇亿诺嘉文化传播有限公司 | 一种三维场景呈现方法、装置及系统 |
CN111640193A (zh) * | 2020-06-05 | 2020-09-08 | 浙江商汤科技开发有限公司 | 文字处理方法、装置、计算机设备及存储介质 |
CN111897426A (zh) * | 2020-07-23 | 2020-11-06 | 许桂林 | 一种智能沉浸式场景展现及交互的方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103035135A (zh) * | 2012-11-27 | 2013-04-10 | 北京航空航天大学 | 基于增强现实技术的儿童认知系统及认知方法 |
CN104102412A (zh) * | 2014-07-24 | 2014-10-15 | 央数文化(上海)股份有限公司 | 一种基于增强现实技术的手持式阅览设备及其方法 |
-
2016
- 2016-02-29 CN CN201610111946.4A patent/CN105807917A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103035135A (zh) * | 2012-11-27 | 2013-04-10 | 北京航空航天大学 | 基于增强现实技术的儿童认知系统及认知方法 |
CN104102412A (zh) * | 2014-07-24 | 2014-10-15 | 央数文化(上海)股份有限公司 | 一种基于增强现实技术的手持式阅览设备及其方法 |
Non-Patent Citations (1)
Title |
---|
杨怡: "基于体验的儿童多媒体读物设计研究", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106406519A (zh) * | 2016-08-30 | 2017-02-15 | 刘锦宏 | 一种人体器官的虚拟现实的标注显示方法 |
CN108111475A (zh) * | 2016-11-25 | 2018-06-01 | 阿里巴巴集团控股有限公司 | 身份验证方法及装置 |
US10831876B2 (en) | 2016-11-25 | 2020-11-10 | Advanced New Technologies Co., Ltd. | Methods and apparatuses for identity authentication in virtual reality |
CN106897426A (zh) * | 2017-02-27 | 2017-06-27 | 上海禹放信息科技有限公司 | 基于眼球追踪技术的特定数据生成系统及方法 |
CN111191640A (zh) * | 2017-03-30 | 2020-05-22 | 成都汇亿诺嘉文化传播有限公司 | 一种三维场景呈现方法、装置及系统 |
CN107679485A (zh) * | 2017-09-28 | 2018-02-09 | 北京小米移动软件有限公司 | 基于虚拟现实的辅助阅读方法及装置 |
CN111640193A (zh) * | 2020-06-05 | 2020-09-08 | 浙江商汤科技开发有限公司 | 文字处理方法、装置、计算机设备及存储介质 |
CN111897426A (zh) * | 2020-07-23 | 2020-11-06 | 许桂林 | 一种智能沉浸式场景展现及交互的方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105807917A (zh) | 一种辅助用户识字的方法及装置 | |
JP7123122B2 (ja) | 認知的洞察を使用したビデオ・シーンの移動 | |
CN109618222A (zh) | 一种拼接视频生成方法、装置、终端设备及存储介质 | |
CN108307229B (zh) | 一种影音数据的处理方法及设备 | |
US20110304774A1 (en) | Contextual tagging of recorded data | |
JP2019046471A (ja) | 類似ビデオ捜索方法、装置、設備及びプログラム | |
CN105808782A (zh) | 一种图片标签的添加方法及装置 | |
CN108416018A (zh) | 截屏搜索方法、装置及智能终端 | |
JP2011215963A (ja) | 電子機器、画像処理方法及びプログラム | |
CN103988202A (zh) | 基于索引和搜索的图像吸引力 | |
CN102256030A (zh) | 可匹配背景音乐的相册演示系统及其背景音乐匹配方法 | |
CN104735468A (zh) | 一种基于语义分析将图像合成新视频的方法及系统 | |
CN104166851A (zh) | 一种纸质教材的多媒体互动式学习系统及方法 | |
US20190179848A1 (en) | Method and system for identifying pictures | |
CN112287168A (zh) | 用于生成视频的方法和装置 | |
CN108847066A (zh) | 一种教学内容提示方法、装置、服务器和存储介质 | |
CN109064787A (zh) | 一种点读设备 | |
CN109949793A (zh) | 用于输出信息的方法和装置 | |
CN106936830B (zh) | 一种多媒体数据的播放方法和装置 | |
JP2020161140A (ja) | 人工知能モデルを利用したイメージ編集方法及びその装置 | |
CN108960130B (zh) | 视频文件智能处理方法和装置 | |
CN111078982A (zh) | 一种电子页面的检索方法、电子设备及存储介质 | |
CN106162376A (zh) | 一种多媒体自动编辑为视频播放文件的方法及装置 | |
Marques | Image processing and computer vision in iOS | |
CN108536343B (zh) | 控件展示方法、装置、终端及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160727 |