CN111694434A - 电子书评论信息的交互展示方法、电子设备及存储介质 - Google Patents
电子书评论信息的交互展示方法、电子设备及存储介质 Download PDFInfo
- Publication number
- CN111694434A CN111694434A CN202010544071.3A CN202010544071A CN111694434A CN 111694434 A CN111694434 A CN 111694434A CN 202010544071 A CN202010544071 A CN 202010544071A CN 111694434 A CN111694434 A CN 111694434A
- Authority
- CN
- China
- Prior art keywords
- user
- comment
- electronic book
- interaction component
- comment information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0483—Interaction with page-structured environments, e.g. book metaphor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
- G06F40/169—Annotation, e.g. comment data or footnotes
Abstract
本发明公开了一种电子书评论信息的交互展示方法、电子设备及存储介质,该方法包括:监测用户在电子书的当前阅读页面的注视点坐标,其中当前阅读页面中包含至少一个评论交互组件;当监测到用户的注视点坐标与任一评论交互组件的坐标相匹配时,判断用户的注视时长是否超过预设值,若是,展示该评论交互组件对应的评论信息。通过上述方式,用户只需使用眼睛转动即可查看电子书中的评论信息,无需用户进行手动操作,实现了电子书想法评论信息的便捷查看。
Description
技术领域
本发明涉及终端应用交互技术领域,具体涉及一种电子书评论信息的交互展示方法、电子设备及存储介质。
背景技术
随着电子设备的日益普及,越来越多的用户习惯于通过电子设备阅读电子书籍,以替代传统的纸质书籍。目前部分电子书应用中允许用户在阅读时有所感悟的地方写下自己的想法作为评论,因此用户可以通过电子书应用在当前阅读页面添加评论。电子书应用服务器收集大量用户的评论,将这些评论加载到电子书中以供其他阅读用户查看。
现有技术中,通常在电子书的阅读页面各段落的段尾添加评论交互组件,例如添加气泡,气泡中显示一数字,表示本段落内产生的评论的条数。如果阅读用户对本段落的评论感兴趣,可以点击气泡,电子书应用会呈现出所有用户针对于本段落的评论内容。
通常用户在使用电子书应用进行阅读时,习惯于用单手操作进行点击操作,但是由于目前终端设备(如手机、pad、电子书阅读器等)的屏幕过大过长,用户想浏览页面中位于顶部或其他单手操作难以到达的触控区的评论时,单手操作非常不方便,导致无法便捷地查看评论内容,用户体验不佳。
发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的电子书评论信息的交互展示方法、电子设备及存储介质。
根据本发明的一个方面,提供了一种电子书评论信息的交互展示方法,包括:
监测用户在电子书的当前阅读页面的注视点坐标,其中当前阅读页面中包含至少一个评论交互组件;
当监测到用户的注视点坐标与任一评论交互组件的坐标相匹配时,判断用户的注视时长是否超过预设值,若是,展示该评论交互组件对应的评论信息。
根据本发明的又一方面,提供了一种电子设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行以下操作:
监测用户在电子书的当前阅读页面的注视点坐标,其中当前阅读页面中包含至少一个评论交互组件;
当监测到用户的注视点坐标与任一评论交互组件的坐标相匹配时,判断用户的注视时长是否超过预设值,若是,展示该评论交互组件对应的评论信息。
根据本发明的再一方面,提供了一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行以下操作:
监测用户在电子书的当前阅读页面的注视点坐标,其中当前阅读页面中包含至少一个评论交互组件;
当监测到用户的注视点坐标与任一评论交互组件的坐标相匹配时,判断用户的注视时长是否超过预设值,若是,展示该评论交互组件对应的评论信息。
根据本发明的电子书评论信息的交互展示方法、电子设备及存储介质,监测用户在电子书的当前阅读页面的注视点坐标,其中当前阅读页面中包含至少一个评论交互组件;当监测到用户的注视点坐标与任一评论交互组件的坐标相匹配时,判断用户的注视时长是否超过预设值,若是,展示该评论交互组件对应的评论信息。该方式通过对用户视线进行捕捉,在监测到用户注视评论交互组件且注视时长满足要求的情况下,自动展示交互组件对应的评论信息,用户只需使用眼睛转动即可查看电子书中的评论信息,无需用户进行手动操作,实现了电子书想法评论信息的便捷查看。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了本发明实施例提供的电子书评论信息的交互展示的方法流程图;
图2示出了本发明实施例提供的电子书阅读页面的一种展示示意图;
图3示出了本发明另一实施例提供的电子书评论信息的交互展示的方法的流程图;
图4示出了本发明实施例提供的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本发明,并且能够将本发明的范围完整的传达给本领域的技术人员。
图1示出了本发明实施例提供的电子书评论信息的交互展示的方法流程图,如图1所示,该方法包括以下步骤:
步骤S110,监测用户在电子书的当前阅读页面的注视点坐标,其中当前阅读页面中包含至少一个评论交互组件。
参照图2进行说明,图2为电子书阅读页面的一种展示示意图,如图2所示,具体实施时,若阅读用户通过段落所对应的评论入口发表了想法评论,则在该段落的相应位置处会加载评论交互组件,如图中评论交互组件①21、评论交互组件②22和评论交互组件③23为相应段落中的评论交互组件,在一种可选的方式中,评论交互组件为气泡组件,在相应段落的末尾展示。其中数字1、2、3代表了历史阅读用户添加的评论数量,例如,评论交互组件①21表示该段落有一条历史阅读用户的评论;评论交互组件②22表示该段落有两条历史阅读用户的评论;评论交互组件③23表示该段落有三条历史阅读用户的评论。
用户在阅读过程中,实时地监测用户在当前阅读页面的注视点坐标,也就是监测用户视线对应在当前阅读页面中的位置的坐标。
步骤S120,当监测到用户的注视点坐标与任一评论交互组件的坐标相匹配时,判断用户的注视时长是否超过预设值;若是,则执行步骤S130,若否,继续执行步骤S110。
监测用户的注视点坐标与当前阅读页面中展示的任一评论交互组件的坐标是否匹配。可选地,当用户的注视点坐标与当前阅读页面中展示的任一评论交互组件的坐标一致或者两者之间的距离处于预设范围内时,则确定用户的注视点坐标与该评论交互组件的坐标相匹配。该步骤相当于监测用户是否注视任一评论交互组件。
监测到用户的注视点坐标与评论交互组件的坐标匹配之后,再判断用户对该注视点的注视时长是否超过预设值,用户对该注视点的注视时长也就是该注视点坐标保持不变的时长。用户对该注视点的注视时长超过预设值,相当于用户对评论交互组件的注视时长超过预设值,因此该步骤相当于监测用户的评论交互控件的注视时长是否超过预设值。
如果监测到用户注视的是评论交互组件且注视时长超过预设值,就执行步骤S130。如果监测到用户注视的是评论交互组件但注视时长未超过预设值,则表明该用户虽然注视了评论交互组件但很快又移开了,此时不满足评论信息的展示触发条件,则跳转至步骤S110,执行通过捕捉技术检测用户的注视点坐标的步骤。
步骤S130,展示该评论交互组件对应的评论信息。
如果监测到用户注视的是评论交互控件且注视时长超过预设值,此时满足评论信息的展示触发条件,则自动获取该评论交互组件对应的评论信息并进行展示,评论交互组件对应的评论信息包括各个阅读用户通过相应段落的评论入口所添加的评论信息。
根据本实施例所提供的电子书评论信息的交互展示方法,监测用户在电子书的当前阅读页面的注视点坐标,其中当前阅读页面中包含至少一个评论交互组件;当监测到用户的注视点坐标与任一评论交互组件的坐标相匹配时,判断用户的注视时长是否超过预设值,若是,展示该评论交互组件对应的评论信息。该方式通过对用户视线进行捕捉,在监测到用户注视评论交互组件且注视时长满足要求的情况下,自动展示交互组件对应的评论信息,用户只需使用眼睛转动即可查看电子书中的评论信息,无需用户进行手动操作,实现了电子书想法评论信息的便捷查看。
图3示出了本发明另一实施例提供的电子书评论信息的交互展示的方法的流程图,如图3所示,该方法包括以下步骤:
步骤S310,对终端上的摄像头拍摄的图像进行人脸识别处理;
步骤S320,根据人脸识别结果判断终端侧的用户是否处于注视屏幕状态。若是,则执行步骤S330;若否,则继续执行步骤S310。
本实施例的方法需要调用终端上的摄像头,应用启动之后开启摄像头,具体实施时,还需用户确认是否授权应用开启摄像头。持续对摄像头拍摄的图像进行人脸识别处理,根据人脸识别结果判断终端侧的用户是否处于注视屏幕的状态。若判断出用户处于注视屏幕的状态,则执行步骤S320。反之,跳转至步骤S310,继续对摄像头拍摄的图像进行人脸识别。
步骤S330,监测用户在电子书的当前阅读页面的注视点坐标,其中当前阅读页面中包含至少一个评论交互组件。
在判断出用户处于注视屏幕的状态之后,监测用户视线在当前阅读页面的注视点的坐标。
一种可选的实施方式中,监测用户在电子书的当前阅读页面的注视点坐标的步骤包括:对终端上的摄像头拍摄的用户眼部图像进行分析,得到用户的视线位置数据;根据视线位置数据以及基准点视线位置数据,计算用户在电子书中的当前阅读页面中的注视点坐标;其中,基准点视线位置数据基于终端屏幕中各个基准点的坐标数据及用户注视各个基准点时的视线位置数据而确定。
其中,用户的视线位置数据表示的是用户视线空间位置,基准点视线位置数据能够表征屏幕中基准点的坐标和用户注视基准点时的视线空间位置之间的映射关系。具体实施时,首先构建表征基准点坐标和用户注视基准点时的视线位置之间的映射关系的数据,当获取到当前用户视线位置数据时,根据表征基准点坐标和用户注视基准点时的视线位置之间的映射关系的数据,计算出当前用户视线在屏幕中的注视点坐标。一般情况下,电子书的阅读页面与终端的屏幕是适配的,用户在终端屏幕中的注视点坐标也就是用户在电子书的当前阅读页的注视点坐标。
具体实施时,可将屏幕按照十字划分为四个区,十字线与屏幕边线交汇,在屏幕上形成9个基准点坐标,用户依次注视9个基准点,根据这9个基准点坐标和用户分别注视9个基准点时的视线位置数据,确定表示注视点坐标和用户视线位置之间的映射关系的基准点视线位置数据。
例如,用户的视线位置数据可以指的是用户的角膜反射光线和瞳孔反射的光线形成的夹角,包括角膜反射的光线和瞳孔反射的光线在第一方向上的第一夹角和与第一方向相垂直的第二方向上的第二夹角,第一方向指的是与空间坐标系的X轴相平行的方向,第二方向指的是与空间坐标系的Y轴相平行的方向。用户视线在沿屏幕的水平方向以及竖直方向移动时,第一夹角和第二夹角随之呈线性变化。则使用户依次注视屏幕,根据角度的变化构建基于9个基准点的第一夹角和第二夹角的变化曲线,得到基准点视线位置数据。则当捕捉当前用户的角膜反射光线和瞳孔反射的光线形成的第一夹角和第二夹角时,根据这两个夹角、夹角变化曲线及屏幕与眼球之间的距离即可计算出注视点的坐标。
再如,用户的视线位置数据可以指的是用户的视线方向向量,检测用户注视基准点时的用户视线方向向量,并计算出表征用户视线方向向量和基准点坐标之间的映射关系的向量,也就是基准点视线位置数据。则当捕捉到当前用户的视线方向向量时,根据该视线方向向量以及该表征映射关系的向量,即可得到用户注视点坐标。当然,本发明中并不以上述两种实施方式为限。
步骤S340,当监测到用户的注视点坐标与任一评论交互组件的坐标相匹配时,判断用户的注视时长是否超过预设值,若是,执行步骤S350;若否,执行步骤S330。
当监测到用户的注视点坐标与任一评论交互组件的坐标一致或者两者之间的距离处于预设范围内时,进一步监测用户对该注视点的注视时间是否超过预设值,若注视时长超过预设值,则执行步骤340。若注视时长不超过预设值,表明用户视线只是短暂地停留在评论交互组件上,不满足自动展示评论信息的触发条件,则跳转至步骤S330,执行监测用户在电子书的当前阅读页面的注视点坐标的步骤。
在一种可选的实施方式中,根据用户的注视点坐标及相应的时间信息,计算用户阅读电子书片段的时间;根据用户阅读电子书片段的时间和电子书片段的字数计算单字阅读时间,确定预设值为超过所述单字阅读时间的N倍的数值,N大于1。
其中,注视点坐标相应的时间指的是检测到注视点时的时间。举例来说,如果在多个时间点监测到的注视点坐标的纵坐标相同,则表明表示这个时间段内用户是在阅读电子书的一行文本,该时段的长度就是用户阅读一行文本的时间,则利用阅读一行文本的时间除以这行文本包含的总字数,就得到单字阅读时间,设置预设值超过单字阅读时间的N倍,N大于1,例如N可以取2。由此可见,本实施例的方式至少需要用户注视评论交互组件的时间超过单字阅读时间的N倍,才会自动展示评论交互组件对应的评论信息。
步骤S350,设置评论交互组件的展示状态为选中状态。
将评论交互组件的展示状态设置为选中状态,例如对评论交互组件的气泡点亮或者放大,能够提示用户评论交互组件已经被选中。
步骤S360,对摄像头拍摄的图像进行分析,检测用户是否执行第一预设动作,若检测到用户执行第一预设动作,展示该评论交互组件对应的评论信息。
在将评论交互组件的展示状态设置为选中状态之后,通过对摄像头拍摄的图像进行分析,检测用户是否第一预设动作,如果检测到用户执行的第一预设动作,则展示该评论交互组件对应的评论信息。第一预设动作可以包括以下动作中的一种或多种的组合:点头动作、眨眼动作、张嘴动作。当然,第一预设动作还可以根据实际需要进行设置,不发明对此不做限定。
在一种可选的实施方式中,通过弹窗展示该评论交互组件对应的评论信息。
在一种可选的实施方式中,在将评论交互组件的展示状态设置为选中状态之后,如果在预设时间段未检测到用户执行第一预设动作,则将评论交互组件的展示状态设置为正常状态,并继续执行监测用户在电子书的当前阅读页面的注视点坐标等步骤。也即,在用户长时间没有执行第一预设的情况下,取消选中评论交互组件,避免对用户的干扰。
由此可见,本实施例中自动展示评论交互组件的条件包括以下三个:用户的注视点坐标与评论交互组件的坐标相匹配、用户注视评论交互组件的时长超过预设值、用户执行预设的交互动作。这些条件都只需用户隔空交互就可以满足,无需用户手动操作终端屏幕,能够便捷用户查看电子书的评论信息。
步骤S370,对摄像头拍摄的图像进行分析,检测用户是否执行第二预设动作,若检测到用户执行第二预设动作,取消展示评论信息。
在展示交互组件对应的评论信息之后,还需关闭展示的评论信息,防止遮挡住阅读页面中的其他文本内容。具体地,通过对摄像头拍摄的图像进行分析,检测用户是否执行第二预设动作,若检测到用户执行第二预设动作,则取消展示评论信息。第一预设动作如摇头动作等等。由此可见,该方式中也只需用户隔空交互就可以取消评论信息的展示。
在一种可选的实施方式中,当监测到用户的注视点坐标不在评论信息的展示区域内时,取消展示评论信息。在将交互组件对应的评论信息之后,如果检测到用户的注视点坐标不在评论信息的展示区域内,表明用户已经没有在看评论信息了,则取消展示评论信息。该方式只需要用户转动眼睛就可以取消评论信息的展示。
在一种可选的实施方式中,当监测到用户在评论信息的展示区域之外的区域内的点击操作时,取消展示评论信息。在将交互组件对应的评论信息之后,如果检测到用户点击了评论信息的展示区域之外的区域,则取消展示评论信息。该方式中,用户只需简单地点击屏幕就可取消评论信息的展示,同样也是方便快捷的。
如果交互组件对应的评论信息是以弹窗的形式展示的,则取消展示评论信息的步骤具体包括:关闭弹窗。
根据本实施例所提供的电子书评论信息的交互展示方法,通过进行人脸识别的处理,在识别出用户注视屏幕的情况下再进行瞳孔捕捉,避免计算资源浪费。通过监测用户在阅读页面的注视点坐标,在注视点坐标和评论交互组件匹配且注视时间超过预设值且用户执行了第一预设动作的情况下,自动展示评论交互组件,使用户能够通过隔空交互即可查看电子书的评论信息,为用户查看电子书评论信息提供了便利。并且,该方式检测到在注视点坐标和评论交互组件匹配且注视时间超过预设值之后,还会将评论交互组件设置为选中状态,以提示用户评论交互组件已选中,用户可开始执行第一预设动作。并且,该方式还会根据用户的阅读速度来设置用户注视评论交互组件的时间阈值,适配不同用户的阅读速度,灵活性更高。另外,该方式还提供了通过隔空交互以及点击操作关闭展示的评论信息的方式,包括通过执行第二预设动作、注视评论展示区域以外的区域以及点击评论展示区域以外的区域三种方式,为用户关闭电子书评论信息提供了便利。
本发明实施例提供了一种非易失性计算机存储介质,所述计算机存储介质存储有至少一可执行指令,该计算机可执行指令可执行上述任意方法实施例中的电子书评论信息的交互展示方法。
可执行指令具体可以用于使得处理器执行以下操作:
监测用户在电子书的当前阅读页面的注视点坐标,其中当前阅读页面中包含至少一个评论交互组件;
当监测到用户的注视点坐标与任一评论交互组件的坐标相匹配时,判断用户的注视时长是否超过预设值,若是,展示该评论交互组件对应的评论信息。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
对终端上的摄像头拍摄的用户眼部图像进行分析,得到用户的视线位置数据;
根据视线位置数据以及基准点视线位置数据,计算用户在电子书中的当前阅读页面中的注视点坐标;
其中,基准点视线位置数据基于终端屏幕中各个基准点的坐标数据及用户注视各个基准点时的视线位置数据而确定。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
在监测用户在电子书的当前阅读页面的注视点坐标之前,对摄像头拍摄的图像进行人脸识别处理,根据人脸识别结果判断用户是否处于注视屏幕状态;
若判断出用户处于注视屏幕状态,监测用户在电子书的当前阅读页面的注视点坐标。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:根据用户的注视点坐标及相应的时间信息,计算用户阅读电子书片段的时间;
根据用户阅读电子书片段的时间和电子书片段的字数计算单字阅读时间,确定预设值为超过单字阅读时间的N倍的数值,N大于1。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
在展示该评论交互组件对应的评论信息之前,设置评论交互组件的展示状态为选中状态;
对摄像头拍摄的图像进行分析,检测用户是否执行第一预设动作;
若检测到用户执行第一预设动作,展示该评论交互组件对应的评论信息。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
对摄像头拍摄的图像进行分析,检测用户是否执行第二预设动作;若检测到用户执行第二预设动作,取消展示评论信息。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
当监测到用户的注视点坐标不在评论信息的展示区域内时,取消展示评论信息。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
当监测到用户在评论信息的展示区域之外的区域内的点击操作时,取消展示评论信息。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:以弹窗的形式展示该评论交互组件对应的评论信息;关闭弹窗。
在一种可选的方式中,第一预设动作包括以下中的一种或多种:点头动作、眨眼动作、张嘴动作;第二预设动作包括:摇头动作。
图4示出了本发明电子设备实施例的结构示意图,本发明具体实施例并不对电子设备的具体实现做限定。
如图4所示,该电子设备可以包括:处理器(processor)402、通信接口(Communications Interface)404、存储器(memory)406、以及通信总线408。
其中:处理器402、通信接口404、以及存储器406通过通信总线408完成相互间的通信。通信接口404,用于与其它设备比如客户端或其它服务器等的网元通信。处理器402,用于执行程序410,具体可以执行上述用于电子设备的电子书评论信息的交互展示方法实施例中的相关步骤。
具体地,程序410可以包括程序代码,该程序代码包括计算机操作指令。
处理器402可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。电子设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器406,用于存放程序410。存储器406可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序410具体可以用于使得处理器402执行以下操作:
监测用户在电子书的当前阅读页面的注视点坐标,其中当前阅读页面中包含至少一个评论交互组件;
当监测到用户的注视点坐标与任一评论交互组件的坐标相匹配时,判断用户的注视时长是否超过预设值,若是,展示该评论交互组件对应的评论信息。
在一种可选的方式中,所述程序410使所述处理器402执行以下操作:
对终端上的摄像头拍摄的用户眼部图像进行分析,得到用户的视线位置数据;
根据视线位置数据以及基准点视线位置数据,计算用户在电子书中的当前阅读页面中的注视点坐标;
其中,基准点视线位置数据基于终端屏幕中各个基准点的坐标数据及用户注视各个基准点时的视线位置数据而确定。
在一种可选的方式中,所述程序410使所述处理器402执行以下操作:
在监测用户在电子书的当前阅读页面的注视点坐标之前,对摄像头拍摄的图像进行人脸识别处理,根据人脸识别结果判断用户是否处于注视屏幕状态;
若判断出用户处于注视屏幕状态,监测用户在电子书的当前阅读页面的注视点坐标。
在一种可选的方式中,所述程序410使所述处理器402执行以下操作:根据用户的注视点坐标及相应的时间信息,计算用户阅读电子书片段的时间;
根据用户阅读电子书片段的时间和电子书片段的字数计算单字阅读时间,确定预设值为超过单字阅读时间的N倍的数值,N大于1。
在一种可选的方式中,所述程序410使所述处理器402执行以下操作:
在展示该评论交互组件对应的评论信息之前,设置评论交互组件的展示状态为选中状态;
对摄像头拍摄的图像进行分析,检测用户是否执行第一预设动作;
若检测到用户执行第一预设动作,展示该评论交互组件对应的评论信息。
在一种可选的方式中,所述程序410使所述处理器402执行以下操作:
对摄像头拍摄的图像进行分析,检测用户是否执行第二预设动作;
若检测到用户执行第二预设动作,取消展示评论信息。
在一种可选的方式中,所述程序410使所述处理器402执行以下操作:
当监测到用户的注视点坐标不在评论信息的展示区域内时,取消展示评论信息。
在一种可选的方式中,所述程序410使所述处理器402执行以下操作:
当监测到用户在评论信息的展示区域之外的区域内的点击操作时,取消展示评论信息。
在一种可选的方式中,所述程序410使所述处理器402执行以下操作:
以弹窗的形式展示该评论交互组件对应的评论信息;关闭弹窗。
在一种可选的方式中,第一预设动作包括以下中的一种或多种:点头动作、眨眼动作、张嘴动作;第二预设动作包括:摇头动作。
在此提供的算法或显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明实施例也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本发明并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明实施例的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。上述实施例中的步骤,除有特殊说明外,不应理解为对执行顺序的限定。
本发明公开了:A1.一种电子书评论信息的交互展示方法,包括:
监测用户在电子书的当前阅读页面的注视点坐标,其中所述当前阅读页面中包含至少一个评论交互组件;
当监测到用户的注视点坐标与任一评论交互组件的坐标相匹配时,判断用户的注视时长是否超过预设值,若是,展示该评论交互组件对应的评论信息。
A2.根据A1所述的方法,其中,所述监测用户在电子书的当前阅读页面的注视点坐标进一步包括:
对终端上的摄像头拍摄的用户眼部图像进行分析,得到所述用户的视线位置数据;
根据所述视线位置数据以及基准点视线位置数据,计算所述用户在电子书中的当前阅读页面中的注视点坐标;
其中,所述基准点视线位置数据基于所述终端屏幕中各个基准点的坐标数据及用户注视所述各个基准点时的视线位置数据而确定。
A3.根据A2所述的方法,其中,所述监测用户在电子书的当前阅读页面的注视点坐标之前,所述方法进一步包括:
对所述摄像头拍摄的图像进行人脸识别处理,根据人脸识别结果判断用户是否处于注视屏幕状态;
则所述监测用户在电子书的当前阅读页面的注视点坐标进一步包括:若判断出用户处于注视屏幕状态,监测用户在电子书的当前阅读页面的注视点坐标。
A4.根据A1-A3中任一项所述的方法,其中,所述方法进一步包括:
根据用户的注视点坐标及相应的时间信息,计算用户阅读电子书片段的时间;
根据所述用户阅读电子书片段的时间和所述电子书片段的字数计算单字阅读时间,确定所述预设值为超过所述单字阅读时间的N倍的数值,N大于1。
A5.根据A2-A4中任一项所述的方法,其中,在展示该评论交互组件对应的评论信息之前,所述方法进一步包括:
设置所述评论交互组件的展示状态为选中状态;
对所述摄像头拍摄的图像进行分析,检测用户是否执行第一预设动作;
所述展示该评论交互组件对应的评论信息具体为:若检测到用户执行第一预设动作,展示该评论交互组件对应的评论信息。
A6.根据A2-A5中任一项所述的方法,其中,所述方法进一步包括:
对所述摄像头拍摄的图像进行分析,检测用户是否执行第二预设动作;
若检测到用户执行第二预设动作,取消展示所述评论信息。
A7.根据A1-A6中任一项所述的方法,其中,所述方法进一步包括:
当监测到用户的注视点坐标不在所述评论信息的展示区域内时,取消展示所述评论信息。
A8.根据A1-A7中任一项所述的方法,其中,所述方法进一步包括:
当监测到用户在所述评论信息的展示区域之外的区域内的点击操作时,取消展示所述评论信息。
A9.根据A1-A8中任一项所述的方法,其中,所述展示该评论交互组件对应的评论信息进一步包括:
以弹窗的形式展示该评论交互组件对应的评论信息;
则所述取消展示所述评论信息进一步包括:关闭所述弹窗。
A10.根据A5或A6所述的方法,其中,所述第一预设动作包括以下中的一种或多种:点头动作、眨眼动作、张嘴动作;所述第二预设动作包括:摇头动作。
B11.一种电子设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行以下操作:
监测用户在电子书的当前阅读页面的注视点坐标,其中当前阅读页面中包含至少一个评论交互组件;
当监测到用户的注视点坐标与任一评论交互组件的坐标相匹配时,判断用户的注视时长是否超过预设值,若是,展示该评论交互组件对应的评论信息。
B12.根据B11所述的电子设备,所述可执行指令进一步使所述处理器执行以下操作:
对终端上的摄像头拍摄的用户眼部图像进行分析,得到用户的视线位置数据;
根据视线位置数据以及基准点视线位置数据,计算用户在电子书中的当前阅读页面中的注视点坐标;
其中,基准点视线位置数据基于终端屏幕中各个基准点的坐标数据及用户注视各个基准点时的视线位置数据而确定。
B13.根据B12所述的电子设备,所述可执行指令进一步使所述处理器执行以下操作:
在监测用户在电子书的当前阅读页面的注视点坐标之前,对摄像头拍摄的图像进行人脸识别处理,根据人脸识别结果判断用户是否处于注视屏幕状态;
若判断出用户处于注视屏幕状态,监测用户在电子书的当前阅读页面的注视点坐标。
B14.根据B11-B13中任一项所述的电子设备,所述可执行指令进一步使所述处理器执行以下操作:
根据用户的注视点坐标及相应的时间信息,计算用户阅读电子书片段的时间;
根据用户阅读电子书片段的时间和电子书片段的字数计算单字阅读时间,确定预设值为超过单字阅读时间的N倍的数值,N大于1。
B15.根据B12-B14中任一项所述的电子设备,所述可执行指令进一步使所述处理器执行以下操作:
在展示该评论交互组件对应的评论信息之前,设置评论交互组件的展示状态为选中状态;
对摄像头拍摄的图像进行分析,检测用户是否执行第一预设动作;
若检测到用户执行第一预设动作,展示该评论交互组件对应的评论信息。
B16.根据B12-B15中任一项所述的电子设备,所述可执行指令进一步使所述处理器执行以下操作:
对摄像头拍摄的图像进行分析,检测用户是否执行第二预设动作;
若检测到用户执行第二预设动作,取消展示评论信息。
B17.根据B11-B16中任一项所述的电子设备,所述可执行指令进一步使所述处理器执行以下操作:
当监测到用户的注视点坐标不在评论信息的展示区域内时,取消展示评论信息。
B18.根据B11-B17中任一项所述的电子设备,所述可执行指令进一步使所述处理器执行以下操作:
当监测到用户在评论信息的展示区域之外的区域内的点击操作时,取消展示评论信息。
B19.根据B11-B18中任一项所述的电子设备,所述可执行指令进一步使所述处理器执行以下操作:
以弹窗的形式展示该评论交互组件对应的评论信息;关闭弹窗。
B20.根据B15或B16的电子设备,其中,第一预设动作包括以下中的一种或多种:点头动作、眨眼动作、张嘴动作;第二预设动作包括:摇头动作。
C21.一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行以下操作:
监测用户在电子书的当前阅读页面的注视点坐标,其中当前阅读页面中包含至少一个评论交互组件;
当监测到用户的注视点坐标与任一评论交互组件的坐标相匹配时,判断用户的注视时长是否超过预设值,若是,展示该评论交互组件对应的评论信息。
C22.根据C21所述的计算机存储介质,所述可执行指令进一步使所述处理器执行以下操作:
对终端上的摄像头拍摄的用户眼部图像进行分析,得到用户的视线位置数据;
根据视线位置数据以及基准点视线位置数据,计算用户在电子书中的当前阅读页面中的注视点坐标;
其中,基准点视线位置数据基于终端屏幕中各个基准点的坐标数据及用户注视各个基准点时的视线位置数据而确定。
C23.根据C22所述的计算机存储介质,所述可执行指令进一步使所述处理器执行以下操作:
在监测用户在电子书的当前阅读页面的注视点坐标之前,对摄像头拍摄的图像进行人脸识别处理,根据人脸识别结果判断用户是否处于注视屏幕状态;
若判断出用户处于注视屏幕状态,监测用户在电子书的当前阅读页面的注视点坐标。
C24.根据C21-C23中任一项所述的计算机存储介质,所述可执行指令进一步使所述处理器执行以下操作:
根据用户的注视点坐标及相应的时间信息,计算用户阅读电子书片段的时间;
根据用户阅读电子书片段的时间和电子书片段的字数计算单字阅读时间,确定预设值为超过单字阅读时间的N倍的数值,N大于1。
C25.根据C22-C24中任一项所述的计算机存储介质,所述可执行指令进一步使所述处理器执行以下操作:
在展示该评论交互组件对应的评论信息之前,设置评论交互组件的展示状态为选中状态;
对摄像头拍摄的图像进行分析,检测用户是否执行第一预设动作;
若检测到用户执行第一预设动作,展示该评论交互组件对应的评论信息。
C26.根据C22-C25中任一项所述的计算机存储介质,所述可执行指令进一步使所述处理器执行以下操作:
对摄像头拍摄的图像进行分析,检测用户是否执行第二预设动作;
若检测到用户执行第二预设动作,取消展示评论信息。
C27.根据C21-C26中任一项所述的计算机存储介质,所述可执行指令进一步使所述处理器执行以下操作:
当监测到用户的注视点坐标不在评论信息的展示区域内时,取消展示评论信息。
C28.根据C21-C27中任一项所述的计算机存储介质,所述可执行指令进一步使所述处理器执行以下操作:
当监测到用户在评论信息的展示区域之外的区域内的点击操作时,取消展示评论信息。
C29.根据C21-C28中任一项所述的计算机存储介质,所述可执行指令进一步使所述处理器执行以下操作:
以弹窗的形式展示该评论交互组件对应的评论信息;关闭弹窗。
C30.根据C25或C26所述的计算机存储介质,其中,第一预设动作包括以下中的一种或多种:点头动作、眨眼动作、张嘴动作;第二预设动作包括:摇头动作。
Claims (10)
1.一种电子书评论信息的交互展示方法,包括:
监测用户在电子书的当前阅读页面的注视点坐标,其中所述当前阅读页面中包含至少一个评论交互组件;
当监测到用户的注视点坐标与任一评论交互组件的坐标相匹配时,判断用户的注视时长是否超过预设值,若是,展示该评论交互组件对应的评论信息。
2.根据权利要求1所述的方法,其中,所述监测用户在电子书的当前阅读页面的注视点坐标进一步包括:
对终端上的摄像头拍摄的用户眼部图像进行分析,得到所述用户的视线位置数据;
根据所述视线位置数据以及基准点视线位置数据,计算所述用户在电子书中的当前阅读页面中的注视点坐标;
其中,所述基准点视线位置数据基于所述终端屏幕中各个基准点的坐标数据及用户注视所述各个基准点时的视线位置数据而确定。
3.根据权利要求2所述的方法,其中,所述监测用户在电子书的当前阅读页面的注视点坐标之前,所述方法进一步包括:
对所述摄像头拍摄的图像进行人脸识别处理,根据人脸识别结果判断用户是否处于注视屏幕状态;
则所述监测用户在电子书的当前阅读页面的注视点坐标进一步包括:若判断出用户处于注视屏幕状态,监测用户在电子书的当前阅读页面的注视点坐标。
4.根据权利要求1-3中任一项所述的方法,其中,所述方法进一步包括:
根据用户的注视点坐标及相应的时间信息,计算用户阅读电子书片段的时间;
根据所述用户阅读电子书片段的时间和所述电子书片段的字数计算单字阅读时间,确定所述预设值为超过所述单字阅读时间的N倍的数值,N大于1。
5.根据权利要求2-4中任一项所述的方法,其中,在展示该评论交互组件对应的评论信息之前,所述方法进一步包括:
设置所述评论交互组件的展示状态为选中状态;
对所述摄像头拍摄的图像进行分析,检测用户是否执行第一预设动作;
所述展示该评论交互组件对应的评论信息具体为:若检测到用户执行第一预设动作,展示该评论交互组件对应的评论信息。
6.根据权利要求2-5中任一项所述的方法,其中,所述方法进一步包括:
对所述摄像头拍摄的图像进行分析,检测用户是否执行第二预设动作;
若检测到用户执行第二预设动作,取消展示所述评论信息。
7.根据权利要求1-6中任一项所述的方法,其中,所述方法进一步包括:
当监测到用户的注视点坐标不在所述评论信息的展示区域内时,取消展示所述评论信息。
8.根据权利要求1-7中任一项所述的方法,其中,所述方法进一步包括:
当监测到用户在所述评论信息的展示区域之外的区域内的点击操作时,取消展示所述评论信息。
9.一种电子设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行以下操作:
监测用户在电子书的当前阅读页面的注视点坐标,其中当前阅读页面中包含至少一个评论交互组件;
当监测到用户的注视点坐标与任一评论交互组件的坐标相匹配时,判断用户的注视时长是否超过预设值,若是,展示该评论交互组件对应的评论信息。
10.一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行以下操作:
监测用户在电子书的当前阅读页面的注视点坐标,其中当前阅读页面中包含至少一个评论交互组件;
当监测到用户的注视点坐标与任一评论交互组件的坐标相匹配时,判断用户的注视时长是否超过预设值,若是,展示该评论交互组件对应的评论信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010544071.3A CN111694434B (zh) | 2020-06-15 | 2020-06-15 | 电子书评论信息的交互展示方法、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010544071.3A CN111694434B (zh) | 2020-06-15 | 2020-06-15 | 电子书评论信息的交互展示方法、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111694434A true CN111694434A (zh) | 2020-09-22 |
CN111694434B CN111694434B (zh) | 2023-06-30 |
Family
ID=72481130
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010544071.3A Active CN111694434B (zh) | 2020-06-15 | 2020-06-15 | 电子书评论信息的交互展示方法、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111694434B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112612394A (zh) * | 2020-12-23 | 2021-04-06 | 掌阅科技股份有限公司 | 电子书想法分类展示方法、计算设备及计算机存储介质 |
CN113282209A (zh) * | 2021-06-25 | 2021-08-20 | 掌阅科技股份有限公司 | 电子书信息展示方法、电子设备及计算机存储介质 |
CN116800705A (zh) * | 2023-05-06 | 2023-09-22 | 福州畅昕信息科技有限公司 | 一种电子书弹幕控制方法、电子设备及存储介质 |
CN116909439A (zh) * | 2023-09-13 | 2023-10-20 | 荣耀终端有限公司 | 电子设备及其交互方法 |
Citations (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0651901A (ja) * | 1992-06-29 | 1994-02-25 | Nri & Ncc Co Ltd | 視線認識によるコミュニケーション装置 |
US20030038754A1 (en) * | 2001-08-22 | 2003-02-27 | Mikael Goldstein | Method and apparatus for gaze responsive text presentation in RSVP display |
US20060256083A1 (en) * | 2005-11-05 | 2006-11-16 | Outland Research | Gaze-responsive interface to enhance on-screen user reading tasks |
US20120094700A1 (en) * | 2005-09-21 | 2012-04-19 | U Owe Me, Inc. | Expectation assisted text messaging |
US20120256967A1 (en) * | 2011-04-08 | 2012-10-11 | Baldwin Leo B | Gaze-based content display |
US20130135196A1 (en) * | 2011-11-29 | 2013-05-30 | Samsung Electronics Co., Ltd. | Method for operating user functions based on eye tracking and mobile device adapted thereto |
US20140258839A1 (en) * | 2013-03-11 | 2014-09-11 | International Business Machines Corporation | Systems and methods for customizing electronic documents based on use patterns |
US20140282205A1 (en) * | 2013-03-14 | 2014-09-18 | Eugene Teplitsky | Apparatus, system and method for electronic book reading |
US20140317512A1 (en) * | 2013-04-23 | 2014-10-23 | International Business Machines Corporation | Display of user comments to timed presentation |
US20140354539A1 (en) * | 2013-05-30 | 2014-12-04 | Tobii Technology Ab | Gaze-controlled user interface with multimodal input |
US20150070262A1 (en) * | 2005-09-21 | 2015-03-12 | Richard Ross Peters | Contextual annotations of a message based on user eye-tracking data |
US9256784B1 (en) * | 2013-03-11 | 2016-02-09 | Amazon Technologies, Inc. | Eye event detection |
US20160124505A1 (en) * | 2014-11-05 | 2016-05-05 | Kobo Incorporated | Operating an electronic personal display using eye movement tracking |
US9335819B1 (en) * | 2014-06-26 | 2016-05-10 | Audible, Inc. | Automatic creation of sleep bookmarks in content items |
US20160164814A1 (en) * | 2014-12-05 | 2016-06-09 | Kobo Incorporated | Persistent anchored supplementary content for digital reading |
CN105824439A (zh) * | 2016-02-24 | 2016-08-03 | 乐视云计算有限公司 | 待机状态控制方法及移动终端 |
US20160357253A1 (en) * | 2015-06-05 | 2016-12-08 | International Business Machines Corporation | Initiating actions responsive to user expressions of a user while reading media content |
CN107066085A (zh) * | 2017-01-12 | 2017-08-18 | 惠州Tcl移动通信有限公司 | 一种基于眼球追踪控制终端的方法及装置 |
CN108388142A (zh) * | 2018-04-10 | 2018-08-10 | 百度在线网络技术(北京)有限公司 | 用于控制家居设备的方法、装置和系统 |
CN109343696A (zh) * | 2018-08-21 | 2019-02-15 | 咪咕数字传媒有限公司 | 一种电子书的评论方法、装置及计算机可读存储介质 |
US20190213769A1 (en) * | 2016-08-19 | 2019-07-11 | Nokia Technologies Oy | Apparatus and associated methods |
-
2020
- 2020-06-15 CN CN202010544071.3A patent/CN111694434B/zh active Active
Patent Citations (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0651901A (ja) * | 1992-06-29 | 1994-02-25 | Nri & Ncc Co Ltd | 視線認識によるコミュニケーション装置 |
US20030038754A1 (en) * | 2001-08-22 | 2003-02-27 | Mikael Goldstein | Method and apparatus for gaze responsive text presentation in RSVP display |
US20150070262A1 (en) * | 2005-09-21 | 2015-03-12 | Richard Ross Peters | Contextual annotations of a message based on user eye-tracking data |
US20120094700A1 (en) * | 2005-09-21 | 2012-04-19 | U Owe Me, Inc. | Expectation assisted text messaging |
US20060256083A1 (en) * | 2005-11-05 | 2006-11-16 | Outland Research | Gaze-responsive interface to enhance on-screen user reading tasks |
US20120256967A1 (en) * | 2011-04-08 | 2012-10-11 | Baldwin Leo B | Gaze-based content display |
US20130135196A1 (en) * | 2011-11-29 | 2013-05-30 | Samsung Electronics Co., Ltd. | Method for operating user functions based on eye tracking and mobile device adapted thereto |
US20140258839A1 (en) * | 2013-03-11 | 2014-09-11 | International Business Machines Corporation | Systems and methods for customizing electronic documents based on use patterns |
US9256784B1 (en) * | 2013-03-11 | 2016-02-09 | Amazon Technologies, Inc. | Eye event detection |
US20140282205A1 (en) * | 2013-03-14 | 2014-09-18 | Eugene Teplitsky | Apparatus, system and method for electronic book reading |
US20140317512A1 (en) * | 2013-04-23 | 2014-10-23 | International Business Machines Corporation | Display of user comments to timed presentation |
US20140354539A1 (en) * | 2013-05-30 | 2014-12-04 | Tobii Technology Ab | Gaze-controlled user interface with multimodal input |
US9335819B1 (en) * | 2014-06-26 | 2016-05-10 | Audible, Inc. | Automatic creation of sleep bookmarks in content items |
US20160124505A1 (en) * | 2014-11-05 | 2016-05-05 | Kobo Incorporated | Operating an electronic personal display using eye movement tracking |
US20160164814A1 (en) * | 2014-12-05 | 2016-06-09 | Kobo Incorporated | Persistent anchored supplementary content for digital reading |
US20160357253A1 (en) * | 2015-06-05 | 2016-12-08 | International Business Machines Corporation | Initiating actions responsive to user expressions of a user while reading media content |
CN105824439A (zh) * | 2016-02-24 | 2016-08-03 | 乐视云计算有限公司 | 待机状态控制方法及移动终端 |
WO2017143716A1 (zh) * | 2016-02-24 | 2017-08-31 | 乐视控股(北京)有限公司 | 待机状态控制方法及移动终端 |
US20190213769A1 (en) * | 2016-08-19 | 2019-07-11 | Nokia Technologies Oy | Apparatus and associated methods |
CN107066085A (zh) * | 2017-01-12 | 2017-08-18 | 惠州Tcl移动通信有限公司 | 一种基于眼球追踪控制终端的方法及装置 |
CN108388142A (zh) * | 2018-04-10 | 2018-08-10 | 百度在线网络技术(北京)有限公司 | 用于控制家居设备的方法、装置和系统 |
CN109343696A (zh) * | 2018-08-21 | 2019-02-15 | 咪咕数字传媒有限公司 | 一种电子书的评论方法、装置及计算机可读存储介质 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112612394A (zh) * | 2020-12-23 | 2021-04-06 | 掌阅科技股份有限公司 | 电子书想法分类展示方法、计算设备及计算机存储介质 |
CN113282209A (zh) * | 2021-06-25 | 2021-08-20 | 掌阅科技股份有限公司 | 电子书信息展示方法、电子设备及计算机存储介质 |
CN116800705A (zh) * | 2023-05-06 | 2023-09-22 | 福州畅昕信息科技有限公司 | 一种电子书弹幕控制方法、电子设备及存储介质 |
CN116800705B (zh) * | 2023-05-06 | 2023-11-10 | 福州畅昕信息科技有限公司 | 一种电子书弹幕控制方法、电子设备及存储介质 |
CN116909439A (zh) * | 2023-09-13 | 2023-10-20 | 荣耀终端有限公司 | 电子设备及其交互方法 |
CN116909439B (zh) * | 2023-09-13 | 2024-03-22 | 荣耀终端有限公司 | 电子设备及其交互方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111694434B (zh) | 2023-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111694434A (zh) | 电子书评论信息的交互展示方法、电子设备及存储介质 | |
KR102033863B1 (ko) | 세기에 기초하여 터치 입력을 프로세싱하기 위한 디바이스 및 방법 | |
US11182592B2 (en) | Target object recognition method and apparatus, storage medium, and electronic device | |
CN108875526B (zh) | 视线检测的方法、装置、系统及计算机存储介质 | |
EP3129871B1 (en) | Generating a screenshot | |
WO2018113600A1 (zh) | 一种虚拟资源分配方法、客户端及服务器 | |
JP2020517027A (ja) | 顔画像品質を決定する方法および装置、電子機器ならびにコンピュータ記憶媒体 | |
CN107003727B (zh) | 运行多个应用的电子设备及用于控制电子设备的方法 | |
US10936079B2 (en) | Method and apparatus for interaction with virtual and real images | |
US11594045B2 (en) | Method for determining correct scanning distance using augmented reality and machine learning models | |
JP2021530823A (ja) | ニューラルネットワークのトレーニング方法、視線追跡方法及び装置並びに電子機器 | |
US9715701B2 (en) | Image-based listing using image of multiple items | |
US20170131785A1 (en) | Method and apparatus for providing interface interacting with user by means of nui device | |
CN111783015A (zh) | 页面中共享显示元素的展示方法、电子设备及存储介质 | |
CN111597009B (zh) | 应用程序显示的方法、装置及终端设备 | |
CN114461078B (zh) | 一种基于人工智能的人机交互方法 | |
CN115035042A (zh) | 动作迁移模型的评价方法、装置、电子设备及存储介质 | |
CN113052174B (zh) | 车牌数据样本生成方法、装置、电子设备和存储介质 | |
CN110018733A (zh) | 确定用户触发意图的方法、设备和存储器设备 | |
CN109816485B (zh) | 页面展示方法及装置 | |
CN111199179A (zh) | 目标对象的跟踪方法、终端设备及介质 | |
US11874969B2 (en) | Method for determining two-handed gesture, host, and computer readable medium | |
CN111626075A (zh) | 一种目标识别方法及装置 | |
US20220392209A1 (en) | Object recognition | |
CN113031834B (zh) | 屏幕图标显示方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |