CN113849093A - 一种控制方法、装置及电子设备 - Google Patents

一种控制方法、装置及电子设备 Download PDF

Info

Publication number
CN113849093A
CN113849093A CN202111145053.9A CN202111145053A CN113849093A CN 113849093 A CN113849093 A CN 113849093A CN 202111145053 A CN202111145053 A CN 202111145053A CN 113849093 A CN113849093 A CN 113849093A
Authority
CN
China
Prior art keywords
state
display
display interface
virtual key
display area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111145053.9A
Other languages
English (en)
Inventor
尤亚坤
王科
陈雪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Priority to CN202111145053.9A priority Critical patent/CN113849093A/zh
Publication of CN113849093A publication Critical patent/CN113849093A/zh
Priority to US17/691,114 priority patent/US20230099124A1/en
Priority to GB2205440.7A priority patent/GB2611393A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04895Guidance during keyboard input operation, e.g. prompting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Abstract

本申请提供了一种控制方法、装置及电子设备,该方法在控制电子设备的第一显示区域显示第一对象的显示界面的基础上,响应于第一触发事件,控制电子设备进入第一状态或第二状态,在第一状态下,响应于对第一对象的显示界面的第一操作,执行与第一对象关联的操作,在第二状态下,响应于对第一对象的显示界面的第二操作,执行与第二对象关联的操作,保证电子设备可以在不同状态下,响应于对同一个对象的显示界面的操作,执行与不同对象关联的操作,提升电子设备的操作便捷性,提升用户交互体验。

Description

一种控制方法、装置及电子设备
技术领域
本申请涉及计算机技术领域,特别涉及一种控制方法、装置及电子设备。
背景技术
随着电子技术的快速发展,越来越多的电子设备应用于生活和工作等场景。但是,电子设备的操作便捷性仍有待提高。
发明内容
本申请提供如下技术方案:
本申请一方面提供一种控制方法,包括:
控制电子设备的第一显示区域显示第一对象的显示界面;
响应于第一触发事件,控制所述电子设备进入第一状态或第二状态;
在所述第一状态下,响应于对所述第一对象的显示界面的第一操作,执行与所述第一对象关联的操作;
在所述第二状态下,响应于对所述第一对象的显示界面的第二操作,执行与第二对象关联的操作,所述第二对象的至少部分在所述第一显示区域不可见。
所述在所述第二状态下,响应于对所述第一对象的显示界面的第二操作,执行与第二对象关联的操作,包括:
在所述第二状态下,响应于对所述第一对象的显示界面输入的手势,对与所述手势关联的第二对象执行与所述手势关联的操作,与所述手势关联的第二对象的至少部分在所述第一显示区域不可见。
所述在所述第二状态下,响应于对所述第一对象的显示界面的第二操作,执行与第二对象关联的操作,包括:
在所述第二状态下,响应于对所述第一对象的显示界面的第二操作,确定所述第二操作所指向的虚拟键盘中的至少一个虚拟键位,所述虚拟键盘的至少部分在所述第一显示区域不可见;
基于至少一个所述虚拟键位,进行输入。
所述基于至少一个所述虚拟键位,进行输入,包括:
基于至少一个所述虚拟键位,在所述电子设备的第二显示区域进行输入。
所述基于至少一个所述虚拟键位,进行输入,包括:
获取所述虚拟键位在第一输入状态下关联的内容,并输入所述虚拟键位在所述第一输入状态下关联的内容;
或,
获取所述虚拟键位关联的至少一个内容;
控制所述电子设备的第三显示区域显示所述虚拟键位关联的至少一个内容;
响应于对所述虚拟键位关联的至少一个内容中目标内容的选择操作,输入所述目标内容。
所述方法还包括:
确定用户的手部特征;
基于所述用户的手部特征,确定虚拟键盘布局特征;
所述确定所述第二操作所指向的虚拟键盘中的至少一个虚拟键位,包括:
确定所述第二操作所指向的符合所述软键盘布局特征的虚拟键盘中的至少一个虚拟键位。
所述第二对象在第一虚拟区域接受操作,所述第一虚拟区域至少与所述第一对象的显示区域重合。
所述执行与第二对象关联的操作之前,还包括:
确定隐藏第二对象的第一部分,并在所述第一显示区域中显示所述第二对象的第二部分。
本申请另一方面提供一种控制装置,包括:
第一控制模块,用于控制电子设备的第一显示区域显示第一对象的显示界面;
第二控制模块,用于响应于第一触发事件,控制所述电子设备进入第一状态或第二状态;
第一执行模块,用于在所述第一状态下,响应于对所述第一对象的显示界面的第一操作,执行与所述第一对象关联的操作;
第二执行模块,用于在所述第二状态下,响应于对所述第一对象的显示界面的第二操作,执行与第二对象关联的操作,所述第二对象的至少部分在所述第一显示区域不可见。
本申请第三方面提供一种电子设备,包括:
存储器和处理器;
所述存储器,用于至少存储一组指令集;
所述处理器,用于调用并执行所述存储器中的所述指令集,通过执行所述指令集执行如上述任意一项所述的控制方法。
在本申请中,在控制电子设备的第一显示区域显示第一对象的显示界面的基础上,响应于第一触发事件,控制电子设备进入第一状态或第二状态,在第一状态下,响应于对第一对象的显示界面的第一操作,执行与第一对象关联的操作,在第二状态下,响应于对第一对象的显示界面的第二操作,执行与第二对象关联的操作,保证电子设备可以在不同状态下,响应于对同一个对象的显示界面的操作,执行与不同对象关联的操作,提升电子设备的操作便捷性,提升用户交互体验。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请提供的一种控制方法实施例1的流程示意图;
图2是本申请提供的一种控制方法实施例2的流程示意图;
图3是本申请实施例2提供的一种控制方法的实施场景示意图;
图4是本申请提供的一种控制方法实施例3的流程示意图;
图5是本申请实施例3提供的一种控制方法的实施场景示意图;
图6是本申请提供的一种控制方法实施例4的流程示意图;
图7是本申请提供的一种控制方法实施例5的流程示意图;
图8是本申请提供的一种控制方法实施例6的流程示意图;
图9是本申请提供的一种控制方法实施例7的流程示意图;
图10是本申请实施例7提供的一种控制方法的实施场景示意图;
图11是本申请提供的一种控制装置的结构示意图;
图12是本申请提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
为使本申请的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本申请作进一步详细的说明。
参照图1,为本申请实施例1提供的一种控制方法的流程示意图,该方法可以应用于电子设备,本申请对电子设备的产品类型不做限定,如图1所示,该方法可以包括但并不局限于以下步骤:
步骤S101、控制电子设备的第一显示区域显示第一对象的显示界面。
第一对象可以为但不局限于:电子设备中某一应用,如,浏览器或社交应用(如,微信)。
本实施例中,可以基于调启第一对象的显示界面的操作,确定能够与第一对象的显示界面相匹配的第一显示区域,并在第一显示区域显示第一对象的显示界面。如,基于作用于电子设备的任务栏中第一对象的图标的输入操作,确定与第一对象的缩略图相匹配的第一显示区域,并在第一显示区域显示第一对象的缩略图;或,基于作用于电子设备的桌面中第一对象的图标的输入操作或作用与电子设备中第一对象的缩略图的输入操作,确定与第一对象的窗口界面相匹配的第一显示区域,并在第一显示区域显示第一对象的窗口界面,其中,第一对象的窗口界面的显示尺寸至少大于第一对象的缩略图的显示尺寸。
当然,本申请中对电子设备的第一显示区域的确定并不局限于上述方式,本实施例中也可以将电子设备的整个屏幕作为第一显示区域,显示第一对象的显示界面。
步骤S102、响应于第一触发事件,控制电子设备进入第一状态或第二状态。
本实施例中,可以响应于第一触发事件,确定第一触发事件指示的工作状态;
若第一触发事件指示的工作状态为第一状态,控制电子设备进入第一状态;
若第一触发事件指示的工作状态为第二状态,控制电子设备进入第二状态。
电子设备在第一状态下所执行的控制操作与电子设备在第二状态下所执行的控制操作具有差异。
步骤S103、在第一状态下,响应于对第一对象的显示界面的第一操作,执行与第一对象关联的操作。
在第一状态下,电子设备并不限制对第一对象的显示界面的操作,且可以响应于对第一对象的显示界面的第一操作,执行与第一对象关联的操作。
在第一状态下,响应于对第一对象的显示界面的第一操作,执行与第一对象关联的操作,可以包括:
在第一状态下,响应于对第一对象的显示界面的第一操作,执行与第一对象的显示界面关联的操作,例如,在第一状态下,响应于对第一对象的显示界面的放大操作,对第一对象的显示界面进行放大;或,在第一状态下,响应于对第一对象的显示界面的缩小操作,对第一对象的显示界面进行缩小。
当然,在第一状态下,响应于对第一对象的显示界面的第一操作,执行与第一对象关联的操作,也可以包括:
在第一状态下,响应于对第一对象的显示界面的第一操作,执行与第一对象的功能模块关联的操作。例如,在第一状态下,响应于对音乐应用的显示界面中搜索控件的触发操作,直接进入音乐应用的搜索页面。
步骤S104、在第二状态下,响应于对第一对象的显示界面的第二操作,执行与第二对象关联的操作,第二对象的至少部分在第一显示区域不可见。
本实施例中,对第一对象的显示界面的第二操作,可以和对第一对象的显示界面的第一操作相同或不同。需要说明的是,在对第一对象的显示界面的第二操作与对第一对象的显示界面的第二操作相同的情况下,在第二状态下,电子设备响应于对第一对象的显示界面的第二操作所执行的控制操作,与在第一状态下,响应于对第一对象的显示界面的第一操作所执行的控制操作不同。
在第二状态下,响应于对第一对象的显示界面的第二操作,执行与不同于第一对象的第二对象关联的操作。
执行与不同于第一对象的第二对象关联的操作,可以包括但不局限于:
执行与不同于第一对象的第二对象的显示界面关联的操作;
或,执行与不同于第一对象的第二对象的功能模块关联的操作。
需要说明的是,第二对象可以但不局限于在第一虚拟区域接受操作,相应地,电子设备可以响应于对第一对象的显示界面的第二操作,在第一虚拟区域执行与第二对象关联的操作,第一虚拟区域至少与第一对象的显示区域重合。
当然,也可以不对第二对象设置虚拟区域,仅在后台执行与第二对象关联的操作即可。
在本实施例中,在控制电子设备的第一显示区域显示第一对象的显示界面的基础上,响应于第一触发事件,控制电子设备进入第一状态或第二状态,在第一状态下,响应于对第一对象的显示界面的第一操作,执行与第一对象关联的操作,在第二状态下,响应于对第一对象的显示界面的第二操作,执行与第二对象关联的操作,保证电子设备可以在不同状态下,响应于对同一个对象的显示界面的操作,执行与不同对象关联的操作,提升电子设备的操作便捷性,提升用户交互体验。
并且,在第二状态下,响应于对第一对象的显示界面的第二操作,执行与第二对象关联的操作,第二对象的至少部分在第一显示区域不可见,可以在执行与第二对象关联的操作的同时,降低对第一对象的显示界面在第一显示区域中的显示效果的影响。
作为本申请另一可选实施例,参照图2,为本申请提供的一种控制方法实施例2的流程示意图,本实施例主要是对上述实施例1描述的控制方法的细化方案,该方法可以包括但并不局限于以下步骤:
步骤S201、控制电子设备的第一显示区域显示第一对象的显示界面;
步骤S202、响应于第一触发事件,控制电子设备进入第一状态或第二状态;
步骤S203、在第一状态下,响应于对第一对象的显示界面的第一操作,执行与第一对象关联的操作。
步骤S201-S203的详细过程可以参见实施例1中步骤S101-S103的相关介绍,在此不再赘述。
步骤S204、在第二状态下,响应于对第一对象的显示界面输入的手势,对与手势关联的第二对象执行与手势关联的操作,与手势关联的第二对象的至少部分在第一显示区域不可见。
本实施例中,电子设备可以预先建立对应于电子设备的第二状态的输入手势与第二对象的关联关系,及第二对象关联的输入手势与对第二对象的功能模块进行控制操作的关联关系。
若在第二状态下,获取到对第一对象的显示界面输入的手势,则响应于对第一对象的显示界面输入的手势,基于预先建立的对应于电子设备的第二状态的输入手势与第二对象的关联关系,及第二对象关联的输入手势关联的对第二对象的功能模块进行控制操作的关联关系,对与手势关联的第二对象的功能模块进行控制。例如,如图3中(a)部分所示,在第二状态下,可以向在电子设备的第一显示区域中显示的浏览器(即,第一对象的其中一种示例)的显示界面输入“○”手势,相应地,电子设备响应于“○”手势,基于预先建立的对应于电子设备的第二状态的“○”手势与酷我音乐的对应关系,及“○”手势与进入搜索页面的关联关系,进入酷我音乐的搜索页面,其中,酷我音乐的搜索页面的全部可以在第一显示区域中显示,如图3中(b)部分所示,或者,酷我音乐的搜索页面的部分可以在第一显示区域中显示,如图3中(c)部分所示。
需要说明的是,图3仅为其中一种示例,其并不作为对步骤S204的限制。
另外,本实施例还提供了在第二状态下,响应于对第一对象的显示界面输入的手势,对与手势关联的第二对象执行与手势关联的操作的另外一种具体实施方式,具体可以包括:
在预先配置在第二状态下,对第一对象的显示界面输入的手势,用于进行输入的情况下,在第二状态下,响应于对第一对象的显示界面输入的手势,识别手势得到字符,在与手势关联的第二对象的显示界面中输入字符。其中,与手势关联的第二对象的显示界面的至少部分在第一显示区域中不可见。
可以理解的是,在对与手势关联的第二对象的功能模块进行控制的场景中或在与手势关联的第二对象的显示界面中输入字符的场景中,可以不对第二对象设置虚拟区域,仅在后台对第二对象的功能模块进行控制或在后台识别手势得到字符。
步骤S204为实施例1中步骤S104的一种具体实施方式。
在本实施例中,在第二状态下,响应于对第一对象的显示界面输入的手势,对与手势关联的第二对象执行与手势关联的操作,保证可以在不做输入界面切换的情况下,输入与第二对象关联的手势,并由电子设备响应于对第一对象的显示界面输入的手势,对与手势关联的第二对象执行与手势关联的操作,提升电子设备的操作便捷性,进而提升用户交互体验。
并且,在第二状态下,响应于对第一对象的显示界面输入的手势,对与手势关联的第二对象执行与手势关联的操作,与手势关联的第二对象的至少部分在第一显示区域不可见,可以在对与手势关联的第二对象执行与手势关联的操作的同时,降低对第一对象的显示界面在第一显示区域中的显示效果的影响。
作为本申请另一可选实施例,参照图4,为本申请提供的一种控制方法实施例3的流程示意图,本实施例主要是对上述实施例1描述的控制方法的细化方案,该方法可以包括但并不局限于以下步骤:
步骤S301、控制电子设备的第一显示区域显示第一对象的显示界面;
步骤S302、响应于第一触发事件,控制电子设备进入第一状态或第二状态;
步骤S303、在第一状态下,响应于对第一对象的显示界面的第一操作,执行与第一对象关联的操作。
步骤S301-S303的详细过程可以参见实施例1中步骤S101-S103的相关介绍,在此不再赘述。
步骤S304、在第二状态下,响应于对第一对象的显示界面的第二操作,确定第二操作所指向的虚拟键盘中的至少一个虚拟键位,虚拟键盘的至少部分在第一显示区域不可见。
在第二状态下,若电子设备的第三对象需要响应键盘输入操作的情况下,可以对第一对象的显示界面进行第二操作,第三对象可以为电子设备中不同于第一对象和第二对象的其中一个应用。
本实施例中,可以预先配置在第二状态下,对第一对象的显示界面的第二操作,仅可以调启虚拟键盘,并执行与虚拟键盘关联的操作。
当然,也可以预先配置在第二状态下,对第一对象的显示界面的第二操作,可以调启虚拟键盘,并执行与虚拟键盘关联的操作,及调启除虚拟键盘之外的第二对象,并执行不局限于与除虚拟键盘之外的第二对象关联的操作。
在可以调启虚拟键盘,并执行与虚拟键盘关联的操作,及调启除虚拟键盘之外的第二对象,并执行不局限于与除虚拟键盘之外的第二对象关联的操作的情况下,可以对应虚拟键盘和与除虚拟键盘之外的第二对象,设置不同的第二操作,并预先建立虚拟键盘与相应第二操作的对应关系及除虚拟键盘之外的其它第二对象与相应第二操作的对应关系,用于准确地调启虚拟键盘或除虚拟键盘之外的第二对象。
相应地,响应于对第一对象的显示界面的第二操作,确定第二操作所指向的虚拟键盘中的至少一个虚拟键位,可以包括:响应于对第一对象的显示界面的第二操作,基于预先建立的对应关系,确定第二操作对应于虚拟键盘,并确定第二操作所指向的虚拟键盘中的至少一个虚拟键位。
其中,调启执行与虚拟键盘关联的操作的时机可以为响应于对第一对象的显示界面的第二操作;调启虚拟键盘的时机可以为响应于对第一对象的显示界面的第二操作或电子设备进入第二状态。
本实施例中,第二操作可以为但不局限于触控操作或鼠标点击操作。
可以理解的是,虚拟键盘可以但不局限于在第一虚拟区域接受操作,相应地,电子设备可以响应于对第一对象的显示界面的第二操作,在第一虚拟区域确定第二操作所指向的虚拟键盘中的至少一个虚拟键位,第一虚拟区域至少与第一对象的显示区域重合。
步骤S305、基于至少一个虚拟键位,进行输入。
本实施例中,基于至少一个虚拟键位,进行输入,可以包括但不局限于:
基于至少一个虚拟键位,在电子设备的第二显示区域进行输入。
其中,第二显示区域可以和第一显示区域相同,也可以为与第一显示区域不同的区域。
具体地,在电子设备具备第一屏幕和第二屏幕,且第一显示区域位于第一屏幕中的情况下,基于至少一个虚拟键位,在电子设备的第二显示区域进行输入,可以包括:
S3051、将电子设备的第三对象的输入界面移动至电子设备的第二屏幕中的第二显示区域,基于至少一个虚拟键位,在第二显示区域进行输入。
本实施例将电子设备的第三对象的显示界面移动至电子设备的第二屏幕中的第二显示区域,可以实现第一对象的显示界面与电子设备的第三对象的输入界面的分屏显示,既可以保证第一对象的显示界面的显示效果,又能够提供给用户最大化的输入界面。例如,如图5中(a)部分所示,在第一屏幕的第一显示区域中显示浏览器(即,第一对象的其中一种示例)的显示界面及在第一屏幕的非第一显示区域中显示word(即,第三对象的其中一种示例)的输入界面,如图5(b)部分所示,将word的输入界面移动至电子设备的第二屏幕中的第二显示区域。在将word的输入界面移动至电子设备的第二屏幕中的第二显示区域的情况下,基于至少一个虚拟键位,在第二显示区域进行输入。
在本实施例中,在第二状态下,响应于对第一对象的显示界面输入的第二操作,确定所述第二操作所指向的虚拟键盘中的至少一个虚拟键位,基于至少一个虚拟键位,进行输入,保证可以在不做界面切换的情况下,进行输入,提升电子设备的输入便捷性,进而提升用户交互体验。
并且,在第二状态下,虚拟键盘的至少部分在第一显示区域不可见,可以在进行输入的同时,降低对第一对象的显示界面在第一显示区域中的显示效果的影响。
作为本申请另一可选实施例,参照图6,为本申请提供的一种控制方法实施例4的流程示意图,本实施例主要是对上述实施例3描述的控制方法的细化方案,该方法可以包括但并不局限于以下步骤:
步骤S401、控制电子设备的第一显示区域显示第一对象的显示界面。
步骤S402、响应于第一触发事件,控制电子设备进入第一状态或第二状态。
步骤S403、在第一状态下,响应于对第一对象的显示界面的第一操作,执行与第一对象关联的操作。
步骤S404、在第二状态下,响应于对第一对象的显示界面的第二操作,确定第二操作所指向的虚拟键盘中的至少一个虚拟键位,虚拟键盘的至少部分在第一显示区域不可见。
步骤S401-S404的详细过程可以参见实施例1中步骤S301-S304的相关介绍,在此不再赘述。
步骤S405、获取虚拟键位在第一输入状态下关联的内容,并输入虚拟键位在第一输入状态下关联的内容。
本实施例中,可以通过响应于对第一对象的显示界面的第二操作,确定第一输入状态。第一输入状态可以包括但不局限于:英文大写输入状态、英文小写输入状态或中文输入状态。
步骤S405为实施例3中步骤S305的一种具体实施方式。
在本实施例中,在第二状态下,响应于对第一对象的显示界面输入的第二操作,确定所述第二操作所指向的虚拟键盘中的至少一个虚拟键位,获取虚拟键位在第一输入状态下关联的内容,并输入虚拟键位在第一输入状态下关联的内容,保证可以在不做界面切换的情况下,输入虚拟键位在特定输入状态下关联的内容,提升电子设备的输入便捷性,进而提升用户交互体验。
作为本申请另一可选实施例,参照图7,为本申请提供的一种控制方法实施例5的流程示意图,本实施例主要是对上述实施例3描述的控制方法的细化方案,该方法可以包括但并不局限于以下步骤:
步骤S501、控制电子设备的第一显示区域显示第一对象的显示界面。
步骤S502、响应于第一触发事件,控制电子设备进入第一状态或第二状态。
步骤S503、在第一状态下,响应于对第一对象的显示界面的第一操作,执行与第一对象关联的操作。
步骤S504、在第二状态下,响应于对第一对象的显示界面的第二操作,确定第二操作所指向的虚拟键盘中的至少一个虚拟键位,虚拟键盘的至少部分在第一显示区域不可见。
步骤S501-S504的详细过程可以参见实施例1中步骤S301-S304的相关介绍,在此不再赘述。
步骤S505、获取虚拟键位关联的至少一个内容。
虚拟键位可以关联至少一个内容,例如,虚拟键位“O”可以关联字符“I”、“O”和“P”。
步骤S506、控制电子设备的第三显示区域显示虚拟键位关联的至少一个内容。
第三显示区域可以和第一显示区域相同,也可以为不同于第一显示区域的显示区域。
步骤S507、响应于对虚拟键位关联的至少一个内容中目标内容的选择操作,输入目标内容。
步骤S505-S507为实施例3中步骤S305的一种具体实施方式。
在本实施例中,在电子设备的第三显示区域显示虚拟键位关联的至少一个内容的情况下,可以对显示的虚拟键位关联的至少一个内容进行选择操作,电子设备可以响应于对虚拟键位关联的至少一个内容中目标内容的选择操作,输入目标内容,可以保证输入的准确性。例如,在第三显示区域显示虚拟键位“O”关联的字符“I”、“O”和“P”的情况下,电子设备响应于对虚拟键位“O”关联的字符“I”、“O”和“P”中“I”的选择操作,输入字符“I”,避免用户因误操作虚拟键位“O”而输入字符“O”的情况发生,保证输入准确性。
作为本申请另一可选实施例,参照图8,为本申请提供的一种控制方法实施例6的流程示意图,本实施例主要是对上述实施例3描述的控制方法的扩展方案,该方法可以包括但并不局限于以下步骤:
步骤S601、控制电子设备的第一显示区域显示第一对象的显示界面。
步骤S602、响应于第一触发事件,控制电子设备进入第一状态或第二状态。
步骤S603、在第一状态下,响应于对第一对象的显示界面的第一操作,执行与第一对象关联的操作。
步骤S601-S603的详细过程可以参见实施例3中步骤S301-S303的相关介绍,在此不再赘述。
步骤S604、在第二状态下,确定用户的手部特征,并基于用户的手部特征,确定虚拟键盘布局特征。
本实施例中,用户的手部特征,可以包括但不局限于:
表征用户的手部的大小的第一手部特征,和/或,表征用户的手部在屏幕中的位置的第一关联特征。
本实施例中,可以基于表征用户的手部的大小的第一手部特征,和/或,表征用户的手部在屏幕中的位置的第一关联特征,确定虚拟键盘布局特征。
步骤S605、响应于对第一对象的显示界面的第二操作,确定第二操作所指向的符合软键盘布局特征的虚拟键盘中的至少一个虚拟键位,虚拟键盘的至少部分在第一显示区域不可见。
步骤S605为实施例3中步骤S304的一种具体实施方式。
步骤S606、基于至少一个虚拟键位,进行输入。
本实施例中,基于至少一个虚拟键位,进行输入,可以包括:
S6061、在软键盘热区布局中确定与虚拟键位匹配的第一热区位置,软键盘热区布局为利用机器学习模型学习用户输入习惯得到的;
S6062、触发第一热区位置对应的软键盘热区,以输入软键盘热区对应的内容。
本实施例中,利用机器学习模型学习用户输入习惯得到软键盘热区布局,并在软键盘热区布局中确定与虚拟键位匹配的第一热去位置,触发第一热区位置对应的软键盘热区,以输入软键盘热区对应的内容,可以提高输入准确度。
步骤S606的详细过程可以参见实施例3中步骤S305的相关介绍,在此不再赘述。
本实施例中,在第二状态下,确定用户的手部特征,并基于用户的手部特征,确定虚拟键盘布局特征,可以适配用户的手部特征,并确定第二操作所指向的符合软键盘布局特征的虚拟键盘中的至少一个虚拟键位,基于虚拟键位进行输入,提高输入的准确度。
作为本申请另一可选实施例,参照图9,为本申请提供的一种控制方法实施例7的流程示意图,本实施例主要是对上述实施例1描述的控制方法的扩展方案,该方法可以包括但并不局限于以下步骤:
步骤S701、控制电子设备的第一显示区域显示第一对象的显示界面。
步骤S702、响应于第一触发事件,控制电子设备进入第一状态或第二状态。
步骤S703、在第一状态下,响应于对第一对象的显示界面的第一操作,执行与第一对象关联的操作。
步骤S704、在第二状态下,响应于对第一对象的显示界面的第二操作,确定隐藏第二对象的第一部分,并在第一显示区域中显示第二对象的第二部分,执行与第二对象关联的操作。
本实施例中,响应于对第一对象的显示界面的第二操作,确定隐藏第二对象的第一部分,并在第一显示区域中显示第二对象的第二部分,可以包括但不局限于:
S7041、响应于对第一对象的显示界面的第二操作,获取第一对象的信息;
S7042、基于第一对象的信息,确定是否隐藏第二对象;
若基于第一对象的信息,确定第一对象不需要操作或输入,则可以确定隐藏第二对象的第一部分,则可以执行步骤S7043。
S7043、在第一显示区域中显示第二对象的第二部分。
在本申请中,对第二对象的第二部分的显示方式不做限制。具体可以但不局限于:设定第二对象的第二部分的显示亮度为不同于第一显示区域的显示亮度,基于设定的第二对象的第二部分的显示亮度,在第一显示区域中显示第二对象的第二部分。
本实施例中,在第二对象为虚拟键盘的情况下,基于第一对象的信息,确定隐藏虚拟键盘除定位键位之外的部分,则可以在第一显示区域中显示虚拟键盘的定位键位,如图10所示,在第一对象为浏览器的情况下,在第一屏幕的第一显示区域显示定位键位“F”和“J”。
在第一显示区域中显示第二对象的第二部分,可以提高执行与第二对象关联的操作的便捷性。
接下来对本申请提供的一种控制装置进行介绍,下文介绍的控制装置与上文介绍的控制方法可相互对应参照。
请参见图11,控制装置包括:第一控制模块100、第二控制模块200、第三控制模块300和第四控制模块400。
第一控制模块100,用于控制电子设备的第一显示区域显示第一对象的显示界面。
第二控制模块200,用于响应于第一触发事件,控制电子设备进入第一状态或第二状态。
第一执行模块300,用于在第一状态下,响应于对第一对象的显示界面的第一操作,执行与第一对象关联的操作。
第二执行模块400,用于在第二状态下,响应于对第一对象的显示界面的第二操作,执行与第二对象关联的操作,第二对象的至少部分在第一显示区域不可见。
本实施例中,第二对象可以在第一虚拟区域接受操作,第一虚拟区域至少与第一对象的显示区域重合。
本实施例中,第二执行模块400,还可以用于在执行与第二对象关联的操作之前,确定隐藏第二对象的第一部分,并在第一显示区域中显示第二对象的第二部分。
本实施例中,第二执行模块400,具体可以用于:
在第二状态下,响应于对第一对象的显示界面输入的手势,对与手势关联的第二对象执行与手势关联的操作,与手势关联的第二对象的至少部分在第一显示区域不可见。
本实施例中,第二执行模块400,具体可以用于:
在第二状态下,响应于对第一对象的显示界面的第二操作,确定第二操作所指向的虚拟键盘中的至少一个虚拟键位,虚拟键盘的至少部分在第一显示区域不可见;
基于至少一个所述虚拟键位,进行输入。
本实施例中,第二执行模块400,具体可以用于:
基于至少一个虚拟键位,在电子设备的第二显示区域进行输入。
本实施例中,第二执行模块400,具体可以用于:
获取虚拟键位在第一输入状态下关联的内容,并输入虚拟键位在第一输入状态下关联的内容;
或,
获取虚拟键位关联的至少一个内容;
控制电子设备的第三显示区域显示虚拟键位关联的至少一个内容;
响应于对虚拟键位关联的至少一个内容中目标内容的选择操作,输入目标内容。
本实施例中,上述控制装置还可以包括:
第一确定模块,用于:
确定用户的手部特征;
基于用户的手部特征,确定虚拟键盘布局特征;
相应地,第二执行模块,具体可以用于:
确定第二操作所指向的符合软键盘布局特征的虚拟键盘中的至少一个虚拟键位。
与上述本申请提供的一种控制方法实施例相对应的,本申请还提供了应用该控制方法的电子设备实施例。
如图12所示的为本申请提供的一种电子设备实施例1的结构示意图,该电子设备可以包括以下结构:
存储器10和处理器20。
存储器10,用于至少存储一组指令集;
处理器20,用于调用并执行所述存储器10中的所述指令集,通过执行所述指令集执行如上述方法实施例1-7中任意一个实施例所介绍的控制方法。
与上述本申请提供的一种控制方法实施例相对应的,本申请还提供了一种存储介质的实施例。
本实施例中,存储介质存储有实现如方法实施例1-7任意一个实施例所介绍的控制方法的计算机程序,计算机程序被处理器执行,实现如实施例1-7任意一个实施例所介绍的控制方法。
需要说明的是,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于装置类实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
为了描述的方便,描述以上装置时以功能分为各种模块分别描述。当然,在实施本申请时可以把各模块的功能在同一个或多个软件和/或硬件中实现。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本申请可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例或者实施例的某些部分所述的方法。
以上对本申请所提供的一种控制方法、装置及电子设备进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

Claims (10)

1.一种控制方法,包括:
控制电子设备的第一显示区域显示第一对象的显示界面;
响应于第一触发事件,控制所述电子设备进入第一状态或第二状态;
在所述第一状态下,响应于对所述第一对象的显示界面的第一操作,执行与所述第一对象关联的操作;
在所述第二状态下,响应于对所述第一对象的显示界面的第二操作,执行与第二对象关联的操作,所述第二对象的至少部分在所述第一显示区域不可见。
2.根据权利要求1所述的方法,所述在所述第二状态下,响应于对所述第一对象的显示界面的第二操作,执行与第二对象关联的操作,包括:
在所述第二状态下,响应于对所述第一对象的显示界面输入的手势,对与所述手势关联的第二对象执行与所述手势关联的操作,与所述手势关联的第二对象的至少部分在所述第一显示区域不可见。
3.根据权利要求1所述的方法,所述在所述第二状态下,响应于对所述第一对象的显示界面的第二操作,执行与第二对象关联的操作,包括:
在所述第二状态下,响应于对所述第一对象的显示界面的第二操作,确定所述第二操作所指向的虚拟键盘中的至少一个虚拟键位,所述虚拟键盘的至少部分在所述第一显示区域不可见;
基于至少一个所述虚拟键位,进行输入。
4.根据权利要求3所述的方法,所述基于至少一个所述虚拟键位,进行输入,包括:
基于至少一个所述虚拟键位,在所述电子设备的第二显示区域进行输入。
5.根据权利要求3所述的方法,所述基于至少一个所述虚拟键位,进行输入,包括:
获取所述虚拟键位在第一输入状态下关联的内容,并输入所述虚拟键位在所述第一输入状态下关联的内容;
或,
获取所述虚拟键位关联的至少一个内容;
控制所述电子设备的第三显示区域显示所述虚拟键位关联的至少一个内容;
响应于对所述虚拟键位关联的至少一个内容中目标内容的选择操作,输入所述目标内容。
6.根据权利要求3所述的方法,所述方法还包括:
确定用户的手部特征;
基于所述用户的手部特征,确定虚拟键盘布局特征;
所述确定所述第二操作所指向的虚拟键盘中的至少一个虚拟键位,包括:
确定所述第二操作所指向的符合所述软键盘布局特征的虚拟键盘中的至少一个虚拟键位。
7.根据权利要求1所述的方法,所述第二对象在第一虚拟区域接受操作,所述第一虚拟区域至少与所述第一对象的显示区域重合。
8.根据权利要求1所述的方法,所述执行与第二对象关联的操作之前,还包括:
确定隐藏第二对象的第一部分,并在所述第一显示区域中显示所述第二对象的第二部分。
9.一种控制装置,包括:
第一控制模块,用于控制电子设备的第一显示区域显示第一对象的显示界面;
第二控制模块,用于响应于第一触发事件,控制所述电子设备进入第一状态或第二状态;
第一执行模块,用于在所述第一状态下,响应于对所述第一对象的显示界面的第一操作,执行与所述第一对象关联的操作;
第二执行模块,用于在所述第二状态下,响应于对所述第一对象的显示界面的第二操作,执行与第二对象关联的操作,所述第二对象的至少部分在所述第一显示区域不可见。
10.一种电子设备,包括:
存储器和处理器;
所述存储器,用于至少存储一组指令集;
所述处理器,用于调用并执行所述存储器中的所述指令集,通过执行所述指令集执行如权利要求1-8任意一项所述的控制方法。
CN202111145053.9A 2021-09-28 2021-09-28 一种控制方法、装置及电子设备 Pending CN113849093A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202111145053.9A CN113849093A (zh) 2021-09-28 2021-09-28 一种控制方法、装置及电子设备
US17/691,114 US20230099124A1 (en) 2021-09-28 2022-03-09 Control method and device and electronic device
GB2205440.7A GB2611393A (en) 2021-09-28 2022-04-12 Control method and device and electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111145053.9A CN113849093A (zh) 2021-09-28 2021-09-28 一种控制方法、装置及电子设备

Publications (1)

Publication Number Publication Date
CN113849093A true CN113849093A (zh) 2021-12-28

Family

ID=78980424

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111145053.9A Pending CN113849093A (zh) 2021-09-28 2021-09-28 一种控制方法、装置及电子设备

Country Status (3)

Country Link
US (1) US20230099124A1 (zh)
CN (1) CN113849093A (zh)
GB (1) GB2611393A (zh)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6915490B1 (en) * 2000-09-29 2005-07-05 Apple Computer Inc. Method for dragging and dropping between multiple layered windows

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5413673B2 (ja) * 2010-03-08 2014-02-12 ソニー株式会社 情報処理装置および方法、並びにプログラム
CN103250115A (zh) * 2010-11-17 2013-08-14 Flex Electronics ID Co.,Ltd. 多屏幕电子邮件客户端
US10365819B2 (en) * 2011-01-24 2019-07-30 Apple Inc. Device, method, and graphical user interface for displaying a character input user interface
US10444979B2 (en) * 2011-01-31 2019-10-15 Microsoft Technology Licensing, Llc Gesture-based search
CN103999028B (zh) * 2011-05-23 2018-05-15 微软技术许可有限责任公司 不可见控件
JP5295328B2 (ja) * 2011-07-29 2013-09-18 Kddi株式会社 スクリーンパッドによる入力が可能なユーザインタフェース装置、入力処理方法及びプログラム
US9552068B2 (en) * 2012-08-27 2017-01-24 Microchip Technology Germany Gmbh Input device with hand posture control
US20140306898A1 (en) * 2013-04-10 2014-10-16 Barnesandnoble.Com Llc Key swipe gestures for touch sensitive ui virtual keyboard
KR102089447B1 (ko) * 2013-06-04 2020-03-16 삼성전자 주식회사 전자 기기 및 그의 애플리케이션 제어 방법
US10254900B2 (en) * 2016-02-18 2019-04-09 Tufts University Drifting keyboard
US20170336969A1 (en) * 2016-05-17 2017-11-23 Google Inc. Predicting next letters and displaying them within keys of a graphical keyboard
US10620829B2 (en) * 2017-08-16 2020-04-14 Writesoft Llc Self-calibrating gesture-driven input system
CN111176506A (zh) * 2019-12-25 2020-05-19 华为技术有限公司 一种屏幕显示方法及电子设备
US11194470B2 (en) * 2020-03-29 2021-12-07 Dell Products L.P. Systems and methods for implementing a dynamic and contextual on screen keyboard
CN114690889A (zh) * 2020-12-30 2022-07-01 华为技术有限公司 一种虚拟键盘的处理方法以及相关设备

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6915490B1 (en) * 2000-09-29 2005-07-05 Apple Computer Inc. Method for dragging and dropping between multiple layered windows

Also Published As

Publication number Publication date
GB2611393A (en) 2023-04-05
GB202205440D0 (en) 2022-05-25
US20230099124A1 (en) 2023-03-30

Similar Documents

Publication Publication Date Title
US11487426B2 (en) Apparatus and method for cursor control and text selection and editing based on gesture-based touch inputs received in a virtual keyboard display area
US8922490B2 (en) Device, method, and graphical user interface for entering alternate characters with a physical keyboard
US20150199125A1 (en) Displaying an application image on two or more displays
US20130007606A1 (en) Text deletion
US20120086662A1 (en) Electronic device, gesture processing method and gesture processing program
US20150058776A1 (en) Providing keyboard shortcuts mapped to a keyboard
CN102902469A (zh) 手势识别方法及触控系统
US20200326841A1 (en) Devices, methods, and systems for performing content manipulation operations
US20140123036A1 (en) Touch screen display process
JP2015090670A (ja) 電子機器、方法およびプログラム
KR20170132776A (ko) 텍스트 선택 제어들에 대한 개선
CN108292187B (zh) 上下文命令栏
JP6014170B2 (ja) 情報処理装置及び情報更新プログラム
CN113849093A (zh) 一种控制方法、装置及电子设备
CN105549837A (zh) 基于触屏设备的通讯录中联系人项的展示方法及装置
JP2001195170A (ja) 携帯型電子機器、入力制御装置、及び記憶媒体
CN113709322A (zh) 一种扫描方法及其相关设备
EP3065032A1 (en) Word prediction input method and terminal
JP4573817B2 (ja) スクロール同期システム及びスクロール同期方法
US10048771B2 (en) Methods and devices for chinese language input to a touch screen
JP6695604B1 (ja) 文字入力方法、文字入力装置
JP2005228180A (ja) データ処理装置、データ入力方法及びプログラム
US10261675B2 (en) Method and apparatus for displaying screen in device having touch screen
JP6032982B2 (ja) 入力支援装置、入力支援方法、入力支援プログラム及び記録媒体
JP6844699B2 (ja) 表示装置及び表示装置の表示方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination